WO2018150983A1 - 表示制御装置及び方法 - Google Patents

表示制御装置及び方法 Download PDF

Info

Publication number
WO2018150983A1
WO2018150983A1 PCT/JP2018/004284 JP2018004284W WO2018150983A1 WO 2018150983 A1 WO2018150983 A1 WO 2018150983A1 JP 2018004284 W JP2018004284 W JP 2018004284W WO 2018150983 A1 WO2018150983 A1 WO 2018150983A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
input
displayed
display
display unit
Prior art date
Application number
PCT/JP2018/004284
Other languages
English (en)
French (fr)
Inventor
亮 ▲高▼橋
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Publication of WO2018150983A1 publication Critical patent/WO2018150983A1/ja
Priority to US16/536,099 priority Critical patent/US11169684B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Definitions

  • the present invention relates to a display control apparatus and method, and more particularly to a display control apparatus and method when switching an image displayed on a display unit by an operation of inputting a position on an operation surface.
  • Patent Document 1 discloses that when a drag is performed after a touch, the amount of movement of the frame is changed according to the amount of movement of the drag. Also, it is disclosed that forward dragging when dragging rightward and reverse feeding when dragging leftward.
  • the present invention has been made in view of the above problems, and has as its object to improve operability at the time of switching an image to be displayed by moving an input position by an operation on an operation surface.
  • a display control device of the present invention switches an image displayed on a display unit according to a movement amount in movement of an input position by detection means for detecting an input operation of position and the input operation.
  • Control means for performing control such that when the first image is displayed on the display unit, the position input by the input operation is started from the first position, and the position input by the input operation is the first
  • the image displayed on the display unit is switched from the first image to the previous second image according to the first amount, and the second image is displayed Switching the image to be displayed on the display unit to the first image in response to the input position being moved to the first position without canceling the input operation, the second image being From the displayed state,
  • control means for controlling to display When a position input satisfying a predetermined condition is input without canceling the first image, the first image is displayed on the display unit even if the input operation is canceled from a position different from the first position.
  • control means for controlling to display When a position input satisfying a predetermined condition is input without canceling the first image, the first image is
  • FIG. 1 is a view showing an example of the appearance of an imaging device according to an embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration of an imaging device according to an embodiment.
  • 6 is a flowchart showing processing of a reproduction mode in the embodiment. The flowchart which shows the jump sending process in embodiment.
  • the figure which shows the example of a display on the display part in embodiment.
  • the figure which shows the example of a display on the display part in embodiment.
  • the figure which shows the example of a display on the display part in embodiment The figure which shows the example of a display on the display part in embodiment.
  • the figure which shows the example of a display on the display part in embodiment The figure which shows the example of a display on the display part in embodiment.
  • the figure which shows the example of a display on the display part in embodiment The figure which shows the example of a display on the display part in embodiment.
  • the figure which shows the example of a display on the display part in embodiment. The figure which shows the example of a display on the display part in embodiment.
  • FIG. 1 shows an external view of a digital camera 100 as an example of an apparatus to which this embodiment can be applied.
  • the display unit 28 displays an image and various information.
  • the touch panel 70 a is a touch panel capable of receiving a touch operation on the display surface of the display unit 28, and may be provided integrally with the display unit 28 or may be provided so as to overlap the display unit 28.
  • the shutter button 61 is a button for giving a shooting instruction, and has a configuration of a two-step switch for giving a shooting preparation instruction by half-pressing and a shooting instruction by full-pressing as described later.
  • the mode switching switch 60 is used to switch various modes.
  • the operation unit 70 is an operation unit including operation members such as various switches, buttons, and a touch panel that receive various operations from the user.
  • the operation unit 70 includes, in addition to the touch panel 70a, a SET button 145, a controller wheel 73, and cross keys 141 to 144.
  • the controller wheel 73 is a rotatable operation member included in the operation unit 70, and is used together with the cross key to designate a selection item.
  • an electrical pulse signal is generated according to the amount of operation, and the system control unit 50 controls each part of the digital camera 100 based on the pulse signal. Based on this pulse signal, it is possible to determine the angle at which the controller wheel 73 is operated to rotate, how many rotations, and the like.
  • the controller wheel 73 may be any operation member that can detect a rotation operation.
  • the controller wheel 73 may be a dial operation member that rotates to generate a pulse signal according to a user's rotation operation.
  • the controller wheel 73 may not be rotated by an operation member (so-called touch wheel) formed of a touch sensor, and may detect a user's finger rotation operation or the like on the controller wheel 73.
  • the cross keys 141 to 144 have an up key 141, a down key 142, a left key 143, and a right key 144 which indicate the respective directions.
  • the power switch 72 is a push button for switching power on / off.
  • the connector 112 is used to connect the digital camera 100 to an external device such as a personal computer or a printer via the connection cable 111.
  • the recording medium 200 is a memory card, a hard disk or the like, and is stored in the recording medium slot 201.
  • the recording medium 200 stored in the recording medium slot 201 can communicate with the digital camera 100 and can record and reproduce data.
  • the recording medium slot 201 is normally covered by a lid 202, and FIG. 1 shows a state in which the lid 202 is opened to take out and expose a part of the recording medium 200 from the recording medium slot 201.
  • FIG. 2 is a block diagram showing a configuration example of the digital camera 100 in the present embodiment.
  • the photographing lens 103 is expressed by one lens, it is a lens group including a plurality of lenses such as a zoom lens and a focus lens.
  • the shutter 101 has an aperture function.
  • the imaging unit 22 is an imaging device configured by a CCD, a CMOS device, or the like that converts an optical image incident through the imaging lens 103 and the shutter 101 into an electrical signal.
  • the A / D converter 23 converts an analog signal output from the imaging unit 22 into a digital signal.
  • the barrier 102 covers the imaging system including the imaging lens 103, the shutter 101, and the imaging unit 22 of the digital camera 100 to prevent the imaging system from being dirty or damaged.
  • the image processing unit 24 performs predetermined pixel interpolation processing, resize processing such as reduction, and color conversion processing on data from the A / D converter 23 or data from the memory control unit 15.
  • the image processing unit 24 performs predetermined arithmetic processing using the image data output from the A / D converter 23, and the system control unit 50 performs exposure control and focusing control based on the obtained arithmetic result.
  • TTL through-the-lens
  • AF automatic exposure
  • EF flash pre-emission
  • the image processing unit 24 performs predetermined arithmetic processing using the image data output from the A / D converter 23, and also performs TTL auto white balance (AWB) processing based on the obtained arithmetic result. ing.
  • Output data from the A / D converter 23 is written to the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15.
  • the memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23, and image data to be displayed on the display unit 28.
  • the memory 32 has a sufficient storage capacity to store a predetermined number of still images and moving images and sounds for a predetermined time.
  • the memory 32 also serves as a memory (video memory) for displaying an image.
  • the D / A converter 13 converts the image display data stored in the memory 32 into an analog signal and supplies the analog signal to the display unit 28.
  • the display image data written in the memory 32 is displayed on the display unit 28 via the D / A converter 13.
  • the display unit 28 is a display such as an LCD and performs display according to the analog signal from the D / A converter 13.
  • the digital signal once A / D converted by the A / D converter 23 and stored in the memory 32 is analog converted in the D / A converter 13 and sequentially transferred to the display unit 28 for display. Thereby, through image display (live view image display) on the display unit 28 can be performed.
  • the non-volatile memory 56 is an electrically erasable and recordable recording medium, and for example, an EEPROM or the like is used.
  • the non-volatile memory 56 stores constants, variables, programs and the like for the operation of the system control unit 50.
  • the program includes a computer program for executing various flowcharts to be described later in the present embodiment.
  • the system control unit 50 is a control unit having at least one processor, and controls the entire digital camera 100. By executing the program stored in the non-volatile memory 56 described above, each process of the present embodiment described later is realized.
  • a RAM is used for the system memory 52, and develops constants and variables for the operation of the system control unit 50, programs read from the non-volatile memory 56, and the like.
  • the system control unit 50 also performs display control by controlling the memory 32, the D / A converter 13, the display unit 28, and the like.
  • the system timer 53 is a clock unit that measures the time used for various controls and the time of the built-in clock.
  • the mode switching switch 60, the shutter button 61, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50.
  • the mode switching switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image shooting mode, a reproduction mode, and the like.
  • modes included in the still image recording mode include an auto shooting mode, an auto scene determination mode, a manual mode, an aperture priority mode (Av mode), and a shutter speed priority mode (Tv mode).
  • the mode changeover switch 60 can directly switch to any of these modes. Alternatively, after switching to a list screen of shooting modes by the mode switching switch 60, any one of a plurality of displayed modes may be selected and switched using another operation member. Similarly, a plurality of moving image shooting modes may be included.
  • the first shutter switch 62 is turned on by a so-called half depression (shooting preparation instruction) during operation of the shutter button 61 provided on the digital camera 100, and generates a first shutter switch signal SW1.
  • the system control unit 50 starts operations such as an AF process, an AE process, an AWB process, and an EF process according to the first shutter switch signal SW1.
  • the second shutter switch 64 is turned on by completion of the operation of the shutter button 61, that is, full-press (shooting instruction), and generates a second shutter switch signal SW2.
  • the system control unit 50 starts a series of photographing processing operations from reading of the signal from the imaging unit 22 to writing of image data on the recording medium 200 by the second shutter switch signal SW2.
  • Each operation member of the operation unit 70 is appropriately assigned a function for each scene by selecting and operating various function icons displayed on the display unit 28, and functions as various function buttons.
  • the function buttons include, for example, an end button, a back button, an image feed button, a jump button, a narrowing button, and an attribute change button.
  • various settable menu screens are displayed on the display unit 28. The user can intuitively perform various settings using the menu screen displayed on the display unit 28 and the cross keys 141 to 144 and the SET button 145 having up, down, left, and right four-way buttons.
  • the power supply control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects the presence or absence of a battery, the type of battery, and the battery remaining amount. Further, the power control unit 80 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies necessary voltages to the respective units including the recording medium 200 for a necessary period.
  • the power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.
  • the recording medium I / F 18 is an interface with the recording medium 200 such as a memory card or a hard disk.
  • the recording medium 200 is a recording medium such as a memory card for recording a photographed image, and is formed of a semiconductor memory, an optical disk, a magnetic disk or the like.
  • the power switch 72 is as described in FIG.
  • the communication unit 54 is connected by a wireless or wired cable to transmit and receive video signals and audio signals.
  • the communication unit 54 can also connect to a wireless LAN (Local Area Network) or the Internet.
  • the communication unit 54 can transmit an image (including a through image) captured by the imaging unit 22 or an image recorded in the recording medium 200 to an external device, and receives image data and other various information from the external device. can do.
  • a touch panel 70a capable of detecting a touch on the display unit 28 is provided as one of the operation units 70 described above.
  • the touch panel 70a may be any of various touch panels such as resistive film type, capacitive type, surface acoustic wave type, infrared type, electromagnetic induction type, image recognition type, optical sensor type, etc. good.
  • resistive film type capacitive type
  • surface acoustic wave type infrared type
  • electromagnetic induction type image recognition type
  • optical sensor type etc. good.
  • any method may be used. .
  • the touch panel 70a and the display unit 28 can be integrally configured.
  • the touch panel 70a is configured such that the light transmittance does not interfere with the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28.
  • the input coordinates on the touch panel 70a and the display coordinates on the display unit 28 Match.
  • a GUI Graphic User Interface
  • the system control unit 50 can detect the following operation or state on the touch panel 70a (touch detection is possible).
  • the finger or pen that did not touch the touch panel 70a newly touches the touch panel 70a. That is, the start of touch. Hereinafter, it is called "touch down".
  • touch on -Moving while touching the touch panel 70a with a finger or a pen.
  • touch move The finger or pen that has been touched to the touch panel 70a is released. That is, the end of the touch.
  • touch-up The state where nothing is touched on the touch panel 70a.
  • touch off The state where nothing is touched on the touch panel 70a.
  • touch on is also detected at the same time. After touch down, touch on normally continues to be detected unless touch up is detected. The touch move is also detected when touch on is detected. Even if the touch on is detected, if the touch position is not moved, the touch move is not detected. After it is detected that all the fingers and pens that have been touched touch up, the touch is off.
  • the system control unit 50 is notified of these operations / states and the position coordinates of the position where the finger or pen is touching on the touch panel 70a through the internal bus.
  • the system control unit 50 determines what operation (touch operation) has been performed on the touch panel 70 a based on the notified information.
  • the moving direction of the finger or pen moving on the touch panel 70a can also be determined for each vertical component and horizontal component on the touch panel 70a based on the change in position coordinates.
  • it is detected that the touch move is performed for a predetermined distance or more it is determined that the slide operation has been performed.
  • An operation of moving quickly by a certain distance while touching the touch panel 70a with a finger or a pen and releasing it as it is is called a flick.
  • flicking is an operation of tracing quickly on the touch panel 70a as if it is flicking with a finger.
  • touch move is performed at a predetermined speed or more at a predetermined distance or more
  • touch-up is detected as it is, it can be determined that flicking has been performed. That is, it can be determined that there has been a flick following the slide operation.
  • pinch in a touch operation in which multiple touch positions (for example, two points) are simultaneously touched to bring the touch positions closer to each other
  • pinch out a touch operation to move the touch positions away from each other
  • FIGS. 3 to 4 and FIG. Each process in these flowcharts is realized by the system control unit 50 developing a program stored in the non-volatile memory 56 in the memory 32 and executing the program.
  • the image is touched down in a predetermined area, jump-fed by touch-moving in a predetermined direction, and then the image is displayed when the predetermined operation is performed without releasing the touch or when the return button is operated.
  • An example will be described in which the image displayed before switching is restored.
  • the system control unit 50 reads the image 501 from the recording medium 200, displays the image 501 on the entire display unit 28 (FIG. 5A), and proceeds to S102.
  • the system control unit 50 determines whether or not the start of touch (touch down) is detected. If the touchdown is detected, the process proceeds to step S103. If the touchdown is not detected, the process proceeds to step S114.
  • the system control unit 50 stores the position where the touchdown is detected as touch start coordinates (Xo, Yo) in the memory 32, and the process proceeds to S104.
  • the system control unit 50 determines whether the touchdown has been performed within a predetermined area.
  • the predetermined area for example, an area (Yo ⁇ Yc) corresponding to the GUI bar 520 shown in FIG. 5B can be considered on the screen as shown in FIG. 5A. In that case, it is determined whether the touch start coordinate (Xo, Yo) is within a predetermined area corresponding to the GUI bar 520. If the touch-down is performed in the predetermined area, the process proceeds to step S105. If it is determined that the start of the touch is performed in the area outside the predetermined area, the process proceeds to step S108.
  • the system control unit 50 displays a GUI bar 520 on the display unit 28, as shown in FIG. 5B.
  • the process proceeds to step S106, and the system control unit 50 stores, in the memory 32, the information of the image 501 (FIG. 5A) displayed when the GUI bar 520 is displayed, that is, when the touch move for switching images starts. Do. That is, when a touch move is performed on the GUI bar 520, an image to be displayed can be switched. However, the image originally displayed before the image switch by the touch move is recorded in the memory 32.
  • the information of the image here refers to thumbnail data of the image 501, an image number, EXIF information, and the like.
  • the process proceeds to S107, and the jump feeding process described later is performed.
  • the system control unit 50 determines in S108 whether movement of the touch position (touch move) has been detected. If it is determined in S104 that the touch outside the predetermined area has been started, processing for single-image image feed is performed. If a touch move is detected, the process proceeds to step S109. If a touch move is not detected, the process proceeds to step S110. In S109, the system control unit 50 acquires the current touch position coordinates (X, Y) after the touch move, stores them in the memory 32, and moves the image according to the direction of the touch move (FIG. 5C), S110. Go to At this time, a part of the previous or next image appears on the display unit 28 while moving along with the movement of the originally displayed image.
  • step S110 the system control unit 50 determines whether touch-up has been detected. If touch-up is detected, the process proceeds to step S111. If touch-up is not detected, the process returns to step S108.
  • step S111 the system control unit 50 determines whether the X component of the current touch position after touch move has moved from the touch-down position by more than a predetermined distance XA. That is, it is determined whether
  • the system control unit 50 performs touchdown based on the information of the image stored at S106.
  • the displayed image (FIG. 5A) is displayed, and the process returns to step S102.
  • the system control unit 50 determines whether to end the reproduction mode. If it is determined that the reproduction mode is to be ended, the reproduction mode is ended, and if it is determined that the reproduction mode is not to be ended, the process returns to S102.
  • FIG. 5 is a flowchart showing the jump feeding process performed in S107 of FIG.
  • the system control unit 50 determines whether a touch move in the X axis direction (plus or minus) is detected in the area of the GUI bar 502. If a touch move in the X-axis direction is detected in the area of the GUI bar 502, the process proceeds to step S202. If a touch move is not detected, the process proceeds to step S204.
  • step S203 the system control unit 50 displays, on the display unit 28, images ahead of the number corresponding to the movement amount K with respect to the image displayed at the touch-down time.
  • the image number displayed at the time of touchdown is 10
  • the previous image corresponding to the touch move amount can be expressed by 10 + nK
  • the display unit 28 displays 10 + nK images (for example, image number 30) Figure 5E).
  • the value of n may be a numerical value such as 5 (sheets / cm) or 0.4 (sheets / mm).
  • the value of n is also a large value.
  • the movement amount K becomes a negative value, and the images in the previous order (in the display order on the recording medium 200) from the image displayed at the touchdown Is displayed.
  • the touch move is performed in the negative direction along the X-axis, the movement amount K becomes a positive value, and an image of a later order is displayed from the image displayed at the touch-down.
  • step S204 the system control unit 50 determines whether an operation to release the touch (touch up) has been detected. If touch-up is detected, the process proceeds to step S205. If touch-up is not detected, the process proceeds to step S212.
  • step S205 the system control unit 50 hides the GUI bar 520 displayed in S105, and proceeds to S206. Then, in step S206, the system control unit 50 determines whether a return flag described later is ON. If the return flag is not ON, the process proceeds to S207. If the return flag is ON, the process proceeds to S211. In S207, the system control unit 50 displays a back button. As an example, a "Yes" button 507 of the selection dialog as shown in FIG. 5I, an X button 508 as shown in FIG. 5J, a button 509 indicating a thumbnail of an image at touchdown as shown in FIG. Display as a button.
  • the shape of the back button is not limited to the buttons 507, 508, and 509, and it goes without saying that the design can be appropriately changed.
  • the return button may be displayed only when the return flag is ON. As described later, when the return flag is ON, there is a high possibility that the user is trying to display the image originally displayed, and therefore, the return button may be displayed.
  • step S208 the system control unit 50 determines whether the return button is touched within a predetermined time after touch-up. If the return button is touched within the predetermined time, the process proceeds to S211. If not touched, the system control unit 50 determines whether the predetermined time has elapsed in S209. If the time has not elapsed, the process proceeds to S208. Go back and confirm the touch operation to the back button. Even if the return button is not touched, the determination in S208 may be set as Yes also when, for example, the return key is selected using the cross key or the SET button.
  • the predetermined time is a time such as 2 seconds or 3 seconds.
  • the user confirms the switched image, and if it is going to return to the original image as well, the jump image is easily touched by touching the back button.
  • the image before sending can be displayed. Further, even when it is desired to compare the original image with the image switched by the jump image feed, if another image is displayed by performing the touch move operation, it is difficult for the user to compare the details of the comparison target. However, if the display can be switched quickly, it becomes easy to compare the two images.
  • the system control unit 50 displays the screen in S203 in S210. Continue to display the next nK images. At this time, hide the back button.
  • the system control unit 50 displays the touchdown based on the information of the image stored in S106. Display the image (FIG. 5A) and return to the process of FIG.
  • a back button is displayed, and when the back button is operated within a predetermined time, the original image, that is, the image displayed at the touch-down time is displayed. Control.
  • the information indicating the image displayed at the start of the touch on the area of the GUI bar 502 recorded in the memory 32 in S106 may be deleted. Alternatively, if the information indicating the image remains in the memory 32 in S106, it may be deleted.
  • the button for returning when the returning flag is OFF is described, but it may be displayed when the returning flag is ON. In that case, the intention of the user can be more accurately reflected on the display.
  • the system control unit 50 determines in S212 whether the touch move has been performed in the direction opposite to the direction of the touch move detected last time. Assuming that the touch move determined in S210 is a touch move in the X axis plus direction, it is determined in S212 whether a touch move in the X axis minus direction has been performed. As shown in FIG. 5F, when the touch move is performed in the negative direction of the X axis and the touch position is moved in the direction in which the user originally displayed the image, the user displays the original image. There is a possibility that I tried to touch move. Therefore, in S212, if the touch move in the direction opposite to the direction of the touch move detected last time is performed, the process proceeds to S213, and if it is not performed, the process proceeds to S217.
  • the system control unit 50 determines whether or not the position indicating the original image has passed twice or more by the reciprocating movement of the touch move. If two or more passes, the process proceeds to S215. If the position indicating the original image is passed more than once, it is highly likely that the user is trying to adjust the touch position to display the original image. If it has not passed by twice or more, the process proceeds to S214, and it is determined whether the movement amount K after the reciprocating movement is within ⁇ ⁇ from the touch-down position. In this case, when K ⁇ ⁇ is moved in the opposite direction from the end point of the previous movement amount K, the amount of movement after reciprocating movement is ⁇ ⁇ from the touch-down position.
  • is a small value (distance) such as one tenth or one half of K with respect to K. That is, touching the position of ⁇ ⁇ from the touchdown position is highly likely that the user is trying to align the touch position with the position showing the original image. If the movement amount K after the reciprocation movement is within ⁇ ⁇ from the touch-down position, the process proceeds to S215, and if not within ⁇ ⁇ , the process proceeds to S216. At S215, the return flag is set to ON, and the process returns to S201. At S216, the return flag is set to OFF and the process returns to S201.
  • the system control unit 50 determines whether the touch position has moved to the predetermined area 506 in the Y direction (vertical direction) by the touch move. Determine (FIG. 5H). If the touch position has moved to the predetermined area 506, the process proceeds to step S220, the return flag is set to ON, and the process returns to step S201.
  • the GUI bar 520 when the GUI bar 520 does not move from the GUI bar 520 to the area 506 in the Y-axis direction, the GUI bar 520 moves within a predetermined angle range in the Y direction (vertical direction). It may be controlled to turn on the return flag. This is because it is difficult to move the touch position in the Y-axis direction without moving in the X-axis direction. For example, if the movement is about plus or minus 5 degrees with respect to the Y-axis direction, for example, the user It is likely that you are trying to make a touch move straight along the axial direction. Therefore, if the movement is within the range of the predetermined angle of the Y axis, the determination of S217 is set to Yes.
  • the touch position has not moved to the area 506 in the Y-axis direction, it is determined in S218 whether or not the GUI bar 520 has stopped for a predetermined time or more. If it is stopped, the return flag is set to ON, and the process returns to S201. If it is not stopped for a predetermined time or more, the process proceeds to S219.
  • the predetermined time is a time such as 3 seconds or 4 seconds. If the touch position is not moved for a predetermined time or more on the GUI bar 520, while checking the image after switching, it may be considered whether the image after switching is a desired image or the image after switching is viewed It is very likely that you keep touching until you finish checking. Therefore, when the predetermined time has elapsed while the user is touching, there is a high possibility that the user is not trying to keep displaying the image after switching, so the return flag is set to ON.
  • the touch move operation is not performed to the position indicating the image at the touch start
  • the image displayed at the start of touch can be easily displayed. Therefore, since the user can easily display the original image after switching the display to an image whose display order has been changed by the touch move on the GUI bar, operability improves.
  • comparison of images before and after image switching and an operation for returning to the image originally displayed can be easily performed by performing a touch move of a predetermined distance or more.
  • the thumbnail image of the image currently displayed is displayed at the touched position.
  • a thumbnail image of the image may be displayed.
  • the present invention is not limited thereto.
  • the present invention is also applicable to an operation (position input) specifying a position by a space gesture or an instruction member such as infrared rays. It is possible. That is, designation of the position of the operation surface is started by an instruction member such as a space gesture or infrared light, and the display image is switched by moving the designated position. At this time, the initial designated position is reciprocated two or more times (corresponding to S213), and the vicinity of the initial designated position is designated (S214), without moving the designated position to the initially designated position (as the initial designated position). If the corresponding operation is performed, the return flag is turned ON.
  • each position from the end to the end (fixed length) of the GUI bar 502 may be correlated from the top to the last image of the image so that the touch position corresponds to the image.
  • the user can quickly display the desired image by changing the start position of the touch depending on which one of the entire image the user wishes to specify, for example, around the middle or around the back.
  • each position from end to end may be associated with each frame of the whole moving image, or may be associated with each reproduction position of a reproduction music.
  • condition for setting the above-mentioned return flag to ON may be a case where not only one but a plurality of combinations are satisfied. For example, if it is determined that the result of S ⁇ b> 218 is “Yes” and the result of the determination of S ⁇ b> 213 is “Yes”, the return flag may be turned on.
  • the present invention is applied to a digital camera as an example, the present invention is not limited to this example, and any display control apparatus capable of switching an image to be displayed is applicable. It is possible. That is, the present invention is applicable to electronic devices such as personal computers and PDAs, mobile phone terminals and portable image viewers, printer devices equipped with displays, digital photo frames, music players, game machines, and electronic book readers. In that case, the image displayed on the display unit is an image associated with the content handled by the electronic device.
  • the touch panel may not be integrated with the display unit, and the above embodiment may be performed when performing a touch operation on a touch panel that is separate from the display unit that displays an image, such as a touch pad while viewing the display unit. Is applicable.
  • the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading out and executing. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
  • a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading out and executing. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
  • a circuit eg, an ASIC

Abstract

位置の入力操作を検出する検出手段と、入力操作の入力位置の移動量に応じて表示部の表示画像を切り替えるように制御する制御手段であって、第1の画像が表示部に表示されている場合に、位置入力が第1の位置から開始されて第1の量移動された場合には、表示画像を第1の画像から第1の量に応じた先の第2の画像に切り替え、第2の画像が表示された状態から、入力操作が解除されずに第1の位置へと入力位置が移動されると表示画像を第1の画像に切り替え、第2の画像が表示された状態から、入力操作が解除されずに所定の条件を満たす位置入力がされると第1の位置とは異なる位置から入力操作が解除されても、第1の画像を表示するように制御する制御手段とを有することを特徴とする。

Description

表示制御装置及び方法
 本発明は、表示制御装置及び方法に関し、操作面に対する位置を入力する操作により表示部に表示する画像を切り替える際の表示制御装置及び方法に関する。
 従来より、タッチ操作や、空間における位置の入力操作、赤外線等位置を指定する操作などの、操作面における位置の入力操作によって表示する画像を切り替える方法がある。特許文献1には、タッチがされた後ドラッグがされると、ドラッグの移動量に応じてフレームの移動量を変えることが開示されている。また、右方向にドラッグすると順方向送り、左方向にドラッグすると逆方向送りをすることが開示されている。
特開2013-175214号公報
 特許文献1の方法では、一方向へのタッチ位置の移動をした後、もともと表示していた画像を表示するには、反対方向にタッチ位置を移動し、一方向へのタッチ位置の移動と同じ距離だけ、タッチ位置を移動した後タッチを離さなければならない。このとき、少しでもタッチ位置の移動量がずれると、ユーザの所望ではない画像が表示されてしまうので、ユーザは厳密にタッチ位置の移動をしなければならず、タッチ位置の調整に時間を要したり、慎重に操作しなければならないため、容易に元の画像を表示しにくい。
 本発明は上記問題点を鑑みてなされたものであり、操作面における操作による入力位置を移動することによって表示する画像を切り替える際の操作性を向上させることを目的とする。
 上記目的を達成するために、本発明の表示制御装置は、位置の入力操作を検出する検出手段と、前記入力操作による、入力位置の移動における移動量に応じて表示部に表示する画像を切り替えるように制御する制御手段であって、第1の画像が前記表示部に表示されている場合に、前記入力操作による位置入力が第1の位置から開始され、該入力操作による位置入力が第1の量移動された場合には、前記表示部に表示する画像を前記第1の画像から前記第1の量に応じた先の第2の画像に切り替え、前記第2の画像が表示された状態から、前記入力操作が解除されることなく前記第1の位置へと入力位置が移動されたことに応じて前記表示部に表示する画像を前記第1の画像に切り替え、前記第2の画像が表示された状態から、前記入力操作が解除されることなく、所定の条件を満たす位置入力がされた場合には、前記第1の位置とは異なる位置から前記入力操作が解除されても、前記表示部に前記第1の画像を表示するように制御する制御手段とを有することを特徴とする。
 本発明によれば、操作面における操作による入力位置を移動することによって表示する画像を切り替える際の操作性を向上させることができる。
本実施形態における撮像装置の外観の一例を示す図。 実施形態における撮像装置の構成を示すブロック図。 実施形態における再生モードの処理を示すフローチャート。 実施形態におけるジャンプ送り処理を示すフローチャート。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。 実施形態における表示部への表示例を示す図。
 以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。ただし、本形態において例示される構成部品の寸法、形状、それらの相対配置などは、本発明が適用される装置の構成や各種条件により適宜変更されるべきものであり、本発明がそれらの例示に限定されるものではない。
 図1に本実施形態を適用可能な装置の一例として、デジタルカメラ100の外観図を示す。表示部28は画像や各種情報を表示する。タッチパネル70aは、表示部28の表示面へのタッチ操作を受付け可能なタッチパネルであり、表示部28と一体に設けられてもよいし、表示部28と重畳して設けられてもよい。シャッターボタン61は、撮影指示を行うためのボタンであり、後述するように半押しで撮影準備の指示を行い、全押しで撮影指示を行う2段階スイッチの構成を有する。モード切替スイッチ60は、各種モードを切り替えるために用いられる。操作部70はユーザからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材より成る操作部である。
 操作部70にはタッチパネル70aのほかに、SETボタン145、コントローラホイール73、十字キー141~144が含まれる。
 コントローラホイール73は、操作部70に含まれる回転操作可能な操作部材であり、十字キーと共に選択項目を指示する際などに使用される。コントローラホイール73を回転操作すると、操作量に応じて電気的なパルス信号が発生し、このパルス信号に基づいてシステム制御部50はデジタルカメラ100の各部を制御する。このパルス信号によって、コントローラホイール73が回転操作された角度や、何回転したかなどを判定することができる。なお、コントローラホイール73は回転操作が検出できる操作部材であればどのようなものでもよい。例えば、ユーザの回転操作に応じてコントローラホイール73自体が回転してパルス信号を発生するダイヤル操作部材であってもよい。また、タッチセンサよりなる操作部材(いわゆる、タッチホイール)で、コントローラホイール73自体は回転せず、コントローラホイール73上でのユーザの指の回転動作などを検出するものであってもよい。
 十字キー141~144には、各方向を示す上キー141、下キー142、左キー143、右キー144がある。SETボタン145を押下すると、表示部28上でカーソルの当たっているメニュー項目や設定値等を選択することができる。電源スイッチ72は、電源オン、電源オフを切り替えるための押しボタンである。
 コネクタ112は、接続ケーブル111を介して、デジタルカメラ100と、パーソナルコンピュータやプリンタなどの外部機器とを接続するために用いられる。記録媒体200はメモリカードやハードディスク等であって、記録媒体スロット201に格納される。記録媒体スロット201に格納された記録媒体200は、デジタルカメラ100との通信が可能となり、記録や再生が可能となる。記録媒体スロット201は、通常、蓋202により覆われており、図1では、蓋202を開けて、記録媒体スロット201から記録媒体200の一部を取り出して露出させた状態を示している。
 図2は、本実施形態におけるデジタルカメラ100の構成例を示すブロック図である。図2において、撮影レンズ103は、1枚のレンズにより表現しているが、ズームレンズ、フォーカスレンズ等の複数のレンズからなるレンズ群である。シャッター101は、絞り機能を備える。撮像部22は、撮影レンズ103及びシャッター101を介して入射する光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換する。バリア102は、デジタルカメラ100の撮影レンズ103、シャッター101、撮像部22を含む撮像系を覆うことにより、撮像系の汚れや破損を防止する。
 画像処理部24は、A/D変換器23からのデータまたはメモリ制御部15からのデータに対して、所定の画素補間処理や、縮小といったリサイズ処理、色変換処理を行う。また、画像処理部24は、A/D変換器23から出力される画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御、焦点調節制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のオートフォーカス(AF)処理、自動露出(AE)処理、フラッシュプリ発光(EF)処理が行われる。さらに、画像処理部24は、A/D変換器23から出力される画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のオートホワイトバランス(AWB)処理も行っている。
 A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介して、メモリ32に書き込まれる。メモリ32は、撮像部22によって得られ、A/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
 また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データは、D/A変換器13を介して表示部28に表示される。表示部28は、LCD等の表示器であって、D/A変換器13からのアナログ信号に応じた表示を行う。このように、A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示する。これにより、表示部28へのスルー画像表示(ライブビュー画像表示)を行うことができる。
 不揮発性メモリ56は、電気的に消去・記録可能な記録媒体であり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、変数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータプログラムを含む。
 システム制御部50は、少なくとも1つのプロセッサーを有する制御部であり、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、RAMが用いられ、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部50はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
 モード切替スイッチ60、シャッターボタン61、操作部70は、システム制御部50に各種の動作指示を入力するための操作手段である。
 モード切替スイッチ60は、システム制御部50の動作モードを、静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとしては、例えば、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り換えた後に、表示された複数のモードのいずれかを選択し、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
 第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり、第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
 操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンのある十字キー141~144やSETボタン145とを用いて直感的に各種設定を行うことができる。
 電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。
 電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。電源スイッチ72は図1の説明の通りである。
 通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号等の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は撮像部22で撮像した画像(スルー画像を含む)や、記録媒体200に記録された画像を外部機器に送信可能であり、また、外部機器から画像データやその他の各種情報を受信することができる。
 本実施形態では、上述した操作部70の一つとして、表示部28に対する接触を検知可能なタッチパネル70aを有する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式のものがあるが、いずれの方式でもよい。
 タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付け、タッチパネル70aにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成することができる。システム制御部50はタッチパネル70aへの以下の操作、あるいは状態を検出することができる(タッチ検出可能)。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始。以下、「タッチダウン」と呼ぶ。
・タッチパネル70aを指やペンでタッチしている状態であること。以下、「タッチオン」と呼ぶ。
・タッチパネル70aを指やペンでタッチしたまま移動していること。以下、「タッチムーブ」と呼ぶ。
・タッチパネル70aへタッチしていた指やペンを離したこと。すなわち、タッチの終了。以下、「タッチアップ」と呼ぶ。
・タッチパネル70aに何もタッチしていない状態。以下、「タッチオフ」と呼ぶ。
 タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのも、タッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
 これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置の位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合は、スライド操作が行われたと判定するものとする。タッチパネル70a上に指やペンでタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されると、フリックが行われたと判定できる。すなわち、スライド操作に続いてフリックがあったものと判定できる。
 更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと呼ぶ。ピンチアウトとピンチインを総称してピンチ操作と称する。
 次に、本実施形態において行われる再生モードでの処理について、図3~図4のフローチャート、及び、図5を参照して説明する。これらフローチャートにおける各処理は、システム制御部50が不揮発性メモリ56に格納されたプログラムをメモリ32に展開して実行することにより実現される。ここでは、所定エリア内でタッチダウンし、所定方向にタッチムーブすることでジャンプ送りした後、タッチを離さずそのまま所定の操作がされた場合、もしくは、戻るボタンが操作された場合には、画像切り替え前に表示していた画像に戻すという例について述べる。
 S101において、システム制御部50は、記録媒体200から画像501を読み込んで表示部28全体に表示し(図5A)、S102へ進む。S102では、システム制御部50は、タッチの開始(タッチダウン)が検出されたかどうかの判定を行う。タッチダウンが検出された場合はS103へ進み、タッチダウンが検出されていなければS114へ進む。
 S103では、システム制御部50は、タッチダウンを検出した位置をタッチ開始座標(Xo,Yo)としてメモリ32に蓄積し、S104へ進む。S104では、システム制御部50は、タッチダウンが予め決められた所定領域内で行われたかどうかを判断する。所定領域としては、例えば、図5Aに示すような画面において、図5Bに示すGUIバー520に対応する領域(Yo≧Yc)が考えられる。その場合、タッチ開始座標(Xo,Yo)がGUIバー520に対応する所定領域内にあるかどうかを判断する。所定領域内でタッチダウンが行われている場合にはS105に進み、所定領域外の領域でタッチの開始がされたと判定された場合にはS108に進む。
 S105では、システム制御部50は、図5Bに示すように、表示部28にGUIバー520を表示する。このように、GUIバー520を表示することで、GUIバー520上をタッチムーブするとジャンプ送りが実行できる旨をユーザに示すことができる。そして、S106へ進み、システム制御部50は、GUIバー520が表示された時、すなわち画像切り替えをするタッチムーブのタッチの開始時に表示されていた画像501(図5A)の情報をメモリ32に記憶する。つまり、GUIバー520上においてタッチムーブをすると、表示する画像を切り替えることができるが、このタッチムーブによる画像切り替えがされる前にもともと表示されていた画像をメモリ32に記録する。ここでいう画像の情報とは、画像501のサムネイルデータ、画像番号、EXIF情報などのことを指す。その後S107へ進んで、後述するジャンプ送り処理を行う。
 一方、S104で所定領域外の領域でタッチの開始がされたと判断された場合、S108において、システム制御部50は、タッチ位置の移動(タッチムーブ)が検出されたかどうかの判定を行う。S104において所定の領域外でのタッチが開始されたと判定された場合には、1枚画像送りについての処理を行う。タッチムーブが検出された場合はS109へ進み、タッチムーブが検出されていなければ、そのままS110へ進む。S109では、システム制御部50は、タッチムーブ後の現在のタッチ位置座標(X,Y)を取得してメモリ32に格納し、タッチムーブの方向に応じて画像を移動し(図5C)、S110へ進む。このとき、前または次の画像の一部が、もともと表示されていた画像の移動とともに移動しながら表示部28に現れてくる。
 S110では、システム制御部50は、タッチアップが検出されたかどうかの判定を行う。タッチアップが検出された場合は、S111へ進み、タッチアップが検出されなかった場合は、S108に戻る。
 S111では、システム制御部50は、タッチムーブ後の現在のタッチ位置のX成分が、タッチダウンした位置から所定距離XAよりも移動したかどうかの判定を行う。つまり、|X-Xo|>XAかどうかの判定を行う。所定距離移動したと判定された場合はS112へ進み、システム制御部50は、移動方向に応じて、タッチダウンした時に表示されていた画像(図5A)の前後いずれかの画像(例えば、図5Dの画像502)に表示を切り替えて、S102に戻る。
 一方、X成分の移動距離が所定距離XA以下の場合(|X-Xo|≦XA)、S113において、システム制御部50は、S106で記憶しておいた画像の情報に基づいて、タッチダウン時に表示していた画像(図5A)を表示して、S102に戻る。
 S114では、システム制御部50は、再生モードを終了するかどうかの判定を行う。再生モードを終了すると判定された場合は再生モードを終了し、終了しないと判定された場合はS102へ戻る。
 図5は、図4のS107で行われるジャンプ送り処理を示すフローチャートである。S201において、システム制御部50は、GUIバー502の領域内でX軸方向(プラスまたはマイナス)へのタッチムーブが検出されたかどうかの判定を行う。GUIバー502の領域内でX軸方向へのタッチムーブが検出された場合はS202へ進み、タッチムーブが検出されていない場合は、そのままS204へ進む。
 S202では、システム制御部50は、X軸方向における現在のタッチ位置とタッチダウン位置のKである移動量K(K=Xo-X)を算出し、S203へ進む。S102においてタッチダウンがされてから最初にS201においてタッチムーブが検出された場合には、タッチムーブの方向と、S103で取得したタッチ開始位置の座標をメモリ52に記録しておく。
 S203では、システム制御部50は、タッチダウン時に表示していた画像に対し、移動量Kに応じた枚数先の画像を表示部28に表示する。例えばタッチダウン時に表示していた画像番号を10とした場合、タッチムーブ量に応じた先の画像は10+nKで表現でき、表示部28には10+nKの画像(例えば、画像番号30)を表示する(図5E)。ここでnの値は、5(枚/cm)や、0.4(枚/mm)といった数値でよい。タッチの移動量に対し、多くの画像をジャンプしたい場合はnの値も大きい値となる。タッチムーブがX軸方向プラス方向に行われた場合には、移動量Kがマイナスの値となり、タッチダウン時に表示されていた画像より、(記録媒体200における表示順において)前の順番の画像が表示される。一方、タッチムーブがX軸方向マイナス方向に行われた場合には、移動量Kがプラスの値となり、タッチダウン時に表示されていた画像より、後の順番の画像が表示される。
 S204では、システム制御部50は、タッチを離す操作(タッチアップ)が検出されたかどうかの判定を行う。タッチアップが検出された場合は、S205へ進み、タッチアップが検出されなかった場合は、S212に進む。
 S205では、システム制御部50は、S105で表示されたGUIバー520を非表示にし、S206に進む。そして、S206において、システム制御部50は、後述する戻るフラグがONであるかどうかを判断する。戻るフラグがONでなければS207に進み、ONであればS211に進む。S207では、システム制御部50は、戻るボタンを表示する。一例として、図5Iに示すような選択ダイアログの「はい」ボタン507や、図5Jに示すような×ボタン508や、図5Kに示すようなタッチダウン時の画像のサムネイルを示すボタン509等を戻るボタンとして表示する。もちろん、戻るボタンの形状は、ボタン507、508、509に限られるものでは無く、そのデザインを適宜変更できることは言うまでも無い。なお、戻るボタンは戻るフラグがONの場合のときだけ表示するようにしてもよい。後述するように、戻るフラグがONである時には、ユーザはもともと表示していた画像を表示しようとしている可能性が高いので、戻るボタンを表示するようにしてもよい。
 次に、S208において、システム制御部50は、タッチアップ後、戻るボタンが所定時間内にタッチされたかどうかを判定する。所定時間以内に戻るボタンにタッチされていれば、S211に進み、タッチされていなければ、S209で、システム制御部50は、所定時間が経過したかどうかを判断し、経過していなければS208に戻って、戻るボタンへのタッチ操作を確認する。なお、戻るボタンがタッチされなくても、例えば十字キーやSETボタンを用いて選択された場合にもS208の判定をYesとしてもよい。また、ここで所定時間とは2秒や3秒といった時間である。GUIバー520におけるタッチムーブによって画像の切り替え(ジャンプ画像送り)後、ユーザが切り替えられた画像を確認して、やはり元の画像へ戻そうとした場合に、戻るボタンをタッチすれば簡単にジャンプ画像送り前の画像を表示することができる。またジャンプ画像送りにより切り替えられた画像と元の画像を比較したい場合にも、タッチムーブ操作をして他の画像を表示してしまうと、ユーザが比較対象の細部まで比較しにくくなってしまう。しかし、素早く表示を切り替えることができると、2枚の画像の比較がしやすくなる。
 一方、戻るボタンにタッチされないまま所定時間が経過するか、または、図5Iに示す選択ダイアログの場合「いいえ」ボタンにタッチ操作されると、S210において、システム制御部50は、S203で表示されたnK枚先の画像の表示を継続する。このとき、戻るボタンを非表示にする。
 戻るフラグがONの場合、及び、戻るボタンにタッチ操作された場合には、S211において、システム制御部50は、S106で記憶しておいた画像の情報に基づいて、タッチダウン時に表示していた画像(図5A)を表示して、図3の処理に戻る。このように、タッチアップを検出したときに、戻るボタンを表示し、戻るボタンが所定時間内に操作された場合に、元の画像、すなわち、タッチダウン時に表示していた画像を表示するように制御する。これにより、タッチ開始後、素早く先の画像にジャンプして目的の画像を確認できるだけでなく、簡単にタッチダウン時の状態に戻すことが可能となる。S211では、S106においてメモリ32に記録したGUIバー502の領域へのタッチの開始時に表示されていた画像を示す情報を削除してもよい。もしくはS106においてメモリ32に画像を示す情報が残っていれば、削除するようにしてもよい。
 なお、上述した例では、戻るフラグがOFFの場合に戻るボタンを表示するものとして説明したが、戻るフラグがONの場合に表示しても構わない。その場合、ユーザの意向をより的確に表示に反映することができる。
 S204でタッチアップが検出されなかった場合、S212において、システム制御部50は、前回検出したタッチムーブの方向と反対方向へタッチムーブが行われたかどうかを判断する。S210において判定されたタッチムーブがX軸プラス方向へのタッチムーブであるとすると、S212においては、X軸マイナス方向へのタッチムーブが行われたか否かを判定する。図5Fに示すように、X軸マイナス方向へのタッチムーブがされ、ユーザがもともと表示していた画像がある方向へとタッチ位置の移動をしている場合には、ユーザが元の画像を表示しようとしてタッチムーブをした可能性がある。よって、S212では、前回検出したタッチムーブの方向と反対方向へのタッチムーブが行われていればS213に進み、行われていなければS217に進む。
 S213では、システム制御部50は、図5Gに示すように、タッチムーブの往復移動により、2回以上、元の画像を示す位置を通り過ぎたかどうかを判断する。2回以上通り過ぎていればS215に進む。元の画像を示す位置を2回以上通り過ぎていれば、ユーザが元の画像を表示しようとしてタッチ位置の調整をしようとしている可能性が高い。また、2回以上通り過ぎていなければS214に進んで往復移動後の移動量Kがタッチダウン位置から±α以内であるかどうかを判断する。この場合、前回の移動量Kの終点から、反対方向へK±α移動した場合に、往復移動後の移動量がタッチダウン位置から±αとなる。αはKに対して10分の1や20分の1といったわずかな値(距離)となる。つまり、タッチダウン位置から±αの位置をタッチしているということは、ユーザが元の画像を示す位置にタッチ位置を合わせようとしている可能性が高い。往復移動後の移動量Kが、タッチダウン位置から±α以内である場合、S215に進み、±α以内で無い場合には、S216に進む。S215では戻るフラグをONにしてS201に戻り、S216では戻るフラグOFFにしてS201に戻る。
 このように、元の画像を示す位置に操作しようと考えられるタッチ操作をしている場合に、戻るフラグをONにしておくことで、タッチ開始後すばやく数枚先の画像にジャンプして確認できるだけでなく、簡単にタッチ開始前の状態に戻すことができる。
 一方、反対方向へのタッチムーブが行われていない場合、S217において、システム制御部50は、タッチムーブにより、Y方向(垂直方向)の予め決められた領域506にタッチ位置が移動したかどうかを判断する(図5H)。所定領域506にタッチ位置が移動した場合、S220に進んで戻るフラグをONにして、S201に戻る。
 なお、図5Lに示すように、GUIバー520からY軸方向にある領域506への移動では無く、GUIバー520からY方向(垂直方向)の予め決められた角度の範囲内に移動した場合に、戻るフラグをONにするように制御しても良い。これは、Y軸方向へのタッチ位置の移動をX軸方向への移動をなしに行うのは難しいので、例えばY軸方向に対して例えばプラスマイナス5度程度の移動であれば、ユーザはY軸方向に沿って真っすぐタッチムーブをしようとしている可能性が高い。よって、Y軸の所定の角度の範囲内への移動であればS217の判定をYesとする。
 このように、タッチアップ直前のタッチムーブの軌跡が垂直方向であったときに戻るフラグをONにしておくことで、タッチ開始後すばやく数枚先の画像にジャンプして目的の画像を確認できるだけでなく、簡単にタッチ開始前の状態に戻すことが可能となる。
 Y軸方向の領域506にタッチ位置が移動していない場合には、S218において、GUIバー520上で所定時間以上停止しているかどうかを判断する。停止している場合には、戻るフラグをONにしてS201に戻り、所定時間以上停止していない場合には、S219に進む。ここで、所定時間とは3秒や4秒といった時間である。GUIバー520上で所定時間以上タッチ位置を移動しないままであった場合には、切り替え後の画像を確認しながら、しばらく切り替え後の画像が所望の画像かを考えたり、切り替え後の画像を見て確認し終えるまでタッチをしたままである可能性が高い。よって、タッチをしたまま所定時間が経過した場合には、ユーザはこのまま切り替え後の画像を表示したままにしようとしていない可能性が高いので、戻るフラグをONにする。
 S219では、反対方向へのフリック操作(タッチ開始点方向へのフリック)が行われたかどうかを判断し、反対方向へのフリック操作されなければS221に進んで、戻るフラグOFFにしてS201に戻る。フリック操作されていれば、S222に進み、システム制御部50は、S106で記憶しておいた画像の情報に基づいて、タッチダウン時に表示していた画像(図5A)を表示して、図3の処理に戻る。
 以上、第1の実施形態によれば、所定の領域へのタッチ開始後のタッチ位置の移動量に応じて画像を切り替えた後、タッチ開始時の画像を示す位置までタッチムーブ操作をしなくても、容易にタッチ開始時に表示していた画像を表示することができる。よって、ユーザはGUIバー上へのタッチムーブで表示順が離れた画像へと表示を切り替えた後、容易に元の画像を表示できるので、操作性が向上する。1枚画像送りでは画像切り替え前後の画像の比較や、もともと表示していた画像へ戻す操作は所定距離以上のタッチムーブをすれば簡単に行うことができる。しかし、タッチ位置の移動に応じて画像切り替えをする場合には、タッチ位置が少しでもずれてしまうと異なる画像が表示されるので、元の画像の対応する位置までタッチ位置を厳密に移動する必要がある。この操作は、細かなタッチ位置の調整が必要となるので、時間がかかったり、慎重に操作を行う必要があるが、上述した実施形態によれば、素早く元の画像へと戻すことができる。
 なお、図3のS106では、タッチダウンしたときの画像の情報を記憶すると説明したが、例えばGUIバー520上のタッチダウンした位置に、タッチダウンしたときに表示されていた画像のサムネイル画像などを表示するようにしてもよい。このようにすることで、その後タッチムーブで数枚先の画像を表示した後、タッチを離さないまま元の画像に戻すような場合に、元の画像がGUIバー520上のどのあたりに存在するのか分かりやすくなる。つまり、タッチムーブをどのくらい戻せばその画像が表示されるのかが直感的に分かりやすくなるため、簡単にタッチ開始前の状態に戻すことができる。
 また、S203では、移動量Kを元に、タッチダウン時に表示していた画像から数枚先の画像を表示するとしたが、この処理と同時にタッチダウン時に表示していた画像の情報(画像番号など)を表示部28の任意の場所に表示するようにしてもよい。このようにすることで、そのあとタッチダウン時の画像に戻す際にどのあたりの画像に戻せばよいのかといった目処が立つため、簡単にタッチ開始前の状態に戻すことができるといったメリットがある。
 また、上述した例では、GUIバー520には画像を表示していないが、図5Mに示すように、タッチした位置に現在表示中の画像のサムネイル画像を表示し、その両方向に、前後方向の画像のサムネイル画像を表示するようにしても良い。
 なお上述した実施形態においては、タッチパネル70aへのタッチ操作によって画像を切り替える例を説明したが、これに限らず、空間ジェスチャーや、赤外線等の指示部材による位置を指定する操作(位置入力)でも適用可能である。つまり、空間ジェスチャーや赤外線等の指示部材により操作面の位置の指定を開始し、指定する位置を移動させることで、表示画像を切り替えるようにする。このとき、最初に指示をした位置(初期指示位置とする)まで指示する位置を移動させなくても、初期指示位置を2回以上往復(S213に対応)、初期指示位置近辺を指示(S214に対応)する操作をすれば、戻るフラグをONにする。また、垂直方向への指示位置を移動(S217に対応)、所定時間以上指示位置を固定(S218に対応)、素早く指示位置を初期指示位置方向へ移動する操作(S219に対応)でも戻るフラグをONにする。戻るフラグがONになった後、操作面への位置を指定する操作がされなくなった(解除)ことに応じて(S204に対応)、戻るフラグがONか否かを判定し、もどの画像を表示するようにしてもよい。
 さらに、上述した実施形態では、タッチの開始位置と選択される画像とは関係せず、表示される画像から、タッチの移動量に応じた分先(または後)の画像が表示されることを説明したが、以下のようにしてもよい。つまり、GUIバー502の端から端(一定の長さ)までの各位置を、画像の先頭から最後の画像まで対応づけて、タッチ位置と画像が対応するようにしてもよい。このようにすると、ユーザは全体の画像のなかで、例えば真ん中あたりや、後ろあたりといったどのあたりを指定したいのかによってタッチの開始位置を変えることで素早く所望の画像を表示することができる。また、画像でなくても、端から端までの各位置を、動画全体の各フレームを対応づけたり、再生曲の各再生位置と対応づけたりしてもよい。
 また、上述した戻るフラグをONにする条件は、1つでなくても複数いずれかの組み合わせを満たした場合としてもよい。例えば、S218においてYesと判定された後にS213においてYesと判定されたら、戻るフラグをONにしてもよい。
 また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されず、表示する画像を切り替えることができる表示制御装置であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどの電子機器に適用可能である。その場合、表示部に表示される画像は、電子機器が扱うコンテンツに関連付けられた画像となる。また、表示部と一体となるタッチパネルでなくてもよく、表示部をみながらタッチパッド等の、画像を表示する表示部と別体となるタッチパネルへのタッチ操作を行う際にも上述の実施形態は適用可能である。
 また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2017年2月15日提出の日本国特許出願特願2017-026364を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (26)

  1.  位置の入力操作を検出する検出手段と、
     前記入力操作による、入力位置の移動における移動量に応じて表示部に表示する画像を切り替えるように制御する制御手段であって、
     第1の画像が前記表示部に表示されている場合に、前記入力操作による位置入力が第1の位置から開始され、該入力操作による位置入力が第1の量移動された場合には、前記表示部に表示する画像を前記第1の画像から前記第1の量に応じた先の第2の画像に切り替え、
     前記第2の画像が表示された状態から、前記入力操作が解除されることなく前記第1の位置へと入力位置が移動されたことに応じて前記表示部に表示する画像を前記第1の画像に切り替え、
     前記第2の画像が表示された状態から、前記入力操作が解除されることなく、所定の条件を満たす位置入力がされた場合には、前記第1の位置とは異なる位置から前記入力操作が解除されても、前記表示部に前記第1の画像を表示するように制御する制御手段とを有することを特徴とする表示制御装置。
  2.  位置の入力操作を検出する検出手段と、
     前記入力操作による、入力位置の移動における移動量に応じて表示部に表示する画像を切り替えるように制御する制御手段であって、
     第1の画像が前記表示部に表示されている場合に、前記入力操作による位置入力が第1の位置から開始され、該入力操作による位置入力が第1の量移動された場合には、前記表示部に表示する画像を前記第1の画像から前記第1の量に応じた先の第2の画像に切り替え、
     前記第2の画像が表示された状態において、所定の操作がされた場合には前記表示部に所定のアイテムを表示し、前記所定のアイテムが選択されたことに応じて、前記表示部に表示する画像を前記第2の画像から前記第1の画像へと切り替えるように制御する制御手段とを有することを特徴とする表示制御装置。
  3.  前記検出手段は、操作面への前記入力操作を検出することを特徴とする請求項1または2に記載の表示制御装置。
  4.  前記制御手段は、前記第2の画像が表示された状態において、前記入力操作が解除されることなく前記第1の位置へと入力位置が移動されたことに応じて、前記表示部に前記第1の画像を表示するように制御することを特徴とする請求項2に記載の表示制御装置。
  5.  前記制御手段は、前記所定のアイテムを、前記第2の画像が表示された状態において入力操作が解除されたことに応じて表示し、所定の期間が経過したことに応じて非表示にするように制御することを特徴とする請求項2または4に記載の表示制御装置。
  6.  前記所定のアイテムは、前記第1の画像を示すサムネイル画像であることを特徴とする請求項2または4に記載の表示制御装置。
  7.  前記所定のアイテムは、前記第2の画像の表示をキャンセルすることを示すアイテムであることを特徴とする請求項2または4に記載の表示制御装置。
  8.  前記所定のアイテムは、前記第2の画像から前記第1の画像へと前記表示部に表示する画像を切り替えることを示すガイダンスを含むことを特徴とする請求項2または4に記載の表示制御装置。
  9.  前記制御手段は、前記第2の画像が表示された状態において、前記入力操作が解除されることなく、前記所定の操作である所定の条件を満たす位置入力がされた場合に、前記表示部に前記所定のアイテムを表示するように制御することを特徴とする請求項2または4に記載の表示制御装置。
  10.  前記所定の条件を満たす位置入力は、前記入力操作において前記第1の位置への位置入力を2回以上した後に、該入力操作を解除する操作を含む位置入力を含むことを特徴とする請求項9に記載の表示制御装置。
  11.  前記所定の条件を満たす位置入力は、前記入力操作において前記第1の位置から所定の範囲内の位置へと入力位置を移動し、前記所定の範囲内の位置で入力操作を解除する操作を含む位置入力を含むことを特徴とする請求項9または10に記載の表示制御装置。
  12.  前記所定の条件を満たす位置入力は、前記第2の画像が表示された状態で所定時間位置入力が継続された後に、入力位置を移動することなく入力操作を解除する操作を含む位置入力を含むことを特徴とする請求項9または10に記載の表示制御装置。
  13.  前記所定の条件を満たす位置入力は、前記第2の画像が表示された際の入力位置から、前記第1の位置の方向へと素早く入力位置を移動して入力操作を解除する操作を含む位置入力を含むことを特徴とする請求項9または10に記載の表示制御装置。
  14.  前記所定の条件を満たす位置入力は、前記第2の画像が表示された際の入力位置から、前記第2の画像を表示した際の入力操作における入力位置の移動方向の垂直方向にある領域へ入力位置を移動した後に入力操作を解除する操作を含む位置入力を含むことを特徴とする請求項9または10に記載の表示制御装置。
  15.  前記検出手段は、前記入力操作としてタッチパネルへのタッチ操作を検出することを特徴とする請求項1、2、4、10のいずれか1項に記載の表示制御装置。
  16.  前記タッチパネルと前記表示部は一体的に設けられていることを特徴とする請求項15に記載の表示制御装置。
  17.  前記制御手段は、前記タッチパネルの第1の領域における第1の方向へ沿った方向への入力位置の移動量に基づいて画像を切り替える制御を行うことを特徴とする請求項15に記載の表示制御装置。
  18.  前記表示部に表示される画像は、静止画像、動画像、音楽の少なくとも1つに関連付けられた画像であることを特徴とする請求項1、2、4、10、16のいずれか1項に記載の表示制御装置。
  19.  前記制御手段による画像の切り替えの要因となる入力操作の入力位置の移動が開始された際に、前記表示部に表示されている画像を示す情報を記録する記録手段をさらに有し、前記制御手段は、前記画像を示す情報を該入力操作が解除されるまでは前記情報を保持するように制御することを特徴とする請求項1、2、4、10、16のいずれか1項に記載の表示制御装置。
  20.  前記制御手段は、前記画像を示す情報を、次に前記制御手段による画像の切り替えの要因となる入力操作の入力位置の移動がされるまで保持するように制御することを特徴とする請求項19に記載の表示制御装置。
  21.  前記制御手段は、前記第1の画像が前記表示部に表示されている場合に、前記第1の領域とは異なる第2の領域において前記入力操作による位置入力が開始され、該入力操作による位置入力が前記第1の方向へ第2の量移動された場合には、前記表示部に表示する画像を前記第1の画像から前記第1の画像の隣の画像へと切り替えるように制御することを特徴とする請求項17に記載の表示制御装置。
  22.  前記制御手段は、前記第1の画像が前記表示部に表示されている場合に、前記入力操作による位置入力が開始され、該入力操作による位置入力が前記第1の量よりも大きな第3の量移動されたことに応じて、前記表示部に表示する画像を前記第1の画像から前記第2の画像よりもさらに先の第3の画像へと切り替えるように制御することを特徴とする請求項1、2、4、10,16,20,21のいずれか1項に記載の表示制御装置。
  23.  位置の入力操作を検出する検出ステップと、
     前記入力操作による、入力位置の移動における移動量に応じて表示部に表示する画像を切り替えるように制御する制御ステップであって、
     第1の画像が前記表示部に表示されている場合に、前記入力操作による位置入力が第1の位置から開始され、該入力操作による位置入力が第1の量移動された場合には、前記表示部に表示する画像を前記第1の画像から前記第1の量に応じた先の第2の画像に切り替え、
     前記第2の画像が表示された状態から、前記入力操作が解除されることなく前記第1の位置へと入力位置が移動されたことに応じて前記表示部に表示する画像を前記第1の画像に切り替え、
     前記第2の画像が表示された状態から、前記入力操作が解除されることなく、所定の条件を満たす位置入力がされた場合には、前記第1の位置とは異なる位置から前記入力操作が解除されても、前記表示部に前記第1の画像を表示するように制御する制御ステップとを有することを特徴とする表示制御装置の制御方法。
  24.  位置の入力操作を検出する検出ステップと、
     前記入力操作による、入力位置の移動における移動量に応じて表示部に表示する画像を切り替えるように制御する制御ステップであって、
     第1の画像が前記表示部に表示されている場合に、前記入力操作による位置入力が第1の位置から開始され、該入力操作による位置入力が第1の量移動された場合には、前記表示部に表示する画像を前記第1の画像から前記第1の量に応じた先の第2の画像に切り替え、
     前記第2の画像が表示された状態において、所定の操作がされた場合には前記表示部に所定のアイテムを表示し、前記所定のアイテムが選択されたことに応じて、前記表示部に表示する画像を前記第2の画像から前記第1の画像へと切り替えるように制御する制御ステップとを有することを特徴とする表示制御装置の制御方法。
  25.  コンピュータを、請求項1乃至22のいずれか1項に記載の表示制御装置の各手段として機能させるためのプログラム。
  26.  請求項23または24に記載された方法を実行するプログラムを格納したコンピュータが読み取り可能な記憶媒体。
PCT/JP2018/004284 2017-02-15 2018-02-08 表示制御装置及び方法 WO2018150983A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/536,099 US11169684B2 (en) 2017-02-15 2019-08-08 Display control apparatuses, control methods therefor, and computer readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-026364 2017-02-15
JP2017026364A JP7007805B2 (ja) 2017-02-15 2017-02-15 表示制御装置及びその制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/536,099 Continuation US11169684B2 (en) 2017-02-15 2019-08-08 Display control apparatuses, control methods therefor, and computer readable storage medium

Publications (1)

Publication Number Publication Date
WO2018150983A1 true WO2018150983A1 (ja) 2018-08-23

Family

ID=63170262

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/004284 WO2018150983A1 (ja) 2017-02-15 2018-02-08 表示制御装置及び方法

Country Status (3)

Country Link
US (1) US11169684B2 (ja)
JP (1) JP7007805B2 (ja)
WO (1) WO2018150983A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022071012A1 (ja) * 2020-09-30 2022-04-07 株式会社ニコン コンテンツ再生装置、再生方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012084063A (ja) * 2010-10-14 2012-04-26 Canon Inc 表示制御装置、表示制御方法、およびプログラム
JP2015001902A (ja) * 2013-06-17 2015-01-05 シャープ株式会社 電子機器
JP2016177560A (ja) * 2015-03-20 2016-10-06 シャープ株式会社 電子機器

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100498043B1 (ko) * 2002-12-13 2005-07-01 삼성전자주식회사 디지털 카메라 및 그의 제어방법
JP4752900B2 (ja) * 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP5612459B2 (ja) * 2010-12-24 2014-10-22 京セラ株式会社 携帯端末装置
US20120218203A1 (en) * 2011-02-10 2012-08-30 Kanki Noriyoshi Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus
JP5817973B2 (ja) * 2011-07-15 2015-11-18 コニカミノルタ株式会社 表示制御装置、及び情報処理装置、画像処理装置
JP5475905B2 (ja) 2013-04-12 2014-04-16 キヤノン株式会社 再生装置および再生方法
JP6253284B2 (ja) * 2013-07-09 2017-12-27 キヤノン株式会社 情報処理装置およびその制御方法、プログラム、記録媒体
JP5505550B1 (ja) * 2013-08-06 2014-05-28 富士ゼロックス株式会社 画像表示装置及びプログラム
JP6229473B2 (ja) * 2013-12-13 2017-11-15 ブラザー工業株式会社 表示装置およびプログラム
US20150324074A1 (en) * 2014-05-07 2015-11-12 Van Winkle Studio Llc Digital Book Graphical Navigator
JP2015225483A (ja) * 2014-05-28 2015-12-14 キヤノン株式会社 表示制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012084063A (ja) * 2010-10-14 2012-04-26 Canon Inc 表示制御装置、表示制御方法、およびプログラム
JP2015001902A (ja) * 2013-06-17 2015-01-05 シャープ株式会社 電子機器
JP2016177560A (ja) * 2015-03-20 2016-10-06 シャープ株式会社 電子機器

Also Published As

Publication number Publication date
US11169684B2 (en) 2021-11-09
JP7007805B2 (ja) 2022-01-25
US20190361585A1 (en) 2019-11-28
JP2018132961A (ja) 2018-08-23

Similar Documents

Publication Publication Date Title
JP6748582B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記録媒体
JP6757140B2 (ja) 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP2015172836A (ja) 表示制御装置及び表示制御方法
US20180234621A1 (en) Image capturing apparatus and control method thereof
JP2017123515A (ja) 電子機器およびその制御方法
JP2017122984A (ja) 電子機器及びその制御方法
JP6833535B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
US10904442B2 (en) Image sensing apparatus with improved user operability when performing an enlarged display of a live view image and control method of image sensing apparatus
JP2018036802A (ja) 電子機器およびその制御方法
CN106961545B (zh) 显示控制设备及其控制方法
JP2019109686A (ja) 電子機器、電子機器の制御方法、プログラム及び記憶媒体
CN108243308B (zh) 显示控制装置、显示控制方法及存储介质
JP7383552B2 (ja) 電子機器およびその制御方法
JP2018125802A (ja) 撮像装置、その制御方法及びプログラム
JP6647348B2 (ja) 電子機器
WO2018150983A1 (ja) 表示制御装置及び方法
JP7377088B2 (ja) 電子機器およびその制御方法、プログラム、並びに記憶媒体
JP2019071507A (ja) 電子機器、制御方法、プログラム、及び記憶媒体
JP7336266B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP6257255B2 (ja) 表示制御装置及び表示制御装置の制御方法
JP7098490B2 (ja) 撮像装置及びその制御方法
JP6591003B1 (ja) 電子機器
JP6708516B2 (ja) 電子装置、その制御方法およびプログラム
JP7451255B2 (ja) 電子機器及びその制御方法
JP6301002B2 (ja) 表示制御装置及び表示制御装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18755007

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18755007

Country of ref document: EP

Kind code of ref document: A1