WO2012001749A1 - 撮像装置、撮像装置の制御方法および制御方法に用いられるプログラム - Google Patents

撮像装置、撮像装置の制御方法および制御方法に用いられるプログラム Download PDF

Info

Publication number
WO2012001749A1
WO2012001749A1 PCT/JP2010/005296 JP2010005296W WO2012001749A1 WO 2012001749 A1 WO2012001749 A1 WO 2012001749A1 JP 2010005296 W JP2010005296 W JP 2010005296W WO 2012001749 A1 WO2012001749 A1 WO 2012001749A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
touch panel
display unit
display
unit
Prior art date
Application number
PCT/JP2010/005296
Other languages
English (en)
French (fr)
Inventor
俊彦 岩谷
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US13/703,461 priority Critical patent/US20130083228A1/en
Priority to JP2012522359A priority patent/JP5364846B2/ja
Publication of WO2012001749A1 publication Critical patent/WO2012001749A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals

Definitions

  • the present invention relates to a technique for preventing an erroneous operation of a user in an imaging apparatus such as a digital camera.
  • a digital camera As an imaging device that acquires an image of a subject, for example, a digital camera is known.
  • Some digital cameras including a viewfinder and a liquid crystal monitor as a display unit for displaying an image or the like include proximity detection means such as an eye sensor in the vicinity of the viewfinder.
  • the proximity detection means is used for control of the digital camera. Specifically, when the proximity detection unit detects that the user is in contact with the viewfinder, the viewfinder is selected as a display unit that displays an image. Further, when the proximity detection unit does not detect the eyepiece, the liquid crystal monitor is selected as the display unit for displaying the image.
  • a digital camera having a touch panel on a liquid crystal monitor is disclosed (for example, see Patent Document 1).
  • the digital camera described in Patent Literature 1 includes a rear display, a touch panel, a registration unit, a setting unit, and a control unit.
  • the touch panel is provided on a liquid crystal monitor as a rear display and can accept a touch panel operation.
  • Information on the eyes looking into the optical viewfinder is registered by the registration means.
  • the setting means sets an input enabled area in the touch panel where input by contact is possible in accordance with registered eye information. Since the control means performs control, an operation according to the contact with the input enabled area is executed, and an operation according to the contact with the area other than the input enabled area on the touch panel is not executed.
  • Cited Document 1 there may be a case where a part of the user's face looking through the optical viewfinder comes into contact with an area other than the input enabled area on the touch panel. In this case, the contact is not accepted as an effective operation, and an operation corresponding to the contact is not performed.
  • Patent Document 1 discloses switching the display on the rear display according to the detection result of the proximity detection means, and enabling the touch panel operation regardless of whether the rear display is in a display state. It is disclosed.
  • automatic display switching by proximity detection means may not be performed in a digital camera.
  • setting may be performed such that a user selects a display unit by operating a display switching button or the like (hereinafter also referred to as “manual display switching”).
  • the user may select a viewfinder as a display unit, and at this time, the touch panel operation corresponding to the display of the viewfinder may be effective. In this case, the user can operate the touch panel without confirming the viewfinder display.
  • the user may not be aware that the touch panel is valid and may touch the touch panel surface carelessly.
  • the touch panel may not be aware that the touch panel is valid and may touch the touch panel surface carelessly.
  • an operation unintended by the user is executed in the digital camera. That is, an erroneous operation may be performed.
  • the technology disclosed herein is intended to provide an imaging apparatus in which occurrence of an operation unintended by a user is suppressed.
  • the imaging device disclosed herein includes an imaging unit, a first display unit, a second display unit, a touch panel, a proximity detection unit, and a control unit.
  • the imaging unit captures an optical image of the subject and outputs it as image data.
  • the first display unit can display a first image based on the image data.
  • the second display unit can display a second image based on the image data.
  • a touch panel is arrange
  • the proximity detection unit can detect the proximity between the first display unit and the object.
  • the control unit When the proximity detection unit detects the proximity of the first display unit and the object when the touch panel receives the first operation, the control unit enables the first operation, and the proximity detection unit When the proximity of the display unit and the object is not detected, the first operation is invalidated.
  • the imaging device is a concept including a camera body as well as an imaging device capable of photographing alone.
  • the imaging device includes a camera body of an interchangeable lens type camera to which an interchangeable lens unit can be attached.
  • enabling the first operation means that processing according to the first operation is executed in the imaging apparatus.
  • Disabling the first operation means that the first operation does not substantially affect the processing in the imaging apparatus.
  • the touch panel accepting the first operation means a state in which processing corresponding to the first operation is promptly executed in the imaging apparatus when the first operation is valid.
  • the first operation is effective on the condition that the first display unit and the object are close to each other. Therefore, the first operation is effective when the user is close to the first display unit.
  • the first operation becomes invalid. As a result, it is possible to suppress the occurrence of actions not intended by the user.
  • the rear view which looked at the digital camera 1 which concerns on 1st Embodiment from the user side 1 is a block diagram showing a main circuit configuration of a digital camera 1 according to a first embodiment.
  • 1 is a flowchart showing the operation of the digital camera 1 according to the first embodiment.
  • 1 is a flowchart showing the operation of the digital camera 1 according to the first embodiment.
  • the digital camera 1 includes a camera body 100 and an interchangeable lens unit 200.
  • the imaging apparatus is a digital camera having a lens-replaceable mirrorless structure, and is also a camera system having a camera body 100 and an interchangeable lens unit 200 that can be attached to the camera body 100.
  • the camera body 100 has both a still image shooting function and a moving image shooting function.
  • FIG. 1 shows a rear view of the external appearance of the camera body 100 as viewed from the user side.
  • the user side means the side opposite to the subject.
  • the camera body 100 is equipped with a liquid crystal monitor 120 (an example of a second display unit) as a rear display for displaying an image acquired from a CCD (Charge Coupled Device) image sensor 110 (described later), a setting menu screen, and the like. .
  • a liquid crystal monitor 120 an example of a second display unit
  • CCD Charge Coupled Device
  • a liquid crystal monitor touch panel 105 is provided on the front surface of the liquid crystal monitor 120.
  • a pre-programmed setting menu screen is displayed on the liquid crystal monitor 120.
  • the touch panel 105 transmits the display on the liquid crystal monitor 120.
  • the user can visually recognize the setting menu screen transmitted through the touch panel 105.
  • the user can select an item on the setting menu screen on the touch panel 105 by a touch operation.
  • the user can select and set various functions using the touch panel 105. For example, the user can set a shutter speed value, an aperture value, an exposure correction value, a sensitivity setting value, a white balance, and the like via the touch panel 105.
  • the camera body 100 includes an electronic viewfinder 103 (an example of a first display unit) as a device that displays an image acquired from the CCD image sensor 110.
  • the electronic viewfinder is also referred to as EVF (Electronic View Finder).
  • an eye sensor 104 is disposed as a proximity detection unit.
  • the eye sensor 104 detects the proximity of the user.
  • the display destination is switched from the liquid crystal monitor 120 to the electronic viewfinder 103 according to the setting.
  • the eye sensor 104 for example, a reflective infrared sensor can be used.
  • the eye sensor 104 outputs a proximity detection signal (hereinafter also referred to as a detection signal) to a camera controller 140 (described later).
  • a proximity detection signal hereinafter also referred to as a detection signal
  • the camera controller 140 stops the display on the liquid crystal monitor 120 and performs the display on the electronic viewfinder 103.
  • the operation of the touch panel 105 can be validated while displaying on the electronic viewfinder 103.
  • the digital camera 1 can accept an operation corresponding to the image displayed on the electronic viewfinder 103 via the touch panel 105.
  • this function is referred to as an EVF touch function.
  • the state where the EVF touch function is valid refers to a state where the EVF operation mode (described later) is selected and the first operation (described later) is enabled.
  • the operation character is an icon for causing the digital camera 1 to perform some operation.
  • an operation character representing the quick menu is displayed.
  • the user performs a decision making operation on the coordinates of the touch panel corresponding to the display position (coordinates) of the character.
  • the displayed screen changes to a pre-programmed setting screen (quick menu display) for performing strobe adjustment or the like.
  • the determination operation of the intention is an intuitive operation by the user, and the user's instruction to the digital camera 1 is confirmed.
  • the decision making operation includes a double-click operation performed with a mouse of a personal computer as a familiar one.
  • the determination operation in this embodiment includes a tap operation and a drag operation.
  • the tap operation is an operation of tapping the surface of the touch panel 105.
  • the icon can be pointed by tapping.
  • the drag operation is an operation of stroking the surface of the touch panel 105.
  • the user can perform a touch operation on the touch panel 105 by a tap operation or a drag operation.
  • either the liquid crystal monitor 120 or the electronic viewfinder 103 can be selected as a display unit on which an image is displayed.
  • an image can be displayed on the liquid crystal monitor 120 and the display of the electronic viewfinder 103 can be stopped. Further, an image can be displayed on the electronic viewfinder 103 and the display on the liquid crystal monitor 120 can be stopped. Such switching of the display unit is executed automatically or intentionally.
  • the digital camera 1 has an automatic display switching function and a manual display switching function.
  • the automatic display switching function When the automatic display switching function is valid, the display on the liquid crystal monitor 120 and the display on the electronic viewfinder 103 are switched according to the detection signal of the eye sensor 104.
  • the manual display switching function When the manual display switching function is valid, the user switches the display unit with the display switching button 106. It can also be said that the manual display switching function is effective when the automatic display switching function is disabled.
  • the user can select the automatic display switching function or the manual display switching function via the setting menu screen. For example, when the automatic display switching function is valid, the user can invalidate the automatic display switching function by enabling the manual display switching function by selecting the manual display switching function from the setting menu screen.
  • a mode in which images are simultaneously displayed on the liquid crystal monitor 120 and the electronic viewfinder 103 may be provided.
  • the menu button 102 is disposed on the back surface of the camera body 100.
  • the menu button 102 accepts a pressing operation by the user.
  • the menu button 102 is connected to the camera controller 140.
  • the user can call the setting menu screen by operating the menu button 102. That is, the setting menu screen is called by pressing the menu button 102, and the setting menu screen is displayed on the liquid crystal monitor 120 or the electronic viewfinder 103. Note that the user can also display the setting menu screen by performing a touch operation on the touch panel 105.
  • the digital camera 1 has a display switching button 106 (an example of a switching operation reception unit, an example of a button switch). As shown in FIG. 1, the display switching button 106 is disposed on the back surface of the camera body 100.
  • the display switching button 106 accepts a pressing operation by the user.
  • the display switching button 106 is connected to the camera controller 140.
  • the display unit on which the image is displayed is switched. That is, when the manual display switching function is valid, the display of the liquid crystal monitor 120 and the electronic viewfinder 103 is alternately switched every time the user presses the display switching button 106.
  • the image display destination can be fixed to the electronic viewfinder 103 by pressing the display switching button 106.
  • the EVF touch function can be in an effective state (more specifically, a state in which an EVF operation mode described later is activated).
  • the camera controller 140 monitors the detection signal of the eye sensor 104 and automatically invalidates the operation received by the touch panel 105 when the user is not looking into the electronic viewfinder 103. As a result, erroneous operation and malfunction are prevented.
  • the liquid crystal monitor 120 is a movable liquid crystal monitor. In the present embodiment, the liquid crystal monitor 120 is a vari-angle monitor.
  • the liquid crystal monitor 120 can rotate about two different axes with respect to the camera body 100 main body. Further, the display direction can be changed to portrait (portrait), landscape (landscape), and further upside down according to the orientation of the liquid crystal monitor 120. At this time, the relationship between the liquid crystal monitor 120 and the touch panel operation also changes according to the change in the display direction.
  • FIG. 2 is a schematic block diagram showing the configuration of the digital camera 1 for photographing a subject according to the first embodiment.
  • the digital camera 1 includes the camera body 100 and the interchangeable lens unit 200 that can be attached to the camera body 100.
  • a camera body 100 (an example of an imaging device) mainly includes a CCD image sensor 110, a liquid crystal monitor 120, an electronic viewfinder 103, an eyepiece sensor 104, a touch panel 105, a display switching button 106, and a camera controller 140.
  • a camera controller 140 (an example of a control unit) controls the entire camera system including the CCD image sensor 110 and the like in accordance with an instruction input via an operation member such as the release button 130.
  • the camera controller 140 is a unit that executes processing such as calculation and control.
  • the camera controller 140 is, for example, an MPU (Micro Processing Unit).
  • the camera controller 140 transmits a vertical synchronization signal to the timing generator 112. In parallel with this, the camera controller 140 generates an exposure synchronization signal based on the vertical synchronization signal. The camera controller 140 periodically transmits the generated exposure synchronization signal to the lens controller 240 via the body mount 150 and the lens mount 250.
  • the camera controller 140 uses the DRAM 141 as a work memory during control operations and image processing operations.
  • the camera controller 140 controls the entire camera system according to the shooting mode set by the user and performs a shooting operation.
  • the shooting mode includes a moving image shooting mode and a still image shooting mode. The user can select the moving image shooting mode or the operation shooting mode by operating the still image / moving image selection dial 131.
  • the camera controller 140 detects the state of the still image / moving image selection dial 131 and sets the shooting mode of the camera controller 140 to either the moving image shooting mode or the still image shooting mode according to the detection result.
  • the CCD image sensor 110 captures an optical image of a subject incident through the interchangeable lens unit 200 (hereinafter also referred to as a subject image) and generates image data.
  • the generated image data is digitized by the AD converter 111.
  • the image data digitized by the AD converter 111 is subjected to various image processing by the camera controller 140. Examples of various image processing include gamma correction processing, white balance correction processing, scratch correction processing, YC conversion processing, electronic zoom processing, and JPEG (Joint Photographic Experts Group) compression processing.
  • the camera controller 140 generates display image data based on the image data output from the CCD image sensor 110. A second image is displayed on the liquid crystal monitor 120 based on the display image data.
  • the first image is displayed on the electronic viewfinder 103 based on the display image data.
  • Display of the second image on the liquid crystal monitor 120 and display of the first image on the electronic viewfinder 103 are controlled by the camera controller 140.
  • the camera controller 140 also performs a so-called OSD (On-Screen Display) display in which display image data and a character or the like are superimposed and displayed.
  • OSD On-Screen Display
  • the timing at which the CCD image sensor 110 operates is controlled by the timing generator 112.
  • the operation of the CCD image sensor 110 includes a still image capturing operation, a moving image capturing operation, a through image capturing operation, and the like.
  • the still image capturing operation and the moving image capturing operation are switched according to the operation of the user of the still image / moving image selection dial 131.
  • a through image is an image that is not recorded in a recording device such as the memory card 171 after imaging.
  • the through image is mainly a moving image and is displayed on the liquid crystal monitor 120 or the like.
  • the through image is used to determine the composition of the still image.
  • the CCD image sensor 110 is an example of an image sensor that converts a subject image into image data.
  • An imaging element (an example of an imaging unit) is an electronic component that generates image data representing an image, and has a concept including a photoelectric conversion element such as a CMOS image sensor in addition to the CCD image sensor 110.
  • the liquid crystal monitor 120 can display a second image based on display image data that has been subjected to image processing by the camera controller 140.
  • the liquid crystal monitor 120 can selectively display both moving images and still images. That is, the second image is a moving image or a still image.
  • the liquid crystal monitor 120 includes a liquid crystal panel (not shown) and a backlight (not shown).
  • the liquid crystal panel is driven by a driver (not shown).
  • the driver drives the liquid crystal panel corresponding to the second image.
  • the backlight illuminates the back of the liquid crystal panel. The light emitted from the backlight is transmitted through the liquid crystal panel. When the backlight is lit, the user can visually recognize the second image.
  • the supply of power to the liquid crystal panel and the backlight is stopped.
  • the supply of power to the backlight may be stopped and the backlight may be turned off.
  • the backlight it can be said that the liquid crystal monitor 120 stops displaying even if the liquid crystal panel is driven by the driver. If the backlight is turned off, it is possible to prevent the user from feeling dazzling when the user approaches the electronic viewfinder 103 in the EVF operation mode.
  • the electronic viewfinder 103 can display the first image based on the display image data image-processed by the camera controller 140 in the viewfinder structure.
  • the first image is a moving image or a still image.
  • the electronic viewfinder 103 is disposed on the upper side of the liquid crystal monitor 120. Note that the first image may be the same as or different from the second image.
  • the electronic viewfinder 103 includes a display device (not shown), a finder optical system (not shown), and an eyepiece 103a.
  • the display device is a small liquid crystal panel, for example, and displays the first image.
  • the viewfinder optical system enlarges the first image displayed on the display device.
  • the eyepiece 103a is a window for the user to visually recognize the first image.
  • the display device and the finder optical system are included in the finder structure.
  • the entry of ambient light into the viewfinder structure is suppressed. That is, in the finder structure, the entry of ambient light is largely blocked when the eye is in contact. As a result, the user can look into the electronic viewfinder 103 and confirm a clear image.
  • the display of the electronic viewfinder 103 is stopped.
  • the eye sensor 104 detects the proximity of the electronic viewfinder 103 and the target. It can be said that the eye sensor 104 detects the approach of the object to the electronic viewfinder 103.
  • the eye sensor 104 is, for example, an infrared proximity detection sensor, and is provided close to the electronic viewfinder 103.
  • the object is an object having a size and a material that can be detected by the eye sensor 104.
  • the object is, for example, the user's eyes, face, or head.
  • the eye sensor 104 has an infrared light emitting element (not shown) and an infrared light receiving element (not shown). The infrared light emitting element emits infrared light.
  • the infrared light receiving element receives and detects infrared light.
  • the infrared rays emitted from the infrared light emitting element are reflected by the object (also referred to as a reflection object) and detected by the infrared light receiving element.
  • the eye sensor 104 detects infrared rays
  • the eye sensor 104 outputs a detection signal. More specifically, the eye sensor 104 outputs a detection signal when the reflection object approaches the electronic viewfinder 103 within a specific distance.
  • the detection signal is represented by a signal change between high (H) and low (L).
  • the camera controller 140 receives the detection signal output from the eye sensor 104.
  • the camera controller 140 controls the digital camera 1 based on the detection signal output from the eye sensor 104. For example, when the automatic display switching function is valid, the camera controller 140 switches the display unit on which an image is displayed based on the input detection signal. Specifically, when the proximity of the user is detected by the eye sensor 104, the camera controller 140 stops the display on the liquid crystal monitor 120 and starts the display on the electronic viewfinder 103. Based on the detection signal, it is determined whether or not the electronic viewfinder 103 and the user are in proximity. For example, when the output signal from the eye sensor 104 changes from H to L, the camera controller 140 determines that the proximity of the object has been detected.
  • the camera controller 140 determines that the proximity of the object is maintained. On the other hand, when the output signal from the eye sensor 104 changes from L to H, the camera controller 140 determines that the proximity of the object has not been detected. When the output signal from the eye sensor 104 is maintained in the H state, the camera controller 140 determines that the state in which the object is not in proximity is maintained.
  • the touch panel 105 is installed in front of the display screen of the liquid crystal monitor 120. It can be said that the touch panel 105 is arranged along the surface of the liquid crystal monitor 120.
  • the touch panel 105 has a touch sensor.
  • the touch sensor detects contact.
  • the touch sensor outputs a signal indicating the touch position where the touch has been made.
  • the touch sensor is realized by, for example, a resistance film method or a capacitance method.
  • the touch panel 105 receives control of the camera controller 140.
  • the touch panel 105 accepts various touch operations.
  • the user can perform various touch operations by touching an operation character for video display or OSD display. As an example of various touch operations, there is a designation of a focus position by a touch operation.
  • the focus position is a part of the subject and is focused on the focus position.
  • the user can designate the touch position as the focus position by performing a touch operation on a part of the subject displayed as a through image.
  • the camera controller 140 immediately calculates the feature of the subject corresponding to the touch position. Based on the calculated feature, the camera controller 140 sets the focus position to a part of the touched subject (that is, a part corresponding to the touch position).
  • operations by the touch panel 105 are hierarchized. For example, a character (that is, an icon) indicating menu expansion is displayed on the OSD display.
  • a character that is, an icon
  • the camera controller 140 immediately expands the menu on the image.
  • the user can select a desired item from the expanded menu by a touch operation.
  • the touch panel 105 can accept a monitor touch operation (hereinafter also referred to as a second operation) corresponding to the second image.
  • the touch panel 105 can accept an EVF touch operation (hereinafter also referred to as a first operation) corresponding to the first image.
  • the touch panel 105 accepts a monitor touch operation
  • the touch panel 105 operates in the monitor operation mode.
  • the touch panel 105 accepts an EVF touch operation
  • the touch panel 105 operates in the EVF operation mode.
  • the operation mode includes the EVF touch mode and the monitor operation mode.
  • the user operates the touch panel 105 based on the first image displayed on the electronic viewfinder 103.
  • the position on the first image and the position on the touch panel 105 are associated with each other. Therefore, for example, when the user performs a touch operation on the touch panel 105 in the EVF operation mode, an icon in the first image displayed on the electronic viewfinder 103 is selected.
  • the touch panel 105 receives the first operation. That is, when the first operation is valid in the EVF operation mode, when the first operation is input to the touch panel 105, the process corresponding to the first operation is quickly executed.
  • the user operates the touch panel 105 based on the second image displayed on the liquid crystal monitor 120.
  • the position on the second image and the position on the touch panel 105 are associated with each other. Therefore, in the monitor operation mode, for example, when the user performs a touch operation on the touch panel 105, an icon in the second image displayed on the liquid crystal monitor 120 is selected.
  • the touch panel 105 accepts the second operation. That is, when the second operation is valid in the monitor operation mode, when the second operation is input to the touch panel 105, the process according to the second operation is promptly executed.
  • the digital camera 1 shifts to a monitor operation mode.
  • the electronic viewfinder 103 is selected as a display unit for displaying an image
  • the digital camera 1 shifts to the EVF operation mode. Transition of the operation mode is controlled by the camera controller 140.
  • the monitor operation mode or the EVF operation mode is selected based on the detection result of the eye sensor 104. That is, when the eyepiece of the user is detected by the eyepiece sensor 104, the EVF operation mode is selected by the camera controller 140. When the eyepiece of the user is not detected by the eyepiece sensor 104, the monitor operation mode is selected by the camera controller 140.
  • the manual display switching function is valid
  • the monitor operation mode or the EVF operation mode is selected based on the operation input to the display switching button 106.
  • the display switching button 106 is connected to the camera controller 140.
  • the camera controller 140 operates based on an operation input to the display switching button 106 when the manual display switching function is valid (that is, when the automatic display switching function is invalid). Specifically, every time the display switching button 106 is pressed, the camera controller 140 switches the effective display unit. More specifically, when the display switching button 106 is pressed, the camera controller 140 stops the display on the liquid crystal monitor 120 and starts the display on the electronic viewfinder 103. Alternatively, when the display switching button 106 is pressed, the camera controller 140 stops the display of the electronic viewfinder 103 and starts the display of the liquid crystal monitor 120. Here, the camera controller 140 starts display on the liquid crystal monitor 120 while starting the monitor operation mode. The camera controller 140 starts the EVF operation mode while starting display of the electronic viewfinder 103.
  • the camera controller 140 switches between the monitor operation mode and the EVF operation mode based on the operation input to the display switching button 106. Specifically, when the manual display switching function is valid, the camera controller 140 detects whether the display switching button 106 is pressed. When the display switching button 106 is pressed, the camera controller 140 switches the operation mode of the touch panel 105. More specifically, when a pressing operation is input to the display switching button 106 in the monitor operation mode, the camera controller 140 shifts the operation mode to the EVF operation mode. On the other hand, when a pressing operation is input to the display switching button 106 in the EVF operation mode, the camera controller 140 shifts the operation mode to the monitor operation mode. Therefore, it can be said that the camera controller 140 controls the touch panel 105 to operate in the monitor operation mode or the EVF operation mode.
  • the card slot 170 can be loaded with a memory card 171.
  • the card slot 170 controls the memory card 171 based on the control from the camera controller 140.
  • the memory card 171 can store image data generated by image processing of the camera controller 140.
  • the memory card 171 can store a JPEG image file.
  • the memory card 171 can output image data or an image file stored therein.
  • the image data or image file output from the memory card 171 is subjected to image processing by the camera controller 140.
  • the camera controller 140 decompresses the image data or image file acquired from the memory card 171 and generates display image data.
  • the power supply 160 supplies power to be consumed by the camera system.
  • the power source 160 may be, for example, a dry battery or a rechargeable battery. Further, the power supply 160 may be a unit that supplies power supplied from the outside to the camera system by a power cord.
  • the body mount 150 can be mechanically and electrically connected to the lens mount 250 of the interchangeable lens unit 200.
  • the body mount 150 can transmit and receive data to and from the interchangeable lens unit 200 via the lens mount 250.
  • the body mount 150 transmits the exposure synchronization signal received from the camera controller 140 to the lens controller 240 via the lens mount 250. Further, other control signals received from the camera controller 140 are transmitted to the lens controller 240 via the lens mount 250.
  • the body mount 150 transmits a signal received from the lens controller 240 via the lens mount 250 to the camera controller 140.
  • the body mount 150 receives drive method information regarding the drive method of the focus lens 230 from the lens controller 240 via the lens mount 250.
  • the body mount 150 transmits the received driving method information to the camera controller 140.
  • the driving method information is stored in the flash memory 242 of the interchangeable lens unit 200.
  • the body mount 150 supplies the power received from the power supply 160 to the entire interchangeable lens unit 200 via the lens mount 250.
  • the interchangeable lens unit 200 mainly includes an optical system L, a lens controller 240, and a lens mount 250.
  • the optical system L of the interchangeable lens unit 200 includes a zoom lens 210, an OIS lens 220, and a focus lens 230.
  • the zoom lens 210 is a lens for changing the magnification of the subject image formed by the optical system L of the interchangeable lens unit 200.
  • the zoom lens 210 is composed of one or a plurality of lenses.
  • the drive mechanism 211 includes a zoom ring that can be operated by the user.
  • the zoom ring is disposed on the outer periphery of the interchangeable lens unit 200.
  • the drive mechanism 211 transmits a user operation to the zoom lens 210. Specifically, the drive mechanism 211 moves the zoom lens 210 along the optical axis direction of the optical system based on a user operation input via a zoom ring or the like.
  • the detector 212 detects the drive amount of the zoom lens 210 via the drive mechanism 211.
  • the lens controller 240 grasps the position of the zoom lens 210 by acquiring the detection result in the detector 212.
  • the lens controller 240 can grasp the zoom magnification in the optical system L.
  • the OIS lens 220 is a lens for correcting blurring of a subject image formed by the optical system L of the interchangeable lens unit 200.
  • the OIS lens 220 moves in a direction that cancels the blur of the digital camera 1, thereby reducing the blur of the subject image on the CCD image sensor 110.
  • the OIS lens 220 is composed of one or a plurality of lenses.
  • the actuator 221 drives the OIS lens 220 in a plane perpendicular to the optical axis of the optical system L under the control of the OIS IC 223.
  • the actuator 221 can be realized by a magnet and a flat coil, for example.
  • the position detection sensor 222 is a sensor that detects the position of the OIS lens 220 in a plane perpendicular to the optical axis of the optical system L.
  • the position detection sensor 222 can be realized by a magnet and a Hall element, for example.
  • a shake detector (not shown) such as a gyro sensor detects the shake of the digital camera 1.
  • the OIS IC 223 controls the actuator 221 based on the detection result of the position detection sensor 222 and the detection result of the shake detector.
  • the OIS IC 223 obtains the detection result of the shake detector from the lens controller 240. Further, the OIS IC 223 transmits a signal indicating the state of the optical image blur correction process to the lens controller 240.
  • the first camera shake correction unit includes an actuator 221, a position detection sensor 222, an OIS IC 223, and a shake detector.
  • the first shake correction unit detects the shake of the digital camera 1 as described above and detects image shake caused by the shake of the digital camera 1. to correct.
  • the lens controller 240 controls the correction operation of the first camera shake correction unit.
  • the focus lens 230 is a lens for changing the focus state of the subject image formed on the CCD image sensor 110.
  • the focus lens 230 is composed of one or a plurality of lenses.
  • the focus motor 233 drives the focus lens 230 to advance and retract along the optical axis of the optical system L based on the control of the lens controller 240. Thereby, the focus state of the subject image formed on the CCD image sensor 110 can be changed.
  • a DC motor can be used in this embodiment.
  • the focus motor 233 is not limited to a DC motor, and may be a stepping motor, a servo motor, an ultrasonic motor, or the like.
  • the first encoder 231 and the second encoder 232 are encoders that generate signals indicating the driving state of the focus lens 230.
  • the first encoder 231 and the second encoder 232 can be realized by, for example, a rotor and a photocoupler attached to the rotation shaft of the focus motor 233.
  • the rotor is a disk body having holes opened at predetermined intervals.
  • the photocoupler emits detection light from one surface of the rotor and receives light from the other surface. Therefore, when the rotor rotates, the ON / OFF state of the photocoupler switches between each other.
  • the lens controller 240 has a counter 243.
  • the counter 243 counts how many times the switching of the ON / OFF state has occurred in the photocoupler.
  • the signal obtained from the first encoder 231 and the signal obtained from the second encoder 232 are out of phase with each other. Therefore, when the state of the first encoder 231 is switched from OFF to ON, the moving direction of the focus lens 230 can be determined by examining the signal obtained from the second encoder 232.
  • the state of the second encoder 232 when the state of the first encoder 231 is switched from OFF to ON includes an ON state and an OFF state.
  • the counter 243 determines that this is normal rotation and counts “+1”.
  • the counter 243 determines that this is reverse rotation and counts “ ⁇ 1”.
  • the lens controller 240 controls the entire interchangeable lens unit 200 including the OIS IC 223 and the focus motor 233 based on a control signal from the camera controller 140. For example, the lens controller 240 controls the focus motor 233 based on a control signal from the camera controller 140.
  • the focus motor 233 controlled by the lens controller 240 advances and retracts the focus lens 230 along the optical axis of the optical system L by a predetermined driving method.
  • the lens controller 240 receives signals from the detector 212, the OIS IC 223, the first encoder 231, the second encoder 232, and the like, and transmits them to the camera controller 140.
  • the lens controller 240 performs transmission / reception with the camera controller 140 via the lens mount 250 and the body mount 150.
  • the lens controller 240 uses the DRAM 241 as a work memory.
  • the CCD image sensor 110 is an example of an imaging unit.
  • the liquid crystal monitor 120 is an example of a second display unit.
  • the electronic viewfinder 103 is an example of a first display unit.
  • the eye sensor 104 is an example of a proximity detection unit.
  • the camera controller 140 is an example of a control unit.
  • [Operation of digital camera 1] 3 and 4 are flowcharts showing a screen display switching process in the camera body 100.
  • FIG. 3 shows a standard operation when the automatic display switching function is effective. When the automatic display switching function is valid, screen display switching processing is executed in accordance with the detection result of the eye sensor 104.
  • the camera controller 140 immediately after the power is turned on, the camera controller 140 enables the touch operation based on the display on the liquid crystal monitor 120 (step S101). That is, in step S101, the camera controller 140 validates the monitor operation mode. Further, in step S101, the camera controller 140 makes the second operation valid. At this time, the first operation is invalid.
  • the camera controller 140 sets the display destination of the captured image or the like as the liquid crystal monitor 120 (step S102). Specifically, in step S102, the camera controller 140 causes the liquid crystal monitor 120 to display the second image. Thus, in step S102, the liquid crystal monitor 120 is turned on.
  • the camera controller 140 determines whether or not the automatic display switching function has been selected (step S103). As described above, either the automatic display switching function or the manual display switching function is selected by the user. Information about whether the automatic display switching function or the manual display switching function is selected is stored in, for example, the DRAM 141 or a nonvolatile memory (not shown). In step S103, the camera controller 140 can determine whether the automatic display switching function is selected based on the stored information.
  • step S104 If the automatic display switching function is selected in step S103, the process proceeds to step S104. If the manual display switching function is selected in step S103, the process proceeds to step S203 (FIG. 4). If the automatic display switching function is selected, the camera controller 140 enables the automatic display switching function (step S104). When the camera controller 140 enables the automatic display switching function, the eye sensor 104 detects whether or not the user is in contact with the electronic viewfinder 103 (step S105). If the camera controller 140 determines from the detection result of the eye sensor 104 that the user's eye contact with the electronic viewfinder has not been detected (that is, if “n” in step S105), the process proceeds to step S106. move on.
  • the camera controller 140 displays the second image including the captured image on the liquid crystal monitor 120 and stops the display on the electronic viewfinder 103 (step S106). That is, the electronic viewfinder 103 is turned off. If the electronic viewfinder 103 is in an OFF state, the OFF state is maintained.
  • the camera controller 140 activates the monitor operation mode (step S107).
  • step S107 the monitor operation mode is turned on.
  • the entire area of the touch panel 105 accepts the user's second operation.
  • the entire area of the touch panel 105 is an area overlapping the entire area of the second image displayed on the liquid crystal monitor 120 in the touch panel 105.
  • the entire area of the touch panel 105 is set as an area in which an operation can be input (hereinafter also referred to as an input enabled area).
  • the camera controller 140 makes the second operation valid.
  • step S107 When the process in step S107 ends, the process returns to step S103. Thereafter, unless an interruption operation such as a photographing operation or a forced operation to another mode is performed, the processing in step S103 and the presence / absence of eye contact by the eye sensor 104 (step S105) are performed at specific intervals (for example, 1). Every 60 seconds).
  • the monitor touch operation that is, the second operation
  • the user can operate the digital camera 1 via the touch panel 105 based on the second image displayed on the liquid crystal monitor 120.
  • step S105 if it is determined that the user is in contact with the electronic viewfinder 103 (that is, “y” in step S105), display of the captured image or the like on the liquid crystal monitor 120 is stopped and the electronic viewfinder is displayed. The image is displayed on 103 (step S108).
  • step S108 the camera controller 140 stops the display of the second image on the liquid crystal monitor 120. That is, the camera controller 140 turns off the liquid crystal monitor 120. Specifically, the backlight of the liquid crystal monitor 120 is turned off.
  • step S ⁇ b> 108 the camera controller 140 starts displaying the first image on the electronic viewfinder 103. That is, the camera controller 140 turns on the electronic viewfinder 103.
  • step S109 the camera controller 140 activates the EVF operation mode (step S109).
  • step S109 the camera controller 140 sets the EVF operation mode to the ON state.
  • the entire area of the touch panel 105 receives the user's first operation.
  • the entire area of the touch panel 105 is an area overlapping the display screen of the liquid crystal monitor 120 in the touch panel 105.
  • the EVF operation mode the entire area of the touch panel 105 is set as an inputable area.
  • step S109 the camera controller 140 makes the first operation valid.
  • the process in step S109 ends, the process returns to step S103.
  • step S105 the process in step S103 and the presence / absence check of the eyepiece by the eye sensor 104 (step S105) are performed every specific period.
  • the EVF touch function described above is effective. Therefore, the user can operate the digital camera 1 via the touch panel 105 based on the first image displayed on the electronic viewfinder 103.
  • FIG. 4 is a flowchart showing an operation when the manual display switching function in which the user manually switches the screen display is valid.
  • step S103 it is determined which of the automatic display switching function and the manual display switching function is selected. If the manual display switching function is selected (that is, if “n” in step S103), the camera controller 140 enables the manual display switching function (step S203).
  • step S204 it is determined which of the monitor operation mode and the EVF operation mode is selected as the operation mode. Specifically, when the user presses the display switching button 106 while the liquid crystal monitor 120 is displayed, the EVF operation mode is selected. If it is determined in step S204 that the EVF operation mode is selected, the process proceeds to step S205. If it is determined in step S204 that the monitor operation mode is selected, the process proceeds to step S209.
  • a flag is set in order to determine the selected operation mode.
  • the value of the flag differs depending on the selected operation mode.
  • the flag value is “1” when the monitor operation mode is selected as the operation mode
  • the flag value is “0” when the EVF operation mode is selected as the operation mode.
  • the value of the flag is stored in the DRAM 141, for example.
  • the value of the flag is changed. Specifically, when a pressing operation is input to the display switching button 106, an output signal is output to the camera controller 140.
  • the camera controller 140 changes the value of the flag. For example, when a pressing operation is input to the display switching button 106 to switch the operation mode from the monitor operation mode to the EVF operation mode, the camera controller 140 changes the value of the flag from “1” to “0”.
  • step S204 the camera controller 140 reads the value of the flag.
  • the camera controller determines which of the monitor operation mode and the EVF operation mode is selected based on the flag value.
  • the operation mode selected when the user ends the operation of the digital camera 1 may be stored in a non-volatile memory (not shown). If the manual display switching function is valid when the digital camera 1 is activated, the camera controller 140 can select the operation mode stored in the nonvolatile memory in step S204.
  • the camera controller 140 starts displaying the first image on the electronic viewfinder 103 and stops displaying on the liquid crystal monitor 120 (step S205). Thus, when the EVF operation mode is selected, the camera controller 140 stops the display on the liquid crystal monitor 120.
  • step S205 the camera controller 140 activates the EVF operation mode. That is, the camera controller 140 sets the EVF operation mode to the ON state. In the process of turning on the EVF operation mode or the monitor operation mode, if the operation mode to be turned on is already ON, the ON state is maintained. Similarly, in the process of turning off the EVF operation mode or the monitor operation mode, if the operation mode to be turned off is already OFF, the OFF state is maintained.
  • the camera controller 140 determines whether the user's eyepiece is detected (step S206). The camera controller 140 monitors the eye sensor 104 every specific period and determines whether or not an eye is detected. If the camera controller 140 determines that the user is in contact with the electronic viewfinder 103 based on the detection signal from the eye sensor 104 (that is, “y” in step S206), the camera controller 140 validates the first operation. (Step S207). When the process in step S207 ends, the process returns to step S103. The EVF touch function is valid in the state in which the processes in steps S103 to S207 are repeatedly executed. Therefore, the user can operate the digital camera 1 via the touch panel 105 based on the first image displayed on the electronic viewfinder 103.
  • step S208 the first operation is performed. Is disabled (step S208).
  • the operation mode is the EVF operation mode
  • the touch panel 105 does not accept the second operation. Therefore, the second operation is in an invalid state.
  • the process in step S208 ends, the process returns to step S103.
  • the user cannot use the EVF touch function in the state in which the processes in steps S103 to S208 are repeatedly executed. Further, since the EVF operation mode is selected, the second operation is invalid. Therefore, the user cannot operate the digital camera 1 via the touch panel 105 in the state in which the processes in steps S103 to S208 are repeatedly executed.
  • disabling the touch operation means that the operation received by the touch panel 105 does not substantially affect the processing in the digital camera 1. Yes. Therefore, disabling the touch operation means that the power supply to the touch panel 105 is stopped, the touch panel 105 does not output a signal corresponding to the operation even when the touch panel 105 is operated, or the touch panel 105 accepts the operation. This is a concept including that even if a signal is output, the camera controller 140 ignores the signal. Assuming that the display on the liquid crystal monitor 120 is not performed and the operation (more specifically, the first operation) using the touch panel 105 is valid, the user is in operation because the digital camera 1 is turned on.
  • the touch panel 105 when the user is not looking into the electronic viewfinder 103, the touch operation (specifically, the first operation) is invalidated. As a result, an erroneous operation on the touch panel 105 can be prevented when the user is not in contact with the electronic viewfinder 103.
  • the touch panel 105 is accepting a touch operation (specifically, the first operation or the second operation)” means that processing corresponding to the touch operation is promptly executed when the touch operation is valid. Means state. Therefore, for example, even if the supply of power to the touch panel 105 is stopped in step S208, it can be said that the touch panel 105 receives the first operation. If the operation mode is set to the EVF operation mode, power is immediately supplied to the touch panel 105 when the first operation is switched from invalid to valid, and the touch panel 105 starts detecting the touch operation. Thus, for example, even if the supply of power to the touch panel 105 is stopped in step S208, it can be said that the touch panel 105 is operating in the EVF operation mode. In the flow of FIG. 4, when it is determined in step S204 that the monitor operation mode is selected, the process proceeds to step S209. The camera controller 140 starts or continues the display on the liquid crystal monitor 120, and stops the display on the electronic viewfinder 103 (step S209).
  • step S210 the camera controller 140 activates the monitor operation mode (step S210). Further, in step S210, the camera controller 140 validates the second operation. When the process of step S210 ends, the process returns to step S103. In the state where the processes of Step S103 to Step S210 are repeatedly executed, the monitor touch operation (that is, the second operation) is effective. Therefore, the user can operate the digital camera 1 via the touch panel 105 based on the second image displayed on the liquid crystal monitor 120. [Summary]
  • the effects of the digital camera 1 according to the first embodiment are summarized.
  • the touch panel 105 can accept a first operation corresponding to the first image.
  • the eye sensor 104 can detect the proximity between the electronic viewfinder 103 and the user.
  • the camera controller 140 validates the first operation. If the eyepiece sensor 104 does not detect the proximity of the electronic viewfinder 103 and the user when the touch panel 105 receives the first operation, the camera controller 140 invalidates the first operation.
  • the touch panel 105 receives the first operation, the first operation is valid on the condition that the electronic viewfinder 103 and the user are close to each other. Therefore, the first operation is effective when the user is close to the electronic viewfinder 103.
  • the first operation is invalid. As a result, it is possible to suppress the occurrence of actions not intended by the user.
  • the first operation is invalid if the user accidentally touches the touch panel 105 when the user is not close to the electronic viewfinder 103. As a result, erroneous operations are less likely to occur.
  • enabling the first operation means that processing corresponding to the first operation is executed in the digital camera 1.
  • Disabling the first operation means that the first operation does not substantially affect the processing in the digital camera 1. Therefore, disabling the touch operation means that the power supply to the touch panel 105 is stopped, the touch panel 105 does not output a signal corresponding to the operation even when the touch panel 105 is operated, or the touch panel 105 accepts the operation. This is a concept including that even if a signal is output, the camera controller 140 ignores the signal.
  • the touch panel 105 accepting the first operation means a state in which processing corresponding to the first operation is quickly executed in the digital camera 1 when the first operation is valid.
  • the touch panel 105 can accept a second operation corresponding to the second image, so that the user can select an operation method of the touch panel 105.
  • the touch panel 105 receives the first operation, the occurrence of an erroneous operation is suppressed. Therefore, various operation methods can be realized while suppressing the occurrence of erroneous operations. In this way, user convenience can be improved.
  • the liquid crystal monitor 120 stops displaying. Therefore, power consumption can be reduced.
  • the brightness of the liquid crystal monitor 120 can be suppressed when the user is close to the electronic viewfinder 103. As a result, it is possible to prevent the user from feeling dazzling when the user approaches the electronic viewfinder 103.
  • the camera controller 140 controls the touch panel 105 so as to operate in the monitor operation mode or the EVF operation mode, so that one touch panel 105 can be operated in a plurality of modes. As a result, the touch panel 105 can be used effectively.
  • the digital camera 1 also has a display switching button 106 that can accept a pressing operation.
  • the camera controller 140 switches between the monitor operation mode and the EVF operation mode based on the pressing operation input to the display switching button 106. Therefore, the user can switch the operation mode of the touch panel 105 by pressing the display switching button 106. In this way, the user can use the operation mode properly according to the situation by a simple operation. As a result, it is possible to improve user convenience.
  • Embodiments of the present invention are not limited to the above-described embodiments, and various changes and modifications can be made without departing from the spirit of the present invention.
  • A In the above-described embodiment, the configuration in which the display destination is switched between the electronic viewfinder 103 and the liquid crystal monitor 120 has been described.
  • the electronic viewfinder 103 In the above-described embodiment, the electronic viewfinder 103 is used, but an optical viewfinder may be used instead of the electronic viewfinder 103.
  • the subject image emitted from the lens unit is reflected by the reflecting mirror and guided to the optical viewfinder. The user can visually recognize the subject image via the optical viewfinder.
  • the camera controller 140 validates the operation accepted by the touch panel 105.
  • the display content on the liquid crystal panel in the optical viewfinder changes according to the input operation.
  • the camera controller 140 invalidates the operation accepted by the touch panel 105.
  • the display of the liquid crystal monitor 120 is stopped in the EVF operation mode.
  • an image may be displayed on the liquid crystal monitor 120 in the EVF operation mode.
  • an image indicating that the EVF operation mode is selected can be displayed on the liquid crystal monitor 120.
  • the brightness of the liquid crystal monitor 120 can be set low. If the brightness of the liquid crystal monitor 120 is suppressed, a user who brings his eyes close to the electronic viewfinder 103 is less likely to feel dazzling.
  • the liquid crystal monitor 120 is used as an example of the second display unit.
  • the second display unit may be other than the liquid crystal monitor.
  • the second display unit may be any device that can display an image.
  • an organic EL panel, an inorganic EL panel, a plasma display panel, and the like can be considered.
  • the liquid crystal panel is used as the display device used in the electronic viewfinder 103.
  • the display device may be other than the liquid crystal panel.
  • the display device used for the electronic viewfinder 103 may be any device that can display an image.
  • an organic EL panel, an inorganic EL panel, a plasma display panel, etc. can be considered in addition to a liquid crystal monitor.
  • Each process of the above-described embodiment may be realized by hardware, or may be realized by software (including a case where it is realized together with an OS (Operating System), middleware, or a predetermined library). Furthermore, each process of the above-described embodiment may be realized by a mixed process of software and hardware. Needless to say, when the processing in the above-described embodiment is realized by hardware, it is necessary to adjust timing for performing each processing. In the above-described embodiment, for the convenience of explanation, details of timing adjustment of various signals that occur in actual hardware design are omitted. Further, the execution order of the processing methods in the above-described embodiments is not necessarily limited to the description of the above-described embodiments, and the execution order may be changed without departing from the gist of the invention.
  • the digital camera corresponding to moving image shooting and the camera body thereof have been described as examples.
  • the technology described here can be applied to other imaging apparatuses, for example, a digital video camera or a digital still camera. It can also be applied to.
  • the technique disclosed herein can be applied to an imaging apparatus that supports only still image shooting and an imaging apparatus that supports only moving image shooting.
  • the imaging device is a concept including a camera body as well as an imaging device capable of photographing alone.
  • the imaging device includes a camera body of an interchangeable lens type camera to which an interchangeable lens unit can be attached.
  • the entire area of the touch panel 105 is set as an input enabled area, but only a part of the touch panel 105 may be set as an input enabled area.
  • the proximity detection unit has been described by taking the infrared eyepiece sensor 104 as an example, but the proximity detection unit may be any mechanism that can detect the proximity of the object and the electronic viewfinder 103. Therefore, the eye sensor 104 is not limited to an infrared sensor, and may be an ultrasonic sensor, for example.
  • the operation mode is switched based on the pressing operation input to the display switching button 106, but the operation for switching the operation mode is not necessarily a pressing operation.
  • the digital camera 1 may be provided with a lever used for switching the operation mode. In this case, the operation mode is switched based on the rotation operation of the lever.
  • the technology disclosed herein erroneous operations on the touch panel can be reduced, and therefore the technology disclosed herein is applicable to imaging devices such as digital cameras and is useful.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

ユーザーの意図しない動作の発生を抑制可能な撮像装置を提供する。デジタルカメラ(1)は、CCDイメージセンサ(110)と、液晶モニタ(120)と、電子ビューファインダー(103)と、タッチパネル(105)と、接眼センサ(104)と、カメラコントローラ(140)と、を有している。CCDイメージセンサ(110)は、被写体の光学像を撮像して画像データとして出力する。電子ビューファインダー(103)は、画像データに基づく第1画像を表示可能である。液晶モニタ(120)は、画像データに基づく第2画像を表示可能である。タッチパネル(105)は、液晶モニタ(120)の表面に沿って配置され、第1画像と対応する第1操作を受け付け可能である。接眼センサ(104)は、電子ビューファインダー(103)と対象物との近接を検知可能である。

Description

撮像装置、撮像装置の制御方法および制御方法に用いられるプログラム
 本発明は、デジタルカメラ等の撮像装置において、ユーザーの誤操作を防止する技術に関する。
 被写体の画像を取得する撮像装置として、例えばデジタルカメラが知られている。画像等が表示される表示部としてビューファインダーおよび液晶モニタを備えたデジタルカメラにおいて、ビューファインダーの近傍にアイセンサ等の近接検知手段を備えたものがある。近接検知手段はデジタルカメラの制御に利用される。具体的には、ユーザーがビューファインダーへ接眼していることを近接検知手段が検知すると、画像を表示する表示部としてビューファインダーが選択される。また、近接検知手段が接眼を検知していないときは、画像を表示する表示部として液晶モニタが選択される。
 このようなデジタルカメラであって、液晶モニタ上にタッチパネルを備えたものが開示されている(例えば、特許文献1参照)。特許文献1に記載のデジタルカメラは、背面ディスプレイと、タッチパネルと、登録手段と、設定手段と、制御手段と、を有している。特許文献1によれば、タッチパネルは、背面ディスプレイとしての液晶モニタに設けられており、タッチパネル操作を受け付け可能である。登録手段により、光学ファインダーを覗く眼の情報が登録される。設定手段により、登録された眼の情報に応じて、タッチパネルのうち接触による入力が可能な入力可能領域が設定される。制御手段が制御を行うので、入力可能領域への接触に応じた動作が実行され、タッチパネルのうち入力可能領域以外の領域への接触に応じた動作は実行されない。例えば、引用文献1に記載のデジタルカメラにおいて、光学ファインダーを覗いているユーザーの顔の一部がタッチパネルにおける入力可能領域以外の領域に接触した場合が考えられる。この場合には、その接触は有効な操作として受け付けられず、接触に応じた動作も行われない。
 また、特許文献1には、近接検知手段の検知結果に応じて背面ディスプレイへの表示を切り替えること、および、背面ディスプレイが表示状態にあるか否かに関わらずタッチパネル操作を有効にすること、が開示されている。
特開2009-260681号公報
 このように、近接検知手段から得られる情報に基づいて画像を表示する表示部が自動的に切り替えられる(以下、「自動表示切り替え」ともいう)場合がある。
 一方で、デジタルカメラにおいて近接検知手段による自動表示切り替えが行われない場合もある。例えば、デジタルカメラでは、ユーザーが表示切替釦等を操作することにより表示部を選択する(以下、「手動表示切り替え」ともいう)ように設定が行われる場合がある。
 さらに、タッチパネル操作が可能なデジタルカメラにおいて、ユーザーが表示部としてビューファインダーを選択し、このときにビューファインダーの表示に対応したタッチパネル操作が有効である場合が考えられる。この場合には、ユーザーがビューファインダーの表示を確認せずにタッチパネルを操作することが可能となる。例えば、背面ディスプレイが表示状態にない場合には、タッチパネルが有効であることにユーザーが気づかず、不用意にタッチパネル表面に触れてしまう可能性がある。その結果、デジタルカメラにおいて、ユーザーの意図しない動作が実行されるおそれがある。つまり、誤操作が行われる可能性がある。
 ここに開示される技術は、ユーザーの意図しない動作の発生が抑制された撮像装置を提供することを目的とする。
 ここに開示される撮像装置は、撮像部と、第1の表示部と、第2の表示部と、タッチパネルと、近接検知部と、制御部と、を備える。撮像部は、被写体の光学像を撮像して画像データとして出力する。第1の表示部は、画像データに基づく第1画像を表示可能である。第2の表示部は、画像データに基づく第2画像を表示可能である。タッチパネルは、第2の表示部の表面に沿って配置され、第1画像と対応した第1操作を受け付け可能である。近接検知部は、第1の表示部と対象物との近接を検知可能である。制御部は、タッチパネルが第1操作を受け付けている場合に、近接検知部が第1の表示部と対象物との近接を検知したときは第1操作を有効にし、近接検知部が第1の表示部と対象物との近接を検知しないときは第1操作を無効にする。
 ここで、撮像装置とは、単体での撮影が可能な撮像装置だけでなく、カメラボディを含む概念である。例えば、撮像装置には交換レンズユニットを装着可能な交換レンズ式カメラのカメラボディが含まれる。
 また、第1操作を有効にするとは、第1操作に応じた処理が撮像装置において実行されることを意味している。第1操作を無効にするとは、第1操作が撮像装置における処理に実質的な影響を及ぼさないことを意味している。
 また、タッチパネルが第1操作を受け付けているとは、第1操作が有効である場合に第1操作に応じた処理が撮像装置において速やかに実行される状態を意味している。
 この撮像装置では、第1の表示部と対象物とが近接していることを条件として、第1操作が有効になる。したがって、ユーザーが第1の表示部に眼を近づけているときには、第1操作が有効となる。一方で、ユーザーが第1の表示部から眼を遠ざけた場合には、第1操作が無効となる。その結果、ユーザーの意図しない動作の発生を抑制することができる。
 ここに開示された技術によれば、ユーザーの意図しない動作の発生が抑制された撮像装置を提供することできる。
第1実施形態に係るデジタルカメラ1をユーザー側から見た背面図 第1実施形態に係るデジタルカメラ1の主要な回路構成を示すブロック図 第1実施形態に係るデジタルカメラ1の動作を示すフローチャート 第1実施形態に係るデジタルカメラ1の動作を示すフローチャート
 (第1実施形態)
   〔デジタルカメラの概略構成〕
 第1実施形態に係るデジタルカメラ1(撮像装置の一例)について説明する。デジタルカメラ1は、カメラボディ100と、交換レンズユニット200と、を有する。第1実施形態に於いて、撮像装置はレンズ交換式のミラーレス構造を有するデジタルカメラであり、カメラボディ100とカメラボディ100に装着可能な交換レンズユニット200とを有するカメラシステムでもある。カメラボディ100は、静止画撮影および動画撮影の両機能を有する。
 図1は、カメラボディ100の外観をユーザー側から見た背面図を示す。ここで、ユーザー側とは、被写体と反対側を意味している。カメラボディ100には、CCD(Charge Coupled Device)イメージセンサ110(後述)より取得した画像や設定メニュー画面等を表示する背面ディスプレイとして液晶モニタ120(第2の表示部の一例)が搭載されている。
 液晶モニタ120の前面には液晶モニタ用タッチパネル105が設けられている。液晶モニタ120には、例えば、予めプログラムされた設定メニュー画面が表示される。タッチパネル105は、液晶モニタ120の表示を透過させる。ユーザーは、タッチパネル105を透過した設定メニュー画面を視認できる。ユーザーは、タッチ操作によってタッチパネル105上で設定メニュー画面の項目を選択できる。このように、ユーザーは、タッチパネル105により各種の機能を選択および設定する事が可能である。ユーザーはタッチパネル105を介して、例えば、シャッタスピード値、絞り値、露出補正値、感度設定値、ホワイトバランスなどの設定を行うことができる。
 また、カメラボディ100は液晶モニタ120とは別に、CCDイメージセンサ110より取得された画像等を表示するデバイスとして電子ビューファインダー103(第1の表示部の一例)を備えている。なお、以下では、電子ビューファインダーをEVF(Electronic View Finder)ともいう。
 電子ビューファインダー103の近傍には、近接検知部として接眼センサ104が配置されている。ユーザーが電子ビューファインダー103を覗こうとして接近すると、接眼センサ104がユーザーの近接を検出する。ユーザーの近接が検出されると、設定に応じて表示先が液晶モニタ120から電子ビューファインダー103へ切り替わる。接眼センサ104には例えば反射型赤外線センサを用いることができる。ユーザーの顔と電子ビューファインダー103との距離が特定範囲内に接近した時、接眼センサ104は近接検知信号(以下、検知信号ともいう)をカメラコントローラ140(後述)に出力する。自動表示切り替え機能が有効である場合には、カメラコントローラ140は、接眼センサ104から検知信号を受け取ると、液晶モニタ120への表示を停止させ、電子ビューファインダー103への表示を行う。
 また、電子ビューファインダー103への表示を行っている際も、タッチパネル105の操作を有効にすることが可能である。このように、デジタルカメラ1は、電子ビューファインダー103に表示される画像に対応した操作を、タッチパネル105を介して受け付けることができる。この機能を以下ではEVFタッチ機能と称する。EVFタッチ機能が有効な状態とは、EVF操作モード(後述)が選択され、かつ、第1操作(後述)が有効である状態をいう。
 これにより、電子ビューファインダー103に映し出された設定メニュー画面のタッチ操作や、画像に重ねて表示された操作用キャラクターの操作等をタッチパネル105上で行うことが可能となる。
 操作用キャラクターとは、デジタルカメラ1に何らかの動作を行わせるためのアイコンである。例えば、クイックメニューの場合、クイックメニューを表す操作用キャラクターが表示される。ユーザーは、そのキャラクターの表示位置(座標)に対応するタッチパネルの座標上で、意思の決定動作を行う。ユーザーの意思の決定動作に対応して、表示されている画面は、ストロボ調整などを行うための予めプログラムされた設定画面(クイックメニュー表示)に変化する。
 ここで、意思の決定動作とはユーザーによる直感的な動作であって、デジタルカメラ1へのユーザーの指示を確定させるものである。例えば、意思の決定動作には、身近なものとしては、パーソナルコンピュータのマウスで行うダブルクリック操作などがある。本実施形態での意思の決定動作には、タップ動作およびドラッグ動作が含まれる。タップ動作とは、タッチパネル105の表面を軽く叩く動作である。タップ動作により、アイコンをポインティングすることができる。ドラッグ動作とは、タッチパネル105の表面をなでる動作である。ユーザーは、タップ動作やドラック動作により、タッチパネル105に対してタッチ操作を行うことができる。
 デジタルカメラ1では、画像の表示される表示部として液晶モニタ120と電子ビューファインダー103とのいずれか一方を選択することができる。つまり、液晶モニタ120に画像を表示させ、電子ビューファインダー103の表示を停止させることができる。また、電子ビューファインダー103に画像を表示させ、液晶モニタ120の表示を停止させることができる。このような表示部の切り替えは、自動的にあるいは意図的に実行される。
 具体的には、デジタルカメラ1は、自動表示切り替え機能と、手動表示切り替え機能と、を有する。自動表示切り替え機能が有効である場合には、液晶モニタ120の表示と電子ビューファイダー103の表示とが接眼センサ104の検知信号に応じて切り替わる。手動表示切り替え機能が有効である場合には、ユーザーが表示切替釦106により表示部を切り替える。自動表示切り替え機能が無効である場合に、手動表示切り替え機能が有効であるとも言える。
 ユーザーは、設定メニュー画面を介して自動表示切り替え機能もしくは手動表示切り替え機能を選択することができる。例えば、自動表示切り替え機能が有効である場合には、ユーザーは設定メニュー画面から手動表示切り替え機能を選択することにより自動表示切り替え機能を無効化し、手動表示切り替え機能を有効にすることができる。なお、液晶モニタ120および電子ビューファインダー103に画像が同時に表示されるモードが設けられていても構わない。
 図1に示すように、メニュー釦102は、カメラボディ100の背面に配置されている。メニュー釦102は、ユーザーによる押下動作を受け付けている。メニュー釦102は、カメラコントローラ140に接続されている。ユーザーは、メニュー釦102を操作することにより、設定メニュー画面を呼び出すことができる。つまり、メニュー釦102の押下操作により設定メニュー画面が呼び出され、設定メニュー画面が液晶モニタ120もしくは電子ビューファインダー103に表示される。なお、ユーザーは、タッチパネル105にタッチ操作を行うことにより設定メニュー画面を表示させることもできる。
 デジタルカメラ1は、表示切替釦106(切替操作受付部の一例、釦スイッチの一例)を有している。図1に示すように、表示切替釦106はカメラボディ100の背面に配置されている。表示切替釦106は、ユーザーによる押下操作を受け付けている。表示切替釦106はカメラコントローラ140に接続されている。ユーザーが自動表示切り替え機能を意図的に無効化した場合は、表示切替釦106に押下操作が行われると、画像が表示される表示部が切り替わる。つまり、手動表示切り替え機能が有効である場合には、ユーザーが表示切替釦106を押す毎に、液晶モニタ120と電子ビューファインダー103の表示が交互に切り替わる。
 このように、デジタルカメラ1では、手動表示切り替え機能を有効に設定されていれば、表示切替釦106の押下操作により、画像表示先が電子ビューファインダー103に固定された状態にすることができる。さらに、EVFタッチ機能を有効な状態(より詳細には、後述するEVF操作モードが起動した状態)にしておくことができる。このとき、カメラコントローラ140は接眼センサ104の検知信号を監視しており、電子ビューファインダー103をユーザーが覗いていない時にタッチパネル105が受け付けた操作を自動的に無効化する。その結果、誤操作および誤作動が防止される。
 なお、液晶モニタ120は可動式液晶モニタである。本実施形態では、液晶モニタ120はバリアングルモニタである。つまり、液晶モニタ120は、カメラボディ100本体に対して二つの異なる軸を中心に回転することができる。また、液晶モニタ120の向きに応じて表示方向を縦(ポートレート)や、横(ランドスケープ)、更に、上下逆転に変更する事が可能である。このとき、液晶モニタ120とタッチパネル操作との関係も表示方向の変化に応じて変化する。
   〔カメラボディの構成〕
 図2は、第1実施形態に係る、被写体を撮影するデジタルカメラ1の構成を示す概略ブロック図である。前述のように、デジタルカメラ1は、カメラボディ100とカメラボディ100に装着可能な交換レンズユニット200とを有する。
 カメラボディ100(撮像装置の一例)は、主に、CCDイメージセンサ110と、液晶モニタ120と、電子ビューファインダー103と、接眼センサ104と、タッチパネル105と、表示切替釦106と、カメラコントローラ140と、ボディマウント150と、電源160と、カードスロット170と、を備える。
 カメラコントローラ140(制御部の一例)は、レリーズ釦130等の操作部材を介して入力された指示に応じて、CCDイメージセンサ110等を含むカメラシステム全体を制御する。カメラコントローラ140は、演算や制御などの処理を実行するユニットである。カメラコントローラ140は、例えば、MPU(Micro Processing Unit)である。
 カメラコントローラ140は、垂直同期信号をタイミング発生器112に送信する。これと並行して、カメラコントローラ140は、垂直同期信号に基づいて、露光同期信号を生成する。カメラコントローラ140は、生成した露光同期信号を、ボディマウント150及びレンズマウント250を介して、レンズコントローラ240に繰り返し周期的に送信する。カメラコントローラ140は、制御動作や画像処理動作の際に、DRAM141をワークメモリとして使用する。
 カメラコントローラ140は、ユーザーが設定する撮影モードにしたがってカメラシステム全体を制御し、撮影動作を行う。撮影モードは、動画撮影モードおよび静止画撮影モードを含む。ユーザーは、静止画/動画選択ダイヤル131を操作することにより、動画撮影モードもしくは動作撮影モードを選択することができる。カメラコントローラ140は、静止画/動画選択ダイヤル131の状態を検出し、検出結果に応じてカメラコントローラ140の撮影モードを動画撮影モードおよび静止画撮影モードのいずれかに設定する。
 CCDイメージセンサ110(撮像部の一例)は、交換レンズユニット200を介して入射する被写体の光学像(以下、被写体像ともいう)を撮像して画像データを生成する。生成された画像データは、ADコンバーター111でデジタル化される。ADコンバーター111でデジタル化された画像データは、カメラコントローラ140で様々な画像処理が施される。ここで言う様々な画像処理とは、例えば、ガンマ補正処理、ホワイトバランス補正処理、キズ補正処理、YC変換処理、電子ズーム処理、JPEG(Joint Photographic Experts Group)圧縮処理等である。
 カメラコントローラ140は、CCDイメージセンサ110から出力された画像データに基づいて、表示用画像データを生成する。表示用画像データに基づいて、液晶モニタ120に第2画像が表示される。また、表示用画像データに基づいて、電子ビューファインダー103に第1画像が表示される。液晶モニタ120における第2画像の表示および電子ビューファインダー103における第1画像の表示は、カメラコントローラ140により制御される。カメラコントローラ140は、表示用画像データとキャラクター等を重ね合わせて表示する、所謂OSD(On-Screen Display)表示も行う。
 CCDイメージセンサ110が動作するタイミングは、タイミング発生器112で制御される。CCDイメージセンサ110の動作としては、静止画像の撮像動作、動画像の撮像動作、スルー画像の撮像動作等がある。静止画像の撮像動作と動画像の撮像動作とは、静止画/動画選択ダイヤル131のユーザーによる操作に従って切り替えられる。なお、スルー画像とは、撮像後、メモリーカード171などの記録装置に記録されない画像である。スルー画像は、主に動画像であり、液晶モニタ120等に表示される。スルー画像は、静止画像の構図を決めるために用いられる。
 なお、CCDイメージセンサ110は被写体像を画像データに変換する撮像素子の一例である。撮像素子(撮像部の一例)は画像を表す画像データを生成する電子部品であり、CCDイメージセンサ110のほかに、CMOSイメージセンサなどの光電変換素子を含む概念である。
 液晶モニタ120は、カメラコントローラ140で画像処理された表示用画像データに基づく第2画像を表示可能である。液晶モニタ120は、動画像も静止画像も選択的に表示可能である。つまり、第2画像は動画像もしくは静止画像である。
 液晶モニタ120は、液晶パネル(図示せず)と、バックライト(図示せず)と、を有する。液晶パネルは、ドライバ(図示せず)により駆動される。ドライバは、第2画像に対応して液晶パネルを駆動する。バックライトは、液晶パネルの背面を照らしている。バックライトが発する光は、液晶パネルを透過する。バックライトが点灯している場合には、ユーザーは第2画像を視認できる。
 本実施形態では、液晶モニタ120の表示が停止している場合には、液晶パネルおよびバックライトへの電力の供給が停止されている。なお、液晶モニタ120の表示を停止させるために、バックライトへの電力の供給を停止し、バックライトを消灯させてもよい。このとき、バックライトが消灯していれば、液晶パネルはドライバにより駆動されていても、液晶モニタ120は表示を停止しているといえる。バックライトが消灯していれば、EVF操作モードにおいてユーザーが電子ビューファインダー103に眼を近付けた場合に、ユーザーが眩しく感じることを抑制することができる。
 電子ビューファインダー103は、液晶モニタ120と同様に、カメラコントローラ140で画像処理された表示用画像データに基づく第1画像をファインダー構造内に表示可能である。第1画像は、動画像もしくは静止画像である。本実施形態では、電子ビューファインダー103は、液晶モニタ120の上側に配置されている。なお、第1画像は第2画像と同じであってもよいし、異なっていてもよい。
 電子ビューファインダー103は、表示デバイス(図示せず)と、ファインダー光学系(図示せず)と、接眼部103aと、を有する。表示デバイスは例えば小型の液晶パネルであり、第1画像を表示する。ファインダー光学系は、表示デバイスに表示された第1画像を拡大する。接眼部103aは、ユーザーが第1画像を視認するための窓である。本実施形態では、表示デバイスおよびファインダー光学系はファインダー構造に含まれている。ファインダー構造内への外乱光の進入は抑制されている。つまり、ファインダー構造内では、接眼時に外乱光の進入が概ね遮断される。その結果、ユーザーは電子ビューファインダー103を覗いて、クリアな画像を確認することができる。電子ビューファインダー103に電力が供給されていない場合には、電子ビューファインダー103の表示は停止している。
 接眼センサ104(近接検知部の一例)は、電子ビューファインダー103と対象物との近接を検知する。接眼センサ104は、電子ビューファインダー103への対象物の接近を検知するともいえる。接眼センサ104は、例えば赤外線方式の近接検出センサであり、電子ビューファインダー103に近設される。ここで、対象物とは接眼センサ104が検知可能な大きさおよび材質を有した物体である。対象物とは、例えば、ユーザーの眼や顔、もしくは頭部である。
 接眼センサ104は、赤外線発光素子(図示せず)と、赤外線受光素子(図示せず)と、を有する。赤外線発光素子は、赤外線を放つ。赤外線受光素子は、赤外線を受光し、検出する。電子ビューファインダー103と対象物とが近接している場合は、赤外線発光素子の放った赤外線が対象物(反射対象物ともいう)により反射され、赤外線受光素子により検出される。赤外線受光素子が赤外線を検出すると、接眼センサ104は検知信号を出力する。より詳細には、接眼センサ104は、電子ビューファインダー103に反射対象物が特定距離以内に近づくと検知信号を出力する。具体的には、検知信号は、ハイ(H)とロウ(L)の信号変化で表わされる。
 カメラコントローラ140は、接眼センサ104から出力された検知信号を受け付ける。カメラコントローラ140は、接眼センサ104が出力する検知信号に基づいてデジタルカメラ1を制御する。例えば、自動表示切り替え機能が有効な場合には、カメラコントローラ140は、入力された検知信号に基づいて、画像の表示される表示部を切り替える。具体的には、接眼センサ104によりユーザーの近接が検知された場合には、カメラコントローラ140は液晶モニタ120の表示を停止させ、電子ビューファインダー103の表示を開始させる。
 なお、検知信号に基づいて、電子ビューファインダー103とユーザーとの近接の有無が判断される。例えば、接眼センサ104からの出力信号がHからLに変化した場合には、カメラコントローラ140は対象物の近接が検知されたと判断する。接眼センサ104からの出力信号がLの状態に維持されている場合には、カメラコントローラ140は対象物の近接が維持されていると判断する。一方で、接眼センサ104からの出力信号がLからHに変化した場合には、カメラコントローラ140は対象物の近接が検知されなかったと判断する。接眼センサ104からの出力信号がHの状態に維持されている場合には、カメラコントローラ140は対象物が近接していない状態が維持されていると判断する。
 タッチパネル105は、液晶モニタ120の表示画面の前面に設置される。液晶モニタ120の表面に沿ってタッチパネル105が配置されているとも言える。タッチパネル105は、タッチセンサを有している。タッチセンサは、接触を検知する。また、タッチセンサは接触があったタッチ位置を表す信号を出力する。タッチセンサは、例えば、抵抗膜方式や静電容量方式により実現される。タッチパネル105は、カメラコントローラ140の制御を受け付けている。
 タッチパネル105は、様々なタッチ操作を受け付ける。ユーザーは、映像表示ないしOSD表示の操作用キャラクターに合わせタッチする事により、様々なタッチ操作を行うことができる。
 様々なタッチ操作の一例としては、タッチ動作によるフォーカス位置の指定がある。フォーカス位置とは被写体の一部であり、フォーカス位置に焦点が合わされる。ユーザーは、スルー画像表示された被写体の一部にタッチ動作を行う事により、タッチ位置をフォーカス位置として指定することができる。カメラコントローラ140は、タッチ位置に相当する被写体の特徴を即座に算出する。算出された特徴に基づいて、カメラコントローラ140は、フォーカス位置をタッチされた被写体の一部(つまり、タッチ位置に対応する部分)に設定する。
 また、タッチパネル105による操作は階層化されている。例えば、OSD表示上にはメニュー展開を意味するキャラクター(つまり、アイコン)が表示される。ユーザーがメニュー展開を意味するキャラクターをタッチすると、カメラコントローラ140は即座に、画像上にメニューを展開する。ユーザーは展開されたメニューの中から、タッチ操作により所望の項目を選択することができる。
 タッチパネル105は、第2画像に対応するモニタタッチ操作(以下、第2操作ともいう)を受け付け可能である。また、タッチパネル105は、第1画像に対応するEVFタッチ操作(以下、第1操作ともいう)を受け付け可能である。タッチパネル105がモニタタッチ操作を受け付けている場合には、タッチパネル105はモニタ操作モードで動作している。一方で、タッチパネル105がEVFタッチ操作を受け付けている場合には、タッチパネル105はEVF操作モードで動作している。このように、操作モードは、EVFタッチモードと、モニタ操作モードと、を含んでいる。
 EVF操作モード(第1モードの一例)では、ユーザーは電子ビューファインダー103に表示される第1画像に基づいてタッチパネル105を操作する。EVF操作モードでは、第1画像上の位置とタッチパネル105上の位置とが関連付けられている。したがって、例えば、ユーザーがEVF操作モードのタッチパネル105にタッチ操作を行うと、電子ビューファインダー103に表示された第1画像内のアイコンが選択される。このように、EVF操作モードでは、タッチパネル105は第1操作を受け付ける。つまり、EVF操作モードにおいて第1操作が有効である場合には、タッチパネル105に第1操作が入力されると、第1操作に応じた処理が速やかに実行される。
 モニタ操作モード(第2モードの一例)では、ユーザーは液晶モニタ120に表示される第2画像に基づいてタッチパネル105を操作する。モニタ操作モードでは、第2画像上の位置とタッチパネル105上の位置とが関連付けられている。したがって、モニタ操作モードでは、例えば、ユーザーがタッチパネル105にタッチ操作を行うと、液晶モニタ120に表示された第2画像内のアイコンが選択される。このように、モニタ操作モードでは、タッチパネル105は第2操作を受け付けている。つまり、モニタ操作モードにおいて第2操作が有効である場合には、タッチパネル105に第2操作が入力されると、第2操作に応じた処理が速やかに実行される。
 本実施形態では、画像を表示する表示部として液晶モニタ120が選択されると、デジタルカメラ1はモニタ操作モードに移行する。また、画像を表示する表示部として電子ビューファインダー103が選択されると、デジタルカメラ1はEVF操作モードに移行する。操作モードの移行は、カメラコントローラ140により制御される。
 自動表示切り替え機能が有効である場合には、接眼センサ104の検知結果に基づいて、モニタ操作モードもしくはEVF操作モードが選択される。つまり、ユーザーの接眼が接眼センサ104により検知された場合には、カメラコントローラ140によりEVF操作モードが選択される。ユーザーの接眼が接眼センサ104により検知されない場合には、カメラコントローラ140によりモニタ操作モードが選択される。
 一方で、手動表示切り替え機能が有効である場合には、表示切替釦106に入力された操作に基づいて、モニタ操作モードもしくはEVF操作モードが選択される。
 前述のように、表示切替釦106はカメラコントローラ140に接続されている。カメラコントローラ140は、手動表示切り替え機能が有効であるとき(つまり、自動表示切り替え機能が無効のとき)には、表示切替釦106に入力された操作に基づいて動作する。具体的には、カメラコントローラ140は、表示切替釦106が押される毎に、有効な表示部を入れ替える。より詳細には、カメラコントローラ140は、表示切替釦106が押下されると、液晶モニタ120の表示を停止し、電子ビューファインダー103の表示を開始する。あるいは、カメラコントローラ140は、表示切替釦106が押下されると、電子ビューファインダー103の表示を停止し、液晶モニタ120の表示を開始する。
 ここで、カメラコントローラ140は、液晶モニタ120の表示を開始する一方で、モニタ操作モードを起動する。また、カメラコントローラ140は、電子ビューファインダー103の表示を開始する一方で、EVF操作モードを起動する。
 具体的には、カメラコントローラ140は、表示切替釦106に入力された操作に基づいてモニタ操作モードとEVF操作モードとを切り替える。具体的には、手動表示切り替え機能が有効である場合には、カメラコントローラ140は表示切替釦106が押下されたかどうかを検出する。表示切替釦106が押下された場合には、カメラコントローラ140はタッチパネル105の操作モードを切り替える。より詳細には、モニタ操作モードにおいて表示切替釦106に押下操作が入力されると、カメラコントローラ140は操作モードをEVF操作モードに移行させる。一方で、EVF操作モードにおいて表示切替釦106に押下操作が入力されると、カメラコントローラ140は操作モードをモニタ操作モードに移行させる。したがって、カメラコントローラ140は、モニタ操作モードもしくはEVF操作モードで動作するようにタッチパネル105を制御しているとも言える。
 以上のように、ユーザーは、自身の意図および操作に基づいて、液晶モニタ120または電子ビューファインダー103に表示された設定メニューの選択により、接眼センサ104による自動表示切り替えを停止させることができる。このとき、自動表示切り替え機能が停止された場合であっても、表示および操作モードの切り替えを手動で実行することが可能である。
 カードスロット170は、メモリーカード171を装着可能である。カードスロット170は、カメラコントローラ140からの制御に基づいて、メモリーカード171を制御する。メモリーカード171は、カメラコントローラ140の画像処理により生成された画像データを格納可能である。例えば、メモリーカード171は、JPEG画像ファイルを格納できる。また、メモリーカード171は、内部に格納された画像データ又は画像ファイルを出力できる。メモリーカード171から出力された画像データ又は画像ファイルは、カメラコントローラ140で画像処理される。例えば、カメラコントローラ140は、メモリーカード171から取得した画像データ又は画像ファイルを伸張して表示用画像データを生成する。
 電源160は、カメラシステムで消費するための電力を供給する。電源160は、例えば、乾電池であってもよいし、充電池であってもよい。また、電源160は、電源コードにより外部から供給される電力をカメラシステムに供給するユニットであってもよい。
 ボディマウント150は、交換レンズユニット200のレンズマウント250と機械的及び電気的に接続可能である。ボディマウント150は、レンズマウント250を介して、交換レンズユニット200との間で、データを送受信可能である。ボディマウント150は、カメラコントローラ140から受信した露光同期信号をレンズマウント250を介してレンズコントローラ240に送信する。また、カメラコントローラ140から受信したその他の制御信号をレンズマウント250を介してレンズコントローラ240に送信する。また、ボディマウント150は、レンズマウント250を介してレンズコントローラ240から受信した信号をカメラコントローラ140に送信する。例えば、ボディマウント150は、レンズマウント250を介してレンズコントローラ240からフォーカスレンズ230の駆動方法に関する駆動方法情報を受信する。ボディマウント150は、受信した駆動方法情報をカメラコントローラ140に送信する。駆動方法情報は、交換レンズユニット200のフラッシュメモリ242に記憶されている。また、ボディマウント150は、電源160から受けた電力をレンズマウント250を介して交換レンズユニット200全体に供給する。
   〔交換レンズユニットの構成〕
 交換レンズユニット200は、主に、光学系Lと、レンズコントローラ240と、レンズマウント250、とを備える。交換レンズユニット200の光学系Lは、ズームレンズ210と、OISレンズ220と、フォーカスレンズ230と、を含む。
 ズームレンズ210は、交換レンズユニット200の光学系Lで形成される被写体像の倍率を変化させるためのレンズである。ズームレンズ210は、1枚又は複数枚のレンズで構成される。
 駆動機構211は、ユーザーが操作可能なズームリング等を含む。ズームリングは、例えば、交換レンズユニット200の外周部に配置される。駆動機構211は、ユーザーによる操作をズームレンズ210に伝える。具体的には、駆動機構211は、ズームリングなどを介して入力されたユーザーの操作に基づいて、ズームレンズ210を光学系の光軸方向に沿って移動させる。
 検出器212は、駆動機構211を介してズームレンズ210の駆動量を検出する。レンズコントローラ240は、検出器212における検出結果を取得することにより、ズームレンズ210の位置を把握する。このように、レンズコントローラ240は、光学系Lにおけるズーム倍率を把握することができる。
 OISレンズ220は、交換レンズユニット200の光学系Lで形成される被写体像のぶれを補正するためのレンズである。OISレンズ220は、デジタルカメラ1のぶれを相殺する方向に移動することにより、CCDイメージセンサ110上の被写体像のぶれを小さくする。OISレンズ220は、1枚又は複数枚のレンズで構成される。
 アクチュエータ221は、OIS用IC223からの制御を受けて、光学系Lの光軸に垂直な面内でOISレンズ220を駆動する。アクチュエータ221は、例えば、マグネットと平板コイルとで実現可能である。
 位置検出センサ222は、光学系Lの光軸に垂直な面内におけるOISレンズ220の位置を検出するセンサである。位置検出センサ222は、例えば、マグネットとホール素子で実現可能である。ジャイロセンサなどの振れ検出器(図示せず)は、デジタルカメラ1の振れを検出する。
 OIS用IC223は、位置検出センサ222の検出結果及び振れ検出器の検出結果に基づいて、アクチュエータ221を制御する。OIS用IC223は、レンズコントローラ240から振れ検出器の検出結果を得る。また、OIS用IC223は、レンズコントローラ240に対して、光学的像ぶれ補正処理の状態を示す信号を送信する。
 第1の手振れ補正ユニットは、アクチュエータ221、位置検出センサ222、OIS用IC223および振れ検出器を含み、上記のようにデジタルカメラ1の振れを検出すると共にデジタルカメラ1の振れにより生じる画像のぶれを補正する。また、レンズコントローラ240は、第1の手振れ補正ユニットの補正動作を制御する。
 フォーカスレンズ230は、CCDイメージセンサ110上に形成される被写体像のフォーカス状態を変化させるためのレンズである。フォーカスレンズ230は、1枚又は複数枚のレンズで構成される。
 フォーカスモータ233は、レンズコントローラ240の制御に基づいて、フォーカスレンズ230を光学系Lの光軸に沿って進退するよう駆動する。これにより、CCDイメージセンサ110上に形成される被写体像のフォーカス状態を変化させることができる。フォーカスモータ233としては、本実施形態では、DCモータを用いることができる。但し、フォーカスモータ233はDCモータに限定されず、ステッピングモータやサーボモータ、超音波モータなどであってもよい。
 第1エンコーダ231及び第2エンコーダ232は、フォーカスレンズ230の駆動状態を示す信号を生成するエンコーダである。第1エンコーダ231及び第2エンコーダ232は、例えば、フォーカスモータ233の回転軸に取り付けられた回転子とフォトカプラーとで実現可能である。ここで、回転子は、所定間隔で孔が開いた円盤体である。フォトカプラーは、回転子の一方面から検出用光を発し、他方面から受光する。したがって、回転子が回転することにより、フォトカプラーのON/OFF状態が相互に切り替わる。
 レンズコントローラ240は、カウンタ243を有している。カウンタ243は、フォトカプラーにおいてON/OFF状態の切り替えが何回生じたかをカウントする。
 第1エンコーダ231から得られる信号と第2エンコーダ232から得られる信号とは、互いに位相がずれている。したがって、第1エンコーダ231の状態がOFFからONに切り替わったときに、第2エンコーダ232から得られる信号を調べることにより、フォーカスレンズ230の移動方向を判別することができる。具体的には、第1エンコーダ231の状態がOFFからONに切り替わったときの第2エンコーダ232の状態としては、ONの状態とOFFの状態とがある。カウンタ243は、第2エンコーダ232の状態がONのときに、第1エンコーダ231の状態がOFFからONに切り替わった場合、これを正転と判断して「+1」とカウントする。一方で、カウンタ243は、第2エンコーダ232の状態がOFFのときに、第1エンコーダ231の状態がOFFからONに切り替わった場合、これを逆転と判断して「-1」とカウントする。このようにカウント数を加算することにより、レンズコントローラ240は、フォーカスレンズ230の移動量を把握できる。
 レンズコントローラ240は、カメラコントローラ140からの制御信号に基づいて、OIS用IC223やフォーカスモータ233などを含む交換レンズユニット200全体を制御する。例えば、レンズコントローラ240は、カメラコントローラ140からの制御信号に基づいて、フォーカスモータ233を制御する。レンズコントローラ240に制御されたフォーカスモータ233は、フォーカスレンズ230を光学系Lの光軸に沿って所定の駆動方法で進退させる。また、レンズコントローラ240は、検出器212、OIS用IC223、第1エンコーダ231、第2エンコーダ232などから信号を受信して、カメラコントローラ140に送信する。レンズコントローラ240は、レンズマウント250およびボディマウント150を介して、カメラコントローラ140との送受信を行う。レンズコントローラ240は、DRAM241をワークメモリとして使用する。
   〔本実施形態との対応〕
 CCDイメージセンサ110は、撮像部の一例である。液晶モニタ120は、第2の表示部の一例である。電子ビューファインダー103は、第1の表示部の一例である。接眼センサ104は、近接検知部の一例である。カメラコントローラ140は、制御部の一例である。
   〔デジタルカメラ1の動作〕
 図3および図4は、カメラボディ100における画面表示の切り替え処理を示すフローチャートである。
   《自動表示切り替え機能が有効である場合の動作》
 図3は、自動表示切り替え機能が有効である場合の標準的な動作を示している。自動表示切り替え機能が有効である場合には、接眼センサ104の検知結果に応じて画面表示の切り替え処理が実行される。本実施形態では、電源投入直後に、カメラコントローラ140は、液晶モニタ120の表示に基づいたタッチ操作を有効な状態とする(ステップS101)。つまり、ステップS101では、カメラコントローラ140はモニタ操作モードを有効にする。さらに、ステップS101では、カメラコントローラ140は第2操作を有効な状態にする。このとき、第1操作は無効となっている。
 カメラコントローラ140は、撮像画像等の表示先を液晶モニタ120とする(ステップS102)。具体的には、ステップS102では、カメラコントローラ140は第2画像を液晶モニタ120に表示させる。このように、ステップS102では、液晶モニタ120がONの状態となる。
 カメラコントローラ140は、自動表示切り替え機能が選択されたかどうかを判定する(ステップS103)。前述のように、ユーザーにより自動表示切り替え機能および手動表示切り替え機能のいずれか一方が選択される。自動表示切り替え機能もしくは手動表示切り替え機能のいずれが選択されているかの情報は、例えば、DRAM141や不揮発性メモリ(図示せず)に記憶されている。ステップS103では、カメラコントローラ140は、記憶されている情報に基づいて、自動表示切り替え機能が選択されているかどうかを判定することができる。
 ステップS103で自動表示切り替え機能が選択されている場合には、処理はステップS104に進む。ステップS103で手動表示切り替え機能が選択されている場合には、処理はステップS203(図4)に進む。
 自動表示切り替え機能が選択されている場合には、カメラコントローラ140は、自動表示切り替え機能を有効にする(ステップS104)。
 カメラコントローラ140が自動表示切り替え機能を有効にすると、接眼センサ104は、ユーザーが電子ビューファインダー103へ接眼しているかどうかを検出する(ステップS105)。カメラコントローラ140が、接眼センサ104の検知結果から、ユーザーの電子ビューファインダーへの接眼が検知されていないと判断した場合(つまり、ステップS105において"n"である場合)は、処理はステップS106へ進む。
 ユーザーの接眼が検知されない場合には、カメラコントローラ140は撮像画像等を含む第2画像を液晶モニタ120に表示するとともに、電子ビューファインダー103への表示を停止する(ステップS106)。つまり、電子ビューファインダー103はOFFの状態にされる。なお、電子ビューファインダー103がOFFの状態であった場合には、OFFの状態が維持される。以下では、同様に、液晶モニタ120もしくは電子ビューファインダー103をONの状態にする処理において、ONにされるべき表示部が既にONの状態であった場合には、ONの状態が維持される。また、液晶モニタ120もしくは電子ビューファインダー103をOFFの状態にする処理において、OFFにされるべき表示部が既にOFFの状態であった場合には、OFFの状態が維持される。
 さらに、カメラコントローラ140は、モニタ操作モードを起動させる(ステップS107)。つまり、ステップS107では、モニタ操作モードがONの状態とされる。本実施形態では、タッチパネル105の全域がユーザーの第2操作を受け付けている。タッチパネル105の全域とは、タッチパネル105のうち液晶モニタ120に表示された第2画像の全域と重複する領域である。このように、モニタ操作モードでは、タッチパネル105の全域が操作を入力可能な領域(以下、入力可能領域ともいう)として設定されている。また、ステップS107では、カメラコントローラ140は第2操作を有効な状態とする。
 ステップS107での処理が終了すると、処理はステップS103へ戻る。その後も、撮影操作や他モードへの強制操作など割り込み操作が行われない限り、ステップS103での処理、および、接眼センサ104による接眼の有無のチェック(ステップS105)は特定周期毎(例えば、1/60秒毎)に行われる。ステップS103~ステップS107の処理が繰り返し実行されている状態では、モニタタッチ操作(つまり、第2操作)が有効である。したがって、ユーザーは液晶モニタ120に表示された第2画像に基づいて、タッチパネル105を介してデジタルカメラ1を操作することができる。
 一方、ユーザーが電子ビューファインダー103へ接眼していると判断された場合(つまり、ステップS105において"y"の場合)は、撮像画像等の液晶モニタ120への表示が停止されるとともに電子ビューファインダー103への画像表示が行われる(ステップS108)。このように、ステップS108では、カメラコントローラ140は、液晶モニタ120での第2画像の表示を停止させる。つまり、カメラコントローラ140は液晶モニタ120をOFFの状態にする。具体的には、液晶モニタ120のバックライトが消灯される。さらに、ステップS108では、カメラコントローラ140は電子ビューファインダー103での第1画像の表示を開始させる。つまり、カメラコントローラ140は電子ビューファインダー103をONの状態とする。
 ユーザーの接眼が検知された場合には、カメラコントローラ140は、EVF操作モードを起動させる(ステップS109)。言い換えれば、ステップS109では、カメラコントローラ140はEVF操作モードをONの状態とする。本実施形態では、タッチパネル105の全域がユーザーの第1操作を受け付ける。タッチパネル105の全域とは、タッチパネル105のうち液晶モニタ120の表示画面と重複する領域である。このように、EVF操作モードでは、タッチパネル105の全域が入力可能な領域として設定されている。さらに、ステップS109では、カメラコントローラ140は第1操作を有効な状態とする。
 ステップS109での処理が終了すると、処理はステップS103に戻る。しかる後も、ステップS103での処理、および、接眼センサ104による接眼の有無のチェック(ステップS105)が特定周期毎に行われる。ステップS103~ステップS109の処理が繰り返し実行されている状態では、前述したEVFタッチ機能が有効である。したがって、ユーザーは電子ビューファインダー103に表示された第1画像に基づいて、タッチパネル105を介してデジタルカメラ1を操作することができる。
 このように、自動表示切り替え機能が有効である場合、ユーザーが電子ビューファインダー103へ接眼していないときには液晶モニタ120に画像が表示される。したがって、ユーザーはデジタルカメラ1に電源が入っており動作中であること、ひいてはタッチパネル105による操作(より詳細には、第2操作)が有効となっていることを認識できる。
   《手動表示切り替え機能が有効である場合の動作》
 図4は、ユーザーが手動で画面表示の切り替えを行う手動表示切り替え機能が有効である場合の動作を示すフローチャートである。
 前述のように、ステップS103では、自動表示切り替え機能と手動表示切り替え機能とのいずれが選択されているかが判定される。手動表示切り替え機能が選択されている場合(つまり、ステップS103において“n”の場合)には、カメラコントローラ140は手動表示切り替え機能を有効にする(ステップS203)。
 自動表示切り替え機能が無効化、すなわち手動表示切り替え機能が有効化されたことは、例えば、DRAM141に一時的に記憶される。
 手動表示切り替え機能が有効になると、カメラコントローラ140は、EVF操作モードが選択されているかどうかを判定する(ステップS204)。ステップS204では、操作モードとしてモニタ操作モードとEVF操作モードとのいずれが選択されているかが判定される。
 具体的には、液晶モニタ120が表示されているときに、ユーザーが表示切替釦106を押すと、EVF操作モードが選択される。ステップS204でEVF操作モードが選択されていると判断されると、処理はステップS205に進む。ステップS204でモニタ操作モードが選択されていると判断されると、処理はステップS209に進む。
 選択されている操作モードを判定するために、例えば、フラグが設定される。選択されている操作モードに応じてフラグの値は異なっている。一例として、操作モードとしてモニタ操作モードが選択されている場合にフラグの値は「1」であり、操作モードとしてEVF操作モードが選択されている場合にフラグの値は「0」である。フラグの値は、例えば、DRAM141に記憶される。
 本実施形態では、ユーザーが表示切替釦106を押下すると、フラグの値が変更される。具体的には、表示切替釦106に押下操作が入力されると、出力信号がカメラコントローラ140に出力される。カメラコントローラ140は、表示切替釦106から出力信号を受け取ると、フラグの値を変更する。例えば、操作モードをモニタ操作モードからEVF操作モードに切り替えるために表示切替釦106に押下操作が入力されると、カメラコントローラ140はフラグの値を「1」から「0」に変更する。
 ステップS204において、カメラコントローラ140は、フラグの値を読み出す。カメラコントローラは、フラグの値に基づいて、モニタ操作モードとEVF操作モードとのいずれが選択されているのかを判定する。
 なお、ユーザーがデジタルカメラ1の動作を終了させた時点において選択されていた操作モードが、不揮発性メモリ(図示せず)に記憶されていてもよい。デジタルカメラ1の起動時に手動表示切り替え機能が有効であった場合には、カメラコントローラ140はステップS204において不揮発性メモリに記憶されている操作モードを選択することができる。
 EVF操作モードが選択されている場合には、カメラコントローラ140は、電子ビューファインダー103での第1画像の表示を開始するとともに、液晶モニタ120での表示を停止する(ステップS205)。このように、EVF操作モードが選択された場合には、カメラコントローラ140は液晶モニタ120の表示を停止させる。また、ステップS205では、カメラコントローラ140は、EVF操作モードを起動する。つまり、カメラコントローラ140は、EVF操作モードをONの状態にする。なお、EVF操作モードまたはモニタ操作モードをONにする処理において、ONにされるべき操作モードが既にONであった場合には、ONの状態が維持される。同様に、EVF操作モードまたはモニタ操作モードをOFFにする処理において、OFFにされるべき操作モードが既にOFFであった場合には、OFFの状態が維持される。
 EVF操作モードが起動すると、カメラコントローラ140は、ユーザーの接眼が検知されたかどうかを判定する(ステップS206)。カメラコントローラ140は、接眼センサ104の監視を特定周期毎に行い、接眼が検知されたかどうかを判定する。
 カメラコントローラ140は、接眼センサ104からの検知信号に基づいてユーザーが電子ビューファインダー103へ接眼していると判断した場合(つまり、ステップS206において"y"の場合)は、第1操作を有効にする(ステップS207)。ステップS207での処理が終了すると、処理はステップS103へ戻る。
 ステップS103~ステップS207の処理が繰り返し実行されている状態では、EVFタッチ機能が有効である。したがって、ユーザーは電子ビューファインダー103に表示された第1画像に基づいて、タッチパネル105を介してデジタルカメラ1を操作することができる。
 カメラコントローラ140は、接眼センサ104から検知信号が出力されておらず、ユーザーが電子ビューファインダー103へ接眼していないと判断した場合(つまり、ステップS206において"n"の場合)は、第1操作を無効な状態にする(ステップS208)。このとき、操作モードがEVF操作モードであるので、タッチパネル105は第2操作を受け付けていない。したがって、第2操作は無効な状態である。ステップS208での処理が終了すると、処理はステップS103へ戻る。
 ステップS103~ステップS208の処理が繰り返し実行されている状態では、ユーザーはEVFタッチ機能を使用できない。また、EVF操作モードが選択されているので、第2操作は無効である。したがって、ステップS103~ステップS208の処理が繰り返し実行されている状態では、ユーザーはタッチパネル105を介してデジタルカメラ1を操作することができない。
 ここで、タッチ操作(具体的には、第1操作もしくは第2操作)を無効にするとは、タッチパネル105が受け付けた操作がデジタルカメラ1における処理に実質的な影響を及ぼさないことを意味している。したがって、タッチ操作を無効にするとは、タッチパネル105への電源供給を停止すること、タッチパネル105が操作されてもタッチパネル105が操作に応じた信号を出力しないこと、タッチパネル105が受け付けた操作に応じて信号が出力されても、カメラコントローラ140がその信号を無視すること、を含む概念である。
 仮に、液晶モニタ120への表示が行われず、タッチパネル105による操作(より詳細には、第1操作)が有効となっている状態を想定すると、ユーザーはデジタルカメラ1に電源が入っており動作中であること、ひいてはタッチパネル105による操作が有効となっていることを認識することが困難である。そこでデジタルカメラ1では、ユーザーが電子ビューファインダー103を覗いていない時はタッチ操作(具体的には、第1操作)が無効化される。その結果、ユーザーが電子ビューファインダー103に接眼していないときに、タッチパネル105に対する誤操作を防止することできる。
 なお、「タッチパネル105がタッチ操作(具体的には、第1操作もしくは第2操作)を受け付けている」とは、タッチ操作が有効である場合にタッチ操作に応じた処理が速やかに実行される状態を意味している。したがって、例えば、ステップS208においてタッチパネル105への電源の供給が停止されていても、タッチパネル105は第1操作を受け付けているといえる。操作モードがEVF操作モードに設定されていれば、第1操作が無効から有効に切り替わった場合には直ちにタッチパネル105に電源が供給され、タッチパネル105がタッチ操作の検知を開始する。このように、例えば、ステップS208においてタッチパネル105への電源の供給が停止されていても、タッチパネル105はEVF操作モードで動作しているといえる。
 図4のフローにおいて、ステップS204においてモニタ操作モードが選択されていると判定された場合には、処理はステップS209に進む。カメラコントローラ140は、液晶モニタ120の表示を開始あるいは継続し、電子ビューファインダー103の表示を停止する(ステップS209)。
 ステップS209の処理が終了すると、カメラコントローラ140はモニタ操作モードを起動させる(ステップS210)。さらに、ステップS210では、カメラコントローラ140は第2操作を有効にする。
 ステップS210の処理が終了すると、処理はステップS103へ戻る。ステップS103~ステップS210の処理が繰り返し実行されている状態では、モニタタッチ操作(つまり、第2操作)が有効である。したがって、ユーザーは液晶モニタ120に表示された第2画像に基づいて、タッチパネル105を介してデジタルカメラ1を操作することができる。
   〔まとめ〕
 ここで、第1実施形態に係るデジタルカメラ1の効果をまとめる。
 (1)
 このデジタルカメラ1では、タッチパネル105は第1画像と対応する第1操作を受け付け可能である。接眼センサ104は電子ビューファインダー103とユーザーとの近接を検知可能である。タッチパネル105が第1操作を受け付けている場合に、接眼センサ104が電子ビューファインダー103とユーザーとの近接を検知した場合は、カメラコントローラ140は第1操作を有効とする。タッチパネル105が第1操作を受け付けている場合に、接眼センサ104が電子ビューファインダー103とユーザーとの近接を検知しない場合は、カメラコントローラ140は第1操作を無効にする。
 このように、タッチパネル105が第1操作を受け付けている場合に、電子ビューファインダー103とユーザーとが近接していることを条件として、第1操作が有効になる。したがって、ユーザーが電子ビューファインダー103に眼を近付けているときには、第1操作が有効となる。ユーザーが電子ビューファインダー103から眼を遠ざけた場合には、第1操作が無効となる。その結果、ユーザーの意図しない動作の発生を抑制することができる。
 具体的には、ユーザーが電子ビューファインダー103に眼を近付けていないときに、ユーザーが誤ってタッチパネル105に触れても、第1操作は無効となる。その結果、誤操作が生じにくくなる。
 ここで、第1操作を有効にするとは、第1操作に応じた処理がデジタルカメラ1において実行されることを意味している。第1操作を無効にするとは、第1操作がデジタルカメラ1における処理に実質的な影響を及ぼさないことを意味している。したがって、タッチ操作を無効にするとは、タッチパネル105への電源供給を停止すること、タッチパネル105が操作されてもタッチパネル105が操作に応じた信号を出力しないこと、タッチパネル105が受け付けた操作に応じて信号が出力されても、カメラコントローラ140がその信号を無視すること、を含む概念である。
 また、タッチパネル105が第1操作を受け付けているとは、第1操作が有効である場合に第1操作に応じた処理がデジタルカメラ1において速やかに実行される状態を意味している。
 (2)
 このデジタルカメラ1では、タッチパネル105は第2画像と対応する第2操作を受け付け可能であるので、ユーザーはタッチパネル105の操作方法を選択することができる。その一方で、タッチパネル105が第1操作を受け付けている場合には、誤操作の発生が抑制されている。したがって、誤操作の発生を抑制しつつ、多様な操作方法を実現することができる。このように、ユーザーの利便性を高めることが可能である。
 (3)
 このデジタルカメラ1では、タッチパネル105が第1操作を受け付けている場合には、液晶モニタ120は表示を停止している。したがって、消費電力を低減させることができる。
 また、ユーザーが電子ビューファインダー103に眼を近付けている場合に、液晶モニタ120の明るさを抑制することができる。その結果、電子ビューファインダー103にユーザーが目を近付けた場合に、ユーザーが眩しく感じることを抑制することができる。
 (4)
 このデジタルカメラ1では、カメラコントローラ140はモニタ操作モードもしくはEVF操作モードで動作するようにタッチパネル105を制御するので、一つのタッチパネル105を複数のモードで動作させることができる。その結果、タッチパネル105を有効活用することができる。
 また、デジタルカメラ1は、押下操作を受け付け可能な表示切替釦106を有している。カメラコントローラ140は表示切替釦106に入力された押下操作に基づいてモニタ操作モードとEVF操作モードとを切り替える。したがって、ユーザーは表示切替釦106の押下によりタッチパネル105の操作モードを切り替えることができる。このように、ユーザーは簡単な操作により、状況に応じて操作モードを使い分けることができる。その結果、ユーザーの利便性を高めることが可能である。
 (他の実施の形態)
  本発明の実施形態は、前述の実施形態に限定されず、本発明の趣旨を逸脱しない範囲で種々の変形および修正が可能である。
 (A)
 前述の実施形態では、電子ビューファインダー103および液晶モニタ120の間で表示先を切り替える構成について説明した。前述の実施形態では電子ビューファインダー103が用いられていたが、電子ビューファインダー103の代わりに光学ビューファインダーが用いられてもよい。レンズユニットから出射する被写体像は、反射ミラーによって反射され光学ビューファインダーに導かれる。ユーザーは光学ビューファインダーを介して被写体像を視認することができる。
 ここで、光学ビューファインダーを用いる場合、ファインダー内に、被写体像に重ねて表示可能な液晶パネルを配置し、この液晶パネルにOSD表示等を行うようにする。接眼センサ104の検知信号からユーザーが光学ビューファインダーへ接眼していることを検知すると、カメラコントローラ140は、タッチパネル105の受け付けた操作を有効にする。ユーザーが光学ビューファインダーを覗きながらタッチパネル105を操作すると、入力された操作に応じて光学ビューファインダー内の液晶パネルへの表示内容が変化する。一方、接眼センサ104から検知信号が出力されておらず、ユーザーが光学ビューファインダーへ接眼していないと判断したときには、カメラコントローラ140はタッチパネル105の受け付けた操作を無効にする。
 (B)
 前述の実施形態では、EVF操作モードにおいて液晶モニタ120の表示は停止されていたが、EVF操作モードにおいて液晶モニタ120に画像が表示されていても構わない。例えば、EVF操作モードでは、EVF操作モードが選択されていることを表す画像を液晶モニタ120に表示することができる。このとき、液晶モニタ120の輝度を低く設定することができる。液晶モニタ120の輝度を抑制すれば、電子ビューファインダー103に眼を近付けたユーザーは、眩しさを感じにくくなる。
 (C)
 前述の実施形態では、第2の表示部の一例として液晶モニタ120が用いられていたが、第2の表示部は液晶モニタ以外であってもよい。第2の表示部は、画像を表示できるデバイスであればよい。第2の表示部としては、液晶モニタの他にも、有機ELパネル、無機ELパネル、プラズマディスプレイパネル、などが考えられる。
 また、前述の実施形態では、電子ビューファインダー103に用いられる表示デバイスとして液晶パネルが用いられていたが、表示デバイスは液晶パネル以外であってもよい。電子ビューファインダー103に用いられる表示デバイスは、画像を表示できるデバイスであればよい。電子ビューファインダー103に用いられる表示デバイスとしては、液晶モニタの他にも、有機ELパネル、無機ELパネル、プラズマディスプレイパネル、などが考えられる。
 (D)
 前述の実施形態の各処理はハードウェアにより実現されてもよいし、ソフトウェア(OS(Operating System)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現されてもよい。さらに、前述の実施形態の各処理は、ソフトウェアおよびハードウェアの混在処理により実現されても良い。なお、前述の実施形態での処理をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。前述の実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
 また、前述の実施形態における処理方法の実行順序は、必ずしも、前述の実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序が入れ替えられても構わない。
 (E)
 前述の実施形態では、動画撮影に対応したデジタルカメラおよびそのカメラボディを例に用いて説明したが、ここで説明した技術はこれ以外の撮像装置にも適用でき、例えばデジタルビデオカメラやデジタルスチルカメラにも適応できる。このように、ここに開示した技術は、静止画撮影のみに対応した撮像装置、動画撮影のみに対応した撮像装置にも適用可能である。
 ここで、撮像装置とは、単体での撮影が可能な撮像装置だけでなく、カメラボディを含む概念である。例えば、撮像装置には交換レンズユニットを装着可能な交換レンズ式カメラのカメラボディが含まれる。
 (F)
 前述の実施形態では、タッチパネル105の全域が入力可能領域に設定されていたが、タッチパネル105の一部の領域のみが入力可能領域に設定されても構わない。
 (G)
 前述の実施形態では、赤外線方式の接眼センサ104を例にして近接検知部について説明したが、近接検知部は対象物と電子ビューファインダー103との近接を検知できる機構であればよい。したがって、接眼センサ104は、赤外線方式のセンサに限られず、例えば、超音波方式のセンサであっても構わない。
 (H)
 前述の実施形態では、表示切替釦106に入力された押下動作に基づいて操作モードが切り替えられていたが、操作モードを切り替えるための動作は必ずしも押下動作でなくてもよい。例えば、操作モードの切り替えに使用されるレバーがデジタルカメラ1に設けられていてもよい。この場合には、レバーの回転操作に基づいて操作モードが切り替えられる。
 ここに開示された技術によれば、タッチパネルへの誤操作を低減可能であるので、ここに開示された技術はデジタルカメラなどの撮像装置に適用可能であり、有用である。
 100 カメラボディ
 103 電子ビューファインダー
 103a 接眼部
 104 接眼センサ
 105 タッチパネル
 106 表示切替釦
 110 CCDイメージセンサ
 120 液晶モニタ
 140 カメラコントローラ
 200 交換レンズユニット

Claims (11)

  1.  被写体の光学像を撮像して画像データとして出力する撮像部と、
     前記画像データに基づく第1画像を表示可能な第1の表示部と、
     前記画像データに基づく第2画像を表示可能な第2の表示部と、
     前記第2の表示部の表面に沿って配置され、前記第1画像と対応する第1操作を受け付け可能なタッチパネルと、
     前記第1の表示部と対象物との近接を検知可能な近接検知部と、
     前記タッチパネルが前記第1操作を受け付けている場合に、前記近接検知部が前記第1の表示部と対象物との近接を検知したときは前記第1操作を有効にし、前記近接検知部が前記第1の表示部と対象物との近接を検知しないときは前記第1操作を無効にする制御部と、
    を備える撮像装置。
  2.  前記タッチパネルは、前記第2画像と対応する第2操作を受け付け可能である、
    請求項1に記載の撮像装置。
  3.  前記タッチパネルが前記第1操作を受け付けている場合には、前記第2の表示部は表示を停止している、
    請求項1または2に記載の撮像装置。
  4.  前記制御部は、第1モードもしくは第2モードで動作するように前記タッチパネルを制御可能であり、
     前記第1モードでは、前記タッチパネルは前記第1操作を受け付けており、
     前記第2モードでは、前記タッチパネルは前記第2操作を受け付けている、
    請求項2または3に記載の撮像装置。
  5.  前記制御部は、前記タッチパネルが前記第1モードで動作している場合に、前記第1の表示部と対象物との近接が前記近接検知部により検知されたときは前記第1操作を有効にし、前記第1の表示部と対象物との近接が前記近接検知部により検知されないときは前記第1操作を無効にする、
    請求項4に記載の撮像装置。
  6.  操作を受け付け可能な切替操作受付部をさらに備え、
     前記制御部は、前記切替操作受付部に入力された操作に基づいて前記第1モードと前記第2モードとを切り替える、
    請求項4または5に記載の撮像装置。
  7.  前記切替操作受付部は、釦スイッチである、
    請求項6に記載の撮像装置。
  8.  前記第1の表示部は、接眼部を有する、
    請求項1から7のいずれかに記載の撮像装置。
  9.  前記第1の表示部はビューファインダーである、
    請求項1から8のいずれかに記載の撮像装置。
  10.  被写体の光学像を撮像して画像データとして出力する撮像部と、
     前記画像データに基づく第1画像を表示可能な第1の表示部と、
     前記画像データに基づく第2画像を表示可能な第2の表示部と、
     前記第2の表示部の表面に沿って配置されたタッチパネルと、を備える撮像装置に用いられる制御方法であって、
     前記タッチパネルが前記第1画像と対応する第1操作を受け付けている場合に、近接検知部により前記第1の表示部と対象物との近接を判定することと、
     前記近接検知部により前記第1の表示部と対象物との近接が検知された場合に、制御部により前記第1操作を有効にすることと、
     前記近接検知部により前記第1の表示部と対象物との近接が検知されない場合に、前記制御部により前記第1操作を無効にすることと、
    を備えた制御方法。
  11.  被写体の光学像を撮像して画像データとして出力する撮像部と、
     前記画像データに基づく第1画像を表示可能な第1の表示部と、
     前記画像データに基づく第2画像を表示可能な第2の表示部と、
     前記第2の表示部の表面に沿って配置されたタッチパネルと、を備える撮像装置に用いられるプログラムであって、
     前記タッチパネルが前記第1画像と対応する第1操作を受け付けている場合に、近接検知部により前記第1の表示部と対象物との近接を判定することと、
     前記近接検知部により前記第1の表示部と対象物との近接が検知された場合に、制御部により前記第1操作を有効にすることと、
     前記近接検知部により前記第1の表示部と対象物との近接が検知されない場合に、前記制御部により前記第1操作を無効にすることと、
    を備えた制御方法をコンピュータに実行させるプログラム。
PCT/JP2010/005296 2010-06-28 2010-08-27 撮像装置、撮像装置の制御方法および制御方法に用いられるプログラム WO2012001749A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/703,461 US20130083228A1 (en) 2010-06-28 2010-08-27 Image capturing device, method for controlling image capturing device, and program used in control method
JP2012522359A JP5364846B2 (ja) 2010-06-28 2010-08-27 撮像装置、撮像装置の制御方法および制御方法に用いられるプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010145856 2010-06-28
JP2010-145856 2010-06-28

Publications (1)

Publication Number Publication Date
WO2012001749A1 true WO2012001749A1 (ja) 2012-01-05

Family

ID=45401509

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/005296 WO2012001749A1 (ja) 2010-06-28 2010-08-27 撮像装置、撮像装置の制御方法および制御方法に用いられるプログラム

Country Status (3)

Country Link
US (1) US20130083228A1 (ja)
JP (1) JP5364846B2 (ja)
WO (1) WO2012001749A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140232708A1 (en) * 2013-02-15 2014-08-21 Seiko Epson Corporation Electro-optic device and electronic device
JP2014209712A (ja) * 2013-03-27 2014-11-06 キヤノン株式会社 撮像装置、制御方法及びプログラム
JP2015036772A (ja) * 2013-08-14 2015-02-23 セイコーエプソン株式会社 電気光学パネルの駆動制御装置、電気光学装置、撮像装置、および電気光学パネルの駆動制御方法
JP2015119259A (ja) * 2013-12-17 2015-06-25 キヤノン株式会社 表示制御装置、その制御方法、およびプログラム、並びに記憶媒体
WO2017085983A1 (ja) * 2015-11-17 2017-05-26 ソニー株式会社 制御装置、制御方法、およびプログラム
JP2018013772A (ja) * 2016-07-01 2018-01-25 株式会社半導体エネルギー研究所 電子機器、電子機器の駆動方法
CN107771390A (zh) * 2015-07-09 2018-03-06 三星电子株式会社 电子设备及其操作方法
JP2018107708A (ja) * 2016-12-27 2018-07-05 キヤノン株式会社 撮像制御装置およびその制御方法
JP2019016299A (ja) * 2017-07-10 2019-01-31 キヤノン株式会社 異なる面に配置された操作部材を有する電子機器、その制御方法、プログラム並びに記憶媒体
JP2019054368A (ja) * 2017-09-14 2019-04-04 キヤノン株式会社 電子機器
WO2019073790A1 (ja) * 2017-10-10 2019-04-18 キヤノン株式会社 表示制御装置およびその制御方法
WO2020218076A1 (ja) * 2019-04-26 2020-10-29 ソニー株式会社 情報処理装置、表示制御方法、プログラム、及び、撮像装置
US11221707B2 (en) 2016-01-28 2022-01-11 Maxell, Ltd. Imaging device
JP7014874B1 (ja) 2020-09-24 2022-02-01 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104396230B (zh) * 2012-06-29 2017-03-01 富士胶片株式会社 照相机及其动作控制方法
JP5940394B2 (ja) * 2012-07-02 2016-06-29 オリンパス株式会社 撮像装置
US9146394B1 (en) * 2012-12-13 2015-09-29 Optics 1, Inc. Clip-on eye piece system for handheld and device-mounted digital imagers
JP2015227901A (ja) * 2014-05-08 2015-12-17 ソニー株式会社 撮像装置
KR102400998B1 (ko) 2015-07-15 2022-05-23 삼성전자주식회사 사용자의 제스쳐를 이용하여 기능을 제어하는 방법 및 촬영 장치.
JP6590605B2 (ja) * 2015-09-09 2019-10-16 オリンパス株式会社 撮像装置、撮像装置の制御方法、撮像システム、携帯表示機器、撮像装置の制御プログラム、携帯表示機器の制御方法、及びウエアラブル表示機器
JP6751620B2 (ja) * 2016-08-05 2020-09-09 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
CN107480589B (zh) * 2017-07-07 2020-08-04 Oppo广东移动通信有限公司 红外光源组件及电子装置
JP6906169B1 (ja) * 2020-09-25 2021-07-21 パナソニックIpマネジメント株式会社 撮像装置
JP2022172840A (ja) * 2021-05-07 2022-11-17 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び記憶媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004165934A (ja) * 2002-11-12 2004-06-10 Canon Inc 撮像装置
WO2009041063A1 (ja) * 2007-09-28 2009-04-02 Panasonic Corporation カメラ本体、交換レンズユニットおよびカメラシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4991621B2 (ja) * 2008-04-17 2012-08-01 キヤノン株式会社 撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004165934A (ja) * 2002-11-12 2004-06-10 Canon Inc 撮像装置
WO2009041063A1 (ja) * 2007-09-28 2009-04-02 Panasonic Corporation カメラ本体、交換レンズユニットおよびカメラシステム

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9236030B2 (en) * 2013-02-15 2016-01-12 Seiko Epson Corporation Electro-optic device and electronic device
JP2014157221A (ja) * 2013-02-15 2014-08-28 Seiko Epson Corp 電気光学装置及び電子機器
US20140232708A1 (en) * 2013-02-15 2014-08-21 Seiko Epson Corporation Electro-optic device and electronic device
JP2014209712A (ja) * 2013-03-27 2014-11-06 キヤノン株式会社 撮像装置、制御方法及びプログラム
JP2015036772A (ja) * 2013-08-14 2015-02-23 セイコーエプソン株式会社 電気光学パネルの駆動制御装置、電気光学装置、撮像装置、および電気光学パネルの駆動制御方法
JP2015119259A (ja) * 2013-12-17 2015-06-25 キヤノン株式会社 表示制御装置、その制御方法、およびプログラム、並びに記憶媒体
CN107771390A (zh) * 2015-07-09 2018-03-06 三星电子株式会社 电子设备及其操作方法
WO2017085983A1 (ja) * 2015-11-17 2017-05-26 ソニー株式会社 制御装置、制御方法、およびプログラム
US11614822B2 (en) 2016-01-28 2023-03-28 Maxell, Ltd. Imaging device
US11221707B2 (en) 2016-01-28 2022-01-11 Maxell, Ltd. Imaging device
JP2018013772A (ja) * 2016-07-01 2018-01-25 株式会社半導体エネルギー研究所 電子機器、電子機器の駆動方法
JP7150416B2 (ja) 2016-07-01 2022-10-11 株式会社半導体エネルギー研究所 電子機器
JP2018107708A (ja) * 2016-12-27 2018-07-05 キヤノン株式会社 撮像制御装置およびその制御方法
JP2019016299A (ja) * 2017-07-10 2019-01-31 キヤノン株式会社 異なる面に配置された操作部材を有する電子機器、その制御方法、プログラム並びに記憶媒体
JP2019054368A (ja) * 2017-09-14 2019-04-04 キヤノン株式会社 電子機器
JP7051344B2 (ja) 2017-09-14 2022-04-11 キヤノン株式会社 電子機器
WO2019073790A1 (ja) * 2017-10-10 2019-04-18 キヤノン株式会社 表示制御装置およびその制御方法
JP7005261B2 (ja) 2017-10-10 2022-02-10 キヤノン株式会社 表示制御装置およびその制御方法
US11252330B2 (en) 2017-10-10 2022-02-15 Canon Kabushiki Kaisha Display control apparatus and control method therefor
JP2019070759A (ja) * 2017-10-10 2019-05-09 キヤノン株式会社 表示制御装置およびその制御方法
WO2020218076A1 (ja) * 2019-04-26 2020-10-29 ソニー株式会社 情報処理装置、表示制御方法、プログラム、及び、撮像装置
US11804198B2 (en) 2019-04-26 2023-10-31 Sony Group Corporation Information processing apparatus, display control method, and imaging apparatus
JP2022053121A (ja) * 2020-09-24 2022-04-05 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法
JP7014874B1 (ja) 2020-09-24 2022-02-01 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
JPWO2012001749A1 (ja) 2013-08-22
JP5364846B2 (ja) 2013-12-11
US20130083228A1 (en) 2013-04-04

Similar Documents

Publication Publication Date Title
JP5364846B2 (ja) 撮像装置、撮像装置の制御方法および制御方法に用いられるプログラム
US9560261B2 (en) Display control for a camera
US8085332B2 (en) Image pickup apparatus, method for controlling image pickup apparatus
US8411049B2 (en) Information processing apparatus
US8767113B2 (en) Condition changing device
JP2018113551A (ja) 撮像装置及びその制御方法、プログラム、並びに記録媒体
JP6700708B2 (ja) 電子機器及びその制御方法、プログラム、並びに記憶媒体
JP2010263425A (ja) 撮像装置および撮像装置におけるモード切換え方法
JP2014161066A (ja) 撮像装置および撮像装置におけるモード切換え方法
JP5893359B2 (ja) 撮影装置
JP2004147292A (ja) 向きを感知する電子垂直シャッタレリーズロック
US10791262B2 (en) Camera and display control method of camera
CN112702507A (zh) 电子装置、电子装置的控制方法及存储介质
JP2019016299A (ja) 異なる面に配置された操作部材を有する電子機器、その制御方法、プログラム並びに記憶媒体
WO2019008874A1 (ja) 撮像装置、撮像装置の制御方法、プログラム
JP7336266B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
US10571781B2 (en) Camera, setting method of camera, and setting program of camera
US11647278B2 (en) Imaging apparatus
US11418715B2 (en) Display control apparatus and control method therefor
JP6762856B2 (ja) 撮像装置およびその制御方法
JP2011254302A (ja) 近接検知手段付カメラ
JP2010212940A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10854047

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012522359

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13703461

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10854047

Country of ref document: EP

Kind code of ref document: A1