WO2018020816A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2018020816A1
WO2018020816A1 PCT/JP2017/020105 JP2017020105W WO2018020816A1 WO 2018020816 A1 WO2018020816 A1 WO 2018020816A1 JP 2017020105 W JP2017020105 W JP 2017020105W WO 2018020816 A1 WO2018020816 A1 WO 2018020816A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
eyepiece
main body
apparatus main
evf
Prior art date
Application number
PCT/JP2017/020105
Other languages
English (en)
French (fr)
Inventor
清水 拓也
清水 宏
西村 龍志
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016149630A external-priority patent/JP6744164B2/ja
Priority claimed from JP2016232462A external-priority patent/JP6764326B2/ja
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to US16/320,494 priority Critical patent/US10962859B2/en
Priority to CN201780047105.4A priority patent/CN109565535B/zh
Publication of WO2018020816A1 publication Critical patent/WO2018020816A1/ja
Priority to US17/186,348 priority patent/US11609482B2/en
Priority to US18/110,053 priority patent/US11934083B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Definitions

  • the present invention relates to an imaging apparatus.
  • ⁇ High-end digital cameras with built-in electronic viewfinders include those with protrusions on the top of the device body and those with a flat top on the device body.
  • Patent Document 1 shows an example of a digital camera in which a protrusion is provided on the upper part of the apparatus main body.
  • a liquid crystal monitor is provided on the back surface of the apparatus main body, and an eyepiece part of an electronic viewfinder is provided on a protrusion on the upper part of the apparatus main body.
  • Patent Document 2 shows an example of a digital camera in which the upper part of the apparatus main body is flattened.
  • the display device and the electronic viewfinder eyepiece are provided on the back of the camera body.
  • the EVF eyepiece is provided on the protrusion, which increases the degree of freedom of layout on the back of the apparatus body including the display device. In some cases, storage and portability are impaired.
  • the storability and portability are not impaired.
  • the display device, the EVF eyepiece, and the like are provided on the back of the device main body, there is a trade-off relationship between the region area of the eyepiece of the EVF and the display portion area of the display device.
  • there is a design restriction such that it is necessary to reduce the display area of the display device in order to secure the area of the eyepiece part of the EVF. That is, the degree of freedom in layout on the back surface of the apparatus main body is reduced.
  • an object of the present invention is to provide an imaging apparatus in which a display device and an eyepiece of an electronic viewfinder are more suitably arranged on the back of the apparatus main body.
  • An imaging apparatus is provided on an imaging optical system, an imaging element that receives light that has passed through the imaging optical system and generates an electrical signal, an apparatus main body, and a back surface of the apparatus main body.
  • a display device capable of displaying an image generated based on an electrical signal generated by the image sensor, and an electronic device provided inside the apparatus main body and capable of displaying an image generated based on the electrical signal generated by the image sensor
  • a viewfinder, the display device has transparency, and the eyepiece of the electronic viewfinder is provided in a region having transparency of the display device.
  • the representative embodiment of the present invention it is possible to provide an imaging apparatus in which the display device and the eyepiece of the electronic viewfinder are more suitably arranged on the back surface of the apparatus main body.
  • FIGS. 1B and 2B are cross-sectional views seen from the left with respect to the back.
  • EVF electro-viewfinder
  • the imaging apparatus 100 includes an apparatus main body 190, an imaging optical system 101, an imaging element 102, a captured image generation unit 103, a nonvolatile memory 121, a memory 122, an operation input unit 123, a speaker 124, A storage unit 125, a display image generation unit 126, an image adjustment unit 127, a microphone 128, a posture detection sensor 130, an eyepiece detection sensor 131, a control unit 110, a display device 150, an EVF 170, and the like are provided.
  • the imaging apparatus 100 includes an internal power source (such as a built-in battery or a replaceable battery stored in a storage unit) or an external power source connection unit to supply power to drive each unit, but is illustrated for simplicity of explanation. Is omitted.
  • FIG. 1 and FIG. 3 are examples in the case where the display device 150 does not require a backlight.
  • the display device 150 is an example of a system using a backlight, and further includes a first backlight 155 and a second backlight 156.
  • FIGS. 1 and 3 and the examples of FIGS. 2 and 4 will be described in parallel.
  • the apparatus main body 190 is configured in a rectangular parallelepiped shape, for example, as shown in FIGS. 1 (A) and 2 (A).
  • the apparatus main body 190 includes a front surface 190a through which the imaging optical system 101 of the imaging apparatus 100 captures light, a back surface 190b in which the display device 150 is arranged in a horizontally long rectangular shape, an upper surface 190e, a bottom surface 190f, and the front surface 190a.
  • the main body 190 has a first side surface 190c and a second side surface 190d located on the left and right sides, respectively. Therefore, the first side surface 190 c and the second side surface 190 d of the apparatus main body 190 are located on the opposite sides of the apparatus main body 190.
  • each part constituting the imaging apparatus 100 is provided inside the apparatus main body 190 and on each surface of the apparatus main body 190.
  • An area near the upper surface 190 e of the apparatus main body 190 constitutes a warship part of the imaging apparatus 100.
  • the imaging optical system 101 is provided so that a part of the imaging optical system 101 protrudes from the front surface 190a of the apparatus main body 190, as shown in FIGS. 1B, 2B, 3 and 4, for example. This protrusion is called a lens barrel.
  • the imaging optical system 101 includes, for example, a lens and a diaphragm (not shown).
  • the imaging optical system 101 captures incident light from a subject on the front surface 190 a side of the apparatus main body 190.
  • FIGS. 1B and 2B show an example in which light having a predetermined angle of view is captured from the imaging optical system 101 from the front surface 190 a side of the apparatus main body 190.
  • the taken incident light is collected by a lens (not shown), and the collected incident light is irradiated to the image sensor 102.
  • a configuration of the imaging optical system 101 may use a known technique, and is not limited to a specific configuration in the present invention.
  • the lens barrel portion of the imaging optical system 101 protrudes from the front surface 190a of the apparatus main body 190 when the power of the imaging apparatus 100 is turned on, and the power of the imaging apparatus 100 is turned off. In this case, a portion protruding from the front surface 190 a may be accommodated in the apparatus main body 190.
  • the image sensor 102 is configured by, for example, a CMOS (Complementary Metal Oxide Semiconductor), a CCD (Charge Coupled Device), or the like.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • incident light emitted from the imaging optical system 101 is stored as an electric charge, whereby incident light from the imaging optical system 101 is converted into an electric signal.
  • an electrical signal as an image signal is generated for each pixel. That is, the image sensor 102 receives the light that has passed through the imaging optical system 101 and generates an electrical signal. The generated electrical signal is output from the image sensor 102 to the captured image generation unit 103.
  • the captured image generation unit 103 generates an image such as a captured image of the subject based on the electrical signal of each pixel output from the image sensor 102. For example, the captured image generation unit 103 generates a captured image of a subject by converting an electrical signal output from the image sensor 102 into digital image data having a gradation width of a predetermined bit. Alternatively, the captured image generation unit 103 generates an HDR (High Dynamic Range) composite image based on a plurality of captured images generated by varying the exposure amount to the image sensor 102. In addition, the captured image generation unit 103 may generate a moving image based on the electrical signal continuously output from the image sensor 102. When a moving image is generated, for example, external audio information is acquired by a microphone 128 described later. The generated captured image, HDR synthesized image, moving image, acquired audio information, and the like are output from the captured image generation unit 103 to the storage unit 125 and stored in the storage unit 125.
  • HDR High Dynamic Range
  • the captured image generation unit 103 continuously displays images generated based on the electrical signals continuously output from the image sensor 102, or the EVF.
  • the image is output to the display element 171 and the live view image is displayed on the display device 150 or the EVF display element 171.
  • the nonvolatile memory 121 stores various programs, menu images, and the like that cause the imaging apparatus 100 to realize various functions.
  • the nonvolatile memory 121 stores various programs such as a program related to the basic operation of the imaging apparatus 100, a program related to the camera function, and a program related to the voice recognition function.
  • the nonvolatile memory 121 stores setting information regarding the imaging apparatus 100 and the like.
  • various programs stored in the nonvolatile memory 121 are expanded.
  • the imaging apparatus 100 realizes various functions included in each program. For example, when a program related to the basic operation is executed, the basic operation is realized in the imaging apparatus 100.
  • the imaging apparatus 100 may be configured to realize the voice recognition function when a program related to the voice recognition function is executed.
  • the operation input unit 123 is an instruction input unit that inputs an operation instruction to the imaging apparatus 100.
  • the operation input unit 123 includes an imaging button 123a, a menu button 123b, an operation button 123c, an operation input key 123d, a power switch 123e, and the like, for example, as shown in FIGS. 1 (A) and 2 (A). Further, operation buttons other than these may be provided.
  • the power switch 123e is provided on the upper surface 190e of the apparatus main body 190, for example, and switches between the power-on state and the power-off state of the imaging apparatus 100.
  • the operation of each part in the following description will function in principle when the power is on.
  • the imaging button 123a is provided on the upper surface 190e of the apparatus main body 190. Specifically, the imaging button 123a is provided on the first side surface 190c side of the apparatus main body 190 on the upper surface 190e of the apparatus main body 190, for example, as shown in FIGS. 1 (A) and 2 (A). .
  • the imaging button 123a is in a so-called half-pressed state when lightly pressed, and the imaging optical system 101 performs focusing on the subject. Further, when the imaging button 123a is pressed strongly, the subject is imaged.
  • the imaging button 123a may be provided on the second side surface 190d side of the apparatus main body.
  • the menu button 123b, the operation button 123c, and the operation input key 123d are provided on the first side surface 190c side of the back surface 190b of the apparatus main body 190, for example, as shown in FIG. 1 (A) and FIG. 2 (A).
  • the menu button 123b is operated, for example, a menu screen is displayed on the display device 150 or the like described later.
  • the operation button 123c is operated, for example, switching between a rear display mode and an EVF display mode described later, switching between a live view mode and a playback mode described later, and the like are performed.
  • an imaging mode for example, a normal imaging mode, an HDR imaging mode, a moving image imaging mode, etc.
  • a focus point is selected, an imaging sensitivity is selected, and the like.
  • the speaker 124 outputs sound related to a moving image, for example.
  • the speaker 124 outputs, for example, a shutter sound of the imaging apparatus 100, a notification sound regarding an operation, a warning sound, and the like.
  • the storage unit 125 includes, for example, a non-volatile memory such as a flash memory, an SSD (Solid State Drive), an HDD (Hard Disc Drive), or the like.
  • the storage unit 125 stores, for example, a captured image generated by the captured image generation unit 103, an HDR composite image, a moving image, audio information related to the moving image acquired by the microphone 128, and the like.
  • the storage unit 125 may include not only internal storage but also removable external storage in addition to or instead of the internal storage.
  • the display image generation unit 126 generates various images (for example, images related to the setting screen, the imaging mode selection screen, the captured image selection screen, the focus point selection screen, and the like) to be displayed on the display device 150 and the EVF 170 described later.
  • images for example, images related to the setting screen, the imaging mode selection screen, the captured image selection screen, the focus point selection screen, and the like
  • the display image generation unit 126 for example, current setting information at the time of imaging (for example, imaging mode, sensitivity of the image sensor 102, shutter speed, aperture value, various information such as a digital level) You may produce
  • the image adjustment unit 127 adjusts the image displayed on the display device 150 and the EVF display element 171. For example, when the file size of the generated captured image or the like is large and cannot be displayed on the display device 150 or the like, the image adjustment unit 127 adjusts the image quality of the captured image so that the captured image fits on the display device 150. Do. For example, when the file size of the generated captured image is small and the captured image is displayed only on a part of the display device 150, the image adjustment unit 127 captures an image so that the enlarged captured image is displayed. You may adjust the image quality of an image.
  • the microphone 128 acquires sound outside the imaging apparatus 100, for example, when capturing a moving image. For example, the microphone 128 outputs the acquired sound to the control unit 110, and the control unit 110 generates sound data related to the sound. The generated audio data is output to and stored in the storage unit 125.
  • the posture detection sensor 130 is composed of, for example, an acceleration sensor.
  • the posture detection sensor 130 measures the magnitude and direction of gravitational acceleration applied to the imaging apparatus 100.
  • the posture detection sensor 130 outputs the magnitude and direction of the measured gravitational acceleration as acceleration information to the control unit 110, and the control unit 110 detects the posture of the imaging device 100 based on the acceleration information.
  • the eyepiece detection sensor 131 detects whether the user is using the EVF eyepiece 174 of the EVF 170.
  • the eyepiece detection sensor 131 is provided in the vicinity of the EVF eyepiece 174 of the EVF 170.
  • the eyepiece detection sensor 131 is provided in the vicinity of the position where the second side surface 190d and the upper surface 190e intersect on the back surface 190b of the apparatus main body 190. ing.
  • an infrared proximity sensor may be used.
  • the eyepiece detection sensor 131 may be configured by a guidance method, a capacitance method, an ultrasonic method, an electromagnetic wave method, or the like.
  • the eye detection sensor 131 outputs a user detection result in the vicinity of the EVF eyepiece 174 of the EVF 170 to the control unit 110 as user detection information.
  • the control unit 110 uses the EVF 170 based on the user detection information. Detect whether you are doing.
  • the display device 150 is provided on the back surface 190b of the apparatus main body 190, and can display an image generated based on the electrical signal generated by the image sensor 102.
  • the display device 150 includes an operation input unit 123 (for example, a menu button 123b, an operation button 123c, and an operation input key 123d) on the back surface 190b of the apparatus main body 190.
  • the eyepiece detection sensor 131 are provided so as to cover the region.
  • the display device 150 is configured in a horizontally long rectangular shape as shown in FIGS. 1 (A) and 2 (A).
  • the display device 150 has translucency.
  • the display device 150 includes, for example, an organic EL (Electroluminescence) panel, a liquid crystal panel, and the like.
  • the specific structure of the display device having transparency may be a known structure disclosed in, for example, US Patent Publication US2015 / 0098039.
  • a self-luminous display device such as an organic EL (Electroluminescence) panel does not require a backlight. Therefore, as a configuration in the case of using such a display device that does not require a backlight, as shown in FIG. 1A, a part other than the EVF eyepiece 174 on the back surface of the display device 150 and the apparatus main body 190.
  • a back surface light shielding mask (light shielding mask) 175 may be provided without providing a backlight between them.
  • the back surface light shielding mask 175 is made of, for example, a light shielding resin.
  • the light transmitted through the display device 150 and the light emitted by the display device 150 itself are blocked by the back surface light shielding mask 175 and are not transmitted to the inside of the apparatus main body 190.
  • the first backlight 155 shown in FIG. 4 is replaced with the EVF eyepiece 174 other than the display device 150.
  • the back surface light shielding mask 175 may be provided. That is, the first backlight 155 is disposed on the back surface of the display area of the display device 150 other than the EVF eyepiece 174.
  • the light transmitted through the display device 150 and the light emitted from the first backlight 155 are blocked by the back surface light shielding mask 175 and are not transmitted to the inside of the apparatus main body 190.
  • a second backlight 156 is provided in the EVF 170 in order to realize a backlight function for the EVF eyepiece 174 portion of the display device 150. .
  • the specific configuration and arrangement of the second backlight 156 will be described later.
  • the EVF 170 is provided inside the apparatus main body 190, for example, as shown in FIGS. 1B and 2B, and can display an image generated based on the electrical signal generated by the image sensor 102.
  • the EVF 170 includes an EVF display element 171, an EVF optical system 172, an EVF darkroom 173, an EVF eyepiece (eyepiece) 174, and the like.
  • the EVF display element 171 displays a reproduced image (still image or moving image) such as a captured image generated via the imaging optical system 101, the imaging element 102, and the captured image generation unit 103, a live view image, and the like.
  • the EVF display element 171 displays a menu image.
  • the EVF display element 171 includes, for example, an organic EL panel, a liquid crystal panel, or the like.
  • the EVF optical system 172 is configured to include lenses 172a and 172c and a mirror 172b, for example, as shown in FIG. 1 and 2, the EVF optical system 172 is disposed on the back side of the region of the EVF eyepiece 174 provided in the transparent region of the display device 150 when viewed from the outside of the apparatus main body 190. ing.
  • the light of the optical image formed by the EVF display element 171 is guided to the EVF eyepiece 174 via the EVF optical system 172, and forms an image on the retina of the user's eye. That is, the image displayed on the EVF display element 171 is visually recognized by the EVF eyepiece 174 via the EVF optical system 172.
  • the EVF optical system 172 When a display device that requires a backlight is used as the display device 150, the EVF optical system 172 includes lenses 172a and 172c, a half mirror 172d, and a second backlight 156, as shown in FIG. 2B, for example. What is necessary is just to comprise.
  • the second backlight 156 When allowing the user to visually recognize the display content of the EVF display element 171, the second backlight 156 is turned off, and the light of the optical image formed by the EVF display element 171 passes through the EVF optical system 172 having the half mirror 172d. Guided to eyepiece 174. That is, the image displayed on the EVF display element 171 at this time is visually recognized by the EVF eyepiece 174 via the EVF optical system 172.
  • the display device 150 functions as a backlight of the EVF eyepiece 174 portion. In this manner, by providing the second backlight 156 in the EVF 170, it is possible to prevent the backlight of the EVF eyepiece 174 portion of the display device 150 from being lost.
  • the EVF darkroom 173 is made of a light-shielding material, and is provided so as to surround the EVF display element 171, the EVF optical system 172, and the EVF eyepiece 174.
  • a region other than the EVF eyepiece 174 is shielded from light, and a dark room state is configured in the EVF 170. That is, the EVF 170 is configured to have a light shielding property except for the EVF eyepiece 174.
  • the EVF optical system 172 and the EVF display element 171 are arranged in a light-shielding space except for the EVF eyepiece 174. Further, the second backlight 156 described above is disposed in such a light-shielding space.
  • the EVF eyepiece 174 is provided in a part of the display device 150, for example, as shown in FIGS. 1 (A) and 2 (A). Specifically, the EVF eyepiece 174 is provided on the display device 150 on the second side surface 190 d side of the apparatus main body 190 and on the upper surface 190 e side of the apparatus main body 190. More specifically, the EVF eyepiece 174 is provided in a region on the second side surface 190d side and the upper surface 190e side of the display device 150, for example, as shown in FIG. The opening of the EVF dark room 173 is in contact with the display device 150.
  • the EVF eyepiece 174 is configured by integrating the opening of the EVF dark room 173 and the display device 150 in a region in contact with the opening of the EVF dark room 173.
  • the imaging button 123a is provided on the second side surface 190d side of the apparatus main body 190
  • the EVF eyepiece 174 in the display device 150 includes the first side surface 190c side of the apparatus main body 190, and It is preferably provided on the upper surface 190 e side of the apparatus main body 190.
  • FIG. 5 is a diagram showing an example of how to hold when the imaging apparatus is used in the horizontal position.
  • FIG. 6 is a diagram illustrating an example of a holding method when the imaging apparatus is used in the vertical position. If the EVF eyepiece 174 is arranged at the above-described position, even if the imaging device 100 is used in the horizontal position, for example, as shown in FIG. 5, the user's hand operating the imaging button 123a and the EVF eyepiece The user's face looking into the part 174 does not cross. Even when the imaging apparatus 100 is used in the vertical position, as shown in FIG. 6, for example, the user's hand operating the imaging button 123a and the user's face looking into the EVF eyepiece 174 do not cross each other.
  • the control unit 110 is configured by a computer such as a microprocessor unit, for example.
  • the control unit 110 controls each unit configuring the imaging apparatus 100 by executing various programs developed in the memory 122.
  • control unit 110 when the program related to the basic operation is executed, the control unit 110 performs control related to the basic operation for each unit constituting the imaging apparatus 100. For example, when a power switch (not shown) is operated and the imaging apparatus 100 is turned on, the control unit 110 activates each unit of the imaging apparatus 100 based on a program related to basic operations.
  • the control unit 110 when the program related to the camera function is executed, the control unit 110 performs control related to the camera function to each unit configuring the imaging apparatus 100. For example, when the imaging button 123a is operated, the control unit 110 controls each unit related to imaging to capture an image of the subject. In addition, the control unit 110 causes each unit to generate an image such as a still image or a moving image of the captured subject. In addition, the control unit 110 controls each unit of the imaging apparatus 100 based on, for example, operations on the menu button 123b, the operation button 123c, the operation input key 123d, and the like.
  • control unit 110 executes the program related to the voice recognition function
  • the control unit 110 performs control related to the voice recognition function for each unit configuring the imaging apparatus 100.
  • the control unit 110 causes the speaker 124 to output sound and the microphone 128 to acquire sound.
  • ⁇ Rear display mode> 7 to 9 are diagrams showing examples of display contents of the display device in the rear display mode and the EVF display mode according to Embodiment 1 of the present invention.
  • the control unit 110 includes a rear display mode (first display mode) for displaying a live view image and a reproduced image on the display device 150, and an EVF display mode (second display mode) for displaying the live view image and the reproduced image on the EVF 170. ).
  • the control unit 110 switches to the rear display mode in which the EVF 170 is turned off. Specifically, when the operation button 123c or the like is operated and the rear display mode is selected, the control unit 110 turns on the display device 150 and turns off the EVF display element 171.
  • the rear display mode includes a rear live view mode and a rear playback mode.
  • the control unit 110 when a display device that requires a backlight is used, in the rear display mode (first display mode), the control unit 110 is connected to the first backlight 155.
  • the second backlight 156 is turned on.
  • turning off the EVF display element 171 means that the control unit 110 displays an image on the EVF display element 171 when the EVF display element 171 is turned off or when the EVF display element 171 is turned on. Is stopped and the EVF display element 171 is not caused to emit light.
  • the rear live view mode refers to displaying a live view image of a subject on the display device 150.
  • the control unit 110 causes the image sensor 102 to continuously output an electrical signal for each pixel to the captured image generation unit 103. Further, the control unit 110 causes the captured image generation unit 103 to continuously generate images of the subject. Then, the control unit 110 causes the captured image generation unit 103 to continuously output the generated images to the display device 150.
  • the control unit 110 displays the live view image of the subject on the display device 150, for example, as illustrated in FIG. During this period, the control unit 110 turns off the EVF display element 171 so that a live view image or the like is not displayed on the EVF display element 171 as shown in FIG. 7A, for example.
  • the rear playback mode refers to displaying an image (still image or moving image) captured by the imaging device 100 and recorded in the storage unit 125 on the display device 150.
  • the control unit 110 causes the display device 150 to display an image selection menu that allows the user to select a captured image.
  • the control unit 110 reads the image selected by the user from the storage unit 125 and outputs the image to the display device 150.
  • the control unit 110 causes the display device 150 to display a reproduced image, for example, as illustrated in FIG.
  • the control unit 110 turns off the EVF 170 so that no image is displayed on the EVF display element 171 as shown in FIG. 7B, for example.
  • the control unit 110 may cause the display device 150 to display information on the image displayed on the display device 150. For example, as illustrated in FIGS. 8A and 8B, the control unit 110 displays an image on the display device 150 on the first side surface 190 c side of the apparatus main body 190 of the EVF eyepiece 174. In addition, the control unit 110 displays image information on the display device 150 on the bottom surface 190f side of the apparatus main body 190 of the EVF eyepiece unit 174.
  • control unit 110 displays the live view image or the reproduction image in the region on the first side surface 190c side of the EVF eyepiece unit 174, and displays the live view image or the reproduction image in the region below the EVF eyepiece unit 174. Display the information.
  • control unit 110 may display the information of the live view image or the reproduction image displayed on the display device 150, for example, superimposed on the live view image or the reproduction image.
  • the control unit 110 preferably displays the information of the live view image or the reproduced image at the end of the live view image or the reproduced image, for example, so as not to impair the visibility of the live view image or the reproduced image.
  • control unit 110 may display an image indicating that the EVF 170 is available on the display device 150 in an area adjacent to the EVF eyepiece unit 174.
  • the control unit 110 displays a display device in an area surrounding the EVF eyepiece 174 from the bottom surface 190f side of the apparatus main body 190 to the first side surface 190c side.
  • An image for example, a display such as “EVF READY” indicating that the EVF 170 can be used may be displayed on 150.
  • ⁇ EVF display mode> when the EVF 170 is turned on, the control unit 110 switches to the EVF display mode in which the display device 150 of the EVF eyepiece unit 174 is turned off. Specifically, when the operation button 123c or the like is operated and the EVF display mode is selected, the control unit 110 turns on the EVF display element 171 and the EVF eyepiece 174 in the display area of the display device 150. The display of the part of is turned off.
  • the EVF display mode includes an EVF live view mode and an EVF playback mode.
  • the control unit 110 uses the first backlight 155. And the second backlight 156 are both turned off.
  • “Turn off the display of the EVF eyepiece 174 in the display area of the display device 150” means that the control unit 110 turns off the energization of the EVF eyepiece 174 to the display device 150, This includes a case where image display by the display device 150 of the EVF eyepiece 174 is stopped while the display device 150 of the EVF eyepiece 174 is energized, and the display device 150 of the EVF eyepiece 174 is not caused to emit light.
  • the EVF live view mode refers to displaying a live view image of a subject on the EVF 170.
  • the control unit 110 causes the image sensor 102 to continuously output an electrical signal for each pixel to the captured image generation unit 103. Further, the control unit 110 causes the captured image generation unit 103 to continuously generate images of the subject. Then, the control unit 110 causes the captured image generation unit 103 to continuously output the generated images to the EVF display element 171 of the EVF 170 and cause the EVF display element 171 to display an image. In this way, the control unit 110 displays the live view image of the subject on the EVF 170 as shown in FIG. 7A, for example.
  • control unit 110 turns off the display device 150 of the EVF eyepiece 174, for example, as shown in FIG. 7A, and a live view image or the like is displayed on the display device 150 of the EVF eyepiece 174. Keep it from being displayed.
  • the EVF playback mode refers to displaying an image (still image or moving image) captured by the imaging device 100 and recorded in the storage unit 125 on the EVF 170.
  • control unit 110 causes EVF display element 171 to display an image selection menu that allows the user to select a captured image.
  • the control unit 110 reads the image selected by the user from the storage unit 125, outputs the image to the EVF display element 171, and causes the EVF display element 171 to display a reproduced image. In this way, the control unit 110 displays the reproduced image on the EVF 170 as shown in FIG. 7B, for example.
  • the control unit 110 turns off the display device 150 of the EVF eyepiece 174 and displays an image on the display device 150 of the EVF eyepiece 174, for example, as shown in FIG. Make sure that is not displayed.
  • the control unit 110 displays the display on the display device 150 as shown in FIGS. 7A, 7B, 8A, and 8B, for example.
  • a portion other than the EVF eyepiece 174 in the region may be displayed in black. Thereby, the light emission of the display device 150 is suppressed, and it is possible to prevent the visibility of the display content of the EVF display element 171 from being reduced due to unnecessary light entering the eyes of the user who is in contact with the EVF eyepiece 174.
  • control unit 110 may display an image indicating that the EVF 170 is turned on in an area adjacent to the EVF eyepiece 174 in the display area of the display device 150.
  • the control unit 110 is connected to the display device 150 that surrounds the EVF eyepiece 174 from the bottom surface 190 f side of the apparatus main body 190 to the first side surface 190 c side. , An image indicating that the EVF 170 is turned on is displayed. Further, for example, as illustrated in FIGS. 9A and 9B, the control unit 110 may display the display device 150 in a region other than these in black.
  • FIG. 10 is a diagram showing an example of an image displayed on the EVF according to the first embodiment of the present invention.
  • the control unit 110 may cause the EVF 170 to display information on an image (live view image or reproduced image) displayed on the EVF 170.
  • the control unit 110 may cause the EVF display element 171 to display an image and image information separately on the same screen.
  • the control unit 110 may display the image information superimposed on the image.
  • the control unit 110 may display setting information, a menu, and the like of the imaging apparatus 100.
  • the control unit 110 When switching the display mode by operating the operation button 123c or the like, the control unit 110, for example, as shown in FIGS. 7A, 8A, and 9A, the rear live view mode and the EVF live view mode. Are switched to each other, and for example, as shown in FIGS. 7B, 8B, and 9B, the rear playback mode and the EVF playback mode are switched to each other.
  • the control unit 110 may switch between the rear live view mode and the EVF playback mode, or may switch between the rear playback mode and the EVF live view mode.
  • FIG. 11 is a diagram showing a comparison of the state of each part in the rear display mode and the EVF display mode.
  • the control unit 110 switches to the rear display mode in which the display device 150 is turned on and the EVF 170 is turned off, for example, as illustrated in FIG.
  • the control unit 110 turns on both the first backlight 155 and the second backlight 156.
  • the control unit 110 switches to the EVF display mode in which the display device 150 of the EVF eyepiece unit 174 is turned off and the EVF 170 is turned on. .
  • the display device 150 is a display device that requires a backlight
  • the control unit 110 turns off both the first backlight 155 and the second backlight 156.
  • the control unit 110 alternately switches between the rear display mode and the EVF display mode based on the detection result of the eyepiece of the user by the eyepiece detection sensor 131. Specifically, for example, as illustrated in FIGS. 7A, 8A, and 9A, the control unit 110 switches between the back live view mode and the EVF live view mode. In addition, the control unit 110 switches between the back playback mode and the EVF playback mode, for example, as illustrated in FIGS. 7B, 8B, and 9B. Also, when the display mode is automatically switched, the control unit 110 may switch between the rear live view mode and the EVF playback mode, or may switch between the rear playback mode and the EVF live view mode. Good.
  • the EVF eyepiece 174 of the EVF 170 is provided in the display device 150.
  • the EVF eyepiece 174 and the display device 150 do not have to be provided separately, so the trade-off between the area size of the EVF eyepiece 174 and the area size of the display device 150 is eliminated. Specifically, if the area of the display device 150 is secured on the back surface 190b of the apparatus main body 190, it is not necessary to secure a separate installation space for the EVF eyepiece 174. Thereby, the imaging apparatus 100 in which the display device 150 and the EVF eyepiece 174 are more suitably arranged on the back surface 190b of the apparatus main body 190 is provided.
  • the back surface light shielding mask 175 is provided between the display device 150 other than the EVF eyepiece 174 and the apparatus main body 190.
  • the EVF optical system 172 is disposed on the back side of the region of the EVF eyepiece 174 provided in the transparent region of the display device 150 when viewed from the outside of the apparatus main body 190. ing.
  • the imaging device 100 including the EVF 170 is provided while suppressing an increase in size.
  • the display device 150 is configured in a horizontally long rectangular shape, and the imaging button 123a is provided on the upper surface 190e of the apparatus main body 190 on the first side surface 190c side of the apparatus main body 190.
  • the EVF eyepiece 174 is provided on the second side surface 190d side of the apparatus main body 190 and on the upper surface 190e side of the apparatus main body 190.
  • the EVF 170 has light shielding properties except for the EVF eyepiece 174. That is, the EVF optical system 172 and the EVF display element 171 are disposed in a light-shielding space except for the EVF eyepiece 174.
  • the imaging apparatus 100 that can make the inside of the EVF 170 a dark room environment during eyepiece, suppress the decrease in contrast in the EVF eyepiece unit 174, and improve the visibility of the image and the like in the EVF 170. Provided.
  • the control unit 110 switches to the rear display mode in which the EVF 170 is turned off.
  • the display quality of the display device 150 is improved because the display of the image or the like by the display device 150 and the display of the image or the like by the EVF 170 do not overlap in the EVF eyepiece 174 in the rear display mode.
  • An image pickup apparatus 100 is provided.
  • control unit 110 causes the display device 150 to display information on the image displayed on the display device 150.
  • the imaging device 100 since the image information is recognized by the user, the imaging device 100 with excellent convenience is provided.
  • the first backlight is provided between the display device 150 other than the EVF eyepiece 174 and the apparatus main body 190.
  • 155 is provided, and a second backlight 156 is provided in the EVF 170.
  • the display device 150 is composed of an organic EL element that is a self-luminous display device.
  • the display device 150 that is reduced in weight and thickness is provided. Thereby, the imaging apparatus 100 reduced in weight and thickness is provided.
  • the control unit 110 switches to the EVF display mode in which the display device 150 of the EVF eyepiece unit 174 is turned off.
  • the display of the image or the like by the EVF and the display of the image or the like by the display device 150 do not overlap with each other in the EVF eyepiece 174 portion, thereby improving the display quality on the EVF 170.
  • An imaging apparatus 100 is provided.
  • control unit 110 causes the display devices 150 other than the EVF eyepiece unit 174 to display black.
  • the imaging apparatus 100 in which unnecessary light enters the eye of the user who is in contact with the EVF eyepiece unit 174 and further suppresses a decrease in contrast of the display content of the EVF 170.
  • control unit 110 causes the display device 150 in the area adjacent to the EVF eyepiece unit 174 to display an image indicating that the EVF 170 is turned on.
  • the imaging apparatus 100 since the current display mode is recognized by the user, the imaging apparatus 100 with excellent convenience is provided.
  • control unit 110 causes the EVF 170 to display information on the image displayed on the EVF 170.
  • the imaging apparatus 100 excellent in convenience is provided.
  • the first backlight is provided between the display device 150 other than the EVF eyepiece 174 and the apparatus main body 190.
  • 155 is provided, and the second backlight 156 is provided in the EVF 170.
  • the second backlight 156 is turned off in the EVF 170.
  • the imaging apparatus 100 that further suppresses the decrease in contrast of the display content of the EVF 170 in the EVF display mode.
  • the control unit 110 switches to the rear display mode in which the display device 150 is turned on and the EVF 170 is turned off.
  • the display mode is automatically switched to the rear display mode. Therefore, the display mode switching operation is unnecessary, and the imaging device 100 having excellent convenience is provided. Is done.
  • the control unit 110 turns off the display device 150 of the EVF eyepiece unit 174 and switches to the EVF display mode in which the EVF 170 is turned on. .
  • the display mode is automatically switched to the EVF display mode. Therefore, the display device switching operation is unnecessary, and the imaging device 100 that is highly convenient is provided.
  • FIG. 12 is a rear view showing an example of the configuration of the imaging apparatus according to Embodiment 2 of the present invention.
  • the imaging apparatus 200 includes a light shielding member 281 as shown in FIG. 12, for example. Specifically, on the back surface 190b of the apparatus main body 190, intrusion of light into the EVF eyepiece 174 is suppressed around the display device 150 from between the EVF eyepiece 174 and the user's face when the user is eyepiece. A light shielding member 281 is provided.
  • the light shielding member 281 is provided across the second side surface 190 d side and the upper surface 190 e side of the apparatus main body 190 with respect to the display device 150.
  • the light shielding member 281 includes a light shielding member 281a and a light shielding member 281b.
  • the light shielding member 281 a is provided on the second side surface 190 d side of the apparatus main body 190 so as to extend in the short direction (vertical direction) of the display device 150.
  • the light shielding member 281 b is provided to extend in the longitudinal direction (lateral direction) of the display device 150 on the upper surface 190 e side of the apparatus main body 190.
  • the light shielding member 281 is made of, for example, a resin having a light shielding property.
  • the light shielding members 281a and 282b are provided on the second side surface 190d side and the upper surface 190e side of the EVF eyepiece 174.
  • a light shielding member is preferably provided around the portion 174 as much as possible.
  • FIG. 13 is a diagram illustrating an example of another configuration of the imaging apparatus according to Embodiment 2 of the present invention.
  • the light shielding member 281 is configured such that the length on the upper surface 190 e side of the apparatus main body 190 is at least twice the length of the EVF eyepiece 174 in the longitudinal direction of the display device 150. It is preferable. That is, the light shielding member 281 is configured such that the lateral length is at least twice the lateral length of the EVF eyepiece 174. Thus, it is preferable that the light shielding member 281b is configured such that the lateral length is sufficiently longer than the lateral width of the EVF eyepiece 174.
  • FIG. 14 is a rear view showing an example of another configuration of the imaging apparatus according to Embodiment 2 of the present invention.
  • the light shielding member 282 may be provided on the first side surface 190 c side of the apparatus main body 190 with respect to the display device 150. Accordingly, for example, when the user uses the imaging device in the vertical position as shown in FIG. 6, the invasion of light from the first side surface 190 c side of the device main body 190 that is highly likely to receive sunlight is further prevented. It becomes possible. As illustrated in FIG. 14, the light shielding member 282 extends in the short direction (vertical direction) of the display device 150.
  • the light shielding member 281 is provided adjacent to the periphery of the display device 190.
  • the light shielding member 281 is provided across the second side surface 190d side of the apparatus main body 190 and the upper surface 190e side with respect to the display device 150.
  • the light shielding member 281 extends in the short direction of the display device 150 on the second side surface 190d side of the apparatus main body 190, and extends in the longitudinal direction of the display device 150 on the upper surface 190e side of the apparatus main body 190. ing.
  • the light shielding member 281 is provided in the vicinity of the EVF eyepiece 174, the entry of light into the EVF eyepiece 174 can be further suppressed. Thereby, a reduction in contrast in the EVF 170 is further suppressed, and the imaging device 200 in which the visibility of the EVF 170 is further improved is provided.
  • the light shielding member 281 has a length on the upper surface 190 e side of the apparatus main body 190 that is at least twice the length of the EVF eyepiece 174 in the longitudinal direction of the display device 150. It is configured.
  • the light shielding member 282 is provided on the first side surface 190 c side of the apparatus main body 190 with respect to the display device 150, and extends in the short direction of the display device 150.
  • the imaging apparatus 200 in which the visibility of the EVF 170 is further improved is provided. Further, according to this configuration, even when the imaging apparatus 200 is used in the vertical position, the intrusion of light from above the display device 150 can be suppressed, so that a decrease in contrast in the EVF 170 can be suppressed and the visibility of the EVF 170 can be improved. An improved imaging device 200 is provided.
  • a direction described as “viewed from the user” indicates a direction indicated as “direction viewed from the user” in each figure.
  • the “direction seen from the user” is the direction seen from the back surface 190b side of the apparatus main body 190
  • the left-right direction of the “direction seen from the user” of the lateral position shooting is the front surface 190a side of the side apparatus main body 190.
  • the direction seen from the left and right is opposite.
  • ⁇ Configuration of imaging device> 15 and 16 are diagrams showing an example of the configuration of the imaging apparatus according to Embodiment 3 of the present invention.
  • the imaging apparatus 300 shown in FIG. 15 is different from the imaging apparatus 100 of FIG. 1 in that a transparent touch sensor 180 is provided on the front surface of the display device 150 and an eye sensor 132 having a different configuration from that of FIG. Other configurations and operations are the same as those of the imaging apparatus 100 of FIG.
  • An imaging apparatus 300 illustrated in FIG. 16 is different from the imaging apparatus 100 illustrated in FIG. 2 in that a transparent touch sensor 180 is provided on the front surface of the display device 150 and an eye sensor 132 having a configuration different from that in FIG.
  • Other configurations and operations are the same as those of the imaging apparatus 100 of FIG.
  • the touch sensor 180 is a sensor of a capacitive type, a resistive film type, an ultrasonic surface acoustic wave type, etc. The position is detected.
  • the control unit 110 controls each function of the imaging device 300 based on the detection result of the touch sensor 180.
  • the imaging device 300 includes an eye sensor 132 that is different from the eye sensor 131 of the imaging device according to the first embodiment. Since the automatic switching between the rear display mode and the EVF display mode is performed using the detection result of the eye sensor 132, the operation is different from that of the first embodiment.
  • an operation example of the imaging apparatus 300 based on a configuration example of the eye sensor 132 and a detection result of the eye sensor 132 will be described.
  • FIG. 17 is a diagram for explaining an example of the configuration of the eye sensor 132 according to Embodiment 3 of the present invention.
  • the imaging button 123a is provided on the upper surface 190e of the apparatus main body 190 on the first side surface of the apparatus main body 190, for example, as shown in FIGS. It is provided on the 190c side.
  • the eye sensor 132 includes a plurality of proximity sensors including at least a first proximity sensor 132a and a second proximity sensor 132b, and these are provided at different positions.
  • These proximity sensors may be infrared proximity sensors, or may be configured by an induction method, a capacitance method, an ultrasonic method, an electromagnetic wave method, or the like. Although all the proximity sensors may be the same system, they are not necessarily all the same system, and different types of proximity sensors may be mixed.
  • the first proximity sensor 132 a and the second proximity sensor 132 b are provided on the back surface 190 b of the apparatus main body 190.
  • the first proximity sensor 132a is positioned on the upper surface 190e side of the EVF eyepiece 174 of the display device 150 on the back surface 190b of the device body 190 and below the upper surface 190e of the device body 190. Is arranged.
  • the EVF eyepiece 174 is disposed near the upper end of the first side surface 190c side end.
  • the second proximity sensor 132b which is another proximity sensor, is located closer to the second side surface 190d than the EVF eyepiece 174 of the display device 150 on the back surface 190b of the apparatus main body 190, and from the second side surface 190d of the apparatus main body 190. 1 on the side surface 190c side.
  • the EVF eyepiece 174 is disposed in the vicinity of the lower end of the EVF eyepiece 174 near the second side surface 190d.
  • FIGS. 18 and 19 An example of the positional relationship between the arrangement of the plurality of proximity sensors and the user's finger when the user performs horizontal position shooting with the imaging apparatus 300 will be described with reference to FIGS. 18 and 19.
  • the user's finger is described as a line drawing that can be seen through the imaging apparatus 300. This is the same when the user's finger is shown in the following figures.
  • the image pickup button 123a on the upper surface 190e of the apparatus main body 190 is laid out so that it can be operated with the index finger 350 of the user's right hand.
  • the user's right thumb 351 can operate other operation buttons on the back surface 190b of the apparatus main body 190 such as the operation button 123c.
  • the other fingers are generally used to hold the apparatus main body 190 itself.
  • the operation of the touch sensor 180 on the display device 150 is performed. Is performed using the finger of the left hand.
  • the position of the user's left shoulder is lower than the eye height and is on the left side as viewed from the user. Then, when the user touches the vicinity of the EVF eyepiece 174 with the left index finger, it is natural that the direction of the finger points to the upper right direction when viewed from the user.
  • the user's left hand index finger 361 is positioned as shown in FIG. 18 and covers the second proximity sensor 132b.
  • the second proximity sensor 132b detects the approach of the user's left hand index finger 361.
  • the display state of the display device 150 and the EVF 170 of the imaging apparatus 300 is the “rear display mode” described in the first embodiment. Need to be.
  • the user's left hand index finger 362 may cover both the first proximity sensor 132a and the second proximity sensor 132b as shown in FIG. Very low. This is because, in the state shown in FIG. 19, the position of the user's left hand index finger 362 exceeds the area of the display device 150 (touch sensor 180), and the touch operation is not realized.
  • FIG. 20 shows a state in which the apparatus main body 190 is held so that the user takes an image with the EVF eyepiece 174 of the apparatus main body 190 in horizontal position shooting.
  • both the first proximity sensor 132a and the second proximity sensor 132b detect the approach of the face portion of the user's head 390.
  • the display state of the display device 150 and the EVF 170 of the imaging apparatus 300 needs to be the “EVF display mode” described in the first embodiment.
  • the image pickup button 123a on the upper surface 190e of the apparatus main body 190 is laid out so that it can be operated with the index finger 350 of the user's right hand even in vertical position shooting.
  • the user's right thumb 351 can operate other operation buttons on the back surface 190b of the apparatus main body 190 such as the operation button 123c.
  • the other fingers are generally used to hold the apparatus main body 190 itself.
  • the user's right hand is used to operate the operation buttons on the upper surface 190e of the apparatus main body 190, operate the operation buttons on the back surface 190b, and hold the apparatus main body 190 itself.
  • the user tilts his arm in accordance with the position of the imaging button 123a, so the relative positional relationship between the user's right hand finger and the apparatus main body 190 is It does not change greatly.
  • the position of the user's left shoulder is in the state where the display device 150 is placed in front of the eye so that the user can see the display on the display device 150. It is lower than the eye level and on the left side when viewed from the user. Then, even in the vertical position shooting, when the user touches the vicinity of the EVF eyepiece 174 with the left index finger, it is natural that the direction of the finger points to the upper right direction when viewed from the user.
  • the user's left hand index finger 363 may cover the first proximity sensor 132a.
  • the first proximity sensor 132a detects the approach of the user's left hand index finger 363.
  • the display state of the display device 150 and the EVF 170 of the imaging apparatus 300 is the “rear display mode” described in the first embodiment. Need to be.
  • the user's left index finger 364 may cover the second proximity sensor 132b.
  • the second proximity sensor 132a may detect the approach of the user's left hand index finger 364.
  • the display state of the display device 150 and the EVF 170 of the imaging apparatus 300 is the “rear display mode” described in the first embodiment. Need to be.
  • both the first proximity sensor 132a and the second proximity sensor 132b may be covered like the user's left index finger 365 shown in FIG. Is very low.
  • the reason is as follows. First, as described above, in the state where the display device 150 is set to the position in front of the eye so that the user can view the display on the display device 150, the position of the user's left shoulder is lower than the eye height and the left side as viewed from the user. It is in.
  • the posture of the user's shoulder and left elbow can be considered to try to point the fingertip upward as seen from the user like the left hand index finger 365. It is not easy. That is, in the imaging apparatus 300, the first proximity sensor 132a is disposed at a position above the EVF eyepiece 174 of the display device 150 on the back surface 190b of the apparatus body 190 and below the upper surface 190e of the apparatus body 190.
  • the second proximity sensor 132b is located on the back surface 190b of the apparatus main body 190 on the second side surface 190d side of the EVF eyepiece 174 of the display device 150 and on the first side surface 190c side of the second side surface 190d of the apparatus main body 190. Therefore, it is arranged at a position where it is difficult to press both sensors simultaneously with the index finger during vertical position shooting.
  • FIG. 24 shows a state in which the apparatus main body 190 is held so that the user takes an image with the EVF eyepiece 174 of the apparatus main body 190 in vertical position shooting.
  • both the first proximity sensor 132a and the second proximity sensor 132b detect the approach of the face portion of the user's head 390.
  • the display state of the display device 150 and the EVF 170 of the imaging apparatus 300 needs to be the “EVF display mode” described in the first embodiment.
  • the display states of the display device 150 and the EVF 170 of the imaging apparatus 300 are described in the first embodiment.
  • the EVF display mode may be set.
  • the display state of the display device 150 and the EVF 170 of the imaging apparatus 300 may be the “rear display mode” described in the first embodiment.
  • FIG. 25 is a diagram comparing the states of the respective parts in the detection results of the first proximity sensor 132a and the second proximity sensor 132b in the present embodiment.
  • the control unit 110 determines that “the user is not in eye contact”.
  • the control unit 110 switches to the “rear display mode” in which, for example, the display device 150 is turned on and the EVF 170 is turned off, as in FIG. 11 of the first embodiment.
  • the display device 150 is a display device that requires a backlight
  • the control unit 110 turns on both the first backlight 155 and the second backlight 156.
  • the touch detection process of the touch sensor 180 is turned on.
  • Other operations in the “rear display mode” are the same as those in the first embodiment, and thus description thereof is omitted.
  • the control unit 110 determines that “the user is not eye-piece”. Also in this case, the control unit 110 switches to the “rear display mode” in which the display device 150 is turned on and the EVF 170 is turned off, for example, as in FIG. 11 of the first embodiment. At this time, since there is a high possibility that the user is performing a touch operation, the touch detection process of the touch sensor 180 is turned on. Since the description of the “rear display mode” is repeated, the description is omitted.
  • the control unit 110 determines that “the user is in eye contact”. At this time, the control unit 110 switches to the “EVF display mode” in which the display device 150 of the EVF eyepiece unit 174 is turned off and the EVF 170 is turned on, for example, as in FIG. 11 of the first embodiment. At this time, if the display device 150 is a display device that requires a backlight, the control unit 110 turns off both the first backlight 155 and the second backlight 156.
  • the touch detection process of the touch sensor 180 may be turned off.
  • Other operations in the “EVF display mode” are the same as those in the first embodiment, and thus description thereof is omitted.
  • the touch detection process may be turned on only in a part of the area of the touch sensor 180 and the other areas may be turned off. The modification will be described. In this detection state, since the user is in eye contact, there is a high possibility that the user's face is in contact with or close to the touch sensor around the EVF eyepiece 174 in the area of the touch sensor 180.
  • an area away from the EVF eyepiece 174 for example, an area near the first side surface 190c side end of the area of the touch sensor 180 is not in contact with or close to the touch sensor.
  • the touch detection is turned on for a partial region near the first side surface 190c side end of the region of the touch sensor 180, and the right hand of the user for this region is kept. It is good also as a structure which can perform touch operation with a thumb.
  • the control unit 110 can perform control such as moving the cursor displayed on the EVF 170 based on the relative movement operation.
  • the control unit 110 is based on the detection results of the approach of objects of a plurality of proximity sensors (for example, the first proximity sensor 132a and the second proximity sensor 132b) included in the eyepiece detection sensor 132.
  • the display mode is selectively switched between the rear display mode and the EVF display mode.
  • switching between the rear display mode and the EVF display mode includes switching between the rear live view mode and the EVF live view mode, and switching between the rear playback mode and the EVF playback mode.
  • the specific display examples are the same as the display examples described in FIG. 7, FIG. 8, and FIG.
  • first proximity sensor 132a the position A that is near the upper end of the second side face 190d side of the EVF eyepiece 174, and the end of the first side sensor 132a on the first side face 190c side is the left-right direction of the EVF eyepiece part 174.
  • positioning of the position D far apart is shown.
  • An arrangement example of a position Q near the lower end on the first side surface 190c side of the EVF eyepiece 174 and a position R slightly below the lower end on the first side surface 190c side of the EVF eyepiece 174 is shown. .
  • FIG. 26 shows an example in which the user performs horizontal position shooting with the imaging apparatus 300.
  • the arrangement example of the first proximity sensor 132a is shown.
  • the left index finger does not cover any of the positions A, B, C, and D. That is, when the user captures a horizontal position with the imaging apparatus 300, the first proximity sensor 132a is disposed at any one of the positions A, B, C, and D in the arrangement example, and the second proximity sensor 132b is disposed at the positions O and P in the arrangement example.
  • Q, and R in any combination, the possibility that the two proximity sensors may be covered with the left index finger when the user touches the touch sensor 180 with the left index finger Low.
  • FIGS. 21 and 22 states of a plurality of arrangement examples when the user performs vertical position shooting with the imaging apparatus 300 will be described.
  • the vertical position shooting it has been described with reference to FIGS. 21 and 22 that the user can perform a touch operation on the touch sensor 180 in a state where the left index finger is in the upper right direction when viewed from the user.
  • FIG. 23 it has been described with reference to FIG. 23 that it is difficult for the user to perform a touch operation on the touch sensor 180 in a state where the left index finger is in the upper left direction when viewed from the user.
  • FIGS. 27 to 29 show examples of the orientation of the left index finger other than FIGS. 21 to 23 when the user performs vertical position shooting with the imaging apparatus 300.
  • FIG. 27 illustrates a touch operation in which the user touches the vicinity of the upper surface 190e side end of the touch sensor 180 of the display device 150 with the left index finger 367 facing upward when the user performs vertical position shooting with the imaging apparatus 300. Yes. It is possible to point the fingertip upward like the left index finger 367 with the display device 150 in the position in front of the eyes, considering the posture of the user's shoulder and left elbow (more left index finger) If you try to rotate your fingertips to the upper left as seen from the user, it will be relatively difficult).
  • the first proximity sensor 132a may be covered with the left index finger with the finger at any of the positions A, B, C, and D.
  • the position O closest to the end on the upper surface 190e side of the display device 150 may be simultaneously covered with the left index finger. Then, when the second proximity sensor 132b is arranged at the position O, the first proximity sensor 132a and the second proximity sensor 132b simultaneously detect the approach of the object by a touch operation on the touch sensor 180 in actual use by the user. It will be possible. Therefore, the position O is not preferable as the arrangement position of the second proximity sensor 132b in the present embodiment.
  • FIG. 28 illustrates a touch operation in which the touch sensor 180 near the end of the second side surface 190d of the display device 150 is touched with the left index finger 368 facing right when viewed from the user when the user performs vertical position shooting with the imaging device 300. Is shown. In the state where the display device 150 is aligned with the position in front of the eyes, it is possible to point the fingertip to the right like the left index finger 368 in view of the posture of the user's shoulder and left elbow (more than the left index finger) If you try to rotate your fingertips downward to the right when viewed from the user, it will be relatively difficult).
  • the second proximity sensor 132b may be covered with the left index finger with a finger at any of the positions O, P, Q, and R. Further, in this case, in the arrangement example of the second proximity sensor 132a, the position A closest to the end on the second side surface 190d side of the display device 150 may be simultaneously covered with the left index finger. Then, when the first proximity sensor 132a is arranged at the position A, the first proximity sensor 132a and the second proximity sensor 132b simultaneously detect the approach of the object by a touch operation on the touch sensor 180 in actual use by the user. It will be possible. Therefore, the position A is not preferable as the arrangement position of the first proximity sensor 132b in the present embodiment.
  • FIG. 29 illustrates a touch in which the user touches the touch sensor 180 near the end of the second side surface 190d of the display device 150 with the left index finger 369 facing downward to the right when the user performs vertical position shooting with the imaging apparatus 300.
  • the position of the user's left shoulder is lower than the eye level and is on the left side as viewed from the user.
  • the user needs to raise the left elbow to an unnatural height when trying to point the fingertip downward as viewed from the user like the left index finger 369. Yes, not easy.
  • the first proximity sensor 132a is disposed at any one of the positions B, C, and D excluding the position A among the positions A, B, C, and D
  • the second proximity sensor 132b is disposed at the positions O, P
  • Q is placed at any one of positions B, C, and D excluding position O
  • the first proximity sensor 132a and the first proximity sensor 132a can be moved with the left index finger when the user touches the touch sensor 180 in actual use. It would be very difficult to cover the two proximity sensors 132b at the same time.
  • the image pickup button 123a is arranged on the first side surface 190c side of the upper surface 190e of the apparatus main body 190, and the second side surface 190d side end and upper end of the display device 150 having a touch sensor 180 and having translucency.
  • the first proximity sensor 132a is preferably arranged on the first side surface 190c side from the position X, and the second proximity sensor 132b is arranged below the position Y. Is desirable.
  • the position X is a position at which the end of the second side surface 190d of the first proximity sensor 132a is in contact with the half of the lateral width of the EVF eyepiece 174 from the end of the display device 150 on the second side surface 190d side. It is.
  • the position Y is a position where the upper end of the second proximity sensor 132b is in contact with a position half the vertical width of the EVF eyepiece 174 from the upper end of the display device 150.
  • the size of the EVF eyepiece 174 is generally designed based on the average human eye size, and further, the average human eye size and the average human finger size. Of course, the thickness of is correlated. Therefore, the desirable arrangement positions of the first proximity sensor 132a and the second proximity sensor 132b described above are expressed with high generality by expressing the EVF eyepiece 174 on the basis of the vertical width and the horizontal width. The expression can be applied to a plurality of types of imaging devices 300 having different designs.
  • the light shielding member described in the second embodiment is not described.
  • the imaging apparatus 300 according to the present embodiment may also include the light shielding member described in the second embodiment.
  • the light shielding member may be disposed between the display device 150 and the first proximity sensor 132a or the second proximity sensor 132b.
  • the light shielding member may be disposed outside the first proximity sensor 132a or the second proximity sensor 132b with respect to the display device 150.
  • At least two proximity sensors, the first proximity sensor 132a and the second proximity sensor 132b, are provided, and the user's eyepiece can be determined based on the detection results of the plurality of proximity sensors.
  • An imaging device 300 having an eye sensor 132 is provided. Accordingly, it is possible to determine the user's eyepiece separately from the operation of the touch sensor, and it is possible to provide an imaging device having the effects of the above-described embodiment while mounting the display device having the touch sensor on the back surface. Become. That is, it is possible to provide an imaging apparatus in which the display device with a touch sensor and the eyepiece of the electronic viewfinder are more suitably arranged on the back surface of the apparatus main body.
  • the above-described functions and the like of the present invention may be realized by hardware by designing some or all of them with, for example, an integrated circuit, or a program in which a computer such as a microprocessor unit realizes each function or the like. May be realized by software by interpreting and executing the above, or may be realized by a combination of hardware and software.
  • control lines and information lines shown in the figure are those that are considered necessary for the explanation, and not all control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
  • DESCRIPTION OF SYMBOLS 100 ... Imaging device, 110 ... Control part, 131 ... Eyepiece detection sensor, 150 ... Display device, 155 ... 1st backlight, 156 ... 2nd backlight, 170 ... EVF, 171 ... EVF display element, 172 ... EVF Optical system, 173 ... EVF dark room, 174 ... EVF eyepiece, 175 ... back surface light shielding mask, 190 ... main body of apparatus, 190b ... back surface, 190c ... first side surface, 190d ... second side surface, 190e ... top surface, 200 ... Imaging device, 281, 281 a, 281 b, 282.

Abstract

撮像装置において、撮像光学系と、撮像光学系を通過した光を受光して電気信号を生成する撮像素子と、装置本体と、装置本体の背面に設けられ、撮像素子が生成した電気信号に基づいて生成される画像を表示可能な表示デバイスと、装置本体の内部に設けられ、撮像素子が生成した電気信号に基づいて生成される画像を表示可能な電子ビューファインダーと、を備え、表示デバイスは透過性を有しており、電子ビューファインダーの接眼部が表示デバイスの透過性を有する領域に設けられている。

Description

撮像装置
 本発明は、撮像装置に関するものである。
 近年、コンパクトデジタルカメラ、ミラーレスデジタルカメラのラインナップが、各社で充実してきており、上位機種と下位機種との間で差別化が図られている。上位機種では、例えば、電子ビューファインダー(EVF)がデジタルカメラの装置本体に内蔵されている。これに対して、下位機種における電子ビューファインダーは、オプションとして外付けされるようになっている。
 電子ビューファインダーが内蔵された上位機種のデジタルカメラには、装置本体の上部に突起部が設けられたもの、装置本体の上部がフラットにされたもの等がある。
 特許文献1には、装置本体の上部に突起部が設けられたデジタルカメラの一例が示されている。特許文献1のデジタルカメラでは、装置本体の背面に液晶モニタが設けられ、装置本体の上部の突起部に電子ビューファインダーの接眼部が設けられている。
 特許文献2には、装置本体の上部がフラットにされたタイプのデジタルカメラの一例が示されている。特許文献2のデジタルカメラでは、カメラ本体の背面に、表示装置および電子ビューファインダーの接眼部がそれぞれ設けられている。
国際公開第2010/029767号 特開2010-92028号公報
 装置本体の上部に突起部が設けられたデジタルカメラでは、突起部にEVFの接眼部が設けられるため、表示デバイス等を含めた装置本体の背面のレイアウト自由度が高くなるが、突起部があることにより収納性や携帯性が損なわれる。
 これに対して、装置本体の上部がフラットにされたデジタルカメラでは、収納性や携帯性が損なわれない。しかしながら、装置本体の背面に表示装置およびEVFの接眼部等が設けられているため、EVFの接眼部の領域面積と表示装置の表示部面積がトレードオフの関係になる。例えば、EVFの接眼部の領域面積を確保するために表示装置の表示部面積を小さくする必要があるなどの設計上の制約が存在する。すなわち、装置本体の背面のレイアウト自由度が低くなる。
 そこで、本発明の目的は、装置本体の背面に表示デバイスおよび電子ビューファインダーの接眼部をより好適に配置した撮像装置を提供することにある。
 本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。
 本発明の代表的な実施の形態による撮像装置は、撮像光学系と、撮像光学系を通過した光を受光して電気信号を生成する撮像素子と、装置本体と、装置本体の背面に設けられ、撮像素子が生成した電気信号に基づいて生成される画像を表示可能な表示デバイスと、装置本体の内部に設けられ、撮像素子が生成した電気信号に基づいて生成される画像を表示可能な電子ビューファインダーと、を備え、表示デバイスは透過性を有しており、電子ビューファインダーの接眼部が表示デバイスの透過性を有する領域に設けられている。
 本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
 すなわち、本発明の代表的な実施の形態によれば、装置本体の背面に表示デバイスおよび電子ビューファインダーの接眼部をより好適に配置した撮像装置を提供することが可能となる。
本発明の実施の形態1に係る撮像装置の構成の一例を示す図である。 本発明の実施の形態1に係る撮像装置の構成の一例を示す図である。 本発明の実施の形態1に係る撮像装置の構成の一例を示すブロック図である。 本発明の実施の形態1に係る撮像装置の構成の一例を示すブロック図である。 横位置で撮像装置を使用した場合における構え方の一例を示す図である。 縦位置で撮像装置を使用した場合における構え方の一例を示す図である。 本発明の実施の形態1に係る背面表示モードおよびEVF表示モードにおける表示デバイスの表示内容の一例を示す図である。 本発明の実施の形態1に係る背面表示モードおよびEVF表示モードにおける表示デバイスの表示内容の一例を示す図である。 本発明の実施の形態1に係る背面表示モードおよびEVF表示モードにおける表示デバイスの表示内容の一例を示す図である。 本発明の実施の形態1に係るEVFに表示される画像の一例を示す図である。 背面表示モードおよびEVF表示モードにおける各部の状態を比較して示す図である。 本発明の実施の形態2に係る撮像装置の構成の一例を示す背面図である。 本発明の実施の形態2に係る撮像装置の他の構成の例を示す図である。 本発明の実施の形態2に係る撮像装置の他の構成の例を示す背面図である。 本発明の実施の形態3に係る撮像装置の構成の一例を示す図である。 本発明の実施の形態3に係る撮像装置の構成の一例を示す図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの動作例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。 本発明の実施の形態3に係る接眼センサの構成例に関連する説明図である。
 以下、本発明の実施の形態の例を、図面を用いて説明する。なお、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって、適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成されてもよい。
 (実施の形態1)
 <撮像装置の構成>
 図1および図2は、本発明の実施の形態1に係る撮像装置の構成の一例を示す図である。図3および図4は、本発明の実施の形態1に係る撮像装置の構成の一例を示すブロック図である。図1(A)および図2(A)は、装置本体の背面から見た斜視図、図1(B)および図2(B)は、背面に対して左から見た断面図である。なお、図1(B)および図2(B)では、後述するEVF(電子ビューファインダー)の構成が明示されている。
 撮像装置100は、図1、図3に示すように、装置本体190、撮像光学系101、撮像素子102、撮像画像生成部103、不揮発性メモリ121、メモリ122、操作入力部123、スピーカー124、ストレージ部125、表示画像生成部126、画像調整部127、マイク128、姿勢検出センサ130、接眼検出センサ131、制御部110、表示デバイス150、EVF170等を備えている。なお、撮像装置100は各部を駆動する電源を供給するために内部電源(内蔵電池または格納部に格納された交換式電池など)または外部電源接続部を備えるが、説明を簡略化するために図示は省略する。
 図1、図3は、表示デバイス150がバックライトを必要としない方式の場合の例である。これに対して、図2、図4の例では、表示デバイス150がバックライトを用いる方式の例であり、第1のバックライト155および第2のバックライト156をさらに備えている。以下、図1、図3の例と図2、図4の例を並列的に説明する。
 装置本体190は、図1(A)および図2(A)に示すように、例えば直方体状に構成されている。装置本体190は、撮像装置100の撮像光学系101が光を取り込む前面190aと、表示デバイス150が横長の矩形状に配置される背面190bと、上面190eと底面190fと、前面190aに対して装置本体190の左右のそれぞれに位置する第1の側面190cと第2の側面190dとを有する。したがって、装置本体190の第1の側面190cと第2の側面190dとは互いに装置本体190の反対側に位置している。装置本体190には、撮像装置100を構成する各部が装置本体190内部および装置本体190の各面に設けられている。装置本体190の上面190e付近の領域は、撮像装置100の軍艦部を構成している。
 撮像光学系101は、例えば図1(B)、図2(B)、図3および図4に示すように、その一部が装置本体190の前面190aから突出するように設けられている。この突出部を鏡筒と称する。撮像光学系101は、例えば、図示しないレンズや絞り等を備えている。撮像光学系101は、装置本体190の前面190a側において被写体からの入射光を取り込む。例えば、図1(B)、図2(B)には、装置本体190の前面190a側から所定の画角の光が、撮像光学系101から取り込まれる例が示されている。取り込まれた入射光は、図示しないレンズにより集光され、集光された入射光が撮像素子102に照射される。このような撮像光学系101の構成は既知の技術を用いればよく、本願発明においては特定の構成に限定されない。なお、沈胴式構造を採用する場合には、撮像光学系101の鏡筒部分は、撮像装置100の電源がオンされると、装置本体190の前面190aから突出し、撮像装置100の電源がオフされると、前面190aから突出した部分が装置本体190内に収納されるように構成されてもよい。
 撮像素子102は、例えば、CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)等で構成されている。撮像素子102のそれぞれの画素では、撮像光学系101から照射された入射光が電荷として蓄えられることにより、撮像光学系101からの入射光が電気信号に変換される。このように、撮像素子102では、画素ごとに画像信号としての電気信号が生成される。すなわち、撮像素子102は、撮像光学系101を通過した光を受光して電気信号を生成する。生成された電気信号は、撮像素子102から撮像画像生成部103へ出力される。
 撮像画像生成部103は、撮像素子102から出力された各画素の電気信号に基づいて被写体の撮像画像等の画像を生成する。例えば、撮像画像生成部103は、撮像素子102から出力された電気信号を、所定ビットの階調幅を持ったデジタル画像データに変換することにより被写体の撮像画像を生成する。あるいは、撮像画像生成部103は、撮像素子102への露光量を異ならせて生成した複数の撮像画像に基づいてHDR(High Dynamic Range)合成画像を生成する。また、撮像画像生成部103は、撮像素子102から連続して出力された電気信号に基づいて動画像を生成してもよい。動画像が生成される際、例えば、後述するマイク128により外部の音声情報が取得される。生成された撮像画像、HDR合成画像、動画像、取得された音声情報等は、撮像画像生成部103からストレージ部125へ出力され、ストレージ部125に格納される。
 また、撮像画像生成部103は、後述する背面ライブビューモードおよびEVFライブビューモードでは、撮像素子102から連続して出力された電気信号に基づいて生成した画像を連続して表示デバイス150、またはEVF表示素子171へ出力し、表示デバイス150、またはEVF表示素子171にライブビュー画像を表示させる。
 不揮発性メモリ121は、撮像装置100に各種機能を実現させる各種プログラムやメニュー画像等を格納する。例えば、不揮発性メモリ121は、撮像装置100の基本動作に関するプログラム、カメラ機能に関するプログラム、音声認識機能に関するプログラム等の各種プログラムを格納する。また、不揮発性メモリ121は、撮像装置100に関する設定情報等を格納する。
 メモリ122では、不揮発性メモリ121に格納された各種プログラムが展開される。メモリ122に展開された各種プログラムが制御部110により実行されると、撮像装置100では、各プログラムが有する各種機能が実現される。例えば、基本動作に関するプログラムが実行されると、撮像装置100では、基本動作が実現される。また、例えば、カメラ機能に関するプログラムが実行されると、撮像装置100では、カメラ機能が実現される。また、例えば、撮像装置100は、音声認識機能に関するプログラムが実行されると、音声認識機能が実現されるように構成されてもよい。
 操作入力部123は、撮像装置100に対する操作指示の入力を行う指示入力部である。操作入力部123は、例えば図1(A)および図2(A)に示すように、撮像ボタン123a、メニューボタン123b、操作ボタン123c、操作入力キー123d、電源スイッチ123e等を含む。また、これら以外の操作ボタン等が設けられてもよい。
 電源スイッチ123eは、例えば装置本体190の上面190eに設けられており、撮像装置100の電源オン状態と電源オフ状態とを切り替える。以下の説明の各部の動作は、原則として電源オン状態で機能を発揮するものである。
 撮像ボタン123aは、装置本体190の上面190eに設けられている。具体的には、撮像ボタン123aは、例えば図1(A)および図2(A)に示すように、装置本体190の上面190eにおける、装置本体190の第1の側面190c側に設けられている。撮像ボタン123aは、軽く押し込まれるといわゆる半押し状態となり、撮像光学系101により、被写体に対するフォーカシングが行われる。また、撮像ボタン123aが強く押し込まれると、被写体の撮像が行われる。なお、撮像ボタン123aは、装置本体の第2の側面190d側に設けられてもよい。
 メニューボタン123b、操作ボタン123c、操作入力キー123dは、例えば図1(A)および図2(A)に示すように、装置本体190の背面190bの第1の側面190c側に設けられている。メニューボタン123bが操作されると、例えば、後述する表示デバイス150等にメニュー画面が表示される。操作ボタン123cが操作されると、例えば、後述する背面表示モードとEVF表示モードとの切り替え、後述するライブビューモードと再生モードとの切り替え等が行われる。
 操作入力キー123dが操作されると、例えばメニュー画面において、設定変更される項目の選択、変更内容の選択等が行われる。また、操作入力キー123dが操作されると、例えば表示デバイス150等に表示させる画像の選択等が行われる。また、操作入力キー123dが操作されると、撮像モード(例えば、通常撮像モード、HDR撮像モード、動画像撮像モード等)の選択、フォーカスポイントの選択、撮像感度の選択等が行われる。
 スピーカー124は、例えば、動画像に関連する音声を出力する。また、スピーカー124は、例えば、撮像装置100のシャッター音、操作等に関する通知音、警告音等を出力する。
 ストレージ部125は、例えば、フラッシュメモリ、SSD(Solid State Drive)、HDD(Hard Disc Drive)等の不揮発性メモリで構成されている。ストレージ部125は、例えば、撮像画像生成部103で生成された撮像画像、HDR合成画像、動画像、マイク128で取得された動画像に関連する音声情報等を格納する。ストレージ部125は、内部ストレージだけではなく、これに加えてまたはこれに変えて、着脱式の外部ストレージを備えてもよい。
 表示画像生成部126は、例えば、後述する表示デバイス150やEVF170に表示させる各種画像(例えば、上述した設定画面、撮像モード選択画面、撮像画像選択画面、フォーカスポイント選択画面等に関する画像)を生成する。表示画像生成部126は、これらの画像以外にも、例えば、撮像する際における現在の設定情報(例えば、撮像モード、撮像素子102の感度、シャッター速度、絞り値、デジタル水準器等の各種情報)の画面を組み合わせた画像を生成してもよい。
 画像調整部127は、表示デバイス150、EVF表示素子171に表示させる画像の調整を行う。例えば、生成された撮像画像等のファイルサイズが大きく、表示デバイス150等に表示しきれない場合には、画像調整部127は、表示デバイス150に撮像画像が収まるよう、撮像画像の画質の調整を行う。また、例えば、生成された撮像画像のファイルサイズが小さく、表示デバイス150の一部にしか撮像画像が表示されない場合には、画像調整部127は、拡大させた撮像画像が表示されるよう、撮像画像の画質の調整を行ってもよい。
 マイク128は、例えば動画像を撮像する場合等に、撮像装置100の外部の音声を取得する。マイク128は、例えば、取得した音声を制御部110に出力し、制御部110において音声に関する音声データが生成される。生成された音声データは、ストレージ部125に出力され格納される。
 姿勢検出センサ130は、例えば、加速度センサで構成されている。姿勢検出センサ130は、撮像装置100に掛かる重力加速度の大きさ、方向を測定する。姿勢検出センサ130は、測定した重力加速度の大きさ、方向を、加速度情報として制御部110に出力し、制御部110は、加速度情報に基づいて、撮像装置100の姿勢を検出する。
 接眼検出センサ131は、ユーザがEVF170のEVF接眼部174を使用しているかを検出する。接眼検出センサ131は、EVF170のEVF接眼部174の近傍に設けられている。例えば、接眼検出センサ131は、図1(A)および図2(A)に示すように、装置本体190の背面190bにおける、第2の側面190dと上面190eとが交差する位置の近傍に設けられている。接眼検出センサ131は、例えば、赤外線方式の近接センサを用いればよい。また、接眼検出センサ131は、これ以外にも、誘導方式、静電容量方式、超音波方式、電磁波方式等で構成されてもよい。接眼検出センサ131は、例えば、EVF170のEVF接眼部174付近におけるユーザの検出結果をユーザ検出情報として制御部110に出力し、制御部110は、ユーザ検出情報に基づいて、ユーザがEVF170を使用しているかを検出する。
 表示デバイス150は、装置本体190の背面190bに設けられ、撮像素子102が生成した電気信号に基づいて生成される画像を表示可能である。表示デバイス150は、例えば図1(A)および図2(A)に示すように、装置本体190の背面190bにおいて、操作入力部123(例えば、メニューボタン123b、操作ボタン123c、操作入力キー123d)と接眼検出センサ131との間の領域を覆うように設けられている。表示デバイス150は、例えば、図1(A)および図2(A)に示すように、横長の矩形状に構成されている。また、表示デバイス150は、透光性を有している。表示デバイス150は、例えば、有機EL(Electroluminescence)パネル、液晶パネル等で構成されている。透過性を有する表示デバイスの具体的な構造は、例えば、米国特許公開公報US2015/0098039等に開示される既知の構造を用いればよい。
 有機EL(Electroluminescence)パネルなどの自発光方式の表示デバイスではバックライトが不要である。よって、このようなバックライトが不要な表示デバイスを用いる場合の構成としては、図1(A)に示されるように、表示デバイス150の裏面のうちEVF接眼部174以外の部分と装置本体190との間にバックライトを設けずに裏面遮光マスク(遮光マスク)175を設ければよい。裏面遮光マスク175は、例えば遮光性を有する樹脂等で構成されている。この場合、EVF接眼部174以外の領域では、表示デバイス150を透過した光や表示デバイス150自らが発する光は裏面遮光マスク175で遮断され、装置本体190内部側へ透過しない。
 また、液晶パネルなど、ユーザに表示内容を視認させるためにバックライトを要する方式の表示デバイスを用いる場合には、図4に示す第1のバックライト155を表示デバイス150のEVF接眼部174以外の部分と裏面遮光マスク175の間に設ければよい。すなわち、第1のバックライト155は、表示デバイス150の表示領域のうちEVF接眼部174以外の領域の裏面に配置されている。ここで、表示デバイス150を透過した光や第1のバックライト155が発する光は、裏面遮光マスク175で遮断され、装置本体190内部側へ透過しない。ここで、第1のバックライト155だけでは、表示デバイス150のうちEVF接眼部174の部分についてのバックライトが実現できず、表示デバイス150のうちEVF接眼部174の部分だけ暗くなってしまう。そこで、例えば図2(B)に示すように、表示デバイス150のうちEVF接眼部174の部分についてのバックライト機能を実現するために、EVF170内に第2のバックライト156が設けられている。第2のバックライト156の具体的構成および配置は後述する。
 EVF170は、例えば図1(B)および図2(B)に示すように、装置本体190の内部に設けられ、撮像素子102が生成した電気信号に基づいて生成される画像を表示可能である。EVF170は、EVF表示素子171、EVF光学系172、EVF暗室173、EVF接眼部(接眼部)174等を備えている。
 EVF表示素子171は、撮像光学系101、撮像素子102、撮像画像生成部103を介して生成された撮像画像等の再生画像(静止画像または動画像)やライブビュー画像等を表示する。また、EVF表示素子171はメニュー画像を表示する。EVF表示素子171は、例えば、有機ELパネル、液晶パネル等で構成されている。
 表示デバイス150にバックライトが不要な表示デバイスを用いる場合、EVF光学系172は、例えば図1(B)に示すように、レンズ172a、172c、ミラー172bを有するように構成される。EVF光学系172は、図1および図2に示すように、装置本体190の外部から見て、表示デバイス150の透過性を有する領域に設けられたEVF接眼部174の領域の裏側に配置されている。EVF表示素子171が形成する光学像の光は、EVF光学系172を介してEVF接眼部174に導かれ、ユーザの眼の網膜に結像する。すなわち、EVF表示素子171で表示された画像は、EVF光学系172を介してEVF接眼部174で視認される。
 なお、EVF光学系172の光学設計は、例えば、特開2005-148487や特開2007-311925などに開示される既知の技術を用いればよい。
 また、表示デバイス150にバックライトを要する表示デバイスを用いる場合、EVF光学系172は、例えば図2(B)に示すように、レンズ172a、172c、ハーフミラー172d、第2のバックライト156を有するように構成すればよい。EVF表示素子171の表示内容をユーザに視認させるときには、第2のバックライト156をオフとし、EVF表示素子171が形成する光学像の光は、ハーフミラー172dを有するEVF光学系172を介してEVF接眼部174に導かれる。すなわち、このときEVF表示素子171で表示された画像は、EVF光学系172を介してEVF接眼部174で視認される。第2のバックライト156のバックライト機能をオンにするときには、EVF表示素子171の発光をオフとし、第2のバックライト156の発する光は、ハーフミラー172dおよびEVF光学系172の一部を透過して、表示デバイス150のうちEVF接眼部174の部分のバックライトとして機能する。このように、EVF170内に第2のバックライト156を設けることにより、表示デバイス150のうちEVF接眼部174の部分のバックライトが欠落することを防ぐことができる。
 なお、図3および図4においては、説明を簡単にするために、EVF170内のEVF光学系172の各要素の図示は省略している。
 EVF暗室173は、遮光性を有する材質で構成され、EVF表示素子171、EVF光学系172、EVF接眼部174の周囲を取り囲むように設けられている。EVF170内では、EVF接眼部174を除く領域が遮光され、EVF170内に暗室状態が構成されている。すなわち、EVF170は、EVF接眼部174を除いて遮光性を有するように構成されている。このように、EVF170内が暗室状態となっているため、装置本体190内部側の光がEVF170内に入らなくなっており、さらに、EVF170内の光や透過性を有する表示デバイス150のEVF接眼部174の部分を介してEVF170に入射した光も装置本体190内部側に入らないように構成されている。したがって、EVF光学系172とEVF表示素子171が、EVF接眼部174を除いて遮光性を有する空間に配置されている。また、前述した第2のバックライト156は、このような遮光性を有する空間に配置されている。
 EVF接眼部174は、例えば図1(A)および図2(A)に示すように、表示デバイス150の一部に設けられている。具体的には、EVF接眼部174は、表示デバイス150において、装置本体190の第2の側面190d側、かつ、装置本体190の上面190e側に設けられている。より具体的には、EVF接眼部174は、例えば図1(A)に示すように、表示デバイス150の第2の側面190d側かつ上面190e側の領域に設けられている。EVF暗室173の開口部は、表示デバイス150と接している。EVF接眼部174は、EVF暗室173の開口部と、EVF暗室173の開口部と接する領域の表示デバイス150とが一体となって構成されている。なお、撮像ボタン123aが、装置本体190の第2の側面190d側に設けられた場合には、EVF接眼部174は、表示デバイス150において、装置本体190の第1の側面190c側、かつ、装置本体190の上面190e側に設けられていることが好ましい。当該EVF接眼部174の配置の利点を、図5および図6を用いて説明する。
 図5は、横位置で撮像装置を使用した場合における構え方の一例を示す図である。図6は、縦位置で撮像装置を使用した場合における構え方の一例を示す図である。EVF接眼部174が上述の位置に配置されていれば、撮像装置100が横位置で使用されても、例えば図5に示すように、撮像ボタン123aを操作するユーザの手と、EVF接眼部174を覗くユーザの顔とが交錯しない。また、撮像装置100が縦位置で使用されても、例えば図6に示すように、撮像ボタン123aを操作するユーザの手と、EVF接眼部174を覗くユーザの顔とが交錯しない。
 制御部110は、例えば、マイクロプロセッサユニット等のコンピュータで構成されている。制御部110は、メモリ122に展開された各種プログラムを実行することにより、撮像装置100を構成する各部を制御する。
 制御部110は、例えば、基本動作に関するプログラムを実行すると、撮像装置100を構成する各部に対して基本動作に関する制御を行う。例えば、図示しない電源スイッチが操作され、撮像装置100がオンされると、制御部110は、基本動作に関するプログラムに基づいて撮像装置100の各部を起動させる。
 制御部110は、例えば、カメラ機能に関するプログラムを実行すると、撮像装置100を構成する各部に対してカメラ機能に関する制御を行う。例えば、制御部110は、撮像ボタン123aが操作されると、撮像に係る各部を制御して被写体を撮像させる。また、制御部110は、各部に対して撮像した被写体の静止画像、動画像等の画像等を生成させる。また、制御部110は、例えば、メニューボタン123b、操作ボタン123c、操作入力キー123d等への操作に基づいて、撮像装置100の各部に対する制御を行う。
 制御部110は、音声認識機能に関するプログラムを実行すると、撮像装置100を構成する各部に対して音声認識機能に関する制御を行う。例えば、制御部110は、スピーカー124による音声の出力、マイク128による音声の取得等を行わせる。
 <背面表示モード>
 図7~図9は、本発明の実施の形態1に係る背面表示モードおよびEVF表示モードにおける表示デバイスの表示内容の一例を示す図である。制御部110は、表示デバイス150にライブビュー画像や再生画像を表示させる背面表示モード(第1の表示モード)と、EVF170にライブビュー画像や再生画像を表示させるEVF表示モード(第2の表示モード)とを切り替える。
 制御部110は、例えば、表示デバイス150をオンさせると、EVF170をオフさせる背面表示モードに切り替える。具体的には、制御部110は、操作ボタン123c等が操作され、背面表示モードが選択された場合には、表示デバイス150をオンさせ、EVF表示素子171をオフさせる。背面表示モードは、背面ライブビューモード、背面再生モードからなる。
 なお、図2および図4に示される表示デバイス150にバックライトを要する表示デバイスを用いる場合には、背面表示モード(第1の表示モード)では、制御部110は、第1のバックライト155と第2のバックライト156をオンさせる。
 なお、「EVF表示素子171をオフさせる」とは、制御部110が、EVF表示素子171への通電をオフさせる場合や、EVF表示素子171へ通電させた状態で、EVF表示素子171による画像表示を停止させ、EVF表示素子171を発光させない場合も含まれる。
 背面ライブビューモードとは、表示デバイス150に被写体のライブビュー画像を表示させることをいう。具体的には、制御部110は、撮像素子102に対し、画素ごとの電気信号を連続して撮像画像生成部103へ出力させる。また、制御部110は、撮像画像生成部103に対し、被写体の画像を連続して生成させる。そして、制御部110は、撮像画像生成部103に対し、生成させた画像を連続して表示デバイス150へ出力させる。このように、制御部110は、例えば図7(A)に示すように、表示デバイス150に被写体のライブビュー画像を表示させる。なお、この間、制御部110は、EVF表示素子171をオフさせておき、例えば図7(A)に示すように、EVF表示素子171にライブビュー画像等が表示されないようにしておく。
 一方、背面再生モードとは、撮像装置100で撮像され、ストレージ部125に記録された画像(静止画像または動画像)を表示デバイス150に表示することをいう。具体的には、制御部110は、撮像された画像をユーザに選択させる画像選択メニューを表示デバイス150に表示させる。制御部110は、ユーザに選択された画像をストレージ部125から読み出し、表示デバイス150へ出力する。このように、制御部110は、例えば図7(B)に示すように、表示デバイス150に再生画像を表示させる。なお、背面再生モードにおいても、制御部110は、例えば図7(B)に示すように、EVF170をオフさせておき、EVF表示素子171に画像が表示されないようにしておく。
 背面表示モードでは、制御部110は、表示デバイス150に対し、表示デバイス150に表示された画像の情報を表示させるようにしてもよい。例えば、制御部110は、図8(A)、(B)に示すように、EVF接眼部174の装置本体190の第1の側面190c側の表示デバイス150に画像を表示させる。また、制御部110は、EVF接眼部174の装置本体190の底面190f側の表示デバイス150に画像の情報を表示させる。
 言い換えれば、制御部110は、EVF接眼部174の第1の側面190c側の領域にライブビュー画像または再生画像を表示させ、EVF接眼部174の下側の領域にライブビュー画像または再生画像の情報を表示させる。また、制御部110は、表示デバイス150に表示されたライブビュー画像または再生画像の情報を、例えば、ライブビュー画像または再生画像に重ねて表示させてもよい。その際、制御部110は、ライブビュー画像または再生画像の視認性を損なわないよう、例えば、ライブビュー画像または再生画像の端にライブビュー画像または再生画像の情報を表示させるようにすることが好ましい。
 また、背面表示モードでは、制御部110は、EVF接眼部174と隣接する領域の表示デバイス150に、EVF170が利用可能であることを示す画像を表示させてもよい。
 例えば、制御部110は、図9(A)、(B)に示すように、装置本体190の底面190f側から第1の側面側190c側に渡ってEVF接眼部174を取り囲む領域の表示デバイス150に、EVF170が利用可能であることを示す画像(例えば“EVF READY”などの表示)を表示させてもよい。
 <EVF表示モード>
 また、制御部110は、EVF170をオンさせるとEVF接眼部174の表示デバイス150をオフさせる、EVF表示モードに切り替える。具体的には、制御部110は、操作ボタン123c等が操作され、EVF表示モードが選択された場合には、EVF表示素子171をオンさせ、表示デバイス150の表示領域のうちEVF接眼部174の部分の表示をオフさせる。EVF表示モードは、EVFライブビューモード、EVF再生モードからなる。
 なお、図2および図4に示される表示デバイス150にバックライトを要する表示デバイス装置を用いる場合には、EVF表示モード(第2の表示モード)では、制御部110は、第1のバックライト155と第2のバックライト156をともにオフさせる。
 なお、「表示デバイス150の表示領域のうちEVF接眼部174の部分の表示をオフさせる」とは、制御部110が、EVF接眼部174の表示デバイス150への通電をオフさせる場合や、EVF接眼部174の表示デバイス150へ通電させた状態で、EVF接眼部174の表示デバイス150による画像表示を停止させ、EVF接眼部174の表示デバイス150を発光させない場合も含まれる。
 EVFライブビューモードとは、EVF170に被写体のライブビュー画像を表示させることをいう。具体的には、制御部110は、撮像素子102に対し、画素ごとの電気信号を連続して撮像画像生成部103へ出力させる。また、制御部110は、撮像画像生成部103に対し、被写体の画像を連続して生成させる。そして、制御部110は、撮像画像生成部103に対し、生成させた画像を連続してEVF170のEVF表示素子171へ出力させ、EVF表示素子171に画像を表示させる。このように、制御部110は、例えば図7(A)に示すように、EVF170に被写体のライブビュー画像を表示させる。なお、この間、制御部110は、例えば図7(A)に示すように、EVF接眼部174の表示デバイス150をオフさせておき、EVF接眼部174の表示デバイス150にライブビュー画像等が表示されないようにしておく。
 一方、EVF再生モードとは、撮像装置100で撮像され、ストレージ部125に記録された画像(静止画像または動画像)をEVF170に表示することをいう。具体的には、制御部110は、撮像された画像をユーザに選択させる画像選択メニューをEVF表示素子171に表示させる。制御部110は、ユーザに選択された画像をストレージ部125から読み出し、EVF表示素子171へ出力し、EVF表示素子171に再生画像を表示させる。このように、制御部110は、例えば図7(B)に示すように、EVF170に再生画像を表示させる。なお、EVF再生モードにおいても、制御部110は、例えば図7(B)に示すように、EVF接眼部174の表示デバイス150をオフさせておき、EVF接眼部174の表示デバイス150に画像が表示されないようにしておく。
 EVFライブビューモードやEVF再生モードなどのEVF表示モードでは、制御部110は、例えば図7(A)、(B)、図8(A)、(B)に示すように、表示デバイス150の表示領域のうちEVF接眼部174以外の部分を黒表示させてもよい。これにより、表示デバイス150の発光が抑えられ、EVF接眼部174に接眼するユーザの眼に不要な光が入ってEVF表示素子171の表示内容の視認性が低下することを防ぐことができる。
 また、EVF表示モードでは、制御部110は、表示デバイス150の表示領域のうちEVF接眼部174と隣接する領域に、EVF170がオンされていることを示す画像を表示させてもよい。
 例えば、制御部110は、図9(A)、(B)に示すように、装置本体190の底面190f側から第1の側面側190c側に渡ってEVF接眼部174を取り囲む表示デバイス150に、EVF170がオンされていることを示す画像を表示させる。また、制御部110は、例えば図9(A)、(B)に示すように、これら以外の領域の表示デバイス150を黒表示させてもよい。
 図10は、本発明の実施の形態1に係るEVFに表示される画像の一例を示す図である。EVF表示モードでは、制御部110は、EVF170に対し、EVF170に表示された画像(ライブビュー画像または再生画像)の情報を表示させるようにしてもよい。例えば、制御部110は、例えば図10(A)に示すように、EVF表示素子171に対し、画像と画像の情報とを同一画面に別個で表示させてもよい。また、制御部110は、例えば図10(B)に示すように、画像に画像の情報を重ねて表示させてもよい。また、制御部110は、画像の情報以外にも、撮像装置100の設定情報やメニュー等を表示させてもよい。
 制御部110は、操作ボタン123c等の操作により表示モードを切り替える際、例えば図7(A)、図8(A)、図9(A)に示すように、背面ライブビューモードとEVFライブビューモードとを相互に切り替え、例えば図7(B)、図8(B)、図9(B)に示すように、背面再生モードとEVF再生モードとを相互に切り替える。また、制御部110は、これら以外にも、背面ライブビューモードとEVF再生モードとを相互に切り替えてもよいし、背面再生モードとEVFライブビューモードとを相互に切り替えてもよい。
 <表示モードの自動切り替え>
 ここまでは、表示モードが手動で切り替えられる場合について説明したが、表示モードが自動で切り替えられてもよい。
 図11は、背面表示モードおよびEVF表示モードにおける各部の状態を比較して示す図である。接眼検出センサ131がユーザの接眼を検出していない場合には、制御部110は、例えば図11に示すように、表示デバイス150をオンさせ、EVF170をオフさせる背面表示モードに切り替える。このとき、表示デバイス150がバックライトを要する方式の表示デバイスである場合、制御部110は、第1のバックライト155と第2のバックライト156をともにオンさせる。
 また、接眼検出センサ131が、ユーザの接眼を検出すると、制御部110は、例えば図11に示すように、EVF接眼部174の表示デバイス150をオフさせ、EVF170をオンさせるEVF表示モードに切り替える。このとき、表示デバイス150がバックライトを要する方式の表示デバイスである場合、制御部110は、第1のバックライト155と第2のバックライト156をともにオフさせる。
 このように、制御部110は、接眼検出センサ131によるユーザの接眼の検出結果に基づいて、背面表示モードとEVF表示モードとを交互に切り替える。具体的には、制御部110は、例えば図7(A)、図8(A)、図9(A)に示すように、背面ライブビューモードとEVFライブビューモードとを相互に切り替える。また、制御部110は、例えば図7(B)、図8(B)、図9(B)に示すように、背面再生モードとEVF再生モードとを相互に切り替える。また、表示モードを自動で切り替える場合にも、制御部110は、背面ライブビューモードとEVF再生モードとを相互に切り替えてもよいし、背面再生モードとEVFライブビューモードとを相互に切り替えてもよい。
 <本実施の形態による効果>
 本実施の形態によれば、EVF170のEVF接眼部174が表示デバイス150に設けられている。
 この構成によれば、EVF接眼部174と表示デバイス150とを別個で設けなくてもよいので、EVF接眼部174の領域サイズと表示デバイス150の領域サイズのトレードオフが解消される。具体的には、装置本体190の背面190bに表示デバイス150の領域を確保すれば、EVF接眼部174の設置スペースを別途確保する必要はない。これにより、装置本体190の背面190bに表示デバイス150およびEVF接眼部174をより好適に配置した撮像装置100が提供される。
 また、本実施の形態によれば、EVF接眼部174以外の表示デバイス150と装置本体190との間には、裏面遮光マスク175が設けられている。
 この構成によれば、EVF接眼部174以外の領域において、表示デバイス150を透過した光が裏面遮光マスク175で遮断されるので、透過光の乱反射が抑えられる。これにより、表示デバイス150のコントラストの低下が抑えられ、表示デバイス150で表示されライブビュー画像等の視認性を向上させた撮像装置100が提供される。
 また、本実施の形態によれば、EVF光学系172が、装置本体190の外部から見て、表示デバイス150の透過性を有する領域に設けられたEVF接眼部174の領域の裏側に配置されている。
 この構成によれば、EVF表示素子171とEVF接眼部174との間の距離が短縮されるので、EVF170のサイズを抑えることができる。これにより、サイズの増大を抑えつつ、EVF170を備えた撮像装置100が提供される。
 また、本実施の形態によれば、表示デバイス150が横長の矩形状に構成され、装置本体190の上面190eにおける、装置本体190の第1の側面190c側に撮像ボタン123aが設けられている。そして、EVF接眼部174が、表示デバイス150において、装置本体190の第2の側面190d側、かつ、装置本体190の上面190e側に設けられている。
 この構成によれば、横位置および縦位置で撮像装置100を使用した場合でも、撮像ボタン123aを操作するユーザの手と、EVF接眼部174を覗くユーザの顔とが交錯しないので、取り回しに優れた撮像装置100が提供される。
 また、本実施の形態によれば、EVF170が、EVF接眼部174を除いて遮光性を有している。すなわち、EVF光学系172とEVF表示素子171が、EVF接眼部174を除いて遮光性を有する空間に配置されている。
 この構成によれば、EVF接眼部174を透過した光がEVF暗室173で遮断されるので、EVF170を介して装置本体190内へ光が侵入しなくなる。これにより、ノイズを低減した高品質な撮像画像が生成される。また、この構成によれば、接眼中にEVF170内を暗室環境にすることができ、EVF接眼部174におけるコントラストの低下が抑えられ、EVF170における画像等の視認性を向上させた撮像装置100が提供される。
 また、本実施の形態によれば、制御部110は、表示デバイス150をオンさせると、EVF170をオフさせる背面表示モードに切り替える。
 この構成によれば、背面表示モードにおいて、EVF接眼部174の部分において、表示デバイス150による画像等の表示と、EVF170による画像等の表示とが重ならないので、表示デバイス150の表示品質を向上させた撮像装置100が提供される。
 また、本実施の形態によれば、背面表示モードにおいて、制御部110は、表示デバイス150に対し、表示デバイス150に表示された画像の情報を表示させる。
 この構成によれば、画像の情報がユーザに認識されるので、利便性に優れた撮像装置100が提供される。
 また、本実施の形態によれば、表示デバイス150がバックライトを要する方式の表示デバイスである場合、EVF接眼部174以外の表示デバイス150と装置本体190との間に、第1のバックライト155が設けられており、EVF170内には第2のバックライト156が設けられている。
 この構成によれば、背面表示モードにおいて、表示デバイス150のEVF接眼部174の部分のみバックライトが欠落すること防止することができる。
 また、本実施の形態によれば、表示デバイス150は自発光方式の表示デバイスである有機EL素子で構成されている。
 この構成によれば、バックライトを省略することができるので、軽量化、薄型化された表示デバイス150が提供される。これにより、軽量化、薄型化された撮像装置100が提供される。
 また、本実施の形態によれば、制御部110は、EVF170をオンさせると、EVF接眼部174の表示デバイス150をオフさせるEVF表示モードに切り替える。
 この構成によれば、EVF表示モードにおいて、EVF接眼部174の部分において、EVFによる画像等の表示と、表示デバイス150による画像等の表示とが重ならないので、EVF170での表示品質を向上させた撮像装置100が提供される。
 また、本実施の形態によれば、EVF表示モードにおいて、制御部110は、EVF接眼部174以外の表示デバイス150を黒表示させる。
 この構成によれば、EVF接眼部174に接眼するユーザの眼に不要な光が入ってEVF170の表示内容のコントラストの低下をより抑えた撮像装置100が提供される。
 また、本実施の形態によれば、EVF表示モードにおいて、制御部110は、EVF接眼部174と隣接する領域の表示デバイス150に、EVF170がオンされていることを示す画像を表示させる。
 この構成によれば、現在の表示モードがユーザに認識されるので、利便性に優れた撮像装置100が提供される。
 また、本実施の形態によれば、EVF表示モードにおいて、制御部110は、EVF170に対し、EVF170に表示された画像の情報を表示させる。
 この構成によれば、ユーザはEVF接眼部174から眼を離すことなく画像の情報を取得することができるので、利便性に優れた撮像装置100が提供される。
 また、本実施の形態によれば、表示デバイス150がバックライトを要する方式の表示デバイスである場合、EVF接眼部174以外の表示デバイス150と装置本体190との間に、第1のバックライト155が設けられており、EVF170内には第2のバックライト156が設けられ、EVF表示モードにおいては、EVF170内には第2のバックライト156をオフにする。
 この構成によれば、EVF表示モードにおいて、EVF170の表示内容のコントラストの低下をより抑えた撮像装置100が提供される。
 また、本実施の形態によれば、接眼検出センサ131が、ユーザの接眼を検出していない場合には、制御部110は、表示デバイス150をオンさせ、EVF170をオフさせる背面表示モードに切り替える。
 この構成によれば、ユーザがEVF接眼部174から眼を離していれば、自動的に背面表示モードに切り替わるので、表示モードの切り替え操作が不要で、利便性に優れた撮像装置100が提供される。
 また、本実施の形態によれば、接眼検出センサ131が、ユーザの接眼を検出すると、制御部110は、EVF接眼部174の表示デバイス150をオフさせ、EVF170をオンさせるEVF表示モードに切り替える。
 この構成によれば、ユーザがEVF接眼部174を覗き込んでいれば、自動的にEVF表示モードに切り替わるので、表示モードの切り替え操作が不要で、利便性に優れた撮像装置100が提供される。
 (実施の形態2)
 本実施の形態では、表示デバイス150に隣接して、遮光部材が設けられた場合について説明する。図12は、本発明の実施の形態2に係る撮像装置の構成の一例を示す背面図である。
 本実施の形態に係る撮像装置200は、例えば図12に示すように、遮光部材281を備えている。具体的には、装置本体190の背面190bには、表示デバイス150の周囲に、ユーザの接眼時にEVF接眼部174とユーザの顔の間から、EVF接眼部174への光の侵入を抑える遮光部材281が設けられている。
 遮光部材281は、例えば図12に示すように、表示デバイス150に対して、装置本体190の第2の側面190d側および上面190e側に渡って設けられている。例えば、遮光部材281は、図12に示すように、遮光部材281aおよび遮光部材281bで構成されている。遮光部材281aは、図12に示すように、装置本体190の第2の側面190d側で、表示デバイス150の短手方向(縦方向)に延在して設けられている。一方、遮光部材281bは、装置本体190の上面190e側で、表示デバイス150の長手方向(横方向)に延在して設けられている。これにより、図5に示すようにユーザが横位置で撮像装置を使用した場合、太陽光が注きこむ可能性が高い装置本体190の上面190e側や装置本体190の第2の側面190d側からの光の侵入を抑えることが可能となる。遮光部材281(281a、281b)は、例えば、遮光性を有する樹脂等で構成されている。
 なお、ここでは、例えば図12に示すように、EVF接眼部174の第2の側面190d側、上面190e側に遮光部材281a、282bが設けられているが、これ以外にも、EVF接眼部174の周囲には、可能な限り遮光部材が設けられることが好ましい。
 図13は、本発明の実施の形態2に係る撮像装置の他の構成の例を示す図である。遮光部材281は、例えば図13に示すように、装置本体190の上面190e側における長さが、表示デバイス150の長手方向におけるEVF接眼部174の長さの2倍以上となるように構成されていることが好ましい。すなわち、遮光部材281は、横方向の長さが、EVF接眼部174の横方向の長さの2倍以上となるように構成されている。このように、遮光部材281bは、横方向の長さがEVF接眼部174の横方向の幅よりも十分に長く構成されていることが好ましい。これにより、図5に示すようにユーザが横位置で撮像装置を使用した場合、太陽光が注きこむ可能性が高い装置本体190の上面190eからの光の侵入可能角度を極力狭めることが可能となる。また、例えば、図6に示すようにユーザが縦位置で撮像装置を使用した場合、太陽光が注きこむ可能性が高い装置本体190の第1の側面190c側からの光の侵入可能角度を極力狭めることが可能となる。
 図14は、本発明の実施の形態2に係る撮像装置の他の構成の例を示す背面図である。本実施の形態における撮像装置200では、遮光部材282が、表示デバイス150に対して、装置本体190の第1の側面190c側に設けられてもよい。これにより、例えば、図6に示すようにユーザが縦位置で撮像装置を使用した場合、太陽光が注きこむ可能性が高い装置本体190の第1の側面190c側からの光の侵入をさらに防ぐことが可能となる。遮光部材282は、図14に示すように、表示デバイス150の短手方向(縦方向)に延在している。
 <本実施の形態による効果>
 本実施の形態によれば、上述の実施の形態による効果に加え、以下の効果を奏する。本実施の形態によれば、遮光部材281が、表示デバイス190の周囲に隣接して設けられている。
 この構成によれば、ユーザの接眼時にEVF接眼部174とユーザの顔の間からEVF接眼部174に入射する光が抑えられるので、EVF170におけるコントラストの低下が抑えられ、EVF170の視認性を向上させた撮像装置200が提供される。
 また、本実施の形態によれば、遮光部材281が、表示デバイス150に対して、装置本体190の第2の側面190d側および前記上面190e側に渡って設けられている。また、遮光部材281は、装置本体190の第2の側面190d側では、表示デバイス150の短手方向に延在し、装置本体190の上面190e側では、表示デバイス150の長手方向に延在している。
 この構成によれば、遮光部材281が、EVF接眼部174の近傍に設けられることとなるので、EVF接眼部174への光の侵入をより抑えられる。これにより、EVF170におけるコントラストの低下がより抑えられ、EVF170の視認性をより向上させた撮像装置200が提供される。
 また、本実施の形態によれば、遮光部材281は、装置本体190の上面190e側における長さが、表示デバイス150の長手方向におけるEVF接眼部174の長さの2倍以上となるように構成されている。
 この構成によれば、表示デバイス150の第1の側面190c側斜め上方からの光の侵入が抑えられるので、EVF170におけるコントラストの低下がより抑えられ、EVF170の視認性をより向上させた撮像装置200が提供される。
 また、本実施の形態によれば、遮光部材282が、表示デバイス150に対して、装置本体190の第1の側面190c側に設けられ、表示デバイス150の短手方向に延在している。
 この構成によれば、表示デバイス150の横方向からの光の侵入が抑えられるので、EVF170の視認性をより向上させた撮像装置200が提供される。また、この構成によれば、撮像装置200が縦位置で使用される場合でも、表示デバイス150の上方からの光の侵入が抑えられるので、EVF170におけるコントラストの低下が抑えられ、EVF170の視認性を向上させた撮像装置200が提供される。
 (実施の形態3)
 本実施の形態では、実施の形態1の撮像装置の効果を有しながら、表示デバイス150にタッチセンサ180を設け、タッチパネルとして機能させる例を説明する。なお、以下の説明において、「ユーザから見て」と説明される方向はそれぞれの図において「ユーザから見た方向」として示されている方向を示すものとなる。この場合、「ユーザから見た方向」は装置本体190の背面190b側から見た方向であるので、横位置撮影の「ユーザから見た方向」の左右方向は、側装置本体190の前面190a側から見た方向と左右が反対となる。
 <撮像装置の構成>
 図15および図16は、本発明の実施の形態3に係る撮像装置の構成の一例を示す図である。
 図15に示す撮像装置300は図1の撮像装置100に対して、表示デバイス150の前面に透明なタッチセンサ180を設け、さらに図1と異なる構成を有する接眼センサ132を設けたものである。その他の構成および動作は実施の形態1の図1の撮像装置100と同様であるため、説明を省略する。図16に示す撮像装置300は図2の撮像装置100に対して、表示デバイス150の前面に透明なタッチセンサ180を設け、さらに図1と異なる構成を有する接眼センサ132を設けたものである。その他の構成および動作は実施の形態1の図1の撮像装置100と同様であるため、説明を省略する。
 図15および図16の撮像装置300のいずれにおいても、タッチセンサ180は静電容量方式、抵抗膜方式、超音波表面弾性波方式などのセンサにより、タッチセンサ表面へのユーザの指の接触、およびその位置などを検知する。制御部110は、タッチセンサ180の検出結果に基づいて撮像装置300の各機能を制御する。
 <背面表示モードとEVF表示モードの手動切り替え>
 本実施の形態において、背面表示モードとEVF表示モードの手動切り替えについては、実施の形態1の撮像装置と同様の動作であるため、説明を省略する。
 <背面表示モードとEVF表示モードの自動切り替え>
 本実施の形態の撮像装置300は、実施の形態1の撮像装置の接眼センサ131と異なる接眼センサ132を備える。背面表示モードとEVF表示モードの自動切り替えについては接眼センサ132の検出結果を用いて行うため、実施の形態1と異なる動作となる。以下、接眼センサ132の構成例と接眼センサ132の検出結果に基づく撮像装置300の動作例について説明する。
 <接眼センサ132の構成例>
 図17~図24を用いて本発明の実施の形態3に係る接眼センサ132の構成例について説明する。
 図17は、本発明の実施の形態3に係る接眼センサ132の構成の一例を説明する図である。本発明の実施の形態1で説明したとおり、撮像ボタン123aは、例えば図1(A)および図2(A)に示すように、装置本体190の上面190eにおいて、装置本体190の第1の側面190c側に設けられている。
 ここで、本発明の実施の形態3に係る接眼センサ132は、少なくとも第1近接センサ132aと第2近接センサ132bを含む複数の近接センサを含みこれらは異なる位置に設けられている。これらの近接センサは、赤外線方式の近接センサでもよく、または、誘導方式、静電容量方式、超音波方式、電磁波方式等で構成されてもよい。全ての近接センサが同一の方式でも良いが、必ずしも全て同一の方式である必要はなく、異なる方式の近接センサが混在していてもよい。これらの第1近接センサ132aと第2近接センサ132bは、装置本体190の背面190bに設けられている。
 ここで、図17の例では、第1近接センサ132aは、装置本体190の背面190bにおいて表示デバイス150のEVF接眼部174より上面190e側で、装置本体190の上面190eより下側となる位置に配置されている。例えば、EVF接眼部174の第1の側面190c側端の上側付近に配置されている。
 もう一つの近接センサである第2近接センサ132bは、装置本体190の背面190bにおいて表示デバイス150のEVF接眼部174より第2の側面190d側で、装置本体190の第2の側面190dより第1の側面190c側となる位置に配置されている。例えば、EVF接眼部174の下端の第2の側面190d側付近に配置されている。
 <横位置撮影の動作例>
 ユーザが撮像装置300で横位置撮影する場合の、これら複数の近接センサの配置とユーザの指との位置関係の例を、図18および図19を用いて説明する。図を見やすくするためにユーザの指は、撮像装置300が透過して見える線画として記載する。これは以降の図でユーザの指を表記する場合、いずれも同様であるものとする。
 まず、図18に示すように、横位置撮影において、装置本体190の上面190eにある撮像ボタン123aはユーザの右手の人差し指350で操作できるようにレイアウトされる。そのとき、ユーザの右手の親指351は、操作ボタン123cなどの装置本体190の背面190bの他の操作ボタンを操作可能となる。また、その他の指は装置本体190自体の保持に用いられるのが一般的である。
 ユーザの右手は上述のように装置本体190の上面190eの操作ボタンの操作、背面190bの操作ボタンの操作、および装置本体190自体の保持に用いられるため、表示デバイス150上のタッチセンサ180の操作は、左手の指を用いて行われることとなる。ここで、ユーザが表示デバイス150表示を見るために、眼の前の位置に表示デバイス150を合わせた状態では、ユーザの左肩の位置は眼の高さより低く、かつユーザから見て左側にある。すると、ユーザが左手人差し指でEVF接眼部174付近をタッチする場合、その指の方向はユーザから見て右上方向を指すのが自然である。よって、ユーザの左手人差し指361は図18に示すような位置になって第2近接センサ132bに覆いかぶさる可能性がある。この場合、第2近接センサ132bがユーザの左手人差し指361の接近を検出する可能性がある。この状態では、表示デバイス150に表示された映像等に対してユーザがタッチ操作を試みるのであるから、撮像装置300の表示デバイス150とEVF170の表示状態は実施の形態1で説明した「背面表示モード」となっている必要がある。
 しかしながら、表示デバイス150上のタッチセンサ180の操作を目的とする場合、図19に示すようにユーザの左手人差し指362が第1近接センサ132aと第2近接センサ132bとの両者に覆いかぶさる可能性は非常に低い。なぜならば、図19に示す状態では、ユーザの左手人差し指362の位置は、表示デバイス150(タッチセンサ180)の領域を超えてしまっており、タッチ操作が実現しないからである。
 これに対し、横位置撮影において、ユーザが装置本体190のEVF接眼部174に接眼して撮影するように装置本体190を構える場合の状態を図20に示す。この場合、第1近接センサ132aと第2近接センサ132bの両者ともユーザの頭390の顔の部分の接近を検出することとなる。当然この状態では、撮像装置300の表示デバイス150とEVF170の表示状態は実施の形態1で説明した「EVF表示モード」となっている必要がある。
 すると、図18、図19、図20の状況を比較して考慮すると、上述の横位置撮影において、第1近接センサ132aと第2近接センサ132bの両者が物体の接近を検出する場合は、ユーザはタッチセンサ180に対するタッチ操作ではなく、EVF接眼部174に接眼している可能性が高いので、撮像装置300の表示デバイス150とEVF170の表示状態は実施の形態1で説明した「EVF表示モード」とすればよい。第1近接センサ132aと第2近接センサ132bのうち一つのみが物体の接近を検出する場合は、ユーザの接眼ではなく、タッチセンサ180に対するタッチ操作のための指などの接近を検出している可能が高いため、撮像装置300の表示デバイス150とEVF170の表示状態は実施の形態1で説明した「背面表示モード」とすればよいこととなる。
 <縦位置撮影の動作例>
 次に、ユーザが撮像装置300で縦位置撮影する場合の、これら複数の近接センサの配置とユーザの指との位置関係の例を、図21~図23を用いて説明する。
 まず、図21に示すように、縦位置撮影においても、装置本体190の上面190eにある撮像ボタン123aはユーザの右手の人差し指350で操作できるようにレイアウトされる。そのとき、ユーザの右手の親指351は、操作ボタン123cなどの装置本体190の背面190bの他の操作ボタンを操作可能となる。また、その他の指は装置本体190自体の保持に用いられるのが一般的である。また、ユーザの右手は上述のように装置本体190の上面190eの操作ボタンの操作、背面190bの操作ボタンの操作、および装置本体190自体の保持に用いられる。
 すなわち、縦位置撮影における装置本体190に対するユーザの右手の指操作では、ユーザが撮像ボタン123aの位置に合わせて腕を傾けるので、ユーザの右手の指と装置本体190との相対的な位置関係は大きくは変わらない。
 これに対し、装置本体190に対するユーザの左手の指操作においても、ユーザが表示デバイス150の表示を見るために、眼の前の位置に表示デバイス150を合わせた状態では、ユーザの左肩の位置は眼の高さより低く、かつユーザから見て左側にある。すると、縦位置撮影においても、ユーザが左手人差し指でEVF接眼部174付近をタッチする場合、その指の方向はユーザから見て右上方向を指すのが自然である。
 すると、図21に示すように、ユーザの左手人差し指363が第1近接センサ132aに覆いかぶさる可能性がある。この場合、第1近接センサ132aがユーザの左手人差し指363の接近を検出する可能性がある。この状態では、表示デバイス150に表示された映像等に対してユーザがタッチ操作を試みるのであるから、撮像装置300の表示デバイス150とEVF170の表示状態は実施の形態1で説明した「背面表示モード」となっている必要がある。
 また同様に、図22に示すように、ユーザの左手人差し指364が第2近接センサ132bに覆いかぶさる可能性がある。この場合、第2近接センサ132aがユーザの左手人差し指364の接近を検出する可能性がある。この状態では、表示デバイス150に表示された映像等に対してユーザがタッチ操作を試みるのであるから、撮像装置300の表示デバイス150とEVF170の表示状態は実施の形態1で説明した「背面表示モード」となっている必要がある。
 しかしながら、表示デバイス150上のタッチセンサ180の操作を目的とする場合、図23に示すユーザの左手人差し指365のように、第1近接センサ132aと第2近接センサ132bとの両者に覆いかぶさる可能性は非常に低い。その理由は以下のとおりである。まず上述のとおり、ユーザが表示デバイス150の表示を見るために、眼の前の位置に表示デバイス150を合わせた状態では、ユーザの左肩の位置は眼の高さより低く、かつユーザから見て左側にある。ここで、眼の前の位置に表示デバイス150を合わせた状態では、左手人差し指365のように指先をユーザから見て左上向きに向けようとするのは、ユーザの肩と左ひじの姿勢を考えれば容易ではない。すなわち、撮像装置300において、第1近接センサ132aが、装置本体190の背面190bにおいて表示デバイス150のEVF接眼部174より上側で装置本体190の上面190eの下側となる位置に配置されており、第2近接センサ132bが装置本体190の背面190bにおいて表示デバイス150のEVF接眼部174より第2の側面190d側で装置本体190の第2の側面190dの第1の側面190c側となる位置に配置されていることにより、縦位置撮影時に人差し指で両方のセンサを同時に押さえることが困難な位置に配置されていることになる。
 これに対し、縦位置撮影において、ユーザが装置本体190のEVF接眼部174に接眼して撮影するように装置本体190を構える場合の状態を図24に示す。この場合、第1近接センサ132aと第2近接センサ132bの両者ともユーザの頭390の顔の部分の接近を検出することとなる。当然この状態では、撮像装置300の表示デバイス150とEVF170の表示状態は実施の形態1で説明した「EVF表示モード」となっている必要がある。
 すると、図21、図22、図23、図24の状況を比較して考慮すると、上述の縦位置撮影において、第1近接センサ132aと第2近接センサ132bの両者が物体の接近を検出する場合は、ユーザはタッチセンサ180に対するタッチ操作ではなく、EVF接眼部174に接眼している可能性が高いので、撮像装置300の表示デバイス150とEVF170の表示状態は実施の形態1で説明した「EVF表示モード」とすればよい。第1近接センサ132aと第2近接センサ132bのうち一つのみが物体の接近を検出する場合は、ユーザの接眼ではなく、タッチセンサ180に対するタッチ操作のための指などの接近を検出している可能が高いため、撮像装置300の表示デバイス150とEVF170の表示状態は実施の形態1で説明した「背面表示モード」とすればよいこととなる。
 図25は、本実施の形態における、第1近接センサ132aと第2近接センサ132bの検出結果における各部の状態を比較して示す図である。
 第1近接センサ132aと第2近接センサ132bとがともに物体の接近を検出していないときは、制御部110は「ユーザが接眼していない」と判定する。ここで、制御部110は、例えば実施の形態1の図11と同様に、表示デバイス150をオンさせ、EVF170をオフさせる「背面表示モード」に切り替える。このとき、表示デバイス150がバックライトを要する方式の表示デバイスである場合、制御部110は、第1のバックライト155と第2のバックライト156をともにオンさせる。このとき、ユーザがタッチ操作を行う可能性があるので、タッチセンサ180のタッチ検出処理はオン状態とする。その他の「背面表示モード」の動作は実施の形態1と同様なので、説明を省略する。
 また、(1)第1近接センサ132aが物体の接近を検出し第2近接センサ132bが物体の接近を検出していないときや(2)第1近接センサ132aが物体の接近を検出しておらず第2近接センサ132bが物体の接近を検出しているとき、など、複数の近接センサのうち一つのみが物体の接近を検出している場合は、図18、図21、図22の例で説明したとおり、ユーザの接眼ではなくタッチ操作のための指の接近である可能性が高い。よって、制御部110は、「ユーザが接眼していない」と判定する。この場合も、制御部110は、例えば実施の形態1の図11と同様に、表示デバイス150をオンさせ、EVF170をオフさせる「背面表示モード」に切り替える。このとき、ユーザがタッチ操作を行っている可能性が高いので、タッチセンサ180のタッチ検出処理はオン状態とする。「背面表示モード」の説明は繰り返しになるので説明を省略する。
 これに対し、第1近接センサ132aと第2近接センサ132bとがともに物体の接近を検出しているときは、図20や図24で説明したとおり、タッチ操作のための指の接近の可能性は低く、ユーザの接眼の可能性が高い。よって、制御部110は、「ユーザが接眼している」と判定する。このとき、制御部110は、例えば実施の形態1の図11と同様にEVF接眼部174の表示デバイス150をオフさせ、EVF170をオンさせる「EVF表示モード」に切り替える。このとき、表示デバイス150がバックライトを要する方式の表示デバイスである場合、制御部110は、第1のバックライト155と第2のバックライト156をともにオフさせる。このとき、表示デバイス150がオフ状態となるので、原則としてタッチセンサ180のタッチ検出処理はオフ状態とすればよい。その他の「EVF表示モード」の動作は実施の形態1と同様なので、説明を省略する。ここで、この検出状態のタッチパネル180の動作の変形例として、タッチセンサ180の一部の領域のみタッチ検出処理はオン状態とし、その他の領域をオフ状態としてもよい。当該変形例について説明する。この検出状態ではユーザは接眼しているので、タッチセンサ180の領域のうちEVF接眼部174の周辺はユーザの顔がタッチセンサに接触または近接している可能性が高い。しかしながらタッチセンサ180の領域の大きさによっては、EVF接眼部174から離れた領域、例えば、タッチセンサ180の領域の第1の側面190c側端近くの領域はタッチセンサに接触または近接していないこともある。このような設計の場合、「EVF表示モード」においても、タッチセンサ180の領域の第1の側面190c側端近くの一部領域についてタッチ検出をオン状態にしておき、この領域についてユーザの右手の親指でタッチ操作を行うことが可能な構成としてもよい。具体的なタッチ操作としては、当該一部領域における右手の親指のタッチ状態での移動を検出し、検出した移動を制御部110がパーソナルコンピュータのトラックボール操作のような相対的移動操作として認識してもよい。制御部110は、相対的移動操作に基づいて当該EVF170に表示するカーソルの移動操作を行うなどの制御が可能となる。
 このように、本実施の形態において、制御部110は、接眼検出センサ132が有する複数の近接センサ(例えば、第1近接センサ132aと第2近接センサ132b)の物体の接近の検出結果に基づいて、背面表示モードとEVF表示モードとを選択的に切り替える。ここで、本実施の形態においても、背面表示モードとEVF表示モードの切り替えには、背面ライブビューモードとEVFライブビューモードの切り替えや、背面再生モードとEVF再生モードの切り替えなどがある。その具体的な表示例は、実施の形態1の図7、図8、図9で説明した表示例と同様であるので、説明は省略する。
 <接眼センサ132の配置の変形例>
 次に、本実施の形態の接眼センサ132が有する複数の近接センサの配置の変形例について、図26から図30を用いて説明する。
 まず、図26から図30のいずれにおいても、接眼センサ132が有する第1近接センサ132aと第2近接センサ132bについての複数の配置例を例示している。例えば、
第1近接センサ132aについては、EVF接眼部174の第2の側面190d側端上部付近である位置A、第1近接センサ132aの第1の側面190c側端がEVF接眼部174の左右方向の中央付近である位置B、EVF接眼部174の第1の側面190c側端上部付近である位置C、EVF接眼部174の第1の側面190c側端上部から若干第1の側面190c側に離れた位置Dの配置例が示されている。第2近接センサ132bについては、EVF接眼部174の第2の側面190d側上端付近である位置O、第2近接センサ132bの上端がEVF接眼部174の上下方向の中央付近である位置P、EVF接眼部174の第1の側面190c側下端付近である位置Q、EVF接眼部174の第1の側面190c側下端付近から若干下に離れた位置Rの配置例が示されている。
 図26から図30では、これらの複数の配置例のうちから、好適な配置例の組合せについて、説明する。
 図26は、ユーザが撮像装置300で横位置撮影する例を示している。ここで、ユーザが左手人差し指でタッチセンサ180に対するタッチ操作を行う場合は、左手人差し指の位置366から左手人差し指の位置367のように、左手人差し指を動かした場合、第1近接センサ132aの配置例の位置A、B、C、Dのいずれにも左手人差し指が覆いかぶさることはない。すなわち、ユーザが撮像装置300で横位置撮影において、第1近接センサ132aを配置例の位置A、B、C、Dのいずれかに配置し、第2近接センサ132bを配置例の位置O、P、Q、Rのいずれかに配置した複数の組合せのうち、いずれの組合せにおいても、ユーザが左手人差し指でタッチセンサ180に対するタッチ操作で、当該二つの近接センサが左手人差し指で覆いかぶせられる可能性は低い。
 次に、ユーザが撮像装置300で縦位置撮影する場合における複数の配置例の状態について説明する。縦位置撮影については、図21および図22を用いてユーザが左手人差し指をユーザから見て右上方向にした状態でタッチセンサ180に対するタッチ操作を行うことが可能であることを説明した。さらに、図23を用いてユーザが左手人差し指をユーザから見て左上方向にした状態でタッチセンサ180に対するタッチ操作を行うことが困難であることを説明した。ここで、図27~図29は、ユーザが撮像装置300で縦位置撮影する場合の図21~23以外の左手人差し指の向きの状態の例を示している。
 まず、図27は、ユーザが撮像装置300で縦位置撮影する際に、表示デバイス150のタッチセンサ180の上面190e側端付近をユーザから見て上向きの左手人差し指367でタッチするタッチ操作を示している。眼の前の位置に表示デバイス150を合わせた状態で、左手人差し指367のように指先を上向きに向けようとするのはユーザの肩と左ひじの姿勢を考えると可能である(それ以上左手人差し指の指先をユーザから見て左上向きに回転しようとすると比較的困難になる)。このとき、図示するように、第1近接センサ132aは位置A、B、C、Dのいずれの位置でも指により左手人差し指で覆いかぶせられる可能性がある。さらに、この場合、第2近接センサ132bの配置例のうち、最も表示デバイス150の上面190e側の端に近い位置Oは同時に左手人差し指で覆いかぶせられる可能性がある。すると、位置Oに第2近接センサ132bを配置すると、ユーザの実使用上のタッチセンサ180へのタッチ操作によって、第1近接センサ132aと第2近接センサ132bとが同時に物体の接近を検知してしまう可能性があることになる。よって、本実施の形態における第2近接センサ132bの配置位置として位置Oは好ましくないこととなる。
 次に、図28は、ユーザが撮像装置300で縦位置撮影する際に、表示デバイス150の第2の側面190d端付近のタッチセンサ180をユーザから見て右向きの左手人差し指368でタッチするタッチ操作を示している。眼の前の位置に表示デバイス150を合わせた状態で、左手人差し指368のように指先を右向きに向けようとするのはユーザの肩と左ひじの姿勢を考えると可能である(それ以上左手人差し指の指先をユーザから見て右下向きに回転しようとすると比較的困難になる)。このとき、図示するように、第2近接センサ132bは位置O、P、Q、Rのいずれの位置でも指により左手人差し指で覆いかぶせられる可能性がある。さらに、この場合、第2近接センサ132aの配置例のうち、最も表示デバイス150の第2の側面190d側の端に近い位置Aは同時に左手人差し指で覆いかぶせられる可能性がある。すると、位置Aに第1近接センサ132aを配置すると、ユーザの実使用上のタッチセンサ180へのタッチ操作によって、第1近接センサ132aと第2近接センサ132bとが同時に物体の接近を検知してしまう可能性があることになる。よって、本実施の形態における第1近接センサ132bの配置位置として位置Aは好ましくないこととなる。
 次に、図29は、ユーザが撮像装置300で縦位置撮影する際に、表示デバイス150の第2の側面190d端付近のタッチセンサ180をユーザから見て右下向きの左手人差し指369でタッチするタッチ操作を示している。しかしながら、ユーザが表示デバイス150の表示を見るために、眼の前の位置に表示デバイス150を合わせた状態では、ユーザの左肩の位置は眼の高さより低く、かつユーザから見て左側にある。このとき、眼の前の位置に表示デバイス150を合わせた状態では、左手人差し指369のように指先をユーザから見て右下向きに向けようとするとユーザは左ひじを不自然な高さまで上げる必要があり、容易ではない。
 すると、例えば、第1近接センサ132aを位置A、B、C、Dのうち、位置Aを除いた位置B、C、Dのいずれかに配置し、第2近接センサ132bを位置O、P、Q、Rのうち、位置Oを除いた位置B、C、Dのいずれかに配置すれば、ユーザが実使用上のタッチセンサ180へのタッチ操作によって、左手人差し指で第1近接センサ132aと第2近接センサ132bを同時に覆い隠すのは非常に困難であることになる。
 以上本実施の形態で説明した、ユーザのタッチ操作時の指と第1近接センサ132aと第2近接センサ132bの配置の関係を考慮すると、本実施の形態における第1近接センサ132aと第2近接センサ132bの望ましい配置は図30のとおりとなる。
 図30のように、装置本体190を上面190eにおける第1の側面190c側に撮像ボタン123aを配置し、タッチセンサ180を備え透光性を有する表示デバイス150の第2の側面190d側端かつ上端にEVF接眼部174が設けられている場合、第1近接センサ132aは位置Xより第1の側面190c側に配置することが望ましく、第2近接センサ132bは位置Yより下側に配置することが望ましい。具体的には、位置Xは、表示デバイス150の第2の側面190d側端からEVF接眼部174の横幅の半分の位置に第1近接センサ132aの第2の側面190d端が接するあたりの位置である。位置Yは、表示デバイス150の上端からEVF接眼部174の縦幅の半分の位置に第2近接センサ132bの上端が接するあたりの位置である。このように配置すると、図27や図28で説明した、ユーザの実使用上のタッチセンサ180へのタッチ操作によって、第1近接センサ132aと第2近接センサ132bとが同時に物体の接近を検知してしまう状態を回避することができる。なお、EVF接眼部174の大きさはヒトの平均的な眼の大きさに基づいて設計されることが一般的であり、さらに、ヒトの平均的な眼の大きさとヒトの平均的な指の太さは当然相関性がある。したがって、上述の第1近接センサ132aと第2近接センサ132bの望ましい配置位置は、EVF接眼部174の縦幅と横幅を基準に表すことで一般性の高い表現となり、例え装置本体190の大きさが異なる設計の複数種類の撮像装置300でも適用できる表現となる。
 なお、本実施の形態の以上の説明では、実施の形態2で説明した遮光部材については説明していない。しかしながら、本実施の形態に掛かる撮像装置300においても、実施の形態2で説明した遮光部材を備えてもよい。この場合、当該遮光部材は、表示デバイス150と第1近接センサ132aまたは第2近接センサ132bの間に配置してもよい。また、当該遮光部材は、表示デバイス150を基準に第1近接センサ132aまたは第2近接センサ132bよりも外側に配置してもよい。
 <本実施の形態による効果>
 本実施の形態によれば、上述の実施の形態による効果に加え、以下の効果を奏する。本実施の形態によれば、第1近接センサ132aと第2近接センサ132bの少なくとも二つの近接センサを有し、これらの複数の近接センサの検出結果に基づいてユーザの接眼の判定を可能とする接眼センサ132を有する撮像装置300が提供される。これにより、ユーザの接眼をタッチセンサの操作と切り分けて判定することができ、タッチセンサを有する表示デバイスを背面に搭載しながら上述の実施の形態による効果を有する撮像装置を提供することが可能となる。すなわち、装置本体の背面にタッチセンサ付き表示デバイスおよび電子ビューファインダーの接眼部をより好適に配置した撮像装置を提供することが可能となる。
 以上、本発明の実施の形態について説明したが、言うまでもなく、本発明の技術を実現する構成は、これらの実施の形態に限定されるものではない。また、文中や図中に現れる数値等は、あくまでも一例であり、異なるものを用いても本発明の効果を損なうことはない。
 上述した本発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現されてもよいし、マイクロプロセッサユニット等のコンピュータがそれぞれの機能等を実現するプログラムを解釈して実行することによりソフトウェアで実現されてもよいし、ハードウェアとソフトウェアとが併用されて実現されてもよい。   
 また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 100…撮像装置、110…制御部、131…接眼検出センサ、150…表示デバイス、155…第1のバックライト、156…第2のバックライト、170…EVF、171…EVF表示素子、172…EVF光学系、173…EVF暗室、174…EVF接眼部、175…裏面遮光マスク、190…装置本体、190b…背面、190c…第1の側面、190d…第2の側面、190e…上面、200…撮像装置、281、281a、281b、282…遮光部材。

Claims (23)

  1.  撮像光学系と、
     前記撮像光学系を通過した光を受光して電気信号を生成する撮像素子と、
    装置本体と、
     前記装置本体の背面に設けられ、前記撮像素子が生成した前記電気信号に基づいて生成される画像を表示可能な表示デバイスと、
     前記装置本体の内部に設けられ、前記撮像素子が生成した前記電気信号に基づいて生成される画像を表示可能な電子ビューファインダーと、
     を備え、
     前記表示デバイスは透過性を有しており、前記電子ビューファインダーの接眼部が前記表示デバイスの透過性を有する領域に設けられている、
     撮像装置。
  2.  請求項1に記載の撮像装置において、
     前記電子ビューファインダーの光学系が、前記装置本体の外部から見て、前記表示デバイスの透過性を有する領域に設けられた前記電子ビューファインダーの接眼部の領域の裏側に配置されている、
     撮像装置。
  3.  請求項1に記載の撮像装置において、
     前記表示デバイスの表示領域のうち前記接眼部以外の領域と前記装置本体の内部との間には、遮光マスクが設けられている、
     撮像装置。
  4.  請求項1に記載の撮像装置において、
     前記電子ビューファインダーの光学系と前記電子ビューファインダーの表示素子が、前記接眼部を除いて遮光性を有する空間に配置されている、
     撮像装置。
  5.  請求項1に記載の撮像装置において、
     前記表示デバイスは自発光方式の表示デバイスである、
     撮像装置。
  6.  請求項1に記載の撮像装置において、
     前記表示デバイスはバックライトを用いてユーザに表示内容を視認させる方式の表示デバイスであり、
     前記表示デバイスの表示領域のうち前記接眼部以外の領域の裏面に第1のバックライトが配置され、
     前記電子ビューファインダーの光学系と前記電子ビューファインダーの表示素子が、前記接眼部を除いて遮光性を有する空間に配置されており、該空間にさらに第2のバックライトが配置されている、
     撮像装置。
  7.  請求項1に記載の撮像装置において、
     前記装置本体は、
     前記撮像装置の前記撮像光学系が光を取り込む前記装置本体の前面と、
     前記表示デバイスが横長の矩形状に配置される前記装置本体の前記背面と、
     前記装置本体の上面と底面と、
     前記前面に対して前記装置本体の左右のそれぞれに位置する第1の側面と第2の側面とを有し、前記第1の側面と前記第2の側面とは互いに前記装置本体の反対側に位置する面であり、前記装置本体の前記上面における、前記装置本体の前記第1の側面側には、撮像ボタンが設けられ、
     前記接眼部が、前記表示デバイスの透過性を有する領域内において、前記装置本体の前記第2の側面側、かつ、前記装置本体の前記上面側に設けられている、
     撮像装置。
  8.  請求項1に記載の撮像装置において、
     制御部を備え、
     前記制御部は、前記表示デバイスをオンさせると前記電子ビューファインダーをオフさせる第1の表示モードに切り替える、
     撮像装置。
  9.  請求項1に記載の撮像装置において、
     制御部を備え、
     前記制御部は、前記電子ビューファインダーをオンさせると、前記表示デバイスの表示領域のうち前記接眼部の部分の表示をオフさせる第2の表示モードに切り替える、
     撮像装置。
  10.  請求項9に記載の撮像装置において、
     前記制御部は、前記第2の表示モードにおいて、前記表示デバイスの表示領域のうち前記接眼部以外の部分を黒表示させる、
     撮像装置。
  11.  請求項9に記載の撮像装置において、
     前記制御部は、前記第2の表示モードにおいて、前記表示デバイスの表示領域のうち前記接眼部と隣接する領域に、前記電子ビューファインダーがオンされていることを示す画像を表示させる、
     撮像装置。
  12.  請求項1に記載の撮像装置において、
     前記接眼部付近でユーザの接眼を検出する接眼検出センサと、
     制御部と、
     を備え、
     前記接眼検出センサが、前記ユーザの接眼を検出していない場合には、
     前記制御部は、前記表示デバイスをオンさせ、前記電子ビューファインダーをオフさせる、第1の表示モードにする制御を行う、
     撮像装置。
  13.  請求項12に記載の撮像装置において、
     前記接眼検出センサが、前記ユーザの接眼を検出すると、
     前記制御部は、前記接眼部の前記表示デバイスをオフさせ、前記電子ビューファインダーをオンさせる、第2の表示モードに切り替える制御を行う、
     撮像装置。
  14.  請求項1に記載の撮像装置において、
     前記装置本体の前記背面には、前記表示デバイスと隣接して、前記接眼部への光の侵入を抑える遮光部材が設けられている、
     撮像装置。
  15.  請求項14に記載の撮像装置において、
     前記遮光部材が、前記表示デバイスに対して、前記装置本体の前面に対して右に位置する第2の側面側および前記装置本体の上面側に渡って設けられ、
     前記遮光部材は、前記装置本体の前記第2の側面側では、前記表示デバイスの短手方向に延在し、前記装置本体の前記上面側では、前記表示デバイスの長手方向に延在している、
     撮像装置。
  16.  請求項15に記載の撮像装置において、
     前記遮光部材は、前記装置本体の前記上面側における長さが、前記表示デバイスの前記長手方向における前記接眼部の長さの2倍以上となるように構成されている、
     撮像装置。
  17.  請求項15に記載の撮像装置において、
     前記遮光部材が、前記表示デバイスに対して、前記装置本体の前記前面に対して左に位置する第1の側面側に設けられ、
     前記装置本体の前記第1の側面側の前記遮光部材は、前記表示デバイスの前記短手方向に延在している、
     撮像装置。
  18.  請求項1に記載の撮像装置において、
     前記表示デバイス上にはタッチセンサが設けられており、
     前記装置本体の背面の異なる位置に配置される複数の近接センサを備える、
     撮像装置。
  19.  請求項18に記載の撮像装置において、
     制御部を備え、
     前記制御部は、前記複数の近接センサによる物体の接近の検出結果の組合せに応じてユーザの接眼の有無を判定する、
     撮像装置。
  20.  請求項18に記載の撮像装置において、
     制御部を備え、
     前記複数の近接センサには、前記装置本体の前記背面において、前記装置本体の前記背面の異なる位置に配置される第1の近接センサと第2の近接センサとが含まれ、
     前記制御部は、
     前記第1の近接センサと前記第2の近接センサの両者が物体の接近を検出していない場合はユーザの接眼が無いと判定し、
     前記第1の近接センサと前記第2の近接センサのいずれか一方が物体の接近を検出し、他方が物体の接近を検出していない場合はユーザの接眼が無いと判定し、
     前記第1の近接センサと前記第2の近接センサの両者が物体の接近を検出している場合はユーザの接眼があると判定する、
     撮像装置。
  21.  請求項18に記載の撮像装置において、
     前記装置本体は、
     前記撮像装置の前記撮像光学系が光を取り込む前記装置本体の前面と、
     前記表示デバイスが横長の矩形状に配置される前記装置本体の前記背面と、
     前記装置本体の上面と底面と、
     前記前面を正面から見て前記装置本体の左右のそれぞれに位置する第1の側面と第2の側面とを有し、前記第1の側面と前記第2の側面とは互いに前記装置本体の反対側に位置する面であり、前記装置本体の前記上面における、前記装置本体の前記第1の側面側には、撮像ボタンが設けられ、
     前記接眼部が、前記表示デバイスの透過性を有する領域内において、前記装置本体の前記第2の側面側、かつ、前記装置本体の前記上面側に設けられており、
     前記複数の近接センサには、前記装置本体の前記背面において、前記表示デバイスの上面側の位置に配置される第1の近接センサと、前記装置本体の前記背面において、前記表示デバイスの前記第2の側面側の位置に配置される第2の近接センサとが含まれる、
     撮像装置。
  22.  請求項21に記載の撮像装置において、
     前記第1の近接センサは、前記装置本体の前記背面において、前記表示デバイスの上面側かつ、前記接眼部の中央より前記第1の側面に配置され、
     前記第2の近接センサは、前記装置本体の前記背面において、前記表示デバイスの前記第2の側面側かつ、前記接眼部の中央より前記底面側に配置される、
     撮像装置。
  23.  請求項21または22に記載の撮像装置において、
     制御部を備え、
     前記制御部は、
     前記第1の近接センサと前記第2の近接センサの両者が物体の接近を検出していない場合はユーザの接眼が無いと判定し、
     前記第1の近接センサと前記第2の近接センサのいずれか一方が物体の接近を検出し、他方が物体の接近を検出していない場合はユーザの接眼が無いと判定し、
     前記第1の近接センサと前記第2の近接センサの両者が物体の接近を検出している場合はユーザの接眼があると判定する、
     撮像装置。
PCT/JP2017/020105 2016-07-29 2017-05-30 撮像装置 WO2018020816A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/320,494 US10962859B2 (en) 2016-07-29 2017-05-30 Imaging apparatus
CN201780047105.4A CN109565535B (zh) 2016-07-29 2017-05-30 摄像装置
US17/186,348 US11609482B2 (en) 2016-07-29 2021-02-26 Imaging apparatus
US18/110,053 US11934083B2 (en) 2016-07-29 2023-02-15 Imaging apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-149630 2016-07-29
JP2016149630A JP6744164B2 (ja) 2016-07-29 2016-07-29 撮像装置
JP2016232462A JP6764326B2 (ja) 2016-11-30 2016-11-30 撮像装置
JP2016-232462 2016-11-30

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/320,494 A-371-Of-International US10962859B2 (en) 2016-07-29 2017-05-30 Imaging apparatus
US17/186,348 Continuation US11609482B2 (en) 2016-07-29 2021-02-26 Imaging apparatus

Publications (1)

Publication Number Publication Date
WO2018020816A1 true WO2018020816A1 (ja) 2018-02-01

Family

ID=61016689

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/020105 WO2018020816A1 (ja) 2016-07-29 2017-05-30 撮像装置

Country Status (3)

Country Link
US (3) US10962859B2 (ja)
CN (3) CN113794821A (ja)
WO (1) WO2018020816A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113794821A (zh) * 2016-07-29 2021-12-14 麦克赛尔株式会社 摄像装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104335A (ja) * 2002-09-06 2004-04-02 Minolta Co Ltd デジタルカメラシステムおよびプログラム
JP2010028759A (ja) * 2008-07-24 2010-02-04 Nikon Corp 撮影装置
JP2014216761A (ja) * 2013-04-24 2014-11-17 三星電子株式会社Samsung Electronics Co.,Ltd. カメラ装置及びそれを備えた無線通信端末

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4059229B2 (ja) * 2004-06-25 2008-03-12 カシオ計算機株式会社 デジタルカメラ用画像表示装置及びデジタルカメラ
JP2009105795A (ja) 2007-10-25 2009-05-14 Nikon Corp 電子ビューファインダ及び撮像装置
US8175451B2 (en) * 2008-07-18 2012-05-08 Panasonic Corporation Electronic viewfinder apparatus and imaging apparatus
US8373795B2 (en) 2008-09-10 2013-02-12 Panasonic Corporation Camera body and imaging device to which a lens unit configured to form an optical image of a subject can be mounted
WO2010029767A1 (ja) 2008-09-11 2010-03-18 パナソニック株式会社 撮像装置
US8811948B2 (en) 2010-07-09 2014-08-19 Microsoft Corporation Above-lock camera access
KR101880635B1 (ko) * 2011-10-21 2018-07-23 삼성전자주식회사 촬상장치 및 촬상방법
KR20130053041A (ko) * 2011-11-14 2013-05-23 삼성전자주식회사 뷰파인더 장치 및 이를 구비한 카메라
KR20130053040A (ko) * 2011-11-14 2013-05-23 삼성전자주식회사 촬상장치 및 촬상방법
JP2014003422A (ja) 2012-06-18 2014-01-09 Sony Corp 表示制御装置および撮像装置ならびに表示制御方法
JP5747130B2 (ja) * 2012-07-20 2015-07-08 富士フイルム株式会社 カメラおよびその動作制御方法
JP5723488B2 (ja) * 2012-07-20 2015-05-27 富士フイルム株式会社 カメラおよびその動作制御方法
CN103905715A (zh) * 2012-12-26 2014-07-02 联想(北京)有限公司 一种信息处理方法及电子设备
US20140320723A1 (en) 2013-04-24 2014-10-30 Samsung Electronics Co., Ltd. Camera apparatus and wireless communication terminal including the same
JP6301165B2 (ja) * 2014-03-14 2018-03-28 シチズンファインデバイス株式会社 電子ビューファインダー
US10122914B2 (en) * 2015-04-17 2018-11-06 mPerpetuo, Inc. Method of controlling a camera using a touch slider
CN113794821A (zh) * 2016-07-29 2021-12-14 麦克赛尔株式会社 摄像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104335A (ja) * 2002-09-06 2004-04-02 Minolta Co Ltd デジタルカメラシステムおよびプログラム
JP2010028759A (ja) * 2008-07-24 2010-02-04 Nikon Corp 撮影装置
JP2014216761A (ja) * 2013-04-24 2014-11-17 三星電子株式会社Samsung Electronics Co.,Ltd. カメラ装置及びそれを備えた無線通信端末

Also Published As

Publication number Publication date
CN109565535A (zh) 2019-04-02
US11934083B2 (en) 2024-03-19
US20200301248A1 (en) 2020-09-24
US20210181598A1 (en) 2021-06-17
US20230194958A1 (en) 2023-06-22
CN113794821A (zh) 2021-12-14
US11609482B2 (en) 2023-03-21
CN113794822A (zh) 2021-12-14
CN109565535B (zh) 2021-10-01
US10962859B2 (en) 2021-03-30

Similar Documents

Publication Publication Date Title
JP5775659B2 (ja) 撮像装置および撮像装置におけるモード切換え方法
WO2013190906A1 (ja) 表示制御装置および撮像装置ならびに表示制御方法
JP2012010061A (ja) 撮像装置
US11490004B2 (en) Mobile terminal
US11934083B2 (en) Imaging apparatus
JP2012147100A (ja) 撮像装置
JP6744164B2 (ja) 撮像装置
JP2015171116A (ja) カメラの表示装置
JP6764326B2 (ja) 撮像装置
JP4709782B2 (ja) デジタルカメラ、及びデジタルカメラの制御方法
JP7259000B2 (ja) 撮像装置
JP7003193B2 (ja) 撮像装置
US11605513B2 (en) Information input device and image capture device
JP6123562B2 (ja) 撮像装置
JP7366601B2 (ja) 撮像装置
JP2008083078A (ja) カメラ
JP2018042191A (ja) 撮像制御装置、撮像装置の制御方法及びプログラム
JP2010010943A (ja) 携帯装置、撮影装置、操作制御方法およびプログラム
JP6613450B2 (ja) 電子機器
KR101595261B1 (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터로 읽을 수 있는 저장매체
JP6504745B2 (ja) 表示制御装置、表示制御装置の制御方法、プログラム
JP2021019232A (ja) 撮像装置
JP2012008306A (ja) 撮像装置
JP2014142553A (ja) カメラ
JP2008083076A (ja) カメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17833827

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17833827

Country of ref document: EP

Kind code of ref document: A1