WO2019244695A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2019244695A1
WO2019244695A1 PCT/JP2019/022943 JP2019022943W WO2019244695A1 WO 2019244695 A1 WO2019244695 A1 WO 2019244695A1 JP 2019022943 W JP2019022943 W JP 2019022943W WO 2019244695 A1 WO2019244695 A1 WO 2019244695A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
shutter
sound effect
frequency characteristic
display device
Prior art date
Application number
PCT/JP2019/022943
Other languages
English (en)
French (fr)
Inventor
宏樹 春日井
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP19823433.8A priority Critical patent/EP3812837B1/en
Priority to US16/963,393 priority patent/US11372615B2/en
Priority to JP2019552293A priority patent/JP7209358B2/ja
Publication of WO2019244695A1 publication Critical patent/WO2019244695A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response

Definitions

  • the present disclosure relates to an imaging device that emits an electronic sound effect according to a predetermined operation such as a shutter operation.
  • Patent Document 1 discloses an imaging device that outputs a predetermined sound.
  • the photographing apparatus includes: an imaging unit configured to capture an image of a subject; a finder configured to visually recognize a subject imaged by the imaging unit while being peeped by a photographer; a sound output unit configured to output a predetermined sound; Detecting means that the human body has approached the part, detecting means provided around the eyepiece, and detecting that the human body has approached the eyepiece by the sounding means, Volume change control means for controlling the volume of the output sound.
  • the photographer can easily adjust the volume of the sound output from the sound output unit without having to select and adjust the menu items displayed on the menu screen.
  • shutter sound generates an electronic sound that simulates a mechanical shutter (for example, a focal plane shutter) that operates mechanically and causes the user to recognize that the user has taken a picture.
  • a mechanical shutter for example, a focal plane shutter
  • the user may feel discomfort in hearing.
  • the present disclosure provides an imaging apparatus that outputs an electronically generated sound effect such as a shutter sound, which can output a sound effect that does not cause a user to feel uncomfortable depending on the shooting position of the user.
  • an electronically generated sound effect such as a shutter sound
  • One embodiment of the present disclosure includes a first display device, a second display device, a speaker that outputs a sound effect for a predetermined operation, and a control unit that controls output of a sound effect from the speaker.
  • the control unit When the first display device is set to be operable, the control unit outputs a sound effect having a first frequency characteristic from a speaker for a predetermined operation, and the second display device is operable. Is set, the sound effect having the second frequency characteristic different from the first frequency characteristic is output from the speaker in response to the predetermined operation.
  • a sound effect that is electronically generated is provided when a user takes a picture with the face close to the imaging device and when the user takes a picture with the face away from the imaging device.
  • FIG. 3 is a diagram illustrating a positional relationship of a mechanical shutter, a speaker, and the like in the digital camera according to Embodiment 1 of the present disclosure.
  • Block diagram showing the configuration of a digital camera Diagram illustrating sound pickup position when measuring frequency characteristics of shutter sound FIG. 6 is a diagram illustrating frequency characteristics of shutter sound of a mechanical shutter measured at two sound pickup positions.
  • FIG. 4 is a diagram illustrating frequency characteristics of a shutter sound (sound effect) of a conventional electronic shutter measured at two sound pickup positions.
  • FIG. 3 is a diagram illustrating frequency characteristics of sound effects of an electronic shutter in the digital camera according to the first embodiment.
  • FIG. 3 is a diagram for explaining an operation when a mechanical shutter is used in the digital camera according to the first embodiment;
  • FIG. 4 is a diagram for explaining an operation when an electronic shutter is used in the digital camera according to the first embodiment.
  • 5 is a flowchart illustrating output processing of a sound effect of the electronic shutter according to the first embodiment
  • 10 is a flowchart illustrating output processing of a predetermined sound effect other than the electronic shutter according to Embodiment 2 of the present disclosure.
  • FIG. 1 is a diagram illustrating a positional relationship of a mechanical shutter, a speaker, and the like in a digital camera according to an embodiment of the present disclosure.
  • the digital camera 100 of the present embodiment is an interchangeable lens camera, and includes an interchangeable lens 110 and a camera body 120.
  • the interchangeable lens 110 includes an optical system including a focus lens, a zoom lens, a lens for correcting camera shake, and a diaphragm, a driving unit (a motor, an actuator, and the like) for driving the optical system, and a controller for controlling the driving unit. It has.
  • the camera body 120 includes therein an image sensor 11 that captures a subject image formed via the interchangeable lens 110, a mechanical shutter 13 that exposes the image sensor 11, and a speaker 21 that outputs sound such as sound effects.
  • the mechanical shutter 13 is arranged in front of the image sensor 11, and is arranged relatively in front of the camera body 120.
  • the speaker 21 is arranged behind the camera body 120.
  • the camera body 120 further includes a finder 31 and a monitor 33 as a display device for displaying a live view image and various information outside.
  • the user can visually recognize the live view image and various information displayed on the display device arranged inside the finder 31 by bringing the user's face, that is, the eyes, close to the finder 31 and looking into the finder 31. .
  • the monitor 33 the user can visually recognize the live view image and various information displayed on the monitor 33 even when the user separates his / her face from the digital camera 100.
  • FIG. 2 is a block diagram showing the configuration of the camera body 120 of the digital camera 100.
  • the camera body 120 includes an image sensor 11 that captures an image, a mechanical shutter 13 that exposes the image sensor 11, a finder 31, and a monitor 33.
  • a speaker 21 for outputting a sound effect such as a shutter sound
  • an amplifier 19 for amplifying an audio signal
  • a DA converter 17 for converting audio data (digital audio signal) into an analog audio signal.
  • a ROM 23 for storing audio data and the like.
  • the camera body 120 includes an operation unit 25 for a user to perform an instruction and a setting operation on the digital camera 100.
  • the camera body 120 includes an eye sensor 35 near the finder 31 for detecting the proximity of an object. The purpose of the eye sensor 35 is mainly to detect whether or not the user's face has approached the finder 31.
  • the image sensor 11 is a sensor that captures a subject image incident through the interchangeable lens 110 and generates an analog image signal.
  • the image sensor 11 includes, for example, a CCD image sensor and a CMOS image sensor, but is not limited thereto.
  • the analog image signal generated by the image sensor 11 is converted into digital image data.
  • the image data obtained by the conversion is subjected to various image processings by the controller 15.
  • the image processing includes image compression processing such as gamma correction processing, white balance correction processing, flaw correction processing, YC conversion processing, electronic zoom processing, and JPEG compression processing.
  • the monitor 33 is a device that displays an image indicated by the image signal generated by the image sensor 11, various setting information, a menu screen for performing setting, and the like.
  • the monitor 33 is provided on the back of the camera body 120 as shown in FIG.
  • the monitor 33 is movably attached to the camera body 120 so that the direction and / or angle can be changed.
  • the monitor 33 includes a liquid crystal display or an organic EL display.
  • the finder 31 is arranged on the upper part of the back of the camera body 120.
  • the finder 31 includes a display device 31a such as a liquid crystal display or an organic EL display.
  • the finder 31 further includes a window 31b made of a transparent member.
  • the viewfinder 31 may be movably attached to the camera body 120 so that the direction and / or angle can be changed. The user can visually recognize the image displayed on the display device 31a by looking into the viewfinder 31 from the window 31b. On the other hand, the screen of the monitor 33 is exposed, and the user can visually recognize the image displayed on the screen of the monitor 33 even when his / her face is separated from the monitor 33.
  • the eye sensor 35 is a sensor that detects the proximity of an object.
  • the eye sensor 35 is provided near the window 31b of the finder 31.
  • the eye sensor 35 detects the proximity of the user's face to the window 31b of the viewfinder 31.
  • the controller 15 is configured by a processor that realizes a predetermined function by executing a program such as a CPU or an MPU.
  • the controller 15 may be a processor including a dedicated electronic circuit designed to realize a predetermined function. That is, the controller 15 can be realized by various processors such as a CPU, an MPU, a GPU, a DSU, an FPGA, and an ASIC.
  • the controller 15 may be constituted by one or a plurality of processors.
  • the ROM 23 is a read-only nonvolatile memory.
  • the ROM 23 is, for example, a flash memory.
  • the operation unit 25 includes an operation member for a user to give an instruction or a setting to the digital camera 100.
  • the operation unit 25 includes a release button, a moving image recording button, a cursor key, a jog dial, a mode dial, a touch panel, and the like.
  • the mechanical shutter 13 is a device that operates mechanically to adjust the exposure time of the image sensor 11.
  • the mechanical shutter 13 includes a focal plane shutter or a lens shutter.
  • the digital camera 100 includes an electronic shutter as a function of performing exposure of the image sensor 11.
  • the electronic shutter has a function of electronically exposing the image sensor 11 by controlling a charging time of electric charges accumulated in the image sensor 11.
  • whether the mechanical shutter 13 or the electronic shutter is used can be arbitrarily set by a user using a predetermined button or a menu screen.
  • the DA converter 17 is a circuit that converts audio data into an analog audio signal.
  • the amplifier 19 amplifies the analog audio signal generated by the DA converter 17.
  • the speaker 21 outputs a sound based on the audio signal amplified by the amplifier 19.
  • the speaker 21 may output stereo sound or may output monaural sound.
  • the audio data converted by the DA converter 17 is stored in the flash memory 23.
  • the digital camera 100 is an example of an imaging device.
  • the finder 31 is an example of a first display device.
  • the monitor 33 is an example of a second display device.
  • the controller 15 is an example of a control unit.
  • the ROM 23 is an example of a storage unit.
  • the mechanical shutter 13 when the mechanical shutter 13 operates, a shutter sound is generated because mechanical components such as a front curtain, a rear curtain, and light-shielding wings physically operate.
  • the electronic shutter since the electronic shutter is an electronic operation, a shutter sound is not originally generated.
  • the electronically synthesized sound effect is output as the shutter sound from the speaker 21 during the operation of the electronic shutter.
  • the sound data indicating the shutter sound of the electronic shutter is generated by sampling the shutter sound of the mechanical shutter 13.
  • the digital camera 100 includes two display devices, a finder 31 and a monitor 33.
  • the user can shoot using either the finder 31 or the monitor 33.
  • finder photography When taking a picture while looking through the finder 31 (hereinafter referred to as “finder photography”), the user takes the picture with his / her eyes close to the finder 31 (that is, with his / her face close to the camera body 120).
  • monitor photographing when photographing while watching the monitor 33 (hereinafter referred to as “monitor photographing”), the user takes his / her face away from the camera body 120 to photograph.
  • the distance between the camera body 120 and the user's face, that is, the ear differs between the finder shooting and the monitor shooting. Therefore, it is considered that the user hears the shutter sound emitted from the camera body 120 differently when performing finder shooting and when performing monitor shooting.
  • the inventor of the present application measured the frequency characteristics of the shutter sound generated by the mechanical shutter 13 and the electronic shutter sound output during the operation of the electronic shutter at two sound collection positions.
  • the two sound collection positions are positions where the user is expected to hear the shutter sound during finder shooting and monitor shooting, respectively.
  • FIG. 3 is a diagram illustrating the position of the microphone for sound collection when measuring the frequency characteristics of the shutter sound.
  • the sound collection position A is a position at which the user is supposed to hear the shutter sound at the time of finder shooting, and is a position 1 cm away from the finder 31 behind.
  • the sound collection position B is a position where the user is supposed to hear the shutter sound during monitor shooting, and is set at a position 30 cm away from the monitor 33 behind.
  • FIG. 4 is a diagram illustrating frequency characteristics of the shutter sound of the mechanical shutter 13 measured at the sound collection position A and the sound collection position B.
  • FIG. 5 is a diagram illustrating frequency characteristics of a conventional shutter sound of the electronic shutter measured at the sound collection position A and the sound collection position B. 4 and 5, the horizontal axis represents the frequency, and the vertical axis represents the level of the audio signal from the sound collecting microphone. 4 and 5, the solid line shows the measurement result at the sound pickup position A assuming the viewfinder shooting, and the broken line shows the measurement result at the sound pickup position B assuming the monitor shooting.
  • FIG. 5 shows a result obtained by outputting the same shutter sound synthesized from the same audio data from the speaker 21 and measuring the sound at the sound collection position A and the sound collection position B.
  • the measurement result at the sound pickup position A shows a higher level as a whole than the measurement result at the sound pickup position B. This is because the sound arriving at the sound collection position B is attenuated due to the distance because the sound is farther from the speaker 21 than A.
  • the sound pickup position A and the sound pickup position B have different frequency characteristics.
  • FIG. 5 in the case of the electronic shutter, there is a difference in level between the sound pickup position A and the sound pickup position B, but the frequency characteristics are almost the same.
  • the shutter sound of the mechanical shutter 13 and the shutter sound of the electronic shutter have similar frequency characteristics at the sound collection position B (estimated position for monitor shooting).
  • the frequency characteristics of the two are greatly different. That is, focusing on the sound pickup position A, the shutter sound of the mechanical shutter 13 (FIG. 4) has a higher level in the low range than the shutter sound of the electronic shutter (FIG. 5), but has a higher level in the high range. It can be seen that is smaller.
  • the manner of changing the frequency characteristics of the shutter sound of the mechanical shutter 13 and the shutter sound of the electronic shutter differs between the sound collecting position A assuming finder shooting and the sound collecting position B assuming monitor shooting.
  • the shutter sound of the electronic shutter simulates the actual shutter sound of the mechanical shutter, and it is preferable that the shutter sound be as close as possible to the actual shutter sound in terms of audibility.
  • the inventor of the present application has arrived at the fact that, based on the above-described measurement results, the manner of changing the frequency characteristics between the sound pickup position A and the sound pickup position B of the shutter sound of the electronic shutter is different from that of the mechanical shutter. In addition, they have found that this is one factor that hinders the reality of the electronic shutter.
  • the inventor of the present application changes the frequency characteristic of the shutter sound of the electronic shutter according to the distance between the digital camera and the user at the time of finder shooting, thereby providing an audible feeling close to the shutter sound of the mechanical shutter.
  • the inventor of the present application changes the frequency characteristic of the shutter sound of the electronic shutter according to the distance between the digital camera and the user at the time of finder shooting, thereby providing an audible feeling close to the shutter sound of the mechanical shutter.
  • FIG. 6 is a diagram illustrating the frequency characteristics of the shutter sound of the electronic shutter measured at the sound collection position A and the sound collection position B in the digital camera 100 according to the present embodiment.
  • the frequency characteristic of the shutter sound of the electronic shutter of the present embodiment shown in FIG. 6 is the same as the frequency characteristic of the shutter sound of the conventional electronic shutter shown in FIG.
  • the frequency characteristics at the sound pickup position A are different. That is, the characteristic of the sound pickup position A is set so that the relative relationship between the frequency characteristic at the sound pickup position A and the frequency characteristic at the sound pickup position B becomes similar to those relative relationships in the mechanical shutter 13. Is set.
  • the frequency characteristic at the sound pickup position A shown in FIG. 6 is set so that the attenuation is higher in a high frequency range (for example, 10,000 Hz or more) than the frequency characteristic at the sound pickup position A shown in FIG. Have been.
  • the ROM 23 stores the sound data of the shutter sound of the electronic shutter.
  • the ROM 23 stores first sound data of a shutter sound of an electronic shutter reproduced at the time of finder photographing and second sound data of a shutter sound of the electronic shutter reproduced at the time of monitor photographing.
  • the first audio data is generated by sampling the shutter sound of the mechanical shutter 13 collected at the sound collection position A
  • the second audio data is generated by sampling the shutter sound of the mechanical shutter 13 collected at the sound collection position B. Generated by sampling sound.
  • the shutter sound reproduced based on the first audio data is output from the speaker 21, and at the time of monitor shooting, the shutter sound reproduced based on the second audio data is output from the speaker 21.
  • FIG. 7 is a diagram for explaining an operation when the mechanical shutter 13 is used in the digital camera 100.
  • the digital camera 100 is set to use the mechanical shutter 13 as a shutter.
  • the controller 15 transmits an exposure start command to the image sensor 11.
  • the image sensor 11 starts exposure in response to an exposure start command from the controller 15.
  • the controller 15 further transmits an operation start command to the mechanical shutter 13.
  • the mechanical shutter 13 opens and closes a front curtain and a rear curtain at a set shutter speed, and exposes the image sensor 11.
  • the image sensor 11 completes exposure of all pixels.
  • the image signal generated by the image sensor 11 is subjected to predetermined image processing, and is recorded on a recording medium (not shown) such as a memory card.
  • the digital camera 100 Since the mechanical shutter 13 itself generates a shutter sound, the digital camera 100 does not output an electronic shutter sound from the speaker 21 when the mechanical shutter 13 is operating.
  • the audio data of the shutter sound is read from the flash memory 23 and is not processed by the DA converter 17 or the like.
  • FIG. 8 is a diagram for explaining the operation when the digital shutter is used in the digital camera 100.
  • the digital camera 100 is set to use an electronic shutter as a shutter.
  • the controller 15 transmits an exposure start command to the image sensor 11.
  • the image sensor 11 starts exposure in response to an exposure start command from the controller 15.
  • the controller 15 reads the sound data of the shutter sound from the ROM 23.
  • the first audio data or the second audio data is read from the ROM 23 depending on whether it is finder imaging or monitor imaging.
  • the read audio data is converted into an analog audio signal in the DA converter 17.
  • the amplifier 19 amplifies the analog audio signal and transmits it to the speaker 21. Thereby, the speaker 21 outputs a shutter sound.
  • the image signal generated by the image sensor 11 is subjected to predetermined image processing, and is recorded on a recording medium (not shown) such as a memory card.
  • FIG. 9 is a flowchart showing a process of outputting a sound effect of the electronic shutter in the digital camera 100. The output process of the sound effect of the electronic shutter will be described with reference to the flowchart of FIG.
  • the controller 15 detects whether or not the release button of the operation unit 25 has been pressed by the user (S11). When the release button of the operation unit 25 is pressed by the user (YES in S11), the controller 15 determines which of the mechanical shutter 13 and the electronic shutter is set as the shutter (S12). If it is set to the mechanical shutter 13 (NO in S12), the controller 15 ends this processing.
  • the controller 15 determines whether the digital camera 100 is set to the finder shooting mode or the monitor shooting mode (S13).
  • the controller 15 sets the finder shooting mode or the monitor shooting mode based on the detection signal from the eye sensor 35. Specifically, the controller 15 sets the digital camera 100 to the finder shooting mode when the eye sensor 35 detects the proximity of an object, and otherwise sets the monitor mode to the monitor shooting mode.
  • the controller 15 sets the digital camera 100 to the finder shooting mode when the eye sensor 35 detects the proximity of an object, and otherwise sets the monitor mode to the monitor shooting mode.
  • the eye sensor 35 detects that the user has approached the face to the finder 31, and automatically sets the finder shooting mode.
  • the finder 31 is set as a display device to be operated (functioned). That is, in the finder shooting mode, the finder 31 is operated, the live view image is displayed on the display device inside the finder 31, the monitor 33 is not operated, and the live view image is not displayed on the monitor 33.
  • the monitor shooting mode is set, the monitor 33 is set as a display device to be operated (functioned). That is, in the monitor shooting mode, the monitor 33 is operated, the live view image is displayed on the monitor 33, and the live view image is not displayed on the display device inside the viewfinder 31 without operating the viewfinder 31.
  • the finder shooting mode or the monitor shooting mode can be set based on the setting by the user.
  • the digital camera 100 can be set to the finder shooting mode or the monitor shooting mode by operating a predetermined button or a setting menu by the user.
  • the eye sensor 35 is set to be invalid, or a detection signal from the eye sensor 35 is ignored.
  • the controller 15 causes the speaker 21 to output a shutter sound for finder shooting (S14).
  • the controller 15 reads, from the ROM 23, the first audio data reproduced at the time of finder shooting.
  • the read first audio data is subjected to signal processing by the DA converter 17 and the amplifier 19, and is output from the speaker 21 as a shutter sound for finder photographing.
  • the controller 15 causes the speaker 21 to output a shutter sound for monitor shooting (S15).
  • the controller 15 reads from the ROM 23 the second audio data reproduced at the time of monitor shooting.
  • the read second audio data is subjected to signal processing by the DA converter 17 and the amplifier 19, and is output from the speaker 21 as a shutter sound for monitor shooting. Note that the shutter sound for finder shooting and the shutter sound for monitor shooting are output from the speaker 21 at the same level (volume).
  • the digital camera 100 includes the finder 31, the monitor 33, the speaker 21 that outputs the shutter sound (sound effect) for the release button operation, and the shutter sound (sound effect) from the speaker 21. And a controller 15 for controlling the output of.
  • the controller 21 When the viewfinder 31 is set to be operable, the controller 21 outputs a shutter sound having the first frequency characteristic from the speaker 21 in response to pressing of the release button, and the monitor 33 is set to be operable.
  • the shutter button is pressed, a shutter sound having a second frequency characteristic different from the first frequency characteristic is output from the speaker 21 when the release button is pressed.
  • the digital camera 100 can provide the user with an audibility close to the shutter sound emitted from the mechanical shutter 13 in both the finder shooting and the monitor shooting. That is, the digital camera 100 can output a sound effect that does not cause the user to feel uncomfortable in hearing.
  • the first frequency characteristic has a characteristic in which attenuation is higher in a frequency range higher than a predetermined frequency (for example, 10,000 Hz) than in the second frequency characteristic.
  • a predetermined frequency for example, 10,000 Hz
  • the first frequency characteristic may be set based on the shutter sound of the mechanical shutter 13 collected at a position A that is separated from the back of the digital camera 100 by a first distance (for example, 1 cm from the finder 31).
  • the second frequency characteristic is based on the shutter sound of the mechanical shutter 13 collected at a position B that is separated from the rear surface of the digital camera 100 by a second distance (for example, 30 cm from the monitor 33) larger than the first distance. It may be set.
  • the sound effect (shutter sound) of the electronic shutter is different between finder shooting and monitor shooting.
  • the sound effect that causes the frequency characteristics to differ between viewfinder shooting and monitor shooting is not limited to shutter sound.
  • the frequency characteristics may be different between the finder shooting and the monitor shooting.
  • the predetermined sound effect is, for example, an in-focus sound output during focusing and a timer sound output when a self-timer is set.
  • the predetermined sound effect may be a sound output when a moving image recording button for starting or stopping moving image recording is pressed.
  • the first sound data for finder shooting and the second sound data for monitor shooting are previously stored in the ROM 23 for the predetermined sound effect.
  • the first sound data for viewfinder shooting and the second sound data for monitor shooting are stored in the ROM 23 for the focusing sound and the timer sound of the self-timer.
  • FIG. 10 is a flowchart showing the output processing of sound effects other than the electronic shutter.
  • the controller 15 detects whether a predetermined sound effect is output (S21).
  • the predetermined sound effect is a focused sound output at the time of focusing, a timer sound output at the time of setting a self-timer, or the like.
  • the controller 15 determines whether the digital camera 100 is in the finder shooting mode or the monitor shooting mode (S22).
  • the controller 15 causes the speaker 21 to output a sound effect for finder shooting related to the detected operation (S23).
  • the controller 15 reads, from the ROM 23, the first audio data to be reproduced at the time of finder shooting in association with the detected operation.
  • the read first audio data is subjected to signal processing by the DA converter 17 and the amplifier 19, and is output from the speaker 21 as a sound effect for finder shooting.
  • the controller 15 determines that the monitor shooting mode is set (NO in S22)
  • the controller 15 causes the speaker 21 to output a monitor shooting sound effect related to the detected operation (S24).
  • the controller 15 reads, from the ROM 23, the second audio data that is reproduced at the time of monitor shooting in association with the detected operation.
  • the read second audio data is subjected to signal processing by the DA converter 17 and the amplifier 19, and is output from the speaker 21 as a monitor shooting sound effect.
  • the sound level of the high-frequency sound is reduced in the first sound data for finder shooting as compared with the second sound data for monitor shooting, so that the sound effect can be obtained at a closer position.
  • This has the effect of dampening the shrill sound coming to your ears when listening to.
  • the digital camera 100 can output a sound effect that does not cause the user to feel uncomfortable in hearing.
  • Embodiments 1 and 2 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, and the like are made as appropriate. Further, it is also possible to form a new embodiment by combining the components described in the first and second embodiments. Therefore, other embodiments will be exemplified below.
  • a sound effect is generated using the first sound data and output from the speaker 21, and at the time of monitor shooting, the sound effect is generated using the second sound data and the speaker is generated. 21.
  • the sound effect is generated by using different sound data at the time of finder shooting and the monitor shooting, but the same sound data is generated by using the same sound data at the time of finder shooting and at the time of monitor shooting.
  • the sound data of the sound effect for monitor shooting may be stored in the ROM 23.
  • the sound pickup position A related to the sound effect at the time of finder shooting is located at a position 1 cm away from the finder 31, and the sound pickup position B related to the sound effect at the time of monitor shooting is 30 cm away from the monitor 33.
  • These values are set for each position, but these values are merely examples, and other values may be used.
  • the imaging device including the mechanical shutter has been described.
  • the imaging device may not include the mechanical shutter as long as the imaging device has the electronic shutter function.
  • the imaging device may be a single-lens reflex type provided with a mirror or a mirrorless type as long as it can output a sound effect.
  • a digital camera with interchangeable lenses has been described as an example of an imaging device.
  • the imaging device may have an integrated lens and body.
  • the idea of the present disclosure can be applied to another type of imaging device that has an image capturing function and outputs a sound effect from a speaker.
  • the present disclosure is useful for an imaging apparatus that outputs a sound effect (for example, shutter sound) from a speaker based on a predetermined operation.
  • a sound effect for example, shutter sound

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

撮像装置(100)は、第1の表示装置(31)と、第2の表示装置(33)と、所定の操作に対する効果音を出力するスピーカ(21)と、スピーカからの効果音の出力を制御する制御部(15)と、を備える。制御部は、第1の表示装置が動作可能に設定されている場合に、所定の操作に対して、第1の周波数特性を持つ効果音をスピーカから出力し、第2の表示装置が動作可能に設定されている場合に、所定の操作に対して、第1の周波数特性と異なる第2の周波数特性を持つ効果音をスピーカから出力させる。

Description

撮像装置
 本開示は、シャッタ操作のような所定の操作に応じて電子的な効果音を発する撮像装置に関する。
 特許文献1は、所定の音を出力する撮影装置を開示する。この撮影装置は、被写体を撮像する撮像手段と、撮影者により覗かれて前記撮像手段により撮像される被写体が視認されるファインダと、所定の音を出力する出音手段と、前記ファインダの接眼部に人体が接近したことを検出する、前記接眼部の周辺に設けられた検出手段と、前記接眼部に人体が接近したことが前記検出手段によって検出されると、前記出音手段から出力される音の音量を変更する制御を行う音量変更制御手段とを備える。この撮影装置により、撮影者は、出音手段から出力される音の音量を、メニュー画面に表示されるメニュー項目を選択して調節する手間をかけることなく、容易に調節できるようになる。
特開2010-26459号公報
 撮像装置からはシャッタ音、セルフタイマ音のような種々の効果音が電子的に生成されて、発せられる。例えば、シャッタ音は機械的に動作するメカニカルシャッタ(例えばフォーカルプレーンシャッタ)を模した電子音を発生しユーザに撮影したことを認識させるが、一定の電子音を発するため、ユーザの撮影位置(例えばファインダ撮影時とモニタ撮影時)によってユーザは聴感上違和感を覚える場合がある。
 本開示は、電子的に生成される、シャッタ音のような効果音を出力する撮像装置において、ユーザの撮影位置によってユーザが聴感上違和感を覚えない効果音を出力可能な撮像装置を提供する。
 本開示の一態様において、第1の表示装置と、第2の表示装置と、所定の操作に対する効果音を出力するスピーカと、スピーカからの効果音の出力を制御する制御部と、を備える。制御部は、第1の表示装置が動作可能に設定されている場合に、所定の操作に対して、第1の周波数特性を持つ効果音をスピーカから出力し、第2の表示装置が動作可能に設定されている場合に、所定の操作に対して、第1の周波数特性と異なる第2の周波数特性を持つ効果音をスピーカから出力させる。
 本開示の撮像装置によれば、ユーザが撮像装置に顔を近づけた状態で撮影する場合と、ユーザが撮像装置から顔を離した状態で撮影する場合とで、電子的に生成される効果音の周波数特性を異ならせる。これにより、ユーザに対して、ユーザが聴感上違和感を覚えない効果音を出力できる。
本開示の実施の形態1におけるデジタルカメラにおけるメカニカルシャッタ、スピーカ等の位置関係を説明した図 デジタルカメラの構成を示すブロック図 シャッタ音の周波数特性の測定時の収音位置を説明した図 2つの収音位置で測定したメカニカルシャッタのシャッタ音の周波数特性を示す図 2つの収音位置で測定した従来の電子シャッタのシャッタ音(効果音)の周波数特性を示す図 実施の形態1のデジタルカメラにおける電子シャッタの効果音の周波数特性を示す図 実施の形態1のデジタルカメラにおいてメカニカルシャッタを使用する場合の動作を説明するための図 実施の形態1のデジタルカメラにおいて電子シャッタを使用する場合の動作を説明するための図 実施の形態1における電子シャッタの効果音の出力処理を示すフローチャート 本開示の実施の形態2における電子シャッタ以外の所定の効果音の出力処理を示すフローチャート
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
 (実施の形態1)
 [1-1.構成]
 図1は、本開示の一実施の形態におけるデジタルカメラにおけるメカニカルシャッタ、スピーカ等の位置関係を説明した図である。本実施の形態のデジタルカメラ100はレンズ交換式のカメラであり、交換レンズ110とカメラ本体120とで構成される。
 交換レンズ110は、図示していないが、フォーカスレンズ、ズームレンズ及び手振れ補正用のレンズ及び絞りを含む光学系、光学系を駆動する駆動部(モータ、アクチュエータ等)、及び駆動部を制御するコントローラを備えている。
 カメラ本体120は内部に、交換レンズ110を介して結像した被写体像を撮像するイメージセンサ11と、イメージセンサ11に対する露光を行うメカニカルシャッタ13と、効果音等の音声を出力するスピーカ21とを備える。メカニカルシャッタ13はイメージセンサ11の前方に配置されており、カメラ本体120内の比較的前方に配置されている。これに対して、スピーカ21はカメラ本体120の後方に配置されている。
 また、カメラ本体120は、外部に、ライブビュー画像及び種々の情報を表示する表示装置として、ファインダ31とモニタ33を備える。ユーザは、ユーザの顔すなわち眼をファインダ31に近接させてファインダ31を覗き込むことで、ファインダ31の内部に配置された表示デバイスに表示されたライブビュー画像及び種々の情報を視認することができる。また、ユーザは、モニタ33を使用することでデジタルカメラ100から顔を離した状態でも、モニタ33に表示されたライブビュー画像及び種々の情報を視認することができる。
 図2は、デジタルカメラ100のカメラ本体120の構成を示すブロック図である。図2に示すように、カメラ本体120は、画像を撮像するイメージセンサ11と、イメージセンサ11に対する露光を行うメカニカルシャッタ13と、ファインダ31と、モニタ33とに加えて、デジタルカメラ100全体の動作を制御するコントローラ15と、シャッタ音等の効果音を出力するスピーカ21と、音声信号を増幅する回路であるアンプ19と、音声データ(デジタル音声信号)をアナログ音声信号に変換するDAコンバータ17と、音声データ等を格納するROM23とを備える。さらに、カメラ本体120は、ユーザがデジタルカメラ100に対する指示や設定の操作を行うための操作部25を備える。また、カメラ本体120は、ファインダ31の近傍に、物体の近接を検出するアイセンサ35を備える。このアイセンサ35は主としてユーザの顔がファインダ31へ近接したか否かを検出することを目的としている。
 イメージセンサ11は、交換レンズ110を介して入射される被写体像を撮像してアナログ画像信号を生成するセンサである。イメージセンサ11は、例えば、CCDイメージセンサ、CMOSイメージセンサで構成されるが、これらに限定されるものではない。イメージセンサ11で生成されたアナログ画像信号はデジタル画像データに変換される。変換により得られた画像データは、コントローラ15により、様々な画像処理が施される。例えば、画像処理は、ガンマ補正処理、ホワイトバランス補正処理、キズ補正処理、YC変換処理、電子ズーム処理、JPEG圧縮処理などの画像圧縮処理等である。
 モニタ33は、イメージセンサ11で生成された画像信号が示す画像、及び、各種の設定情報や、設定を行うためのメニュー画面等を表示する装置である。モニタ33は、図1に示すようにカメラ本体120の背面に設けられる。モニタ33はカメラ本体120に対して向き及び/または角度が変更できるように可動に取り付けられている。モニタ33は液晶ディスプレイまたは有機ELディスプレイ等で構成される。
 ファインダ31はカメラ本体120の背面の上部に配置される。ファインダ31は内部に液晶ディスプレイや有機ELディスプレイ等の表示デバイス31aを備えている。ファインダ31はさらに透明部材で構成される窓31bを備えている。ファインダ31はカメラ本体120に対して向き及び/または角度が変更できるように可動に取り付けられてもよい。ユーザは、窓31bからファインダ31の内部を覗き込むことで表示デバイス31aに表示された画像を視認できる。これに対して、モニタ33は画面が露出しており、ユーザはモニタ33から顔を離した状態でも、モニタ33の画面に表示された画像を視認することができる。
 アイセンサ35は物体の近接を検出するセンサである。アイセンサ35はファインダ31の窓31bの近傍に設けられる。アイセンサ35は、ファインダ31の窓31bへのユーザの顔の近接を検出する。
 コントローラ15は、CPUやMPUのようなプログラムを実行することで所定の機能を実現するプロセッサで構成される。または、コントローラ15は、所定の機能を実現するように設計された専用の電子回路で構成されるプロセッサでもよい。すなわち、コントローラ15は、CPU、MPU、GPU、DSU、FPGA、ASIC等の種々のプロセッサで実現できる。コントローラ15を1つまたは複数のプロセッサで構成してもよい。
 ROM23は読み出し専用の不揮発性のメモリである。ROM23は例えばフラッシュメモリである。
 操作部25は、ユーザがデジタルカメラ100に対して指示や設定を行うための操作部材を含む。例えば、操作部25は、レリーズ釦、動画記録釦、カーソルキー、ジョグダイヤル、モードダイヤル、タッチパネル等を含む。
 メカニカルシャッタ13は、機械的に動作してイメージセンサ11を露光する時間を調整する装置である。例えば、メカニカルシャッタ13は、フォーカルプレーンシャッタまたはレンズシャッタで構成される。このようなメカニカルシャッタ13とは別に、イメージセンサ11の露光を行う機能として、本実施の形態のデジタルカメラ100は電子シャッタを備える。電子シャッタは、イメージセンサ11に蓄積される電荷の充電時間を制御することで、イメージセンサ11に対する露光を電子的に行う機能である。なお、シャッタとして、メカニカルシャッタ13及び電子シャッタのいずれを使用するかについては、デジタルカメラ100において、所定のボタンやメニュー画面によりユーザが任意に設定できるようになっている。
 DAコンバータ17は、音声データをアナログ音声信号に変換する回路である。アンプ19は、DAコンバータ17で生成されたアナログ音声信号を増幅する。スピーカ21は、アンプ19で増幅された音声信号に基づき音を出力する。スピーカ21は、ステレオ音声を出力してもよいし、モノラル音声を出力してもよい。DAコンバータ17で変換される音声データはフラッシュメモリ23に格納される。
 デジタルカメラ100は撮像装置の一例である。ファインダ31は第1の表示装置の一例である。モニタ33は第2の表示装置の一例である。コントローラ15は制御部の一例である。ROM23は記憶部の一例である。
 [1-2.動作]
 以上のように構成されるデジタルカメラ100について、特に、電子的なシャッタ音の出力動作について説明する。
 デジタルカメラ100において、メカニカルシャッタ13の動作時には、先幕や後幕または遮光する羽等の機械的部品が物理的に動作するため、シャッタ音が発生する。これに対して電子シャッタは電子的な動作であるため、本来シャッタ音は発生しない。しかし、ユーザの利便性を考慮して、電子シャッタの動作時には電子的に合成した効果音をシャッタ音としてスピーカ21から出力している。本実施の形態では、電子シャッタのシャッタ音を示す音声データは、メカニカルシャッタ13のシャッタ音をサンプリングして生成される。
 また、本実施の形態のデジタルカメラ100は、ファインダ31とモニタ33の2つの表示装置を備えている。ユーザはファインダ31とモニタ33のいずれか一方を用いて撮影を行うことができる。ユーザはファインダ31を覗いて撮影(以下「ファインダ撮影」という)を行うときは、ファインダ31に眼を近づけて(すなわち、カメラ本体120に顔を近づけて)撮影を行う。一方、ユーザはモニタ33を見ながら撮影(以下「モニタ撮影」という)を行うときは、カメラ本体120から顔を離して撮影を行う。このようにファインダ撮影とモニタ撮影では、カメラ本体120からユーザの顔、すなわち、耳までの間の距離が異なる。このため、ファインダ撮影を行う場合と、モニタ撮影を行う場合とでは、ユーザのカメラ本体120から発せられるシャッタ音の聴こえ方が異なると考えられる。
 本願発明者はこの点を検証するため、メカニカルシャッタ13によるシャッタ音と、電子シャッタ動作時に出力される電子的なシャッタ音とについて、2つの収音位置における周波数特性を測定した。2つの収音位置はそれぞれ、ファインダ撮影時及びモニタ撮影時にユーザがシャッタ音を聴くと想定される位置である。
 図3は、シャッタ音の周波数特性の測定時の収音用マイクの位置を説明した図である。収音位置Aは、ファインダ撮影時にユーザがシャッタ音を聴くと想定される位置であり、ファインダ31から後方に1cm離れた位置である。収音位置Bは、モニタ撮影時にユーザがシャッタ音を聴くと想定される位置であり、モニタ33から後方に30cm離れた位置に設定した。
 図4は、収音位置A及び収音位置Bで測定したメカニカルシャッタ13のシャッタ音の周波数特性を示す図である。図5は、収音位置A及び収音位置Bで測定した電子シャッタの従来のシャッタ音の周波数特性を示す図である。図4及び図5において、横軸は周波数であり、縦軸は、収音用マイクからの音声信号のレベルである。また、図4及び図5において、実線はファインダ撮影時を想定した収音位置Aでの測定結果を示し、破線はモニタ撮影時を想定した収音位置Bでの測定結果を示す。
 従来のデジタルカメラにおいては、通常、デジタルカメラとユーザの距離に応じて、スピーカから出力させる電子シャッタのシャッタ音を変動させることはない。よって、図5においては、同じ音声データから合成した同じシャッタ音がスピーカ21から出力され、収音位置Aと収音位置Bで測定された結果を示している。
 図4及び図5において、収音位置Aでの測定結果の方が収音位置Bでの測定結果よりも全体的に高いレベルを示しているが、これは、収音位置Bが収音位置Aよりもスピーカ21からより離れているため、収音位置Bに到達する音が距離により減衰しているためである。図4を参照すると、メカニカルシャッタ13の場合、収音位置Aと収音位置Bとで周波数特性が異なっているのが分かる。一方、図5を参照すると、電子シャッタの場合、収音位置Aと収音位置Bとで、レベルに差はあるが、周波数特性はほぼ同じである。
 さらに、図4及び図5を参照すると、メカニカルシャッタ13のシャッタ音と電子シャッタのシャッタ音は、収音位置B(モニタ撮影想定位置)では、両者の周波数特性はよく類似しているが、収音位置A(ファインダ撮影想定位置)では、両者の周波数特性が大きく異なっている。すなわち、収音位置Aについて着目すると、メカニカルシャッタ13のシャッタ音(図4)の方が、電子シャッタのシャッタ音(図5)よりも、低域においてはレベルが大きいが、高域においてはレベルが小さくなっていることが分かる。
 このように、メカニカルシャッタ13のシャッタ音と電子シャッタのシャッタ音は、ファインダ撮影を想定した収音位置Aと、モニタ撮影を想定した収音位置Bとで周波数特性の変化の仕方が異なっている。本来、電子シャッタのシャッタ音はメカニカルシャッタの実際のシャッタ音を模したものであり、聴感上実際のメカニカルシャッタのシャッタ音にできるだけ近づけるのが好ましい。
 本願発明者は、上述した測定結果に基づき、電子シャッタのシャッタ音について、収音位置Aと収音位置Bとでの周波数特性の変化の仕方がメカニカルシャッタのものと異なっているという事実に到達し、さらに、そのことが、電子シャッタのリアリティを阻害する1つの要因であるという知見を得た。
 そこで、本願発明者は、ファインダ撮影時に電子シャッタのシャッタ音の周波数特性を、デジタルカメラとユーザの間の距離に応じて変更することでより、メカニカルシャッタのシャッタ音に近い聴感を提供できる撮像装置を考案した。
 図6は、本実施の形態のデジタルカメラ100における、収音位置A及び収音位置Bで測定された電子シャッタのシャッタ音の周波数特性を示す図である。図6に示す本実施の形態の電子シャッタのシャッタ音の周波数特性は、図5に示す従来の電子シャッタのシャッタ音の周波数特性と比較して、収音位置Bでの周波数特性は同じであるが、収音位置Aでの周波数特性が異なる。すなわち、収音位置Aでの周波数特性と収音位置Bでの周波数特性との相対的な関係が、メカニカルシャッタ13におけるそれらの相対的な関係と同様になるように、収音位置Aの特性を設定している。具体的には、図6に示す収音位置Aでの周波数特性では、高域(例えば、10000Hz以上)において、図5に示す収音位置Aでの周波数特性よりも減衰が大きくなるように設定されている。
 このため、本実施の形態のデジタルカメラ100では、ROM23において、電子シャッタのシャッタ音の音声データを格納している。特に、ROM23は、ファインダ撮影時に再生する電子シャッタのシャッタ音の第1の音声データと、モニタ撮影時に再生する電子シャッタのシャッタ音の第2の音声データとをそれぞれ格納している。例えば、第1の音声データは収音位置Aで収音されたメカニカルシャッタ13のシャッタ音をサンプリングして生成され、第2の音声データは収音位置Bで収音されたメカニカルシャッタ13のシャッタ音をサンプリングして生成される。ファインダ撮影時には、第1の音声データに基づき再生されたシャッタ音がスピーカ21から出力され、モニタ撮影時には、第2の音声データに基づき再生されたシャッタ音がスピーカ21から出力される。
 図7は、デジタルカメラ100において、メカニカルシャッタ13を使用する場合の動作を説明するための図である。ここでは、デジタルカメラ100において、シャッタとしてメカニカルシャッタ13を使用することが設定されているとする。
 ユーザにより操作部25のレリーズ釦が押されると、コントローラ15はイメージセンサ11に露光開始命令を送信する。イメージセンサ11はコントローラ15からの露光開始命令を受けて露光を開始する。コントローラ15はさらにメカニカルシャッタ13に動作開始命令を送信する。メカニカルシャッタ13は、設定されたシャッタースピードで先幕、後幕の開閉を行い、イメージセンサ11を露光する。メカニカルシャッタ13のシャッタ動作を終了後、イメージセンサ11は全画素の露光を完了させる。その後、イメージセンサ11で生成された画像信号は所定の画像処理が施されて、メモリカードのような記録媒体(図示せず)に記録される。
 メカニカルシャッタ13はそれ自体がシャッタ音を発生させるため、メカニカルシャッタ13の動作時は、デジタルカメラ100は電子的なシャッタ音をスピーカ21から出力することはない。フラッシュメモリ23から、シャッタ音の音声データが読み出され、DAコンバータ17等で処理されることはない。
 図8は、デジタルカメラ100において、電子シャッタを使用する場合の動作を説明するための図である。ここでは、デジタルカメラ100において、シャッタとして電子シャッタを使用することが設定されているとする。
 ユーザにより操作部25のレリーズ釦が押されると、コントローラ15はイメージセンサ11に露光開始命令を送信する。イメージセンサ11はコントローラ15からの露光開始命令を受けて露光を開始する。コントローラ15はROM23からシャッタ音の音声データを読み出す。このとき、ファインダ撮影かモニタ撮影かに応じてROM23から第1の音声データまたは第2の音声データが読み出される。読み出した音声データはDAコンバータ17においてアナログ音声信号に変換される。アンプ19はアナログ音声信号を増幅してスピーカ21に送信する。これにより、スピーカ21はシャッタ音を出力する。イメージセンサ11で生成された画像信号は所定の画像処理が施されて、メモリカードのような記録媒体(図示せず)に記録される。
 図9は、デジタルカメラ100において電子シャッタの効果音の出力処理を示すフローチャートである。図9のフローチャートを用いて電子シャッタの効果音の出力処理を説明する。
 コントローラ15はユーザにより操作部25のレリーズ釦が押されたか否かを検出している(S11)。ユーザにより操作部25のレリーズ釦が押されると(S11でYES)、コントローラ15は、シャッタとして、メカニカルシャッタ13と電子シャッタのうちのいずれが設定されているかを判断する(S12)。メカニカルシャッタ13に設定されている場合(S12でNO)、コントローラ15は本処理を終了する。
 電子シャッタが設定されている場合(S12でYES)、コントローラ15は、デジタルカメラ100がファインダ撮影モードに設定されているか、モニタ撮影モードに設定されているかを判断する(S13)。
 コントローラ15は、アイセンサ35からの検出信号に基づきファインダ撮影モードまたはモニタ撮影モードに設定する。具体的には、コントローラ15は、アイセンサ35が物体の近接を検出している場合、デジタルカメラ100をファインダ撮影モードに設定し、そうでない場合、モニタ撮影モードに設定する。ユーザはファインダ31を用いて撮影を行う場合、ファインダ31を覗くためにその顔をファインダ31に近づける。このため、アイセンサ35により、ユーザが顔をファインダ31に近づけたことを検出し、自動でファインダ撮影モードに設定している。
 ファインダ撮影モードでは、動作(機能)させる表示装置としてファインダ31が設定される。すなわち、ファインダ撮影モードでは、ファインダ31を動作させ、ファインダ31の内部の表示デバイスにライブビュー画像を表示し、モニタ33は動作させず、モニタ33にライブビュー画像は表示しないようにする。一方、モニタ撮影モードに設定された場合、動作(機能)させる表示装置としてモニタ33が設定される。すなわち、モニタ撮影モードでは、モニタ33を動作させ、モニタ33にライブビュー画像を表示し、ファインダ31は動作させずにファインダ31の内部の表示デバイスにライブビュー画像は表示しないようにする。
 なお、ファインダ撮影モードまたはモニタ撮影モードは、ユーザによる設定に基づき設定されることもできる。例えば、ユーザによる所定のボタンまたは設定メニューの操作により、デジタルカメラ100がファインダ撮影モードまたはモニタ撮影モードに設定することができる。ユーザ設定によりモードが設定された場合、アイセンサ35は無効に設定されるか、または、アイセンサ35による検出信号が無視される。
 ファインダ撮影モードであると判断した場合(S13でYES)、コントローラ15は、ファインダ撮影用のシャッタ音をスピーカ21から出力させる(S14)。この場合、コントローラ15はROM23から、ファインダ撮影時に再生される第1の音声データを読み出す。読み出された第1の音声データは、DAコンバータ17及びアンプ19で信号処理が施され、スピーカ21から、ファインダ撮影用のシャッタ音として出力される。
 一方、モニタ撮影モードであると判断した場合(S13でNO)、コントローラ15は、モニタ撮影用のシャッタ音をスピーカ21から出力させる(S15)。この場合、コントローラ15はROM23から、モニタ撮影時に再生される第2の音声データを読み出す。読み出された第2の音声データは、DAコンバータ17及びアンプ19で信号処理が施され、スピーカ21から、モニタ撮影用のシャッタ音として出力される。なお、ファインダ撮影用のシャッタ音とモニタ撮影用のシャッタ音とは同じレベル(音量)でスピーカ21から出力される。
 以上のように、本実施の形態のデジタルカメラ100によれば、電子シャッタの動作時においては、ファインダ撮影とモニタ撮影との間で異なるシャッタ音がスピーカ21から出力される。これにより、メカニカルシャッタ13の動作時に聴かれるシャッタ音に近い音を再現することができる。
 [1-3.効果、等]
 以上のように、本実施の形態のデジタルカメラ100は、ファインダ31と、モニタ33と、レリーズ釦操作に対するシャッタ音(効果音)を出力するスピーカ21と、スピーカ21からのシャッタ音(効果音)の出力を制御するコントローラ15と、を備える。コントローラ15は、ファインダ31が動作可能に設定されている場合に、レリーズ釦の押下に対して、第1の周波数特性を持つシャッタ音をスピーカ21から出力し、モニタ33が動作可能に設定されている場合に、レリーズ釦の押下に対して、第1の周波数特性と異なる第2の周波数特性を持つシャッタ音をスピーカ21から出力させる。
 以上のように、ファインダ31が動作可能に設定されている場合、すなわち、ユーザがファインダ撮影を行っていると想定される場合と、モニタ33が動作可能に設定されている場合、すなわち、ユーザがモニタ撮影を行っていると想定される場合とで、スピーカ21から出力されるシャッタ音の周波数特性を異ならせる。これにより、デジタルカメラ100は、ファインダ撮影及びモニタ撮影の双方の場合において、メカニカルシャッタ13から発せられるシャッタ音に近い聴感をユーザに提供することができる。すなわち、デジタルカメラ100は、ユーザが聴感上違和感を覚えない効果音を出力することができる。
 第1の周波数特性は、所定周波数(例えば、10000Hz)よりも高域において、第2の周波数特性よりも、より減衰が大きい特性を有する。このような周波数特性にすることで、ユーザがデジタルカメラ100に顔を近づけた状態でスピーカ21からのシャッタ音を聴く際に、高音域が低減されるため、ユーザに対して甲高い音が耳につくことを低減できる。
 第1の周波数特性は、デジタルカメラ100の背面から第1の距離(例えば、ファインダ31から1cm)だけ離れた位置Aで収音されたメカニカルシャッタ13のシャッタ音に基づき設定されてもよい。第2の周波数特性は、デジタルカメラ100の背面から第1の距離よりも大きい第2の距離(例えば、モニタ33から30cm)だけ離れた位置Bで収音されたメカニカルシャッタ13のシャッタ音に基づき設定されてもよい。これにより、ユーザがデジタルカメラ100に顔を近づけた状態及びデジタルカメラ100から顔を離した状態の双方においてスピーカ21からのシャッタ音を聴く際に、メカニカルシャッタ13から発せられるシャッタ音に近い聴感をユーザに提供することができる。
 (実施の形態2)
 実施の形態1では、電子シャッタの効果音(シャッタ音)について、ファインダ撮影とモニタ撮影とで音を異ならせた。ファインダ撮影とモニタ撮影とで周波数特性を異ならせる効果音は、シャッタ音に限定されない。デジタルカメラ100においてスピーカ21から出力される所定の効果音について、ファインダ撮影とモニタ撮影とで周波数特性を異ならせてもよい。所定の効果音は、例えば、合焦時に出力される合焦音、セルフタイマ設定時に出力されるタイマ音である。または、所定の効果音は、動画記録の開始または停止させるための動画記録釦の押下時に出力される音でもよい。
 この場合、所定の効果音について、ROM23に、ファインダ撮影用の第1の音声データとモニタ撮影用の第2の音声データとを予め格納しておく。例えば、合焦音及びセルフタイマのタイマ音について、ファインダ撮影用の第1の音声データと、モニタ撮影用の第2の音声データとをROM23に格納しておく
 図10は、電子シャッタ以外の効果音の出力処理を示すフローチャートである。コントローラ15は、所定の効果音が出力される状態になったか否かを検出している(S21)。ここで、所定の効果音とは、合焦時に出力される合焦音、または、セルフタイマ設定時に出力されるタイマ音等である。
 所定の効果音が出力される状態になったことが検出されると(S21でYES)、コントローラ15は、デジタルカメラ100がファインダ撮影モードかモニタ撮影モードかを判断する(S22)。
 ファインダ撮影モードであると判断した場合(S22でYES)、コントローラ15は、検出した操作に関連したファインダ撮影用の効果音をスピーカ21から出力させる(S23)。この場合、コントローラ15はROM23から、検出した操作に関連し、ファインダ撮影時に再生される第1の音声データを読み出す。読み出された第1の音声データは、DAコンバータ17及びアンプ19で信号処理が施され、スピーカ21から、ファインダ撮影用の効果音として出力される。
 一方、モニタ撮影モードであると判断した場合(S22でNO)、コントローラ15は、検出した操作に関連したモニタ撮影用の効果音をスピーカ21から出力させる(S24)。この場合、コントローラ15はROM23から、検出した操作に関連し、モニタ撮影時に再生される第2の音声データを読み出す。読み出された第2の音声データは、DAコンバータ17及びアンプ19で信号処理が施され、スピーカ21から、モニタ撮影用の効果音として出力される。
 例えば、合焦音について、ファインダ撮影用の第1の音声データにおいて、モニタ撮影用の第2の音声データと比較して、高域の音のレベルを小さくすることで、より近い位置で効果音を聴く際に甲高い音が耳につくことを和らげる効果が得られる。このように、デジタルカメラ100は、ユーザが聴感上違和感を覚えない効果音を出力することができる。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1、2を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1、2で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
 上記の実施の形態では、ファインダ撮影時には、第1の音声データを用いて効果音を生成してスピーカ21から出力し、モニタ撮影時には、第2の音声データを用いて効果音を生成してスピーカ21から出力した。このように、ファインダ撮影時とモニタ撮影時とで異なる音声データを用いて効果音を生成していたが、ファインダ撮影時とモニタ撮影時とで同じ音声データを用いて効果音を生成してもよい。例えば、ROM23にモニタ撮影用の効果音の音声データのみを格納しておいてもよい。この場合、モニタ撮影時には、ROM23に格納された音声データを用い、ファインダ撮影時には、ROM23に格納された音声データに所定のフィルタ処理を行い、ファインダ撮影用の効果音の音声データを生成してもよい。または、ROM23にファインダ撮影用の効果音の音声データのみを格納し、モニタ撮影時には、ROM23に格納された音声データに所定のフィルタ処理を行い、モニタ撮影用の効果音の音声データを生成してもよい。
 上記の実施の形態において、ファインダ撮影時の効果音に関連した収音位置Aをファインダ31から1cm離れた位置に、モニタ撮影時の効果音に関連した収音位置Bをモニタ33から30cm離れた位置にそれぞれ設定したが、これらの値は一例であり、他の値でもよい。
 上記の実施の形態では、メカニカルシャッタを備えた撮像装置を説明したが、撮像装置は、電子シャッタ機能を備えていれば、メカニカルシャッタを備えていなくてもよい。また、撮像装置は、効果音を出力可能なものであれば、ミラーを備えた一眼レフタイプであってもよいし、ミラーレスタイプであってもよい。
 上記の実施の形態では、レンズ交換が可能なデジタルカメラを撮像装置の例として用いて説明したが、撮像装置はレンズとボディが一体型のものであってもよい。
 撮像装置の一例として上記のデジタルカメラを説明したが、本開示の思想は、画像撮像機能を有し、スピーカから効果音を出力する他の種類の撮像装置にも適用できる。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
 したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、所定の操作に基づきスピーカから効果音(例えば、シャッタ音)を出力する撮像装置に有用である。

Claims (7)

  1.  第1の表示装置と、
     第2の表示装置と、
     所定の操作に対する効果音を出力するスピーカと、
     前記スピーカからの前記効果音の出力を制御する制御部と、を備え、
     前記制御部は、
      前記第1の表示装置が動作可能に設定されている場合に、前記所定の操作に対して、第1の周波数特性を持つ効果音をスピーカから出力し、
      前記第2の表示装置が動作可能に設定されている場合に、前記所定の操作に対して、前記第1の周波数特性と異なる第2の周波数特性を持つ効果音をスピーカから出力させる、
    撮像装置。
  2.  前記第1の周波数特性は、所定周波数よりも高域において、前記第2の周波数特性よりも、より減衰が大きい特性である、
    請求項1に記載の撮像装置。
  3.  前記効果音は、メカニカルシャッタを動作させた時に発生するシャッタ音を模擬した音であり、
     前記第1の周波数特性は、前記撮像装置の背面から第1の距離だけ離れた位置で収音されたメカニカルシャッタのシャッタ音に基づき設定され、
     前記第2の周波数特性は、前記撮像装置の背面から第1の距離よりも大きい第2の距離だけ離れた位置で収音されたメカニカルシャッタのシャッタ音に基づき設定される、
    請求項1に記載の撮像装置。
  4.  前記効果音は、合焦時に出力する音、セルフタイマ設定時に出力する音、及び動画記録の開始操作または終了操作時に出力する音の少なくともいずれか1つを含む、請求項1に記載の撮像装置。
  5.  前記第1の周波数特性を有する効果音を示す第1の音声データと、前記第2の周波数特性を有する効果音を示す第2の音声データとを格納する記憶部をさらに備え、
     前記制御部は、前記第1の音声データに基づき前記第1の周波数特性を有する効果音を生成し、前記第2の音声データに基づき前記第2の周波数特性を有する効果音を生成する、
    請求項1に記載の撮像装置。
  6.  前記第1及び第2の周波数特性の一方を有する効果音を示す音声データを格納する記憶部をさらに備え、
     前記制御部は、
      前記音声データに基づき前記第1及び第2の周波数特性の前記一方を有する効果音を生成し、
      前記音声データに所定のフィルタ処理を行って前記第1及び第2の周波数特性の他方を有する効果音を生成する、
    請求項1に記載の撮像装置。
  7.  前記第1の表示装置は、画像を表示する表示デバイスを備え、ユーザが窓を覗き込むことで前記表示デバイスに表示された画像を視認できる表示装置であり、前記第2の表示装置は、露出した表示画面に画像を表示する表示装置である、
    請求項1から6のいずれかに記載の撮像装置。
PCT/JP2019/022943 2018-06-19 2019-06-10 撮像装置 WO2019244695A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19823433.8A EP3812837B1 (en) 2018-06-19 2019-06-10 Imaging apparatus
US16/963,393 US11372615B2 (en) 2018-06-19 2019-06-10 Imaging apparatus
JP2019552293A JP7209358B2 (ja) 2018-06-19 2019-06-10 撮像装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018116373 2018-06-19
JP2018-116373 2018-06-19

Publications (1)

Publication Number Publication Date
WO2019244695A1 true WO2019244695A1 (ja) 2019-12-26

Family

ID=68984045

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/022943 WO2019244695A1 (ja) 2018-06-19 2019-06-10 撮像装置

Country Status (4)

Country Link
US (1) US11372615B2 (ja)
EP (1) EP3812837B1 (ja)
JP (1) JP7209358B2 (ja)
WO (1) WO2019244695A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188804A1 (ja) * 2022-03-29 2023-10-05 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7218168B2 (ja) * 2018-12-14 2023-02-06 キヤノン株式会社 撮像装置、その制御方法、およびそのプログラム
US20220394188A1 (en) * 2020-01-09 2022-12-08 Sony Group Corporation Imaging device, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03162075A (ja) * 1989-11-20 1991-07-12 Olympus Optical Co Ltd カメラ
WO2006117972A1 (ja) * 2005-04-27 2006-11-09 Kyocera Corporation カメラ機能付携帯端末
JP2007041393A (ja) * 2005-08-04 2007-02-15 Canon Inc カメラ及びカメラの撮影方法並びに記憶媒体
JP2010026459A (ja) 2008-07-24 2010-02-04 Nikon Corp 撮影装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI92051C (fi) 1992-03-17 1994-09-26 Amylum Nv Menetelmä ksylitolin valmistamiseksi D-glukoosista ja D-glukoosin ja D-fruktoosin sekä D-glukoosin ja D-galaktoosin seoksista
JP4397054B2 (ja) * 1996-06-13 2010-01-13 株式会社ニコン 情報入力装置
JP2000125167A (ja) 1998-10-19 2000-04-28 Hitachi Maxell Ltd デジタルカメラ
KR20040105192A (ko) * 2003-06-05 2004-12-14 삼성전자주식회사 카메라를 가진 장치에서 촬영할 대상의 시선을 집중시키는방법
JP4850400B2 (ja) * 2004-09-17 2012-01-11 キヤノン株式会社 撮像装置
JP2010273021A (ja) * 2009-05-20 2010-12-02 Sony Corp 画像表示装置、画像表示方法
KR101630284B1 (ko) * 2009-11-17 2016-06-14 삼성전자주식회사 디지털 영상 처리 장치 및 디지털 영상 처리 장치에서 촬영자를 인식하는 정도를 개선하는 방법
JP5821019B2 (ja) 2010-03-09 2015-11-24 パナソニックIpマネジメント株式会社 撮影装置および情報検出方法
JP2013223105A (ja) 2012-04-17 2013-10-28 Panasonic Corp 収音装置、撮像装置
JP2015130547A (ja) * 2014-01-06 2015-07-16 パナソニックIpマネジメント株式会社 記録装置
JP5732565B1 (ja) * 2014-03-12 2015-06-10 オリンパス株式会社 撮像装置、撮像システム、撮像方法、およびプログラム
US10051142B1 (en) * 2016-05-20 2018-08-14 Google Llc Adaptive display of image capacity for a camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03162075A (ja) * 1989-11-20 1991-07-12 Olympus Optical Co Ltd カメラ
WO2006117972A1 (ja) * 2005-04-27 2006-11-09 Kyocera Corporation カメラ機能付携帯端末
JP2007041393A (ja) * 2005-08-04 2007-02-15 Canon Inc カメラ及びカメラの撮影方法並びに記憶媒体
JP2010026459A (ja) 2008-07-24 2010-02-04 Nikon Corp 撮影装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188804A1 (ja) * 2022-03-29 2023-10-05 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
EP3812837B1 (en) 2023-10-25
US11372615B2 (en) 2022-06-28
EP3812837A1 (en) 2021-04-28
JP7209358B2 (ja) 2023-01-20
JPWO2019244695A1 (ja) 2021-05-13
US20210072950A1 (en) 2021-03-11
EP3812837A4 (en) 2021-08-11

Similar Documents

Publication Publication Date Title
JP7209358B2 (ja) 撮像装置
KR20110062991A (ko) 피사체 인식을 알리는 디지털 촬영 장치, 상기 디지털 촬영 장치의 제어 방법
JP2006203477A (ja) 撮影装置
JP6214421B2 (ja) 撮像装置、撮像方法
JP5299034B2 (ja) 撮影装置
JP2021114716A (ja) 撮像装置
JP5688547B2 (ja) 音声処理装置、収音装置及び撮像装置
JP2010200253A (ja) 撮像装置
JP2011188374A (ja) 撮影機器
WO2021065398A1 (en) Imaging apparatus, sound processing method, and program
JP2014230018A (ja) 撮影装置、撮像システム、撮像装置の制御方法、プログラム、および、記憶媒体
US20100118155A1 (en) Digital image processing apparatus
JP2010028759A (ja) 撮影装置
JP2010148049A (ja) 画像再生システムおよびカメラ
JP2007043292A (ja) 撮像装置
JP2010026459A (ja) 撮影装置
JP2010124034A (ja) 撮像装置
JP6793369B1 (ja) 撮像装置
JP2018191023A (ja) 撮像システム
JP2013223223A (ja) 録音装置
US20220329752A1 (en) Image pickup apparatus having function of recording voice data, control method for image pickup apparatus, and storage medium
JP2011053550A (ja) 光学機器
JP7378953B2 (ja) 撮像装置、撮像装置の制御方法、プログラム
JP2012070101A (ja) 撮像装置
JP2018113527A (ja) 撮像装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019552293

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19823433

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019823433

Country of ref document: EP

Effective date: 20210119