WO2012176441A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2012176441A1
WO2012176441A1 PCT/JP2012/003994 JP2012003994W WO2012176441A1 WO 2012176441 A1 WO2012176441 A1 WO 2012176441A1 JP 2012003994 W JP2012003994 W JP 2012003994W WO 2012176441 A1 WO2012176441 A1 WO 2012176441A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
subject
control unit
vibration
camera system
Prior art date
Application number
PCT/JP2012/003994
Other languages
English (en)
French (fr)
Inventor
藤縄 展宏
正樹 大槻
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011139703A external-priority patent/JP2013009106A/ja
Priority claimed from JP2011269403A external-priority patent/JP2013120359A/ja
Priority claimed from JP2011269408A external-priority patent/JP2013121143A/ja
Priority claimed from JP2012019248A external-priority patent/JP2013157953A/ja
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to CN201280025461.3A priority Critical patent/CN103621056A/zh
Publication of WO2012176441A1 publication Critical patent/WO2012176441A1/ja
Priority to US14/137,070 priority patent/US20140104453A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Definitions

  • the present invention relates to an imaging apparatus.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2003-262899
  • an imaging unit that captures a subject image to generate a captured image
  • a subject recognition unit that recognizes a specific subject of the captured image generated by the imaging unit
  • the subject recognition An image pickup apparatus includes a tactile notification unit that notifies the user whether or not the specific subject is in a predetermined region in the captured image based on the recognition of the unit.
  • the imaging apparatus includes a vibrator, a determination unit that determines the state of the subject based on at least a part of the subject image, and a vibration waveform that the vibrator generates according to the determination of the determination unit. And a vibration control unit that notifies the user of the photographing timing by changing.
  • a control program is a control program used for an imaging apparatus including a vibrator, and includes a determination step for determining a subject state based on at least a part of a subject image, By changing the vibration waveform generated by the vibrator of the imaging device according to the determination, the computer is caused to execute a control step for notifying the user of the photographing timing.
  • the lens unit according to the fourth aspect of the present invention includes a lens group and a plurality of vibrators arranged at least in the optical axis direction of the lens group.
  • a camera unit includes an image sensor that receives a light beam from a subject and converts it into an electrical signal, and a plurality of vibrators that are spaced apart in at least the incident direction of the light beam from the subject.
  • a determination unit that determines the depth state of the subject based on at least a part of the subject image; and a vibration control unit that causes the plurality of vibrators to vibrate in accordance with the determination of the determination unit.
  • a camera system is a camera system including at least a lens unit and a camera unit.
  • the lens unit includes a first vibrator
  • the camera unit includes a second vibrator
  • the lens unit and the lens unit.
  • at least one of the camera unit vibrates by linking the first vibrator and the second vibrator according to the judgment of the judgment unit that judges the depth state of the subject based on at least a part of the subject image.
  • a vibration control unit is provided.
  • An imaging apparatus includes an imaging unit that converts incident light from a shooting target space into an electrical signal, a detection unit that detects a relative relationship between the shooting target space and the direction of the imaging unit, and a user Based on a generation unit that generates a tactile force to perceive a change in mode, a relationship detected by the detection unit, and a predetermined reference, a recommended direction to rotate the imaging unit is determined and coincides with the recommended direction
  • a drive control unit that drives the generation unit so as to perceive a change in the aspect corresponding to the rotation direction.
  • a program for controlling an imaging apparatus wherein an imaging unit is detected based on a detection step for detecting a relative relationship regarding a shooting target space and a direction of an imaging unit, and the relationship and a predetermined reference.
  • FIG. 4 is a flowchart for explaining main control processing of the imaging apparatus 10. It is a flowchart explaining a Noruc process (S14). It is a flowchart explaining the initial process (S20) of a Nooruku process (S14). It is a flowchart explaining a subject recognition process (S22) of the Nooruk process (S14). It is a flowchart explaining the tactile-notification process (S24) of a Nooruk process (S14). It is a flowchart explaining the memory
  • FIG. 1 is an upper schematic view of a camera system 100.
  • FIG. 1 is a cross-sectional view of a main part of a camera system 100.
  • FIG. 1 is a system configuration diagram of a camera system 100.
  • FIG. 6 is an explanatory diagram for explaining a vibration waveform applied to a vibrator 331.
  • FIG. FIG. 4 is a shooting operation flowchart of the camera system 100. 6 is an explanatory diagram for explaining a vibration waveform applied to a vibrator 331.
  • FIG. 6 is an explanatory diagram for explaining a vibration waveform applied to a vibrator 331.
  • FIG. FIG. 2 is an upper schematic view of a camera system 101.
  • FIG. 6 is an explanatory diagram for explaining vibration waveforms applied to vibrators 332 and 333.
  • FIG. 6 is an explanatory diagram for explaining vibration waveforms applied to vibrators 332 and 333.
  • FIG. 6 is an explanatory diagram for explaining vibration waveforms applied to vibrators 332 and 333.
  • 6 is an explanatory diagram for explaining a vibration waveform applied to a vibrator 331.
  • FIG. 6 is an explanatory diagram for explaining a vibration waveform applied to a vibrator 331.
  • FIG. 1 is an upper schematic view of a camera system 102.
  • FIG. 1 is an upper schematic view of a camera system 102.
  • FIG. 1 is an upper schematic view of a camera system 102.
  • FIG. 1 is an upper schematic view of a camera system 102.
  • FIG. 1 is an external perspective view of a camera system 400.
  • FIG. 2 is a cross-sectional view of a main part of a camera system 400.
  • FIG. 1 is a system configuration diagram of a camera system 400.
  • FIG. 11 is an explanatory diagram for explaining vibration waveforms applied to vibrators 531 and 532.
  • FIG. 10 is a flowchart of a photographing operation of the camera system 400.
  • FIG. 11 is an explanatory diagram for explaining vibration waveforms applied to vibrators 531 and 532.
  • FIG. 11 is an explanatory diagram for explaining vibration waveforms applied to vibrators 531 and 532.
  • FIG. 11 is an explanatory diagram for explaining vibration waveforms applied to vibrators 531 and 532.
  • FIG. 11 is an explanatory diagram for explaining vibration waveforms applied to vibrators 531 and 532.
  • FIG. 11 is an explanatory diagram for explaining vibration waveforms applied to vibrators 531 and 532.
  • FIG. 11 is an explanatory diagram for explaining vibration waveforms applied to vibrators 531 and 532.
  • FIG. 11 is an explanatory diagram for explaining vibration waveforms applied to vibrators 531 and 532.
  • FIG. 2 is an upper schematic view of a camera system 401.
  • FIG. 2 is an upper schematic view of a camera system 402. 2 is a side view of the camera system 403.
  • FIG. 1 is a system configuration diagram of a digital camera. It is a figure for demonstrating the shutter button which concerns on 4th Embodiment. It is a figure for demonstrating the other example of the shutter button which concerns on 4th Embodiment. It is a conceptual diagram for demonstrating the 1st example of imaging
  • FIG. 1 is a front view of the imaging apparatus.
  • FIG. 2 is a rear view of the imaging apparatus.
  • the top, bottom, left, and right when viewed from the user operating the imaging device are the top, bottom, left, and right of the imaging device.
  • a direction in front of the imaging device that is the front of the imaging apparatus is viewed from the user.
  • the imaging device 10 includes a housing 12, a lens unit 14, an imaging unit 16, a release switch 18, a display unit 20, a mode setting unit 22, a touch panel 24, And a vibration unit 26.
  • the housing 12 is formed in a hollow, substantially rectangular parallelepiped shape.
  • the housing 12 accommodates or holds each component of the imaging device 10.
  • the lens unit 14 is attached to the front surface of the housing 12.
  • the lens unit 14 has a plurality of lenses.
  • the lens unit 14 expands and contracts in the front-rear direction. Accordingly, the lens unit 14 has a zoom function for enlarging and reducing the subject and a focusing function for focusing on the subject.
  • the imaging unit 16 is disposed on the optical axis of the lens unit 14 and behind the lens unit 14.
  • the imaging unit 16 is housed inside the housing 12.
  • the imaging unit 16 captures a subject image, generates a captured image of an electrical signal, and outputs it.
  • the release switch 18 is supported on the upper surface of the housing 12 so as to be pressed downward. When the user presses the release switch 18, the subject image received by the imaging unit 16 is stored.
  • the display unit 20 is disposed on the rear surface of the housing 12.
  • the display unit 20 includes a liquid crystal image display device, an organic EL display device, and the like.
  • the display unit 20 displays a captured image (a so-called through image) generated by the imaging unit 16 and a captured image already stored.
  • the mode setting unit 22 is supported by the housing 12 so as to be rotatable around a rotation axis extending in the front-rear direction.
  • the user sets the normal mode, the Noork mode, and the like using the mode setting unit 22.
  • Noork mode is a mode that is selected when the user captures a specific subject that is a specific subject without looking at the display unit 20.
  • the normal mode is a mode that includes a plurality of modes other than the Noork mode, and allows the user to shoot while viewing a specific subject using the display unit 20 or the like.
  • the touch panel 24 is provided on the surface of the display unit 20.
  • the user inputs various information via the touch panel 24. For example, the user sets the position and size of a subject area that captures a specific subject in the Noork mode.
  • the vibrating unit 26 includes an upper right vibrating unit 30, a lower right vibrating unit 32, an upper left vibrating unit 34, and a lower left vibrating unit 36.
  • the upper right vibration unit 30, the lower right vibration unit 32, the upper left vibration unit 34, and the lower left vibration unit 36 are respectively arranged at four corners that are different places of the housing 12.
  • the four corners as used herein refer to any of the regions obtained by dividing the housing 12 into four parts, top, bottom, left, and right, when viewed from the front.
  • the upper right vibrating portion 30, the lower right vibrating portion 32, the upper left vibrating portion 34, and the lower left vibrating portion 36 include piezoelectric elements. Thereby, the upper right vibration part 30, the lower right vibration part 32, the upper left vibration part 34, and the lower left vibration part 36 vibrate when a voltage is applied.
  • FIG. 3 is a block diagram illustrating a control system of the imaging apparatus 10. As shown in FIG. 3, the imaging apparatus 10 further includes a control unit 40, a system memory 42, a main memory 44, a secondary storage medium 46, a lens driving unit 48, and an audio output unit 50.
  • the control unit 40 includes a CPU and controls the imaging apparatus 10 in general.
  • the control unit 40 includes a mode determination unit 52, a display control unit 54, an audio control unit 56, a subject recognition unit 58, a tactile notification unit 60, and a storage processing unit 62.
  • the mode determination unit 52 determines a mode selected from among a plurality of shooting modes based on the mode information input from the mode setting unit 22. For example, the mode determination unit 52 determines whether the normal mode is set or the noork mode is set. When the mode determination unit 52 determines that the Noork mode is set, the mode determination unit 52 outputs that fact to the display control unit 54, the audio control unit 56, and the subject recognition unit 58.
  • the display control unit 54 displays an image on the display unit 20 based on the captured image generated by the imaging unit 16 and the image information stored in the secondary storage medium 46. In addition, when the mode determination unit 52 determines that the mode is the Norock mode, the display control unit 54 stops the image display on the display unit 20 and does not display the captured image.
  • the voice control unit 56 outputs a voice such as a release sound when the release switch 18 is operated via the voice output unit 50. Further, when the mode determination unit 52 determines that the mode is the Norock mode, the voice control unit 56 stops the voice output unit 50 and does not output a release sound even when the release switch 18 is operated.
  • the subject recognition unit 58 sets the subject area in the captured image based on the area information input via the touch panel 24.
  • the subject area is an example of a predetermined area. Note that when the user does not input the subject area, the subject recognition unit 58 may automatically set, for example, the central area of the image sensor 68 as the subject area.
  • the subject recognition unit 58 recognizes a specific subject in the captured image generated by the imaging unit 16 and determines whether or not the specific subject is included in the captured image. For example, when the specific subject is a person, the subject recognition unit 58 determines the presence or absence of the specific subject by face recognition.
  • the subject recognition unit 58 determines that the captured image includes the specific subject, the subject recognition unit 58 drives the lens driving unit 48 to focus the lens unit 14 on the specific subject. Further, the subject recognition unit 58 determines whether or not the specific subject is in the subject area. When the specific subject is out of the subject area, the subject recognition unit 58 recognizes in which direction the specific subject is out of the subject area. The subject recognizing unit 58 stores the off-direction as direction information in the main memory 44. When the specific subject is in the subject area but the size of the specific subject is different from the subject area, the subject recognizing unit 58 drives the lens driving unit 48 to zoom the lens unit 14 so that the specific subject is in the subject area. And approximately the same size.
  • the tactile notification unit 60 notifies the user by vibration whether or not the specific subject is in the subject area in the captured image.
  • the notification by vibration is an example of a tactile notification.
  • the tactile notification unit 60 does not vibrate any of the upper right vibrating unit 30, the lower right vibrating unit 32, the upper left vibrating unit 34, and the lower left vibrating unit 36.
  • the tactile notification unit 60 notifies the user that the specific subject is in the subject area.
  • the tactile notification unit 60 is based on the direction information input from the subject recognition unit 58, and the upper right vibration unit 30, the lower right vibration unit 32, and the upper left vibration unit 34 of the vibration unit 26.
  • a voltage is applied to at least one of the piezoelectric elements in the lower left vibrating portion 36 to vibrate.
  • the tactile notification unit 60 notifies the user that the specific subject is not in the subject area and in which direction the specific subject is out of the subject area.
  • the tactile notification unit 60 outputs the vibration state of the vibration unit 26 to the storage processing unit 62.
  • the vibration state includes a vibration stop time.
  • the storage processing unit 62 determines whether or not the vibration is attenuated based on the vibration state input from the vibration unit 26. For example, the storage processing unit 62 determines the attenuation of the vibration unit 26 based on whether or not the decay time has elapsed from the stop time of the vibration unit 26 stored in the secondary storage medium 46. An example of the decay time is 1 second. When the storage processing unit 62 determines that the vibration has attenuated, the storage processing unit 62 stores the captured image in the secondary storage medium 46.
  • the system memory 42 includes at least one of a nonvolatile recording medium and a read-only recording medium.
  • the system memory 42 holds firmware and the like read and executed by the control unit 40 without supplying power.
  • the main memory 44 includes RMA.
  • the main memory 44 functions as a work area of the control unit 40 in which the control unit 40 temporarily stores image information and the like.
  • the secondary storage medium 46 a medium having a non-volatile storage element such as a flash memory card is applied.
  • the secondary storage medium 46 is detachably attached from the housing 12.
  • the secondary storage medium 46 stores captured image information.
  • the lens drive unit 48 drives the lens unit 14 to expand and contract based on a drive signal from the control unit 40. Accordingly, the lens unit 14 focuses on the subject or zooms the subject.
  • the imaging unit 16 includes an imaging element driving unit 66, an imaging element 68, an A / D conversion unit 70, and an image processing unit 72.
  • the imaging element driving unit 66 drives the imaging element 68 at a specific imaging interval.
  • the imaging element 68 includes a photoelectric conversion element such as a CCD (Charge-Coupled Device) sensor or a CMOS (Complementary Metal-Oxide Semiconductor) sensor.
  • the image sensor 68 photoelectrically converts the subject image at an imaging interval and outputs an image signal to the A / D converter 70.
  • the A / D conversion unit 70 outputs the analog image signal input from the imaging element 68 to the image processing unit 72 as a digitized digital captured image.
  • the image processing unit 72 executes processing such as correction and compression of the captured image and outputs the processed image to the display control unit 54, the subject recognition unit 58, and the storage processing unit 62 of the control unit 40.
  • FIG. 4 is a flowchart for explaining the main control process of the imaging apparatus 10.
  • the mode determination unit 52 of the control unit 40 determines whether or not the mode is the Noork mode based on the mode information input from the mode setting unit 22 (S10).
  • the mode determination unit 52 determines that the Noorok mode is not selected (S10: No)
  • the mode determination unit 52 causes the normal process to be executed (S12).
  • the user takes a picture while viewing the specific subject displayed on the display unit 20.
  • the mode determination unit 52 determines that the Noork mode is selected (S10: Yes)
  • the mode determination unit 52 outputs the fact to the display control unit 54, the audio control unit 56, and the subject recognition unit 58. Then, a Noork process is performed (S14).
  • FIG. 5 is a flowchart for explaining the Noork process (S14).
  • the control unit 40 sequentially performs an initial process (S20), a subject recognition process (S22), a tactile notification process (S24), and a storage process (S26).
  • FIG. 6 is a flowchart for explaining the initial process (S20) of the Noork process (S14).
  • the subject recognition unit 58 acquires a captured image (S30). Specifically, the subject recognition unit 58 acquires a captured image including a subject image captured by the image sensor 68 of the imaging unit 16.
  • the display control unit 54 stops the display unit 20 (S32). If no image is displayed on the display unit 20, the non-display state continues. Thereby, the display unit 20 does not display the image captured by the imaging unit 16.
  • the voice control unit 56 stops the voice output unit 50 (S34). Thereby, the audio output unit 50 does not output the release sound even when the release switch 18 is operated.
  • FIG. 7 is a flowchart for explaining subject recognition processing (S22) of the Noork processing (S14).
  • the subject recognition unit 58 sets the position and size of the subject region in the captured image based on the region information input by the user via the touch panel 24 (S40). .
  • the subject recognition unit 58 determines whether or not the specific subject is in the captured image, and if there is a specific subject, determines whether or not the specific subject is within the subject area (S42).
  • the subject recognition unit 58 determines that the specific subject is within the subject region (S42: Yes)
  • the lens unit 14 is driven to focus on the specific subject, and the flag F is set to “0” ( S44).
  • the subject recognition unit 58 drives the lens driving unit 48 and zooms the lens unit 14 to make the specific subject substantially the same size as the subject region. It may be.
  • the subject recognizing unit 58 determines that the specific subject does not fall within the subject area (S42: No), it sets "1" to the flag F (S46).
  • the subject recognizing unit 58 recognizes in which direction of the subject area the specific subject is deviated, and stores the deviated direction as direction information in the main memory 44 (S48).
  • FIG. 8 is a flowchart for explaining the tactile notification process (S24) of the Noork process (S14).
  • the tactile notification unit 60 determines whether or not the flag F is “1” (S50).
  • the tactile notification unit 60 determines that the flag F is “0” (S50: No)
  • the vibration unit stop process the tactile notification unit 60 stops the vibration unit 26 and stores vibration information including the stop time in the secondary storage medium 46 (S52).
  • a stop state is maintained.
  • the tactile notification unit 60 determines that the flag F is “1” (S50: Yes), it acquires the direction information stored in the main memory 44 (S54).
  • the tactile notification unit 60 applies a voltage to any one of the piezoelectric elements of the upper right vibrating unit 30, the lower right vibrating unit 32, the upper left vibrating unit 34, and the lower left vibrating unit 36 of the vibrating unit 26 based on the direction information. Any of them is driven to vibrate (S56). For example, if the tactile notification unit 60 determines that the specific subject is out of the subject area in the upper right direction based on the direction information, the tactile notification unit 60 vibrates the upper right vibrating unit 30.
  • the tactile notification unit 60 determines that the specific subject deviates upward from the subject area based on the direction information, the tactile notification unit 60 vibrates the upper right vibrating unit 30 and the upper left vibrating unit 34. Thereby, the user can catch a specific subject without looking at the display unit 20 or the like.
  • FIG. 9 is a flowchart for explaining the storage process (S26) of the Noork process (S14).
  • the storage processing unit 62 determines whether or not the release switch 18 has been operated (S60). When determining that the release switch 18 has been operated (S60: Yes), the storage processing unit 62 determines whether or not the flag F is “0” (S62). When the storage processing unit 62 determines that the flag F is “0” (S62: Yes), the storage processing unit 62 determines whether or not the vibration unit 26 is attenuated (S64). The storage processing unit 62 repeats Step S64 until it is determined that the vibration unit 26 has attenuated.
  • the storage processing unit 62 When determining that the vibration unit 26 has attenuated (S64: Yes), the storage processing unit 62 stores the captured image in the secondary storage medium 46 (S66). If the storage processing unit 62 determines in step S60 that the release switch 18 is not operated (S60: No), and if it is determined in step S62 that the flag F is “1” (S62). : No), the initial process is executed.
  • the subject recognition unit 58 recognizes the specific subject, and based on the recognition, the tactile notification unit 60 notifies the user whether or not the subject region exists.
  • the user can capture an image of the specific subject in the subject area without looking at the display unit 20 in Noork shooting.
  • the user can easily photograph the specific subject.
  • the subject recognition unit 58 recognizes in which direction of the subject area the specific subject is deviated, and stores the direction as direction information in the secondary storage medium 46.
  • the tactile notification unit 60 vibrates any of the upper right vibrating unit 30, the lower right vibrating unit 32, the upper left vibrating unit 34, and the lower left vibrating unit 36 of the vibrating unit 26 in accordance with the direction information. Thereby, the user can recognize in which direction of the subject area the specific subject is deviated. Therefore, the user can quickly and accurately place the specific subject in the subject area.
  • the imaging device 10 can notify the user of the direction of the specific subject with higher accuracy.
  • the vibration of the vibration unit 26 notifies the user whether or not the specific subject is in the subject area.
  • the specific subject is less likely to notice the notification in the Noork mode. For this reason, since it is possible to reduce the tension of the specific subject, the user can photograph a natural expression of the specific subject.
  • the sound control unit 56 stops outputting the release sound of the sound output unit 50 in the Noork mode.
  • the vibration unit 26 includes a piezoelectric element that can vibrate with almost no sound. Thereby, since the user does not notice that the specific subject has been photographed, the user can photograph a natural expression of the specific subject.
  • the display control unit 54 stops the display unit 20 in the Noluc mode. Thereby, the imaging device 10 can reduce power consumption.
  • the storage processing unit 62 stores the captured image in the secondary storage medium 46 when the vibration by the vibration unit 26 is attenuated. Thereby, in the imaging device 10, it can suppress that the captured image in which the image quality fell by vibration is stored.
  • the tactile notification unit 60 may notify only whether or not the specific subject is in the subject area by vibrating the upper right vibration unit 30.
  • the tactile notification unit 60 may vibrate the upper right vibrating unit 30 when the specific subject is in the subject area.
  • the upper right vibration unit 30 may be periodically vibrated to stop the vibration when the specific subject is within the subject area.
  • An example of periodically vibrating the upper right vibrating portion 30 is 2 times / second.
  • the tactile notification unit 60 responds to the presence or absence of the specific subject and the direction in which the specific subject deviates from the subject region.
  • the unit 30 may be controlled by a plurality of vibration patterns. For example, when the specific subject is deviated to the left of the subject area, the tactile notification unit 60 periodically vibrates the upper right vibration unit 30 with two fine vibrations as one set. On the other hand, when the specific subject is deviated to the right of the subject area, the tactile notification unit 60 periodically vibrates the upper right vibration unit 30 with three fine vibrations as one set. Also, the respective vibration patterns are set in the vertical direction.
  • the tactile notification unit 60 may change the magnitude of vibration of the upper right vibration unit 30 in accordance with the distance that the specific subject is out of the subject area. Thereby, the imaging device 10 can notify the user of the position of the specific subject and how far away from the user by one upper right vibration unit 30.
  • the tactile notification unit 60 is configured to periodically vibrate the upper right vibration unit 30 with two fine vibrations as one set and periodically vibrate the upper left vibration unit 34 with three fine vibrations as one set. May be. Accordingly, the tactile notification unit 60 notifies the user of the position of the specific subject by the position and vibration pattern of the vibrating unit to be vibrated, so that the user can be more surely notified of the position of the specific subject.
  • the drive mechanism already mounted on the imaging device 10 may function as the vibration unit.
  • vibration may be generated by an optical camera shake prevention mechanism to notify the user.
  • the tactile notification unit 60 may vibrate the vibration unit 26 to notify the user to that effect.
  • the subject recognition unit 58 may determine the presence or absence of an obstacle such as a user's finger between the specific subject and the image sensor 68. If the subject recognition unit 58 determines that there is an obstacle, the tactile notification unit 60 may vibrate the vibration unit 26 to notify the fact, and the storage processing unit 62 operates when the release switch 18 is operated. Alternatively, storing the captured image in the secondary storage medium 46 may be prohibited.
  • the configuration is such that the captured image is stored in the secondary storage medium 46 when the release switch 18 is operated.
  • the storage processing unit 62 displays the captured image other than by operating the release switch 18. You may comprise so that it may store. For example, when the storage processing unit 62 determines that the specific subject has fallen within the subject area in the Noork mode, the storage processing unit 62 may store the captured image in the secondary storage medium 46 without any user operation. Further, when the storage processing unit 62 determines that the specific subject is within the subject area and the specific subject is smiling, the storage processing unit 62 may store the captured image in the secondary storage medium 46 without any user operation. In this case, the captured image may be stored one frame at a time, or a plurality of frames may be stored continuously.
  • the mode determination unit 52 determines the Noork mode.
  • the mode determination unit 52 is configured to determine the Noork mode. May be.
  • the mode determination unit 52 May be determined to be in the Noork mode, and the Noork process may be executed.
  • FIG. 10 is a front view of the imaging apparatus in which the arrangement of the vibration unit is changed.
  • FIG. 11 is a rear view of the imaging apparatus in which the arrangement of the vibration unit is changed.
  • the imaging device 110 includes a housing 112, a lens unit 114, a vibration unit 126, and a display unit 120.
  • the housing 112 has a grip portion 113 formed integrally on the right front surface.
  • the grip part 113 is provided so as to protrude forward.
  • the grip part 113 is formed so as to extend in the vertical direction. Thereby, the user can hold
  • the vibration unit 126 includes four upper right vibration units 130, a lower right vibration unit 132, an upper left vibration unit 134, and a lower left vibration unit 136 housed in the housing 112.
  • the upper right vibrating portion 130, the lower right vibrating portion 132, the upper left vibrating portion 134, and the lower left vibrating portion 136 are disposed at each of the four corners of the grip portion 113.
  • the upper right vibration unit 130, the lower right vibration unit 132, the upper left vibration unit 134, and the lower left vibration unit 136 can more reliably transmit vibration to the user holding the grip unit 113.
  • FIG. 12 is an overall configuration diagram of another vibration unit.
  • the vibration unit 226 includes a motor 227, a rotation shaft 229, and a semicircular member 231.
  • the center of gravity of the semicircular member 231 is disposed at a position different from the rotation shaft 229.
  • the housings 12 and 112 vibrate.
  • the imaging devices 10 and 110 can transmit vibration to the user.
  • This vibration part 226 may be arranged in place of the above-mentioned upper right vibration parts 30, 130, lower right vibration parts 32, 132, upper left vibration parts 34, 134, and lower left vibration parts 36, 136. You may arrange in a position.
  • the configuration, the number, and the arrangement of the vibration units may be appropriately changed.
  • information on the specific subject may be transmitted to the user by a method other than vibration.
  • unevenness may be formed on a film-like member, and information such as the presence or absence of a specific subject or the direction of a specific subject may be transmitted by the unevenness.
  • information on a specific subject may be transmitted by heat or the like.
  • FIG. 13 is an upper schematic view of a camera system 100 as an example of an imaging apparatus according to the present embodiment.
  • the camera system 100 is a lens interchangeable single-lens reflex camera configured by mounting the lens unit 200 on the camera unit 300.
  • the camera system 100 includes a finder window 318 for observing a subject, and a display unit 328 for displaying a live view image and the like.
  • the camera system 100 further includes a vibrator 331.
  • the state of the subject is determined according to at least a part of the subject image, and the vibration waveform generated by the vibrator 331 is changed according to the determination, thereby photographing the user. Announce the timing.
  • the camera system 100 determines the defocus state of the subject as the subject status.
  • the vibrator 331 is preferably arranged in a portion where the user holds the camera system 100 during shooting. Therefore, the vibrator 331 is disposed on the grip portion 330 of the camera unit 300, for example.
  • the user when the user performs the manual focus operation while holding the lens unit 200 with the left hand, the user can detect the object by recognizing the vibration with the right hand without looking at the viewfinder window 318 or the display unit 328.
  • the focus ring 201 can be adjusted while grasping the focus state.
  • the z-axis is defined in the direction in which the subject luminous flux is incident along the optical axis 202.
  • the x axis is defined in a direction orthogonal to the z axis and parallel to the longitudinal direction of the camera unit 300
  • the y axis is determined in a direction orthogonal to the x axis.
  • FIG. 14 is a cross-sectional view of the main part of the camera system 100.
  • the lens unit 200 includes a lens group 210 and a diaphragm 221 arranged along the optical axis 202.
  • the lens group 210 includes a focus lens 211 and a zoom lens 212.
  • the lens unit 200 includes a plurality of motors such as a vibration wave motor and a VCM, and drives the focus lens 211 in the direction of the optical axis 202.
  • the lens unit 200 further includes a lens system control unit 222 that controls and calculates the lens unit 200.
  • the lens unit 200 includes a focus ring 201. When the user performs a manual focus operation, the focus lens 211 is driven in conjunction with the focus ring 201 by rotating the focus ring 201.
  • the lens unit 200 includes a lens mount 224 at a connection portion with the camera unit 300 and engages with a camera mount 311 included in the camera unit 300 to be integrated with the camera unit 300.
  • Each of the lens mount 224 and the camera mount 311 includes an electrical connection portion in addition to a mechanical engagement portion, and realizes power supply from the camera unit 300 to the lens unit 200 and mutual communication.
  • the camera unit 300 includes a main mirror 312 that reflects the subject image incident from the lens unit 200 and a focus plate 313 on which the subject image reflected by the main mirror 312 is formed.
  • the main mirror 312 rotates around the rotation axis 314 and can take a state of being obliquely provided in the subject light flux centered on the optical axis 202 and a state of being retracted from the subject light flux.
  • the main mirror 312 is obliquely provided in the subject luminous flux when the subject image is guided to the focus plate 313 side.
  • the focus plate 313 is disposed at a position conjugate with the light receiving surface of the image sensor 315.
  • the subject image formed on the focus plate 313 is converted into an erect image by the pentaprism 316 and observed by the user through the eyepiece optical system 317.
  • a region near the optical axis 202 of the main mirror 312 in the oblique state is formed as a half mirror, and a part of the incident light beam is transmitted.
  • the transmitted light beam is reflected by the sub mirror 319 that operates in conjunction with the main mirror 312, and enters the focus detection sensor 322.
  • the focus detection sensor 322 is a phase difference detection sensor, for example, and detects a phase difference signal from the received subject light beam.
  • the sub mirror 319 retracts from the subject light beam in conjunction with the main mirror 312 when the main mirror 312 retracts from the subject light beam.
  • a focal plane shutter 323, an optical low-pass filter 324, and an image sensor 315 are arranged along the optical axis 202 behind the oblique main mirror 312.
  • the focal plane shutter 323 takes an open state when the subject light flux is guided to the image sensor 315, and takes a shield state at other times.
  • the optical low-pass filter 324 plays a role of adjusting the spatial frequency of the subject image with respect to the pixel pitch of the image sensor 315.
  • the image sensor 315 is a light receiving element such as a CMOS sensor, for example, and converts a subject image formed on the light receiving surface into an electric signal.
  • the electrical signal photoelectrically converted by the image sensor 315 is processed into image data by the image processing unit 326 which is an ASIC mounted on the main board 325.
  • the main board 325 includes a camera system control unit 327 that is an MPU that integrally controls the system of the camera unit 300.
  • the camera system control unit 327 manages the camera sequence and performs input / output processing of each component.
  • a display unit 328 such as a liquid crystal monitor is disposed on the back surface of the camera unit 300, and a subject image processed by the image processing unit 326 is displayed. Further, a live view display is realized by sequentially displaying on the display unit 328 the object scene image that the image sensor 315 continuously photoelectrically converts.
  • the camera unit 300 further houses a detachable secondary battery 329. The secondary battery 329 supplies power not only to the camera unit 300 but also to the lens unit 200. The camera unit 300 further accommodates a vibrator 331.
  • the vibrator 331 is, for example, a piezo element, and is disposed inside the housing of the camera unit 300, and causes the housing to vibrate by expansion and contraction thereof.
  • a vibration waveform as an input drive voltage and a vibration waveform as a physical displacement amount of the element have a proportional relationship.
  • the vibrator 331 is arranged to expand and contract in the z-axis direction so that it is easy for the user to grasp that the vibration is a notification of the defocus information of the subject.
  • FIG. 15 is a system configuration diagram of the camera system 100.
  • the camera system 100 includes a lens control system centered on the lens system control unit 222 and a camera control system centered on the camera system control unit 327 corresponding to the lens unit 200 and the camera unit 300, respectively.
  • the lens control system and the camera control system exchange various data and control signals with each other via a connection unit connected by the lens mount 224 and the camera mount 311.
  • the image processing unit 326 included in the camera control system processes the imaging signal photoelectrically converted by the imaging element 315 into image data according to a predetermined image format in accordance with a command from the camera system control unit 327. Specifically, when generating a JPEG file as a still image, the image processing unit 326 performs image processing such as color conversion processing, gamma processing, and white balance processing, and then performs adaptive discrete cosine transformation or the like to perform compression processing. do. In addition, when generating an MPEG file as a moving image, the image processing unit 326 performs intra-frame encoding and inter-frame encoding on a frame image as a continuous still image generated by reducing the number of pixels to a predetermined number of pixels. And compress it.
  • image processing unit 326 performs intra-frame encoding and inter-frame encoding on a frame image as a continuous still image generated by reducing the number of pixels to a predetermined number of pixels. And compress it.
  • the camera memory 341 is a non-volatile memory such as a flash memory, for example, and plays a role of storing a program for controlling the camera system 100, various parameters, and the like.
  • the work memory 342 is a memory that can be accessed at high speed, such as a RAM, and has a role of temporarily storing image data being processed.
  • the display control unit 343 causes the display unit 328 to display a display screen in accordance with an instruction from the camera system control unit 327.
  • the mode switching unit 344 receives mode settings such as a shooting mode and a focus mode by the user, and outputs them to the camera system control unit 327.
  • the shooting modes include a moving image shooting mode and a still image shooting mode.
  • the focus mode includes an auto focus mode and a manual focus mode.
  • the focus detection sensor 322 for example, one distance measuring point selected by the user is set for the subject space.
  • the focus detection sensor 322 detects a phase difference signal at the set distance measuring point.
  • the focus detection sensor 322 can detect whether the subject at the distance measuring point is in a focus state or a defocus state.
  • the focus detection sensor 322 is configured to detect the defocus amount from the in-focus position in the defocus state.
  • the release switch 345 has a two-stage switch position in the pushing direction.
  • the camera system control unit 327 acquires phase difference information from the focus detection sensor 322 when detecting that the first-stage switch SW1 is turned on.
  • the camera system control unit 327 transmits drive information of the focus lens 211 to the lens system control unit 222.
  • the camera system control unit 327 detects that the second-stage switch SW2 is turned on, the camera system control unit 327 executes a shooting process according to a predetermined process flow.
  • the camera system control unit 327 functions as a determination unit that determines the state of the subject according to at least a part of the subject image in cooperation with the focus detection sensor 322. Specifically, the camera system control unit 327 determines the defocus state of the subject from the phase difference information acquired from the focus detection sensor 322.
  • the camera system control unit 327 functions as a vibration control unit that notifies the user of shooting timing by changing the vibration waveform generated by the vibrator 331 according to the defocus state of the subject.
  • the shooting timing refers to a state where the subject is in focus. Therefore, the user can know the photographing timing by recognizing the change in the vibration of the vibrator 331 even when photographing the subject without looking at the finder window 318 and the display unit 328.
  • the vibrator 331 receives a vibration waveform from the camera system control unit 327 and expands and contracts according to the received vibration waveform.
  • FIG. 16 is an explanatory diagram for explaining a vibration waveform applied to the vibrator 331.
  • FIG. 16A shows the positional relationship of the image sensor 315, the focus lens 211, and the subject 301 in the direction of the optical axis 202, and in particular, the classification (s1, s2) according to the position of the focus lens 211 and the defocused state of the subject 301. , S3, s4, s5).
  • the defocus amount on the imaging surface is uniquely determined at the front pin that is focused within the range of the section s2. Therefore, the camera system control unit 327 can determine in which section the focus lens 211 is focused in accordance with the defocus amount.
  • the camera system control unit 327 presets a category according to the defocus state of the subject 301 as shown in FIG. Specifically, the camera system control unit 327 holds the range that can be regarded as the focus state as a table of parameters such as the focal length and the aperture value, and sets the range that can be regarded as the focus state as the category s3.
  • the camera system control unit 327 sets the case where the defocus state is the front pin in two stages as the division s1 and the division s2 according to the defocus amount. Similarly, when the defocus state is the rear pin, the camera system control unit 327 sets the division s4 and the division s5 in two stages according to the defocus amount.
  • FIG. 16 (b) to FIG. 16 (f) show vibration waveforms corresponding to the respective sections.
  • the section s1 corresponds to the vibration waveform shown in FIG.
  • the section s2 and the vibration waveform shown in FIG. 16 (c) the section s3 and the vibration waveform shown in FIG. 16 (d)
  • the section s4 and the vibration waveform shown in FIG. 16 (e) the section s5 and FIG.
  • the vibration waveforms in FIG. 16B and FIG. 16F are the same.
  • the vibration waveforms in FIG. 16C and FIG. 16E are the same.
  • the vertical axis represents voltage V
  • the horizontal axis represents time t.
  • each vibration waveform the vibrator 331 is extended by a portion where the voltage is increasing, and the vibrator 331 is contracted by a portion where the voltage is decreasing.
  • the vibration waveform shown in FIG. 16 (d) is the vibration waveform a
  • the vibration waveforms shown in FIG. 16 (c) and FIG. 16 (e) are the vibration waveforms b
  • the waveform is referred to as a vibration waveform c.
  • the camera system control unit 327 presets a vibration waveform corresponding to each section as described above. Specifically, the camera system control unit 327 holds the amplitude, period, and type of the vibration waveform in the camera memory 341 in advance as vibration waveform setting items. Examples of types of vibration waveforms include a sine curve and a sawtooth wave.
  • the camera system control unit 327 determines that the defocus state of the subject 301 corresponds to the category s3, the camera system control unit 327 gives the vibration waveform a to the vibrator 331.
  • the vibration waveform a has the smallest amplitude among the vibration waveforms a, b, and c. Therefore, the user who has recognized the vibration can grasp that the focus lens 211 is in the focused position, that is, the photographing timing without looking at the finder window 318 or the display unit 328.
  • the camera system control unit 327 gives the vibration waveform a having the smallest amplitude at the photographing timing, camera shake during photographing is suppressed. If the camera system control unit 327 determines that the defocus state of the subject 301 corresponds to the category s3, the camera system control unit 327 may set the amplitude of the vibration waveform generated by the vibrator 331 to zero.
  • the camera system control unit 327 determines that the defocus state corresponds to the section s2 or the section s4, the camera system control unit 327 gives the vibration waveform b to the vibrator 331.
  • the amplitude of the vibration waveform b is larger than the amplitude of the vibration waveform a, but smaller than the amplitude of the vibration waveform c. Therefore, the user who has recognized the vibration can grasp that the defocus amount is small although the focus lens 211 is not in the in-focus position.
  • the camera system control unit 327 determines that the defocus state corresponds to the section s1 or the section s5
  • the camera system control unit 327 gives the vibration waveform c to the vibrator 331.
  • the vibration waveform c has the largest amplitude among the vibration waveforms a, b, and c. Therefore, the user who has recognized the vibration can grasp that the defocus amount is large.
  • FIG. 17 is a shooting operation flow diagram of the camera system 100.
  • the shooting operation flow is started when the camera system control unit 327 detects that SW1 is turned on when the focus mode is set to the manual focus mode and the shooting mode is set to the still image shooting mode.
  • the camera system control unit 327 acquires the output of the focus detection sensor 322 (step S101).
  • the camera system control unit 327 determines whether the defocus state of the subject 301 corresponds to the category s3 (step S102). If the camera system control unit 327 determines that the defocus state of the subject 301 corresponds to the category s3 (step S102: Yes), the camera system control unit 327 transmits the vibration waveform a to the vibrator 331 (step S103). If the camera system control unit 327 determines that the defocus state of the subject 301 does not correspond to the section s3 (step S102: No), the camera system control unit 327 determines whether the defocus state corresponds to the section s2 or the section s4 (step S104). If the camera system control unit 327 determines that the defocus state corresponds to the section s2 or the section s4 (step S104: Yes), the camera system control unit 327 transmits the vibration waveform b to the vibrator 331 (step S105).
  • the camera system control unit 327 transmits the vibration waveform c to the vibrator 331 (Step S106).
  • the camera system control unit 327 determines whether SW2 is turned on after transmitting any vibration waveform (step S107). If the camera system control unit 327 determines that SW2 is turned on (step S107: Yes), the camera system control unit 327 executes a photographing process (step S108).
  • step S109 determines whether the timer of SW1 is turned off. If the camera system control unit 327 determines that the timer of SW1 is not turned off (step S109: No), the process returns to step S101. If the camera system control unit 327 determines that the SW1 timer is turned off (step S109: Yes), or if the shooting process is executed, the camera system control unit 327 stops the transmission of the vibration waveform (step S110), and a series of shooting operation flows Exit. If the camera system control unit 327 determines that SW2 is turned on (step S107: Yes), the camera system control unit 327 may stop the transmission of the vibration waveform before the imaging process.
  • the camera system control unit 327 determines the defocus state of the subject 301 while the switch SW1 is turned on, and gives a vibration waveform according to the defocus state of the subject 301. That is, the camera system control unit 327 continuously determines the state of the subject 301 and continuously changes the vibration waveform according to the state of the subject 301.
  • the camera system control unit 327 notifies the user of the photographing timing by changing the frequency of the vibration waveform according to the defocus state of the subject.
  • FIG. 18 is an explanatory diagram for explaining a vibration waveform applied to the vibrator 331.
  • FIG. 18A shows the positional relationship of the image sensor 315, the focus lens 211, and the subject 302 in the direction of the optical axis 202, and in particular, the classification (s1, s2) according to the position of the focus lens 211 and the defocused state of the subject 302. , S3).
  • the camera system control unit 327 presets a segment according to the defocus state of the subject 302.
  • the camera system control unit 327 sets the range that can be regarded as the focus state as the section s2.
  • the camera system control unit 327 sets the case where the defocus state is the front pin as the section s1 and the case where the defocus state is the rear pin as the section s3.
  • FIG. 18 (b) to FIG. 18 (d) show vibration waveforms corresponding to the respective sections.
  • the section s1 corresponds to the vibration waveform shown in FIG.
  • the section s2 corresponds to the vibration waveform shown in FIG. 18C
  • the section s3 corresponds to the vibration waveform shown in FIG. 18D.
  • the vertical axis represents voltage V and the horizontal axis represents time t.
  • the vibration waveform of FIG.18 (b) and FIG.18 (d) is the same.
  • the vibration waveforms shown in FIGS. 18B and 18D are referred to as vibration waveforms d
  • the vibration waveforms shown in FIG. 18C are referred to as vibration waveforms e.
  • the camera system control unit 327 presets a vibration waveform corresponding to each section.
  • the camera system control unit 327 varies the frequency of the vibration waveform in accordance with the defocus state of the subject 302. Specifically, when the camera system control unit 327 determines that the defocus state corresponds to the section s1 or the section s3, the camera system control unit 327 gives a vibration waveform d having a higher frequency than the vibration waveform e to the vibrator 331. On the other hand, when the camera system control unit 327 determines that the defocus state of the subject 302 corresponds to the category s2, the camera system control unit 327 gives the vibration waveform e to the vibrator 331.
  • the amplitude of the vibration waveform shown in FIGS. 18B to 18D is constant, the amplitude may be changed according to the defocus amount.
  • the camera system control unit 327 may set each vibration waveform so that the amplitude increases as the defocus amount increases. Good. Accordingly, the camera system control unit 327 can notify the user of the defocus amount and the defocus direction at the same time.
  • the camera system control unit 327 determines the status of the subject 302 and gives a sawtooth wave corresponding to the determination result to the vibrator 331 to notify the user of the imaging timing. In addition, the camera system control unit 327 notifies the user whether the defocus state is the front pin or the rear pin by changing the shape of the sawtooth wave between the case where the defocus state is the front pin and the case where the defocus state is the rear pin. .
  • the vibrator 331 expands and contracts only in one direction on the user side in the Z-axis direction.
  • FIG. 19 is an explanatory diagram for explaining a vibration waveform applied to the vibrator 331. Since FIG. 19A is the same as FIG. 18A, description thereof is omitted. As shown in FIG. 19A, the camera system control unit 327 presets divisions (s1, s2, s3) according to the defocus state of the subject 302.
  • FIG. 19 (b) to FIG. 19 (d) show vibration waveforms corresponding to each section.
  • the section s1 corresponds to the vibration waveform shown in FIG.
  • the section s2 corresponds to the vibration waveform shown in FIG. 19C
  • the section s3 corresponds to the vibration waveform shown in FIG. 19D.
  • the vertical axis represents voltage V
  • the horizontal axis represents time t.
  • the vibrator 331 is extended by a portion where the voltage is increasing, and the vibrator 331 is contracted by a portion where the voltage is decreasing.
  • the vibration waveform shown in FIG. 19C is called a vibration waveform g
  • the vibration waveform shown in FIG. 19B is called a vibration waveform h
  • the vibration waveform shown in FIG. 19D is called a vibration waveform i.
  • the camera system control unit 327 presets a vibration waveform corresponding to each section.
  • the camera system control unit 327 determines that the defocus state corresponds to the category s1
  • the camera system control unit 327 gives the vibration waveform g to the vibrator 331.
  • the vibration waveform g rises steeply and falls gently. Therefore, the vibrator 331 to which the vibration waveform g is given expands sharply toward the user side and then gradually contracts toward the subject 302 side.
  • the user who has recognized the vibration receives a feeling that the camera system 100 is pushed by the user. Thereby, the user can grasp that the defocus state is the front pin.
  • the camera system control unit 327 determines that the defocus state corresponds to the category s3
  • the camera system control unit 327 gives the vibration waveform i to the vibrator 331.
  • the amplitude of the vibration waveform i rises gently and falls sharply. Therefore, the vibrator 331 to which the vibration waveform i is given expands gently toward the user side and then contracts sharply toward the subject 302 side. Therefore, the user who has recognized the vibration receives a feeling that the camera system 100 is pulled toward the subject 302 side. Thereby, the user can grasp that the defocus state is the rear pin.
  • the camera system control unit 327 determines that the defocus state of the subject 302 corresponds to the category s2, the camera system control unit 327 gives the vibration waveform h to the vibrator 331.
  • the vibration waveform h has a symmetrical amplitude change in one cycle. For this reason, in the case of the vibration by the vibration waveform h, the user feels a vibration without bias compared to the vibration waveforms g and h. Therefore, the user can grasp that it is the photographing timing.
  • the amplitude of the vibration waveform shown in FIGS. 19B to 19D is constant, the amplitude may be changed according to the defocus amount.
  • the camera system control unit 327 may set each vibration waveform so that the amplitude increases as the defocus amount increases. Good. Accordingly, the camera system control unit 327 can notify the user of the defocus amount and the defocus direction at the same time.
  • FIG. 20 is an upper schematic view of the camera system 101.
  • the two vibrators 332 and 333 are disposed on the grip portion 330 so as to be separated from each other in the z-axis direction, for example.
  • the vibrator 332 is arranged on the side close to the subject, and the vibrator 333 is arranged on the side close to the user.
  • the camera system control unit 327 gives different vibration waveforms to the vibrators 332 and 333 so that the shooting timing and the defocus state can be set to the user. Can be notified.
  • FIG. 21 is an explanatory diagram for explaining the vibration waveform applied to the vibrators 332 and 333. Since FIG. 21A is the same as FIG. 16A, description thereof is omitted. As shown in FIG. 21A, the camera system control unit 327 presets divisions (s1, s2, s3, s4, s5) corresponding to the defocused state of the subject 301.
  • FIG. 21 (b) to FIG. 21 (f) show vibration waveforms corresponding to the respective sections.
  • the vertical axis represents voltage V and the horizontal axis represents time t.
  • the upper row shows the vibration waveform given to the subject-side vibrator 332, and the lower row shows the vibration waveform given to the user-side vibrator 333.
  • the camera system control unit 327 presets a vibration waveform corresponding to each section. Specifically, the camera system control unit 327 moves from the section s1 to the section s5 with respect to the vibrator 332 on the subject side as shown in the upper vibration waveform of FIG. 21 (b) to FIG. 21 (f).
  • the vibration waveform is set so that the amplitude becomes larger as it changes.
  • the camera system control unit 327 moves from the section s1 to the section s5 with respect to the vibrator 333 on the user side.
  • the vibration waveform is set so that the amplitude becomes small.
  • the camera system control unit 327 applies a vibration waveform to the user-side vibrator 333 to the subject-side vibrator 332.
  • a vibration waveform having an amplitude larger than the amplitude of is given.
  • the camera system control unit 327 gives the vibrator 333 on the user side to the vibrator 332 on the subject side.
  • a vibration waveform having an amplitude smaller than that of the vibration waveform is provided. Therefore, the user can grasp the defocus direction depending on which vibrator vibrates more greatly.
  • the vibration waveform shown in FIG. 21 (b) and FIG. 21 (c) when comparing the upper vibration waveforms, the vibration waveform shown in FIG. 21 (b) has a smaller amplitude than the vibration waveform shown in FIG. 21 (c). Comparing the vibration waveforms in the lower stage, conversely, the vibration waveform shown in FIG. 21C has a smaller amplitude than the vibration waveform shown in FIG. That is, the difference in amplitude of each vibration waveform is larger in the section s1 than in the section s2. Therefore, the user can grasp the defocus amount from the magnitude of the difference in amplitude between the vibrators.
  • the camera system control unit 327 gives a common vibration waveform to the vibrators 331 and 332 when determining that the defocus state of the subject 301 corresponds to the category s3. Since the amplitudes of the vibration waveforms given to the vibrators 331 and 332 match, the user can grasp the photographing timing. Further, as shown in FIGS. 21B to 21F, in this example, since at least one of the vibrators vibrates, the camera system 100 is operating normally for the user. There is a merit that it is easy to understand.
  • FIG. 22 is an explanatory diagram for explaining vibration waveforms applied to the vibrators 332 and 333. Since FIG. 22A is the same as FIG. 21A, the description thereof is omitted. As shown in FIG. 22A, the camera system control unit 327 presets sections (s1, s2, s3, s4, s5) according to the defocused state of the subject 301.
  • FIG. 22 (b) to 22 (f) show the vibration waveforms corresponding to the respective sections.
  • the vertical axis represents voltage V and the horizontal axis represents time t.
  • the upper row shows the vibration waveform given to the subject-side vibrator 332, and the lower row shows the vibration waveform given to the user-side vibrator 333.
  • the camera system control unit 327 determines that the section is divided into sections s3 ⁇ section s4 ⁇ section s5 with respect to the vibrator 332.
  • the vibration waveform is set so that the amplitude becomes larger as it changes.
  • the difference from FIG. 21 is that the camera system control unit 327 gives a vibration waveform similar to that in the in-focus state when the defocus state is the front pin.
  • the camera system control unit 327 moves the section from section s3 ⁇ section s2 ⁇ section s1 with respect to the vibrator 333.
  • the vibration waveform is set to increase the amplitude.
  • the camera system control unit 327 gives a vibration waveform similar to that at the in-focus position even when the defocus state is the rear pin.
  • FIG. 22B to FIG. 22F in this example, when the focus lens 211 is at the in-focus position, the amplitude of both vibrators is minimized, thereby preventing camera shake due to vibration. There is an advantage that you can.
  • FIG. 23 is an explanatory diagram for explaining vibration waveforms applied to the vibrators 332 and 333. Since FIG. 23A is the same as FIG. 18A, the description is omitted. As shown in FIG. 23A, the camera system control unit 327 presets divisions (s1, s2, s3) according to the defocus state of the subject 302.
  • FIG. 23 (b) to FIG. 23 (d) show the vibration waveform corresponding to each section.
  • the vertical axis represents voltage V and the horizontal axis represents time t.
  • the upper part shows the vibration waveform given to the subject-side vibrator 332, and the lower part shows the vibration waveform given to the user-side vibrator 333.
  • the camera system control unit 327 gives the vibration waveforms common to the vibrators 332 and 333 with the start timings shifted from each other. The amplitude of the common vibration waveform increases with time.
  • the subject-side vibrator 332 is illustrated in the upper part of FIG.
  • the vibration waveform is given to the vibrator 333 on the user side as shown in the lower part of FIG. 23B, the vibration waveform shown in the upper part of FIG. 23B rises before the vibration waveform shown in the lower part of FIG. 23B. Therefore, the user who has recognized the vibration feels that the vibration has moved from the subject 302 side to the user side. As a result, the user can grasp that the user has to leave the subject 302.
  • the camera system control unit 327 determines that the defocus state corresponds to the category s3
  • the camera system control unit 327 applies the vibration waveform illustrated in the upper part of FIG.
  • the vibration waveform shown in the lower part of FIG. As shown in the dotted line part of FIG. 23D, the vibration waveform shown in the lower part of FIG. 23D rises before the vibration waveform shown in the upper part of FIG. Therefore, the user who has recognized the vibration feels that the vibration has moved from the user side to the subject 302 side. As a result, the user can grasp that the user has to approach the subject 302.
  • the vibration waveform shown in the upper part of FIG. 23C is given to the vibrator 333 on the user side.
  • Each vibration waveform shown in the upper part of FIG. 23C and the lower part of FIG. 23D has the same start timing. Therefore, the user who has recognized the vibration can grasp that it is the photographing timing.
  • the camera system control unit 327 can also shift the start timing by shifting the phase of the vibration waveform applied to each transducer 332, 333.
  • the camera system control unit 327 determines the state of the subject and gives a vibration waveform corresponding to the determination result to each vibrator, as in the case of one vibrator. Thus, it is possible to notify the user of the shooting timing.
  • the camera system control unit 327 varies the vibration waveform applied to each vibrator according to the defocus direction and the defocus amount. Therefore, the defocus direction and the defocus amount can be notified to the user depending on which vibrator has a large vibration.
  • the camera system control unit 327 shifts the vibration waveforms applied to the vibrators according to the defocus direction. Therefore, the defocus direction can be notified to the user depending on which vibrator vibrates first.
  • the camera system includes one vibrator as shown in FIG.
  • the camera system control unit 327 changes the vibration waveform according to the size of a specific subject in the image displayed in the live view.
  • the camera system control unit 327 stores an object image for pattern matching in advance in the camera memory 341 in response to an operation from the user.
  • the camera system control unit 327 sets a subject preset by the user as a specific subject.
  • the subject is not limited to a person but may be an animal.
  • the image processing unit 326 recognizes a specific subject from the live view image by pattern matching using a person recognition function, a face recognition function, or the like.
  • the camera system control unit 327 determines the size of a specific subject recognized by the image processing unit 326. Then, the camera system control unit 327 notifies the user of the photographing timing by changing the vibration waveform applied to the vibrator 331 according to the size of a specific subject.
  • the shooting timing means that the subject in the live view image has an appropriate size.
  • the camera system control unit 327 determines whether the coordinates of each vertex of a rectangle inscribed in a specific subject in the live view image are located at the edge in the live view image. When all the coordinates of each vertex are located at the edge in the image, the camera system control unit 327 determines that the specific subject is too large. This is because there is a high possibility that the subject does not fit in the image.
  • the camera system control unit 327 calculates the area of a rectangle inscribed in the subject in the image when there is a coordinate that is not located at the edge of the image among the coordinates of each vertex, and compares the calculated area with a preset threshold value To do. Then, the camera system control unit 327 determines that the size of the subject is appropriate when the calculated area is equal to or greater than a preset threshold value. That is, it is determined that it is a shooting timing. On the other hand, when the calculated area is less than a preset threshold, the camera system control unit 327 determines that the size of the subject is too small.
  • FIG. 24 is a conceptual diagram showing the relationship between the size of the subject 303 and the vibration waveform in the live view image.
  • FIGS. 24A to 24C show a case where the subject 303 is too large, an appropriate size, and a case where the subject 303 is too small.
  • the camera system control unit 327 presets a category corresponding to the size of the subject 303.
  • the camera system control unit 327 sets the case where all the coordinates of the vertices of the rectangle 304 surrounding the subject 303 are located at the edge in the image as the section s1.
  • the camera system control unit 327 sets the case where the area of the rectangle 304 inscribed in the subject 303 is equal to or larger than a preset threshold as the category s2.
  • the camera system control unit 327 sets the case where the area of the rectangle 304 inscribed in the subject 303 is less than a preset threshold as Category 3.
  • FIG. 24 (d) to FIG. 24 (f) show the vibration waveforms corresponding to the respective sections.
  • the section s1 corresponds to the vibration waveform shown in FIG.
  • the section s2 and the vibration waveform shown in FIG. 24 (e) correspond to the section s3 and the vibration waveform shown in FIG. 24 (f), respectively.
  • the vertical axis represents voltage V
  • the horizontal axis represents time t.
  • the vibration waveform of FIG.24 (d) and FIG.24 (f) is the same.
  • the vibration waveforms shown in FIG. 24D and FIG. 24F are called vibration waveforms j, and the vibration waveform shown in FIG.
  • the camera system control unit 327 presets a vibration waveform corresponding to each section.
  • the camera system control unit 327 determines that the size of the subject 303 corresponds to the category s2, the camera system control unit 327 gives the vibration waveform k to the vibrator 331.
  • the vibration waveform k has a smaller amplitude than the vibration waveform j. Therefore, the user who has recognized the vibration can grasp that it is the photographing timing.
  • the camera system control unit 327 provides a vibration waveform having the smallest amplitude at the shooting timing, camera shake during shooting is suppressed.
  • the camera system control unit 327 determines that the size of the subject 303 corresponds to the category s1, or determines that the size of the subject 303 corresponds to the category s3, the camera system control unit 327 provides the vibration waveform j to the vibrator 331. Since the vibration waveform j has a larger amplitude than the vibration waveform k, the user who has recognized the vibration can recognize that the size of the subject 303 is not appropriate.
  • the camera system control unit 327 may vary the frequency of the vibration waveform applied to the vibrator 331 according to the size of the subject 303.
  • the camera system control unit 327 may give the sawtooth wave shown in FIGS. 19B to 19D to the vibrator 331 according to the size of the subject 303. Further, when two vibrators are arranged, the camera system control unit 327 may give the vibration waveforms shown in FIGS. 21 to 23 to each vibrator according to the size of the subject 303. In these cases, the camera system control unit 327 can notify the user whether the subject 303 is large or small.
  • the camera system control unit 327 changes the vibration waveform according to the position of a specific subject in the image displayed in the live view.
  • the camera system includes one vibrator as shown in FIG.
  • the camera system control unit 327 determines the position of a specific subject in the image displayed in the live view, that is, the position of the subject with respect to the subject angle of view, and according to the position of the subject. Change the vibration waveform.
  • the camera system control unit 327 informs the user of the shooting timing.
  • the shooting timing means that the subject in the live view image is at an appropriate position.
  • the camera system control unit 327 calculates a rectangle that inscribes the subject in the image displayed in the live view, and determines whether or not the rectangular region overlaps with a region in a preset appropriate position range.
  • the camera system control unit 327 determines that the position of the subject is appropriate when the rectangular area and the area of the appropriate position range overlap by a preset ratio or more. That is, it is determined that it is a shooting timing.
  • the camera system control unit 327 determines whether the subject is shifted to the left or right when the ratio of the rectangular area and the area of the appropriate position range is less than a preset ratio. Specifically, the camera system control unit 327 determines the shift direction of the subject by determining whether the coordinates of each vertex of the rectangle are shifted to the left or right with respect to the appropriate position range.
  • FIG. 25 is a conceptual diagram showing the relationship between the position of the subject 305 and the vibration waveform in the live view image.
  • FIGS. 25A to 25C show the relationship between the subject 305 and the appropriate position range 306.
  • the camera system control unit 327 presets a segment corresponding to the position of the subject 305.
  • the camera system control unit 327 has a rectangle 307 less than a preset ratio and the coordinates of each vertex are shifted to the left from the appropriate position range 306.
  • a case where the subject 305 is shifted to the left side from the appropriate position range 306 is set as the section s1.
  • FIG. 25A shows the camera system control unit 327 presets a segment corresponding to the position of the subject 305.
  • the camera system control unit 327 has a rectangle 307 less than a preset ratio and the coordinates of each vertex are shifted to the left from the appropriate position range 306.
  • a case where the subject 305 is shifted to the left side from the appropriate position range 306 is set
  • the camera system control unit 327 overlaps the area of the rectangle 307 and the area of the appropriate position range 306 by a preset ratio, that is, the subject 305 is in the appropriate position range 306. Is set as category s2. Furthermore, as shown in FIG. 25C, the camera system control unit 327 has a rectangle 307 that is less than a preset ratio and the coordinates of each vertex are shifted to the right from the appropriate position range 306, that is, the subject. A case where 305 is shifted to the right side from the appropriate position range 306 is set as a category 3.
  • FIG. 25 (d) to FIG. 25 (f) show vibration waveforms corresponding to the respective sections.
  • 25 (d) to 25 (f) are the same as FIGS. 24 (d) to 24 (f), and a description thereof will be omitted.
  • the camera system control unit 327 presets a vibration waveform corresponding to each section.
  • the camera system control unit 327 determines that the position of the subject 305 corresponds to the category s 2, that is, when the subject 305 exists in the appropriate position range 306, the camera system control unit 327 gives the vibration waveform k to the vibrator 331.
  • the vibration waveform k has a smaller amplitude than the vibration waveform j. Therefore, it can be grasped that it is a photographing timing.
  • the camera system control unit 327 provides a vibration waveform having the smallest amplitude at the shooting timing, camera shake during shooting is suppressed.
  • the camera system control unit 327 determines that the position of the subject 305 corresponds to the category s1 or determines that the position of the subject 305 corresponds to the category s3, the camera system control unit 327 gives the vibration waveform j to the vibrator 331.
  • the vibration waveform j has a larger amplitude than the vibration waveform k. Therefore, the user who has recognized the vibration can grasp that the position of the subject 305 is not appropriate.
  • the camera system control unit 327 may vary the frequency of the vibration waveform applied to the vibrator 331 according to the size of the subject 303.
  • the camera system control unit 327 may give the sawtooth wave shown in FIGS. 19B to 19D to the vibrator 331 according to the size of the subject 303. Further, when two vibrators are arranged, the camera system control unit 327 may give the vibration waveforms shown in FIGS. 21 to 23 to each vibrator according to the size of the subject 303. In these cases, the camera system control unit 327 can notify the user of the direction in which the subject 305 is displaced.
  • the vibrator 331 is preferably arranged so as to vibrate in a direction intersecting the optical axis direction. Further, when two vibrators are arranged, it is preferable to arrange them separately in a direction crossing the optical axis direction.
  • FIG. 26 is an upper schematic view of the camera system 102 when two vibrators are arranged.
  • the vibrators 334 and 335 are arranged apart from each other in the X-axis direction.
  • the vibration waveform shown in the upper part of FIG. You may give the vibration waveform shown to the left vibrator
  • the vibration waveform shown in the upper part of FIG. 23B rises before the vibration waveform shown in the lower part of FIG. Therefore, the user who has recognized the vibration feels that the vibration has moved from the right side to the left side. Thereby, the user can grasp that the camera system 102 must be directed to the right side.
  • the vibration waveform shown in the upper part of FIG. 23D is displayed on the right vibrator 334 and the vibration waveform shown in FIG. d)
  • Each of the vibration waveforms shown in the lower part is given.
  • the vibration waveform shown in the upper part of FIG. 23D rises after the vibration waveform shown in the lower part of FIG. Therefore, the user who has recognized the vibration feels that the vibration has moved from the left side to the right side. Thereby, the user can grasp that the camera system 102 must be directed to the left side.
  • a voice coil motor can also be used as the vibrator.
  • the vibration unit is formed by disposing the voice coil motor through a film inside the housing of the camera unit 300.
  • a vibration motor used in a mobile phone may be used.
  • the camera system control unit 327 provides the driving voltage so that the physical displacement of the element is minimized at the photographing timing, thereby adjusting the photographing timing. The user can be notified.
  • the vibrator is described as being disposed in the grip portion of the camera system, for example, but may be disposed in the lens unit.
  • the vibrator may be arranged on the tripod seat.
  • the vibrator can be supplied with electric power by sharing the contact on the lens unit side.
  • the vibrator may be disposed at the center of gravity of the camera system. With the configuration in which the vibrator is arranged at the center of gravity of the camera system, the rotational torque due to the vibration of the vibrator can be minimized. Therefore, the configuration in which the vibrator is arranged at the center of gravity of the camera system is effective from the viewpoint of preventing camera shake.
  • the camera system control unit 327 determines the segment according to the defocus amount, and gives the vibrator a vibration waveform according to the segment, but is more directly proportional to the defocus amount.
  • a vibration waveform having an amplitude may be given.
  • the vibration waveform is expressed by a function having the defocus amount as an input value.
  • the camera system control unit 327 may reduce the amplitude of the vibration waveform as compared with the case where the shooting mode is set to the still image shooting mode. Giving a vibration waveform to may be suppressed. As a result, it is possible to prevent the sound generated by the vibration of the vibrator from being recorded during moving image shooting.
  • FIG. 27 is an external perspective view of the camera system 400 according to the present embodiment.
  • the camera system 400 is a lens interchangeable single-lens reflex camera configured by mounting the lens unit 500 on the camera unit 600.
  • the lens unit 500 includes a lens mount 524
  • the camera unit 600 includes a camera mount 611.
  • the lens mount 524 and the camera mount 611 are engaged and the lens unit 500 and the camera unit 600 are integrated, the lens unit 500 and the camera unit 600 function as the camera system 400.
  • the z-axis is defined in the front-rear direction, which is the direction in which the subject light flux (light flux from the subject) enters along the optical axis 502.
  • the x-axis is defined in the left-right direction that is orthogonal to the z-axis and parallel to the longitudinal direction of the camera unit 600, and the y-axis is defined in the vertical direction that is orthogonal to the x-axis.
  • the lens mount 524 is brought close to the camera mount 611 along the arrow 421 parallel to the optical axis 502, and both are brought into contact so that the lens index 509 and the body index 640 face each other. Further, the lens unit 500 is rotated in the direction of the arrow 422 while maintaining the contact between the mount surface of the lens mount 524 and the mount surface of the camera mount 611. Then, the lock mechanism by the lock pin 650 is activated, and the lens unit 500 is fixed to the camera unit 600. In this state, a connection is established between the communication terminal on the lens unit 500 side and the communication terminal on the camera unit 600 side, and communication such as control signals and power supply can be performed.
  • the camera unit 600 includes a finder window 618 for observing a subject and a display unit 628 for displaying a live view image and the like.
  • the lens unit 500 includes vibrators 531 and 532.
  • the vibrators 531 and 532 are arranged in a portion where the user holds the lens unit 500 at the time of shooting.
  • the vibrators 531 and 532 are arranged in a vertically lower region of the lens unit 500 in the horizontal posture when the lens unit 500 is attached to the camera unit 600.
  • the lateral position refers to a state in which the bottom surface of the camera system 400 is directed downward in the vertical direction.
  • the vibrators 531 and 532 are arranged apart from each other in the z-axis direction.
  • the camera system 400 determines the state of the subject according to at least a part of the subject image, and causes the vibrators 531 and 532 to vibrate in accordance with the determination.
  • the camera system 400 determines the defocus state of the subject as the subject status.
  • the camera system 400 varies the vibration waveform generated by the vibrators 531 and 532 according to the defocus state of the subject.
  • the user when the user performs the manual focus operation while holding the lens unit 500 with the left hand, the user can grasp the defocus state of the subject by the vibration received by the left hand. Therefore, the user can adjust the focus ring 501 without looking at the finder window 618 or the display unit 628.
  • FIG. 28 is a cross-sectional view of the main part of the camera system 400.
  • the lens unit 500 includes a lens group 510 and a stop 521 arranged along the optical axis 502.
  • the lens group 510 includes a focus lens 511 and a zoom lens 512.
  • the lens unit 500 includes a plurality of motors such as a vibration wave motor and a VCM, and drives the focus lens 511 in the direction of the optical axis 502.
  • the lens unit 500 further includes a lens system control unit 522 that controls and calculates the lens unit 500.
  • the lens unit 500 includes a focus ring 501. When performing a manual focus operation, the user rotates the focus ring 501 to drive the focus lens 511 in an interlocked manner.
  • the lens unit 500 further accommodates two vibrators 531 and 532.
  • the vibrators 531 and 532 are, for example, piezo elements, and are disposed in the lens barrel 523 and cause the lens barrel 523 to vibrate by expansion and contraction thereof.
  • a vibration waveform as an input drive voltage and a vibration waveform as a physical displacement amount of the element have a proportional relationship.
  • the lens unit 500 includes a lens mount 524 at a connection portion with the camera unit 600, and engages with a camera mount 611 included in the camera unit 600 to be integrated with the camera unit 600.
  • the camera unit 600 includes a main mirror 612 that reflects a subject image incident from the lens unit 500, and a focus plate 613 on which the subject image reflected by the main mirror 612 is formed.
  • the main mirror 612 can take a state in which it is obliquely provided in the subject light flux centered on the optical axis 502 and a state in which it is retracted from the subject light flux by rotating around the rotation axis 614.
  • the main mirror 612 is provided obliquely in the subject luminous flux when the subject image is guided to the focus plate 613 side.
  • the focus plate 613 is disposed at a position conjugate with the light receiving surface of the image sensor 615.
  • the subject image formed on the focus plate 613 is converted into an erect image by the pentaprism 616 and observed by the user via the eyepiece optical system 617.
  • a region near the optical axis 502 of the main mirror 612 in the oblique state is formed as a half mirror, and a part of the incident light beam is transmitted.
  • the transmitted light beam is reflected by a sub-mirror 619 that operates in conjunction with the main mirror 612 and enters the focus detection sensor 622.
  • the focus detection sensor 622 is a phase difference detection sensor, for example, and detects a phase difference signal from the received subject light beam.
  • the sub mirror 619 retracts from the subject light beam in conjunction with the main mirror 612 when the main mirror 612 retracts from the subject light beam.
  • a focal plane shutter 623, an optical low-pass filter 624, and an image sensor 615 are arranged along the optical axis 502 behind the oblique main mirror 612.
  • the focal plane shutter 623 is in an open state when the subject light beam is guided to the image sensor 615, and is in a shielded state at other times.
  • the optical low-pass filter 624 plays a role of adjusting the spatial frequency of the subject image with respect to the pixel pitch of the image sensor 615.
  • the image sensor 615 is a light receiving element such as a CMOS sensor, for example, and converts a subject image formed on the light receiving surface into an electric signal.
  • the electrical signal photoelectrically converted by the image sensor 615 is processed into image data by the image processing unit 626 which is an ASIC mounted on the main board 625.
  • the main board 625 includes a camera system control unit 627 that is an MPU that integrally controls the system of the camera unit 600.
  • the camera system control unit 627 manages the camera sequence and performs input / output processing of each component.
  • a display unit 628 such as a liquid crystal monitor is disposed on the back of the camera unit 600, and a subject image processed by the image processing unit 626 is displayed. Further, a live view display is realized by sequentially displaying on the display unit 628 the object scene image that the image sensor 615 continuously photoelectrically converts.
  • the camera unit 600 further houses a detachable secondary battery 629. The secondary battery 629 supplies power not only to the camera unit 600 but also to the lens unit 500.
  • FIG. 29 is a system configuration diagram of the camera system 400.
  • the camera system 400 includes a lens control system centered on the lens system control unit 522 and a camera control system centered on the camera system control unit 627 corresponding to each of the lens unit 500 and the camera unit 600.
  • the lens control system and the camera control system exchange various data and control signals with each other via a connection portion connected by the lens mount 524 and the camera mount 611.
  • the image processing unit 626 included in the camera control system processes the imaging signal photoelectrically converted by the imaging element 615 into image data according to a predetermined image format in accordance with a command from the camera system control unit 627. Specifically, when generating a JPEG file as a still image, the image processing unit 626 performs image processing such as color conversion processing, gamma processing, and white balance processing, and then performs adaptive discrete cosine conversion and the like to perform compression processing. do.
  • the image processing unit 626 when generating an MPEG file as a moving image, performs intra-frame encoding and inter-frame encoding on a frame image as a continuous still image generated by reducing the number of pixels to a predetermined number of pixels. And compress it.
  • the camera memory 641 is a nonvolatile memory such as a flash memory, for example, and plays a role of storing a program for controlling the camera system 400, various parameters, and the like.
  • the work memory 642 is a memory that can be accessed at high speed, such as a RAM, and plays a role of temporarily storing image data being processed.
  • the display control unit 643 displays a display screen on the display unit 628 in accordance with an instruction from the camera system control unit 627.
  • the mode switching unit 644 receives mode settings such as a shooting mode and a focus mode by the user, and outputs them to the camera system control unit 627.
  • the shooting modes include a moving image shooting mode and a still image shooting mode.
  • the focus mode includes an auto focus mode and a manual focus mode.
  • the focus detection sensor 622 for example, one distance measuring point selected by the user is set for the subject space.
  • the focus detection sensor 622 detects a phase difference signal at the set distance measuring point.
  • the focus detection sensor 622 can detect whether the subject at the distance measuring point is in a focus state or a defocus state.
  • the focus detection sensor 622 is configured to detect the defocus amount from the in-focus position in the defocus state.
  • the release switch 645 has a two-stage switch position in the pushing direction.
  • the camera system control unit 627 detects that the first-stage switch sw1 is turned on, the camera system control unit 627 acquires phase difference information from the focus detection sensor 622.
  • the camera system control unit 627 transmits drive information of the focus lens 511 to the lens system control unit 522 when the focus mode is the autofocus mode.
  • the camera system control unit 627 detects that the second-stage switch sw2 is turned on, the camera system control unit 627 executes a shooting process according to a predetermined process flow.
  • the camera system control unit 627 functions as a determination unit that determines the depth state of the subject based on at least a part of the subject image in cooperation with the focus detection sensor 622. Specifically, the camera system control unit 627 determines the defocus state of the subject from the phase difference information acquired from the focus detection sensor 622.
  • the camera system control unit 627 gives vibration waveforms according to the defocus state of the subject to the vibrators 531 and 532 via the lens system control unit 522. Therefore, even when the user captures the subject without looking at the finder window 618 and the display unit 628, the user can know the defocus state of the subject by recognizing the change in vibration of the vibrators 531 and 532. .
  • the vibrators 531 and 532 receive a vibration waveform from the camera system control unit 627 and expand and contract according to the received vibration waveform.
  • FIG. 30 is an explanatory diagram for explaining vibration waveforms applied to the vibrators 531 and 532.
  • FIG. 30A shows the positional relationship of the image sensor 615, the focus lens 511, and the subject 411 in the optical axis 502 direction, and in particular, the classification (s1, s2) according to the position of the focus lens 511 and the defocus state of the subject 411. , S3, s4, s5).
  • the defocus amount on the imaging surface is uniquely determined at the front pin that is focused within the range of the section s2. Therefore, the camera system control unit 627 can determine in which section the focus lens 511 is in focus according to the defocus amount.
  • the camera system control unit 627 presets a segment according to the defocus state of the subject 411 as shown in FIG. Specifically, the camera system control unit 627 holds the range that can be regarded as the focus state as a table of parameters such as the focal length and the aperture value, and sets the range that can be regarded as the focus state as the category s3.
  • the camera system control unit 627 sets the case where the defocus state is the front pin in two stages as the division s1 and the division s2 according to the defocus amount. Similarly, when the defocus state is the rear pin, the camera system control unit 627 sets the division s4 and the division s5 in two stages according to the defocus amount.
  • FIG. 30 (b) to FIG. 30 (f) show vibration waveforms corresponding to the respective sections.
  • the section s1 corresponds to the vibration waveform shown in FIG.
  • the section s2 and the vibration waveform shown in FIG. 30 (c) the section s3 and the vibration waveform shown in FIG. 30 (d)
  • the section s4 and the vibration waveform shown in FIG. 30 (e) the section s5 and FIG. 30 (f).
  • the vibration waveforms in the upper part of FIG. 30 (b) and the lower part of FIG. 30 (f) are the same.
  • the vibration waveforms of FIG. 30 (f) and FIG. 30 (b) are the same.
  • the vertical axis represents voltage V
  • the horizontal axis represents time t.
  • the vibrators 531 and 532 are extended by a portion where the voltage is increasing, and the vibrators 531 and 532 are contracted by a portion where the voltage is decreasing.
  • the vibration waveforms shown in the upper part of FIG. 30 (b) and the lower part of FIG. 30 (f) are vibration waveforms a
  • the vibration waveforms shown in the upper part of FIG. 30 (c) and the lower part of FIG. 30 (e) are vibration waveforms b
  • FIG. ) The vibration waveform shown in the upper part and the lower part of FIG. 30D is referred to as a vibration waveform c.
  • the vibration waveforms shown in the upper part of FIG. 30 (e) and the lower part of FIG. 30 (c) are called vibration waveforms d
  • the vibration waveforms shown in the upper part of FIG. 30 (f) and the lower part of FIG. 30 (b) to 30 (f) the upper row shows the vibration waveform given to the vibrator 531 nearer to the subject
  • the lower row shows the vibration waveform given to the vibrator 532 closer to the user. ing.
  • the camera system control unit 627 presets a vibration waveform corresponding to each section. Specifically, the camera system control unit 627 holds the amplitude, period, and type of the vibration waveform in the camera memory 641 in advance as setting items of the vibration waveform. Examples of types of vibration waveforms include a sine curve and a sawtooth wave.
  • the camera system control unit 627 has an amplitude that changes from the section s1 to the section s5 with respect to the vibrator 531 on the subject side.
  • the vibration waveform is set to be large.
  • the camera system control unit 627 moves from the section s1 to the section s5 with respect to the vibrator 532 on the user side.
  • the vibration waveform is set so that the amplitude becomes small.
  • the camera system control unit 627 gives a vibration waveform to the vibrator 532 on the user side to the vibrator 531 on the subject side.
  • a vibration waveform having an amplitude larger than the amplitude of is given.
  • the camera system control unit 627 gives the user-side vibrator 532 to the subject-side vibrator 531.
  • a vibration waveform having an amplitude smaller than that of the vibration waveform is provided. Therefore, the user can intuitively understand the defocus direction depending on which vibrator vibrates more greatly.
  • the vibration waveforms shown in FIG. 30B are smaller in amplitude than the vibration waveforms shown in FIG. 30C. Comparing the vibration waveforms in the lower stage, conversely, the vibration waveform shown in FIG. 30C has a smaller amplitude than the vibration waveform shown in FIG. That is, the difference in amplitude of each vibration waveform is larger in the section s1 than in the section s2. Therefore, the user can understand the defocus amount sensuously by the magnitude of the amplitude difference between the vibrators.
  • the camera system control unit 627 gives a common vibration waveform to the vibrators 531 and 532 when determining that the defocus state of the subject 411 corresponds to the category s3. Since the amplitudes of the vibration waveforms given to the respective vibrators 531 and 532 coincide with each other, the user can grasp that the focus state is established without looking at the finder window 618 or the display unit 628. Further, as shown in FIGS. 30B to 30F, in this example, since at least one of the vibrators vibrates, the camera system 400 is operating normally for the user. There is a merit that it is easy to understand.
  • FIG. 31 is a shooting operation flowchart of the camera system 400.
  • the shooting operation flow is started when the camera system control unit 627 detects that SW1 is turned on when the focus mode is set to the manual focus mode and the shooting mode is set to the still image shooting mode.
  • the camera system control unit 627 acquires the output of the focus detection sensor 622 (step S201).
  • the camera system control unit 627 determines whether the defocus state of the subject 411 corresponds to the category s3 (step S202). If the camera system control unit 627 determines that the defocus state of the subject 411 corresponds to the category s3 (step S202: Yes), the camera system control unit 627 transmits the vibration waveform c to the vibrators 531 and 532 (step S203). If the camera system control unit 627 determines that the defocus state of the subject 411 does not correspond to the category s3 (step S202: No), the camera system control unit 627 determines whether the defocus state corresponds to the category s2 (step S204).
  • the camera system control unit 627 determines that the defocus state corresponds to the category s2 (step S204: Yes), the camera system control unit 627 transmits the vibration waveform b to the vibrator 531 and the vibration waveform d to the vibrator 532 (step S205).
  • the camera system control unit 627 determines whether the defocus state corresponds to the section s1 (step S206). If the camera system control unit 627 determines that the defocus state corresponds to the category s1 (step S206: Yes), the camera system control unit 627 transmits the vibration waveform a to the vibrator 531 and the vibration waveform e to the vibrator 532 (step S207).
  • step S206 determines whether the defocus state corresponds to the section s4 (step S208). If the camera system control unit 627 determines that the defocus state corresponds to the category s4 (step S208: Yes), the camera system control unit 627 transmits the vibration waveform d to the vibrator 531 and the vibration waveform b to the vibrator 532 (step S209).
  • step S208 If it is determined that the defocus state does not correspond to the category s4 (step S208: No), the defocus state corresponds to the category s5. In this case, the camera system control unit 627 transmits the vibration waveform e to the vibrator 531 and the vibration waveform a to the vibrator 532 (step S210).
  • the camera system control unit 627 determines whether SW2 is turned on after transmitting any vibration waveform (step S211). If the camera system control unit 627 determines that SW2 is turned on (step S211: Yes), the camera system control unit 627 executes a photographing process (step S212).
  • step S211: No the camera system control unit 627 determines whether the timer of SW1 is turned off (step S213). If the camera system control unit 627 determines that the timer of SW1 is not turned off (step S213: No), the process returns to step S201. If the camera system control unit 627 determines that the timer of SW1 has been turned off (step S213: Yes) or if the shooting process is executed, the camera system control unit 627 stops the transmission of the vibration waveform (step S214), and a series of shooting operation flows Exit. If the camera system control unit 627 determines that SW2 is turned on (step S211: Yes), the camera system control unit 627 may stop the transmission of the vibration waveform before the imaging process.
  • the camera system control unit 627 determines the defocus state of the subject 411 while sw1 is on, and interlocks the vibrators 531 and 532 according to the defocus state of the subject 411. Vibrate. That is, the camera system control unit 627 continuously determines the state of the subject 411 and continuously vibrates the vibrators 531 and 532 according to the state of the subject 411.
  • FIG. 32 is an explanatory diagram for explaining vibration waveforms applied to the vibrators 531 and 532. Since FIG. 32A is the same as FIG. 30A, description thereof is omitted. As shown in FIG. 32A, the camera system control unit 627 presets divisions (s1, s2, s3, s4, s5) according to the defocus state of the subject 411.
  • FIG. 32 (b) to FIG. 32 (f) show vibration waveforms corresponding to the respective sections.
  • the vertical axis represents voltage V and the horizontal axis represents time t.
  • the upper part shows the vibration waveform applied to the subject-side vibrator 531 and the lower part shows the vibration waveform applied to the user-side vibrator 532.
  • the camera system control unit 627 determines that the section of the vibrator 531 is as follows: section s3 ⁇ section s4 ⁇ section s5.
  • the vibration waveform is set so that the amplitude becomes larger as it changes.
  • the difference from FIG. 30 is that the camera system control unit 627 gives a vibration waveform similar to that in the in-focus state when the defocus state is the front pin.
  • the camera system control unit 627 moves the section from section s 3 ⁇ section s 2 ⁇ section s 1 with respect to the vibrator 532.
  • the vibration waveform is set to increase the amplitude.
  • the difference from FIG. 30 is that the camera system control unit 627 gives the same vibration waveform as in the case of the in-focus position even when the defocus state is the rear pin.
  • FIGS. 32 (b) to 32 (f) in this example, when the focus lens 511 is at the in-focus position, the amplitude of both vibrators is minimized, thereby preventing camera shake due to vibration. There is an advantage that you can.
  • the camera system control unit 627 may set the amplitude of the vibration waveform generated by the vibrators 531 and 532 to zero when the focus lens 511 is in the in-focus position.
  • FIG. 33 is an explanatory diagram for explaining the vibration waveforms applied to the vibrators 531 and 532.
  • FIG. 33A shows the positional relationship of the image sensor 615, the focus lens 511, and the subject 412 in the optical axis 502 direction, and particularly shows the sections (s1, s2, s3) corresponding to the defocused state of the subject 412. Yes.
  • the camera system control unit 627 presets a category corresponding to the defocus state of the subject 412.
  • the camera system control unit 627 sets the range that can be regarded as the focus state as the section s2. Further, the camera system control unit 627 sets the case where the defocus state is the front pin as the section s1 and the case where the defocus state is the rear pin as the section s3.
  • FIG. 33 (b) to FIG. 33 (d) show the vibration waveform corresponding to each section.
  • the vertical axis represents voltage V and the horizontal axis represents time t.
  • the upper part shows the vibration waveform given to the subject-side vibrator 531 and the lower part shows the vibration waveform given to the user-side vibrator 532.
  • the camera system control unit 627 gives the vibration waveforms common to the vibrators 531 and 532 with the start timings being shifted from each other. The amplitude of the common vibration waveform increases with time.
  • the subject-side vibrator 531 is illustrated in the upper part of FIG.
  • the vibration waveform is given to the user-side vibrator 532 as shown in the lower part of FIG.
  • the vibration waveform shown in the upper part of FIG. 33 (b) rises before the vibration waveform shown in the lower part of FIG. 33 (b). Therefore, the user who has recognized the vibration feels that the vibration has moved from the subject 412 side to the user side. As a result, the user can grasp that the user has to leave the subject 412.
  • the vibration waveform illustrated in the upper part of FIG. 33D when the camera system control unit 627 determines that the defocus state corresponds to the category s3, the vibration waveform illustrated in the upper part of FIG.
  • the vibration waveform shown in the lower part of FIG. As shown by the dotted line in FIG. 33 (d), the vibration waveform shown in the lower part of FIG. 33 (d) rises before the vibration waveform shown in the upper part of FIG. 33 (d). Therefore, the user who has recognized the vibration feels that the vibration has moved from the user side to the subject 412 side. As a result, the user can grasp that the subject 412 must be approached.
  • the vibration waveform shown in the upper part of FIG. 33C is given to the vibrator 532 on the user side.
  • the start timings of the vibration waveforms shown in the upper part of FIG. 33 (c) and the lower part of FIG. 33 (d) are the same. Therefore, the user who has recognized the vibration can grasp that the user is in the focus state.
  • the camera system control unit 627 can also shift the start timing by shifting the phase of the vibration waveform applied to each transducer 531, 532.
  • the camera system control unit 627 notifies the user of the defocus state by changing the frequency of the vibration waveform applied to each vibrator according to the defocus state of the subject.
  • FIG. 34 is an explanatory diagram for explaining vibration waveforms applied to the vibrators 531 and 532. Since FIG. 34 (a) is the same as FIG. 33 (a), description thereof is omitted. As shown in FIG. 34A, the camera system control unit 627 presets divisions (s1, s2, s3) according to the position of the subject 412.
  • FIG. 34 (b) to FIG. 34 (d) show vibration waveforms corresponding to the respective sections.
  • the vertical axis represents voltage V and the horizontal axis represents time t.
  • 34 (b) to 34 (d) the upper row shows the vibration waveform given to the subject-side vibrator 531 and the lower row shows the vibration waveform given to the user-side vibrator 532.
  • the camera system control unit 627 presets a vibration waveform corresponding to each section. Specifically, as shown in the upper vibration waveform of FIGS. 34 (b) to 34 (d), the camera system control unit 627 moves the subject-side vibrator 531 from the division s1 to the division s3.
  • the vibration waveform is set so that the frequency becomes lower as it shifts.
  • the camera system control unit 627 moves from the section s1 to the section s3 with respect to the vibrator 532 on the user side.
  • the vibration waveform is set to increase the frequency. Therefore, the user can sensuously understand the defocus direction depending on which vibrator has a high frequency.
  • the camera system control unit 627 determines that the defocus state of the subject 412 corresponds to the category s2, the camera system control unit 627 matches the frequencies of the vibration waveforms applied to the vibrators 531 and 532. Therefore, the user can grasp that it is in the focus state.
  • the camera system control unit 627 causes the vibrators 531 and 532 to vibrate according to the size of a specific subject in the image displayed in the live view.
  • the camera system control unit 627 stores a subject image for pattern matching in the camera memory 641 in advance.
  • the camera system control unit 627 sets a subject preset by the user as a specific subject.
  • the subject is not limited to a person but may be an animal.
  • the image processing unit 626 recognizes a specific subject from the live view image by pattern matching using a person recognition function, a face recognition function, or the like.
  • the camera system control unit 627 determines the size of the specific subject recognized by the image processing unit 626.
  • the camera system control unit 627 causes the vibrators 531 and 532 to vibrate according to the size of a specific subject. This notifies the user of the size of the subject in the image.
  • the camera system control unit 627 determines whether the coordinates of the vertices of the rectangle inscribed in a specific subject in the live view image are located at the edge in the live view image. When all the coordinates of each vertex are located at the edge in the image, the camera system control unit 627 determines that the specific subject is too large. This is because there is a high possibility that the subject does not fit in the image.
  • the camera system control unit 627 calculates the area of a rectangle inscribed in the subject in the image when there is a coordinate that is not located at the edge of the image among the coordinates of each vertex, and compares the calculated area with a preset threshold value To do.
  • the camera system control unit 627 determines that the size of the subject is appropriate when the calculated area is equal to or larger than a preset threshold value. That is, it is determined that it is a shooting timing. On the other hand, when the calculated area is less than a preset threshold, the camera system control unit 627 determines that the size of the subject is too small.
  • FIG. 35 is a conceptual diagram showing the relationship between the size of the subject 417 and the vibration waveform in the live view image.
  • FIGS. 35A to 35C show a case where the subject 417 is too large, an appropriate size, and too small, respectively.
  • the camera system control unit 627 presets a segment corresponding to the size of the subject 417.
  • the camera system control unit 627 sets the case where all the coordinates of the vertices of the rectangle 418 surrounding the subject 417 are located at the edge in the image as the section s1.
  • the camera system control unit 627 sets the case where the area of the rectangle 418 inscribed in the subject 417 is equal to or larger than a preset threshold as the category s2.
  • the camera system control unit 627 sets the case where the area of the rectangle 418 inscribed in the subject 417 is less than a preset threshold as the category 3.
  • FIG. 35 (d) to FIG. 35 (f) show vibration waveforms corresponding to the respective sections.
  • the vibration waveforms in the upper part of FIG. 35 (e) and the upper part of FIG. 35 (f) are the same.
  • the vibration waveforms in the lower part of FIG. 35 (d) and the lower part of FIG. 35 (e) are the same.
  • the vertical axis represents voltage V
  • the horizontal axis represents time t.
  • the upper row shows the vibration waveform given to the subject-side vibrator 531 and the lower row shows the vibration waveform given to the user-side vibrator 532.
  • the camera system control unit 627 presets a vibration waveform corresponding to each section.
  • the camera system control unit 627 sets a vibration waveform having an amplitude larger than the amplitude of the vibration waveform to be given to other sections as the vibration waveform to be given to the subject-side vibrator 531 in the case of the section s1. ing. On the other hand, the camera system control unit 627 sets a vibration waveform having a larger amplitude than that of the vibration waveform to be given to other sections as the vibration waveform to be given to the user-side vibrator 532 in the case of the section s3.
  • the camera system control unit 627 determines that the size of the subject 417 corresponds to the category s2
  • the camera system control unit 627 provides the vibrators 531 and 532 with the vibration waveforms illustrated in FIG. Since both of the amplitudes of the vibration waveforms applied to the vibrators 531 and 532 are small, the user who has recognized the vibration can grasp that the size of the subject is appropriate, that is, the photographing timing. Further, since the camera system control unit 627 gives a vibration waveform having the smallest amplitude at the shooting timing, camera shake during shooting is suppressed.
  • the camera system control unit 627 determines that the size of the subject 417 corresponds to the category s1
  • the camera system control unit 627 provides the vibrators 531 and 532 with the vibration waveforms illustrated in FIG.
  • the camera system control unit 627 determines that the size of the subject 417 corresponds to the category s3
  • the camera system control unit 627 provides the vibrators 531 and 532 with the vibration waveforms illustrated in FIG. In these cases, since only one vibrator vibrates greatly, the user who has recognized the vibration can grasp whether the size of the subject 417 is too large or too small.
  • the camera system control unit 627 causes the vibrators 531 and 532 to vibrate in accordance with the movement of a specific subject in the image displayed in the live view.
  • the camera system control unit 627 calculates the area of the specific subject in the image displayed in the live view as the first area. Then, after a predetermined time has elapsed, the camera system control unit 627 calculates the area of the specific subject as the second area again, and compares both areas.
  • the camera system control unit 627 determines that the subject is not moving when the difference between the first area and the second area is within a certain range. If the difference between the first area and the second area does not fall within a certain range, the camera system control unit 627 determines that the subject has approached the user side if the second area is larger than the first area. On the other hand, if the second area is smaller than the first area, the camera system control unit 627 determines that the subject is far from the user side.
  • FIG. 36 is an explanatory diagram for explaining vibration waveforms applied to the vibrators 531 and 532.
  • FIG. 36A to FIG. 36C show the situation of the subject 419.
  • the camera system control unit 627 presets a segment according to the movement of the subject 419.
  • the camera system control unit 627 sets the case where the subject 419 is far from the user as the category s1.
  • the camera system control unit 627 sets the case where the subject 419 is not moving as the section s2.
  • the camera system control unit 627 sets the case where the subject 419 approaches the user as the category 3.
  • FIG. 36 (d) to FIG. 36 (f) show vibration waveforms corresponding to the respective sections.
  • 36 (d) to 36 (f) are the same as FIGS. 35 (d) to 35 (f), and thus the description thereof is omitted.
  • the camera system control unit 627 presets a vibration waveform corresponding to each section.
  • the camera system control unit 627 determines that the movement of the subject 419 corresponds to the category s2, the camera system control unit 627 provides the vibrators 531 and 532 with the vibration waveforms illustrated in FIG. Since the amplitudes of the vibration waveforms given to the vibrators 531 and 532 are both small, the user who has recognized the vibration can grasp that the subject is not moving, that is, the photographing timing. Further, since the camera system control unit 627 gives a vibration waveform having the smallest amplitude at the shooting timing, camera shake during shooting is suppressed.
  • the camera system control unit 627 determines that the movement of the subject 419 corresponds to the category s1
  • the camera system control unit 627 provides the vibrators 531 and 532 with the vibration waveforms illustrated in FIG.
  • the camera system control unit 627 determines that the movement of the subject 419 corresponds to the category s3
  • the camera system control unit 627 provides the vibrators 531 and 532 with the vibration waveforms illustrated in FIG. In these cases, since only one of the vibrators vibrates greatly, the user who has recognized the vibration can sensuously understand whether the subject 419 has approached the user or is far from the user.
  • FIG. 37 is an upper schematic view of the camera system 401.
  • the two vibrators 631 and 632 are arranged in the grip portion 630 of the camera unit 601 so as to be separated from each other in the z-axis direction. Therefore, when the user performs the manual focus operation while holding the lens unit 503 with the left hand, the user can grasp the defocus state of the subject by recognizing the vibration with the right hand without looking at the finder window 618 or the display unit 628. However, the focus ring 501 can be adjusted.
  • FIG. 38 is a top schematic view of the camera system 402.
  • the vibrator 533 is disposed in the lens unit 504 and the vibrator 633 is disposed in the grip portion 630 of the camera unit 602 so as to be separated in the z-axis direction.
  • the vibrator 533 is disposed in a lower region in the vertical direction of the lens unit 504.
  • the user when the user performs the manual focus operation while holding the lens unit 504 with the left hand, the user can grasp the defocus state of the subject by recognizing the vibration with both hands without looking at the finder window 618 or the display unit 628.
  • the focus ring 501 can be adjusted.
  • each vibrator may be arranged on the tripod base.
  • the camera system determines the size of the subject.
  • FIG. 39 is a side view of the camera system 403.
  • the lens unit 505 includes a tripod seat 550, and vibrators 534 and 535 are arranged inside the tripod seat 550 and spaced apart in the direction of the optical axis 502. Therefore, when shooting while holding the tripod seat 550 with the left hand, the user can take a picture while grasping the size of the subject by recognizing the vibration with the left hand without looking at the viewfinder window 618 or the display unit 628. Can do.
  • the camera system 403 may determine the movement of the subject.
  • the camera system control unit 627 has a function of determining the depth state of the subject based on at least a part of the subject image and oscillating the vibrators 531 and 532 in accordance with the determination.
  • the lens system control unit 522 may have the function.
  • a voice coil motor can also be used as the vibrator.
  • the vibration unit is formed by disposing the voice coil motor through a film inside the lens unit or the camera unit.
  • a sine waveform is applied as the vibration waveform, for example, a vibration motor used in a mobile phone may be used.
  • the camera system control unit 627 provides a drive voltage so that the physical displacement of the element is minimized in the focus state, thereby defocusing the element. Can be notified to the user.
  • the camera system control unit 627 can notify the user of the state of the subject by appropriately adjusting the drive voltage.
  • the camera system control unit 627 determines a segment according to the defocus amount and gives a vibration waveform according to the segment to the vibrator.
  • the vibration waveform having an amplitude proportional to the defocus amount more directly. May be given.
  • the vibration waveform is expressed by a function having the defocus amount as an input value.
  • the camera system control unit 627 may reduce the amplitude of the vibration waveform as compared with the case where the shooting mode is set to the still image shooting mode. Giving a vibration waveform to may be suppressed. As a result, it is possible to prevent the sound generated by the vibration of the vibrator from being recorded during moving image shooting.
  • FIG. 40 is a system configuration diagram of the digital camera 700 according to the present embodiment.
  • the digital camera 700 includes a camera system control unit 701 that directly or indirectly controls the digital camera 700 and a lens system control unit 702 that controls an optical system including a zoom lens.
  • the digital camera 700 includes a camera control system centered on the camera system control unit 701 and a lens control system centered on the lens system control unit 702.
  • the lens control system and the camera control system exchange various data and control signals with each other via a connection portion connected by the lens mount 703 and the camera mount 704.
  • the lens system control unit 702 receives a command from the camera system control unit 701 and sends a zoom lens control signal to the zoom lens driving unit 705.
  • the zoom lens driving unit 705 drives the zoom lens according to the zoom lens control signal received from the lens system control unit 702.
  • the image processing unit 706 included in the camera control system converts the imaging signal photoelectrically converted by the imaging element 707 as an imaging unit into image data according to a predetermined image format in accordance with a command from the camera system control unit 701. To process. Specifically, when generating a JPEG file as a still image, the image processing unit 706 performs image processing such as color conversion processing, gamma processing, and white balance processing, and then performs adaptive discrete cosine conversion and the like to perform compression processing. do. In addition, when generating an MPEG file as a moving image, the image processing unit 706 performs intra-frame encoding and inter-frame encoding on a frame image as a continuous still image generated by reducing to a predetermined number of pixels. And compress it.
  • image processing unit 706 when generating a JPEG file as a still image, the image processing unit 706 performs image processing such as color conversion processing, gamma processing, and white balance processing, and then performs adaptive discrete cosine conversion and the like
  • the camera memory 708 is a non-volatile memory such as a flash memory, for example, and plays a role of storing a program for controlling the digital camera 700, various parameters, and the like.
  • the work memory 709 is a memory that can be accessed at high speed, such as a RAM, and plays a role of temporarily storing image data being processed.
  • the image data processed by the image processing unit 706 is recorded from the work memory 709 to the recording unit 712.
  • the recording unit 712 is a non-volatile memory that can be attached to and detached from the digital camera 700, which includes a flash memory or the like.
  • the image processing unit 706 generates display image data in parallel with the image data processed for recording.
  • the display image data is image data with a small number of pixels, which has been thinned out by copying image data processed for recording.
  • the display control unit 710 causes the display unit 711 to display a display screen in accordance with an instruction from the camera system control unit 701.
  • the display image data generated by the image processing unit 706 is displayed on the display unit 711 under the control of the display control unit 710.
  • the display control unit 710 generates image data for sequential display and causes the display unit 711 to display a live view image.
  • the digital camera 700 includes an attitude sensor 713 that detects the attitude of the digital camera 700.
  • the posture sensor 713 is an acceleration sensor having sensitivity in, for example, three axial directions orthogonal to each other, and can detect the posture of the digital camera 700.
  • the attitude sensor 713 also functions as a gravitational acceleration sensor that accurately detects the direction of gravity.
  • the camera system control unit 701 detects the direction of gravity according to the output signal of the attitude sensor 713 by changing the sampling frequency or sensitivity when analyzing the output signal of the attitude sensor 713.
  • the mode switching unit 715 receives a mode setting such as a shooting mode by the user and outputs it to the camera system control unit 701.
  • the shooting mode according to the present embodiment includes a Noork shooting mode.
  • the Noork shooting mode is a shooting mode that supports shooting of a subject without visually recognizing an optical viewfinder image or a live view image displayed on the display unit 711. The shooting operation in the Noork shooting mode will be described later.
  • the shutter button 800 has a two-stage switch position in the push-in direction, and accepts an instruction for a photographing operation from the user.
  • the camera system control unit 701 performs focus adjustment and photometry as shooting preparation operations.
  • the camera system control unit 701 executes a shooting operation.
  • the shutter button 800 allows the user to change the aspect corresponding to the rotation direction of the digital camera 700 necessary for the image pickup device 707 to properly capture the subject image when shooting in the above-described Noork shooting mode. It has a perceived configuration.
  • the shutter button 800 includes a tactile sensation generating unit that operates so that a user who touches the shutter button 800 senses a tactile sensation.
  • the shutter button driving unit 714 drives a tactile sensation generating unit provided in the shutter button 800 in response to a command from the camera system control unit 701.
  • FIG. 41 is a view for explaining the shutter button 800 according to this embodiment.
  • FIG. 41A shows an exploded perspective view of the shutter button 800.
  • the shutter button 800 includes a base portion 801 attached to the digital camera 700 main body, a cover 802 attached from above the base portion 801, and a tactile sense generating portion 803.
  • the base portion 801 is a cylindrical hollow member, and a plurality of through holes 804 are formed on the upper surface of the base portion 801. In the present embodiment, a total of eight through holes 804 are arranged on the upper surface of the base portion 801 at substantially equal intervals in the circumferential direction.
  • the tactile sensation generating unit 803 includes a tactile bar 805 inserted through each through hole 804 and a tactile bar driving unit 806 that is housed in the base unit 801 and drives each tactile bar 805 in the vertical direction.
  • the tactile stick drive unit 806 is constituted by, for example, a solenoid, and drives each tactile stick 805 in the vertical direction in response to a command from the shutter button drive unit 714.
  • the cover 802 is made of a flexible material such as a rubber sheet, for example, and is attached from above the base portion 801 so as to contact the tactile stick 805.
  • FIG. 41 (b) is a diagram showing a state in which the haptic sticks 805 are arranged so that the haptic generation unit 803 allows the user to detect the tilt direction.
  • the haptic stick drive unit 806 drives the haptic stick 805a arranged at the right end of the drawing to the highest position.
  • the tactile bars 805b and 805c adjacent to the left side of the tactile bar 805a are driven to a position slightly lower than the tactile bar 805a.
  • the tactile stick drive unit 806 drives the tactile sticks 805d and 805e to a position slightly lower than the tactile sticks 805b and 805c, and drives the tactile sticks 805f and 805g to a position slightly lower than the tactile sticks 805d and 805e, respectively. Yes.
  • the tactile stick drive unit 806 drives the tactile stick 805h disposed at the left end of the drawing to the lowest position.
  • the tactile stick drive unit 806 drives the tactile stick 805 as shown in FIG. 41 (b)
  • the cover 802 covered by the upper ends of the tactile sticks 805 is placed on the virtual plane A in FIG. 41 (b). As shown, it tilts downward and deforms. Thereby, the user can perceive the inclination direction formed by the tactile stick 805.
  • the tactile stick drive unit 806 can create inclinations in various directions by changing the drive amount of each tactile stick 805.
  • FIG. 41 (c) is a diagram illustrating a state in which the tactile stick driving unit 806 drives the tactile stick 805 so that the user can detect a change in the aspect corresponding to the rotation direction.
  • the haptic stick drive unit 806 projects the haptic stick 805d to a position higher than the other haptic sticks 805.
  • the haptic bar drive unit 806 lowers the haptic bar 805d to the position of the other haptic bar 805 and causes the haptic bar 805f to protrude to a position higher than the other haptic bar 805.
  • the tactile stick driving unit 806 projects the tactile stick 805f, the tactile stick 805h, the tactile stick 805g, the tactile stick 805e, the tactile stick 805c, the tactile stick 805a, and the tactile stick 805b in this order.
  • the user can detect the counterclockwise rotation as viewed from above the sheet as shown by an arrow B in FIG.
  • the tactile sensation generating unit 803 can also allow the user to detect rotation in the direction opposite to the arrow B, that is, in the clockwise direction when viewed from above the sheet.
  • the tactile stick drive unit 806 protrudes upward in the order of the tactile stick 805d, the tactile stick 805b, the tactile stick 805a, the tactile stick 805c, the tactile stick 805e, the tactile stick 805g, the tactile stick 805h, and the tactile stick 805f.
  • the tactile stick drive unit 806 may cause the user to detect a change in the aspect corresponding to the rotation direction by vibrating the tactile stick 805 in the above order.
  • the tactile sensation generating unit 803 can cause the user to simultaneously perceive information in two directions by combining the inclination shown in FIG. 41 (b) and the rotation shown in FIG. 41 (c). Specifically, in the arrangement of the tactile stick 805 shown in FIG. 41 (b), the tactile stick 805 protruding above the virtual plane A in FIG. 41 (b) is sequentially changed as shown in FIG. 41 (c). Accordingly, the tactile sensation generating unit 803 can allow the user to simultaneously perceive information in two directions, that is, the tilt direction and the rotation direction.
  • the shutter button 800 detects a downward force applied to the base portion 801 through the cover 802.
  • the base portion 801 is attached to the main body of the digital camera 700 so that it can be moved downward in two stages according to the pressing force of the user.
  • the shutter button 800 accepts a two-step switch operation by the user by detecting the movement of the base portion 801.
  • FIG. 42 is a view for explaining another example of the shutter button 900 according to the present embodiment.
  • FIG. 42A is a perspective view of the shutter button 900.
  • the shutter button 900 includes an annular ring portion 901, a sphere portion 903 disposed inside the center hole 902 of the ring portion 901, and a tactile sense generating portion 904 that drives the ring portion 901 and the sphere portion 903.
  • a plurality of drive rods 905 are pivotally supported on the lower surface of the ring portion 901.
  • the lower end of each drive rod 905 is connected to a ring portion drive unit 906 configured by, for example, a solenoid similar to the above-described tactile rod drive unit 806.
  • the ball portion 903 includes a drive rod 907 extending downward.
  • the lower end of the drive rod 907 is connected to the ball drive unit 908.
  • the sphere drive unit 908 is configured by a motor, for example.
  • a tactile sensation generating unit is configured by the ring unit driving unit 906 and the ball unit driving unit 908.
  • FIG. 42B is a cross-sectional view of the shutter button 900.
  • the inner wall surface of the center hole 902 is formed along the outer peripheral surface of the ball portion 903 disposed in the center hole 902.
  • a gap is provided between the outer peripheral surface of the ball portion 903 and the inner wall surface of the center hole 902, and the ball portion 903 and the ring portion 901 can move relative to each other.
  • the shutter button 900 can allow the user to simultaneously perceive information in two directions, that is, the tilt direction and the rotation direction.
  • the ring unit driving unit 906 drives each driving rod 905 in the vertical direction in response to a command from the shutter button driving unit 714.
  • the ring unit drive unit moves the drive rod 905 arranged on the left side of the paper upward and the drive rod 905 arranged on the right side of the paper downward, as shown by the dotted line in FIG.
  • the ring part 901 is inclined downward to the right in the drawing.
  • the ring unit drive unit can tilt the ring unit 901 in various directions by appropriately moving the drive rod 905, not limited to the tilt direction shown in FIG.
  • the ball drive unit rotates the drive rod 905 around the vertical axis in response to a command from the shutter button drive unit 714.
  • the ball portion 903 rotates around the vertical axis direction as indicated by an arrow C in FIG.
  • the sphere drive unit rotates the sphere 903 around the vertical axis in the clockwise or counterclockwise direction when viewed from above the page.
  • the shutter button 900 the user touches both the ring portion 901 and the ball portion 903. For this reason, the user can perceive information in two directions at the same time depending on the inclination direction of the ring portion 901 and the rotation direction of the ball portion 903.
  • the ring unit drive unit may rotate the ring unit 901 for the purpose of making the user perceive the rotation direction.
  • FIG. 43 is a conceptual diagram for explaining a first example of the photographing operation in the Noork photographing mode according to the present embodiment.
  • FIG. 43A is a diagram illustrating an initial state in which photographing of a subject is started, and the left diagram schematically illustrates the positional relationship between the digital camera 700 and the subject D, and the right diagram is illustrated.
  • photography object space output from the image pick-up element 707 is shown.
  • the optical axis direction from the subject side to the camera back side is defined as the z-axis plus direction
  • the right side in the long side direction of the image sensor 707 when viewed from the camera back side is the x-axis plus direction
  • the upper side in the short side direction is defined as the y-axis plus direction.
  • the mode switching unit 715 receives the mode setting such as the shooting mode by the user and outputs it to the camera system control unit 701.
  • the camera system control unit 701 starts a live view operation and sends a command to the image sensor 707 to capture a subject image.
  • the image processing unit 706 generates image data.
  • the user presets, as the subject region 1000, a region where the subject is desired to be stored with respect to the angle of view of the shooting target space.
  • the setting information of the subject area 1000 is recorded in the camera memory 708.
  • the camera system control unit 701 reads the setting information of the subject area 1000 from the camera memory 708 in the Noorok shooting mode according to the first example, and with respect to the image data of the shooting target space output from the imaging element 707, A subject area 1000 is set.
  • the subject region 1000 is set in the central region of the image 1001 in the shooting target space.
  • the setting of the subject area 1000 is recorded in the camera memory 708.
  • the subject D is located on the x-axis minus direction side with respect to the optical axis 1002 of the digital camera 700. Accordingly, in the image 1001 output from the image sensor 707 in this state, the subject D is positioned on the x axis minus direction side of the subject region 1000 set by the user. Such a composition does not conform to the user's intention.
  • the user moves the imaging element 707, that is, the digital camera 700 in the direction of arrow E, which is a counterclockwise direction when viewed from the y-axis plus direction. Need to be rotated.
  • the camera system control unit 701 recognizes the subject D from the image 1001 output from the image sensor 707 by, for example, a body recognition technique using a face recognition technique. The position of the subject D in 1001 is detected.
  • the camera system control unit 701 according to the first example functions as a detection unit that detects a relative relationship between the imaging target space and the direction of the imaging element 707. Then, the camera system control unit 701 specifies a recommended direction in which the digital camera 700 should be rotated according to the position of the subject D in the shooting target space and the preset subject area 1000. In the example shown in FIG. 43A, the camera system control unit 701 detects the direction of the arrow E as the recommended direction.
  • the camera system control unit 701 drives the tactile stick 805 of the shutter button 800 via the shutter button driving unit 714 so that the user perceives a change in the mode corresponding to the rotation direction that matches the recommended direction.
  • the camera system control unit 701 cooperates with the shutter button drive unit 714 to drive the tactile stick 805 so that the user perceives a change in the mode corresponding to the rotation direction that matches the recommended direction. Functions as a control unit.
  • the camera system control unit 701 sends a command to the shutter button drive unit 714 to drive the tactile sense generation unit 803 of the shutter button 800.
  • the tactile sensation generating unit 803 causes the user to perceive the recommended direction in the direction indicated by the arrow F that is a counterclockwise direction when viewed from the y-axis plus direction.
  • the tactile stick 805 is rotated.
  • the user can perceive the rotation direction of the digital camera 700 necessary for capturing the subject D in the subject area 1000 without viewing the optical viewfinder or the display unit 711.
  • FIG. 43B shows a state in which the subject D is stored in the subject area 1000 in the image 1001 in the shooting target space.
  • the camera system control unit 701 sequentially analyzes the images 1001 output from the image sensor 707 and determines that the subject D is within the subject region 1000 by rotating the digital camera 700 in the direction of arrow E, a tactile sensation is generated.
  • the drive of the unit 803 is stopped. With this operation, the user perceives that the subject D is within the subject region 1000. According to the first example, the user can shoot the subject D within the subject area 1000 without visually recognizing the optical viewfinder or the display unit 711.
  • FIG. 44 is a flowchart of the shooting operation in the Noork shooting mode according to the first example.
  • the camera system control unit 701 starts the operation flow shown in FIG.
  • the camera system control unit 701 captures an image of the shooting target space.
  • the camera system control unit 701 sets the subject region 1000 for the image 1001 in the shooting target space. Specifically, as described with reference to FIG. 4, the camera system control unit 701 reads setting information of the subject area 1000 set in advance by the user from the camera memory 708 and outputs an image 1001 output from the image sensor 707. A subject area 1000 is set for the.
  • the image 1001 captured in step S301 may be displayed on the display unit 711 as a live view image, or the live view image may not be displayed. This is because, as described above, in the Noork shooting mode, the user can shoot a subject with the desired composition without visually recognizing the live view image. Power consumption can be reduced by not displaying the live view image on the display unit 711 in the Noorok shooting mode.
  • the camera system control unit 701 recognizes the subject D.
  • the camera system control unit 701 may analyze the image 1001 and execute face recognition processing of the subject D to detect the position of the subject D in the image 1001.
  • the camera system control unit 701 may estimate the body area of the subject D including the body and limbs of the subject D from the face position of the subject D acquired by the face recognition process.
  • step S304 the camera system control unit 701 determines whether or not the subject D is stored in the subject area 1000. Specifically, the camera system control unit 701 compares the position of the subject D in the image 1001 detected in S103 with the subject area 1000, and determines whether or not the subject D is within the subject area 1000. To do. If the camera system control unit 701 determines that the subject D is within the subject region 1000, the process proceeds to step S305. On the other hand, when the camera system control unit 701 determines that the subject D is not within the subject region 1000, the process proceeds to step S309.
  • step S309 the camera system control unit 701 specifies a recommended direction in which the digital camera 700 should be rotated as described with reference to FIG.
  • step S ⁇ b> 310 the camera system control unit 701 drives the tactile sense generation unit 803 of the shutter button 800. Specifically, the camera system control unit 701 sends a command to the shutter button drive unit 714 to rotationally drive the tactile stick 805 so that the user perceives the recommended direction. Then, the camera system control unit 701 returns the operation flow to step S301.
  • step S304 the camera system control unit 701 returns the shutter button 800 to the normal state and stops in step S305.
  • the camera system control unit 701 sends a command to the shutter button drive unit 714, and the haptic sticks 805 of the haptic generation unit 803 are arranged in the normal state arrangement shown in FIG. Returning, the drive of the tactile stick 805 is stopped.
  • step S306 the camera system control unit 701 determines whether there is a shooting instruction from the user. If the camera system control unit 701 determines that there is a shooting instruction from the user, the process proceeds to step S307. On the other hand, when the camera system control unit 701 determines that there is no shooting instruction from the user, the process returns to step S301.
  • step S307 the camera system control unit 701 executes a shooting operation. Specifically, when the user presses the shutter button 800 to the first stage position, the camera system control unit 701 performs focus adjustment and photometry as shooting preparation operations. Then, when the user presses the shutter button 800 to the second stage position, the camera system control unit 701 executes photographing of the subject D and generates an image file as image data. In the first example, it is assumed that the user gives a shooting instruction after the shutter button 800 is stopped in S105. However, not limited to this, when the camera system control unit 701 receives a shooting instruction from the user, the camera system control unit 701 preferentially executes the shooting operation even when the shutter button 800 is being driven in S110, for example. .
  • step S308 the camera system control unit 701 determines whether the power of the digital camera 700 is turned off. If the camera system control unit 701 determines that the power of the digital camera 700 is turned off, the camera flow is terminated. On the other hand, when the camera system control unit 701 determines that the power of the digital camera 700 remains on, the process returns to step S301.
  • FIG. 45 is a conceptual diagram for explaining a second example of the photographing operation in the Noork photographing mode according to the present embodiment.
  • FIG. 45A is a diagram illustrating an initial state in which photographing in the photographing target space is started
  • the left diagram is a diagram schematically illustrating the positional relationship between the digital camera 700 and the photographing target space, and the right side. This figure shows an image 1100 of the imaging target space output from the image sensor 707.
  • the camera system controller 701 As the gravitational direction G 1 in the output subject image from the image pickup device 707 coincides with the short side direction of the image 1100, the digital camera 700 Let the user perceive the recommended direction to rotate. Specifically, the camera system control unit 701 refers to the output signal from the attitude sensor 713 detects the actual direction of gravity indicated by the arrow G 0 of Figure 45.
  • the digital camera 700 is held inclined, the actual short-side direction of the gravitational force direction G 0 and the image 1100, that is, the y-axis direction does not match. For this reason, in the image 1100 output from the image sensor 707, the building 1101 as the subject appears obliquely. In this case, in order to photograph the composition in which the building 1101 is vertically built in the image 1100, the user moves the image sensor 707, that is, the digital camera 700 around the z axis as indicated by the arrow O. It is necessary to rotate counterclockwise when viewed from the plus direction.
  • the camera system control unit 701 detects the actual gravity direction G 0 using the attitude sensor 713, and the gravity direction G 0 and the negative y-axis direction of the digital camera 700 are detected.
  • the recommended direction in which the digital camera 700 is to be rotated is specified so that.
  • the camera system control unit 701 specifies the direction of the arrow O as the recommended direction.
  • the camera system control unit 701 drives the tactile stick 805 of the shutter button 800 so that the user perceives a change in the mode corresponding to the rotation direction that matches the recommended direction.
  • the camera system control unit 701 sends a command to the shutter button drive unit 714 to drive the tactile sense generation unit 803 of the shutter button 800.
  • the tactile sensation generating unit 803 forms a tactile sensation so as to form the inclined virtual plane A described with reference to FIG. 41B in order to visually recognize that the digital camera 700 should be rotated in the direction of the arrow O.
  • the rod 805 is driven.
  • the tactile sensation generating unit 803 is a virtual plane inclined so as to be lowered toward the x-axis minus direction, for example, as shown in FIG. A is formed. Accordingly, the user can perceive the direction in which the digital camera 700 should be rotated by the tilt direction formed by the tactile sense generating unit 803 without visually recognizing the optical viewfinder or the display unit 711.
  • Figure 45 (b) shows a state in which coincides with the direction of gravity G 0 and y-axis negative direction.
  • the camera system control unit 701 determines that the direction of gravity G 0 and y-axis negative direction is matched, return the tactile rod 805 to its normal position, stops driving the haptic generator 803. With this operation, the user perceives that the gravity direction G 0 and y-axis negative direction are matched.
  • the user without viewing the optical finder or the display unit 711, and the gravity direction G 1 in the image 1100, to match the short-side direction of the image 1100 can be taken.
  • FIG. 46 is a flowchart of the shooting operation in the Noork shooting mode according to the second example.
  • the camera system control unit 701 starts the operation flow shown in FIG.
  • step S401 the camera system control unit 701 detects the direction of gravity.
  • step S402 as described with reference to FIG. 45, the camera system control unit 701 determines whether the gravity direction matches the y-axis minus direction. If the camera system control unit 701 determines that the gravity direction and the y-axis minus direction match, the process proceeds to step S403. On the other hand, if the camera system control unit 701 determines that the gravity direction does not match the y-axis minus direction, the process proceeds to step S407.
  • step S407 the camera system control unit 701 specifies a recommended direction to rotate the digital camera 700 as described with reference to FIG.
  • step S ⁇ b> 408 the camera system control unit 701 drives the tactile sense generation unit 803 of the shutter button 800. Specifically, as described with reference to FIG. 45, the camera system control unit 701 sends a command to the shutter button drive unit 714 to incline the user so as to perceive a change in the mode corresponding to the rotation direction P.
  • the tactile bars 805 are arranged so as to form the virtual plane A. Then, the camera system control unit 701 returns the operation flow to step S401.
  • step S402 the camera system control unit 701 returns the shutter button 800 to the normal state and stops in step S403.
  • the camera system control unit 701 sends a command to the shutter button drive unit 714, and the haptic sticks 805 of the haptic generation unit 803 are arranged in the normal state arrangement shown in FIG. Returning, the drive of the tactile stick 805 is stopped.
  • step S404 the camera system control unit 701 determines whether there is a shooting instruction from the user. If the camera system control unit 701 determines that there is a shooting instruction from the user, the process proceeds to step S405. On the other hand, when the camera system control unit 701 determines that there is no shooting instruction from the user, the process returns to step S401.
  • step S405 the camera system control unit 701 executes a shooting operation. Specifically, when the user presses the shutter button 800 to the first stage position, the camera system control unit 701 performs focus adjustment and photometry as shooting preparation operations. Then, when the user presses the shutter button 800 to the second stage position, the camera system control unit 701 executes photographing of the subject and generates an image file as image data. Similar to the first example described above, the camera system control unit 701 preferentially executes the shooting operation when receiving a shooting instruction from the user.
  • step S406 the camera system control unit 701 determines whether the power of the digital camera 700 is turned off. If the camera system control unit 701 determines that the power of the digital camera 700 is turned off, the camera flow is terminated. On the other hand, when the camera system control unit 701 determines that the power of the digital camera 700 remains on, the process returns to step S401.
  • FIG. 47 is a conceptual diagram for explaining a third example of the moving image shooting operation in the Noork shooting mode according to the present embodiment.
  • FIG. 47A is a diagram showing an initial state in which photographing of the photographing target space is started, and the left diagram is a diagram schematically showing the positional relationship between the digital camera 700 and the subject, and the right diagram. Indicates an image of the shooting target space output from the image sensor 707.
  • the Noorok shooting mode according to the third example is a shooting mode in which the user can shoot a subject with his / her desired camera work without visually recognizing the optical viewfinder image or the display unit 711.
  • the user selects a program related to camera work in advance.
  • a program relating to camera work is recorded in the camera memory 708 in advance.
  • the program related to camera work is a program that gives an instruction to the user such as the direction in which the camera is directed in order to shoot a video with a higher rendering effect when shooting a moving image, for example.
  • the program related to camera work is a program that gives an instruction to the user such as the direction in which the camera is directed in order to shoot a video with a higher rendering effect when shooting a moving image, for example.
  • FIG. 47 when the user wants to perform camerawork in which the subject 1200 as the main character is first photographed, then the subject 1201 and the subject 1202 are photographed in order, and then the subject 1200 as the main character is photographed again. Is assumed.
  • the program related to camera work includes condition 1 to condition 3.
  • condition 1 is “recognize subject 1200”
  • condition 2 is “recognition of subject 1202”
  • condition 3 is “recognition of subject 1200”.
  • the camera system control unit 701 drives the tactile stick 805 of the shutter button 800 depending on whether or not each condition is satisfied.
  • the camera system control unit 701 first drives the tactile stick 805 until condition 1 is satisfied.
  • the camera system control unit 701 may execute the photographing flow described with reference to FIG. Specifically, the user previously sets an area where the subject 1200 is desired to be stored in the image 1203 of the shooting target space as the subject area 1204.
  • the subject area 1204 is set in the central area of the image 1203, as in FIG.
  • the camera system control unit 701 specifies a recommended direction in which the digital camera 700 should be rotated according to the position of the subject 1200 in the shooting target space and a preset subject area 1204. Then, the camera system control unit 701 drives the tactile stick 805 of the shutter button 800 so that the user perceives a change in the mode corresponding to the rotation direction that matches the recommended direction.
  • the image 1203 is in the state shown in FIG.
  • the camera system control unit 701 recognizes that the subject 1200 is within the subject area 1204, the camera system control unit 701 determines that the condition 1 is satisfied. Then, the camera system control unit 701 drives the tactile sensation generating unit 803 of the shutter button 800 to make the user perceive the camera work to be performed next by the user to satisfy the condition 2 by tactile sense.
  • the tactile sensation generating unit 803 drives the tactile stick 805 to rotate so that the user perceives that the digital camera 700 is rotated counterclockwise when viewed from the y-axis plus direction.
  • FIG. 47B is a diagram illustrating a state in which the user is rotating the digital camera 700 counterclockwise around the y axis in accordance with the operation of the tactile sensation generation unit 803. Then, the camera system control unit 701 continues to rotate the tactile stick 805 as indicated by an arrow H in FIG.
  • FIG. 47C is a diagram showing a state where the subject 1202 is stored in the subject region 1204.
  • the camera system control unit 701 recognizes that the subject 1202 is within the subject area 1204 as shown in FIG. 47C, it determines that the condition 2 is satisfied.
  • the operation flow performed by the camera system control unit 701 for recognizing that the subject 1202 is within the subject area 1204 may be the same as described above.
  • the camera system control unit 701 drives the tactile sensation generating unit 803 of the shutter button 800 to cause the user to perceive the camera work to be performed next by the user until the condition 3 is satisfied. .
  • the tactile sensation generating unit 803 is indicated by an arrow I in FIG. 47C so that the user perceives that the digital camera 700 is rotated clockwise as viewed from the y-axis plus direction.
  • the tactile stick 805 is driven to rotate.
  • the user can perceive the camera work to be performed next by the operation of the tactile sensation generating unit 803.
  • FIG. 47D is a diagram showing a state in which the subject 1200 is again stored in the subject area 1204.
  • the camera system control unit 701 recognizes that the subject 1202 is within the subject area 1204 as shown in FIG. 47 (d)
  • the camera system control unit 701 determines that the condition 3 is satisfied.
  • the camera system control unit 701 rotationally drives the tactile sensation generation unit 803 so as to sequentially satisfy the conditions that change with the progress of shooting according to the program related to camera work.
  • the user can shoot the subject by the camera work desired by the user, the user can easily shoot a video with higher satisfaction.
  • a driving mode different from that during still image shooting may be employed. For example, the drive amount is reduced in order to reduce noise associated with the drive.
  • FIG. 48 is a flowchart of the shooting operation in the Noork shooting mode according to the third example.
  • the camera system control unit 701 starts the operation flow shown in FIG.
  • step S501 the camera system control unit 701 reads the condition number n of the program and substitutes 1 for the variable i.
  • the camera system control unit 701 also reads the contents of each condition.
  • the camera system control unit 701 reads program conditions 1 to 3 relating to camera work from the camera memory 708.
  • step S502 the camera system control unit 701 determines whether the condition i is satisfied. In the case of the example described with reference to FIG. 47, after the operation flow starts, the camera system control unit 701 first determines whether or not the condition 1 “recognizes the subject 1200” is satisfied. If the camera system control unit 701 determines that the condition i is not satisfied, the process proceeds to step S503. On the other hand, when determining that the condition i is satisfied, the camera system control unit 701 proceeds to step S505.
  • step S502 the camera system control unit 701 determines NO in step S502
  • the camera system control unit 701 specifies a recommended direction in which the digital camera 700 should be rotated in step S503.
  • step S504 the camera system control unit 701 drives the tactile sense generation unit 803 of the shutter button 800.
  • the camera system control unit 701 drives the tactile stick 805 so as to fit the subject 1200 in the subject area 1204 in order to satisfy the condition 1.
  • step S506 the camera system control unit 701 determines whether the variable i incremented in step S505 exceeds the condition number n. Specifically, the camera system control unit 701 determines whether or not all the conditions read in step S501 are satisfied. If it is determined that the variable i exceeds the condition number n, the camera system control unit 701 proceeds to step S507. On the other hand, when determining that the variable i does not exceed the condition number n, the camera system control unit 701 returns to step S502 and executes the operations of steps S502 to S504 in order to satisfy the next condition defined in the program. To do. Specifically, the camera system control unit 701 executes each operation in the order of condition 2 and condition 3 after condition 1.
  • step S507 the camera system control unit 701 determines whether the power of the digital camera 700 is turned off. If the camera system control unit 701 determines that the power of the digital camera 700 is turned off, the camera flow is terminated. On the other hand, if the camera system control unit 701 determines that the power of the digital camera 700 remains on, the process returns to step S501.
  • FIG. 49 is a conceptual diagram for explaining a fourth example of the moving image shooting operation in the Noork shooting mode according to the present embodiment.
  • the diagram on the left side of FIG. 49A schematically shows the positional relationship between the digital camera 700 and the subject 1300, and the diagram on the right side shows the case where the digital camera 700 is arranged at a position J in front of the subject 1300. Shows an image of the imaging target space output from the image sensor 707.
  • the user not only takes a picture from the front of the subject 1300 as shown at a position J in FIG. 49A, but also from above the subject as shown at a position K in FIG.
  • a position L in a There is a case where it is desired to shoot at an oblique angle from the lower side of the subject as indicated by a position L in a).
  • self-photographing of photographing themselves from above.
  • the user may not be able to visually recognize the display unit 711 that displays the optical viewfinder or the live view image. Therefore, the actually captured image may differ from the composition desired by the user.
  • the Noork shooting mode according to the fourth example is a shooting in which a user can shoot a subject with his / her desired composition without visually recognizing the optical viewfinder or the display unit 711 with reference to a pre-recorded sample image. Mode.
  • the user designates in advance a sample image having a composition to be photographed.
  • the sample image is recorded in advance in the recording unit 712. Examples of the sample image include a sample image that is referred to when photographing from the lower side of the subject and a sample image that is referred to when photographing the subject from the upper side of the subject.
  • FIG. 49B is a diagram showing a sample image 1301 to be referred to when shooting from the lower side of the subject.
  • the user wants to shoot at an oblique angle from the lower side of the subject 1300, the user holds the digital camera 700 on the lower side of the subject 1300, as indicated by a position L in FIG. Then, as shown by an arrow N in FIG. 49A, the user rotates the digital camera 700 around the x axis and adjusts the position of the subject 1300 in the image of the shooting target space.
  • the digital camera 700 uses, as a reference, image data that approximates a composition when the subject 1300 is photographed from below, such as a sample image 1301 shown in FIG.
  • the camera memory 708 records a plurality of patterns of sample images such as the sample image 1301.
  • the user selects a sample image close to the composition desired by the user from these sample images.
  • the sample image as shown in FIG. 49 (b)
  • geometric image data composed of contour lines may be used.
  • FIG. 49 (c) is a diagram showing a sample image 1302 to be referred to when shooting from above the subject.
  • the user wants to shoot at an oblique angle from above the subject 1300, the user holds the digital camera 700 above the subject 1300, as indicated by a position K in FIG. Then, the user rotates the digital camera 700 around the x axis as shown by an arrow M in FIG. 49A to adjust the position of the subject 1300 in the image of the shooting target space.
  • the digital camera 700 uses, as a reference, image data that approximates a composition when the subject 1300 is photographed from above, such as a sample image 1302 shown in FIG.
  • the camera memory 708 records a plurality of patterns of sample images such as the sample image 1301. The user selects a sample image close to the composition desired by the user from these sample images.
  • the camera system control unit 701 When shooting in the Noork shooting mode according to the fourth example, the camera system control unit 701 first reads a sample image selected by the user. Then, the camera system control unit 701 recognizes the subject 1300 from the image of the shooting target space output from the image sensor 707. In this case, the lens system control unit 702 may send an instruction to the zoom lens driving unit 705 to execute auto zoom and adjust the size of the subject 1300 in the image of the shooting target space.
  • the camera system control unit 701 After recognizing the subject 1300, the camera system control unit 701 compares the subject image with the sample image. The camera system control unit 701 detects the feature points of the subject image and the sample image, and analyzes the correlation between these feature points, thereby comparing the subject image and the sample image.
  • the camera system control unit 701 specifies a recommended direction in which the digital camera 700 should be rotated from the comparison result between the subject image and the sample image. Then, the camera system control unit 701 drives the tactile stick 805 of the shutter button 800 so that the user perceives a change in the mode corresponding to the rotation direction that matches the recommended direction.
  • the tactile sensation generation unit 803 uses FIG. 41B to visually indicate that the digital camera 700 should be rotated about the x axis, as indicated by arrows M and N in FIG.
  • the haptic sticks 805 are arranged so as to form the inclined virtual plane A described.
  • the tactile sensation generating unit 803 is inclined so as to be lowered toward the z-axis minus direction side in order to visually recognize that the digital camera 700 should be rotated counterclockwise when viewed from the x-axis minus direction.
  • the virtual plane A thus formed is formed. Accordingly, the user can perceive the direction in which the digital camera 700 should be rotated by the tilt direction formed by the tactile sense generating unit 803 without visually recognizing the optical viewfinder or the display unit 711.
  • FIG. 50 is a flowchart of the shooting operation in the Noork shooting mode according to the fourth example.
  • the camera system control unit 701 starts the operation flow shown in FIG.
  • step S ⁇ b> 601 the camera system control unit 701 reads a sample image selected by the user from the recording unit 712.
  • step S602 the camera system control unit 701 captures an image of the shooting target space.
  • step S603 the camera system control unit 701 recognizes the subject from the image of the shooting target space.
  • step S604 the camera system control unit 701 determines whether the feature points of the subject image and the sample image match. If the camera system control unit 701 determines that the feature points of the subject image and the sample image match, the process proceeds to step S605. On the other hand, if the camera system control unit 701 determines that the feature points of the subject image and the sample image do not match, the process proceeds to step S609.
  • step S609 the camera system control unit 701 specifies a recommended direction in which the digital camera 700 should be rotated.
  • the camera system control unit 701 drives the tactile sense generation unit 803 of the shutter button 800.
  • the camera system control unit 701 is a virtual plane that is tilted so that the tactile stick 805 is lowered toward the z-axis minus or plus direction in order to make the user perceive rotation about the x-axis. Arrange to form A. Then, the camera system control unit 701 returns the operation flow to step S602.
  • step S604 the camera system control unit 701 returns the shutter button 800 to a normal state and stops in step S605.
  • step S606 the camera system control unit 701 determines whether there is a shooting instruction from the user. If the camera system control unit 701 determines that there is a shooting instruction from the user, the process proceeds to step S607. On the other hand, if the camera system control unit 701 determines that there is no shooting instruction from the user, the process returns to step S602.
  • step S607 the camera system control unit 701 executes a photographing operation. Also in the fourth example, when the camera system control unit 701 receives a shooting instruction from the user, the camera system control unit 701 preferentially executes the shooting operation. In step S608, the camera system control unit 701 determines whether the power of the digital camera 700 is turned off. If the camera system control unit 701 determines that the power of the digital camera 700 is turned off, the camera flow is terminated. On the other hand, if the camera system control unit 701 determines that the power of the digital camera 700 remains on, the process returns to step S602.
  • the tactile sensation generating unit 803 is incorporated in the shutter button 800 has been described.
  • the present invention is not limited to this, and the tactile sensation generating unit may be provided in the main body of the digital camera.
  • the digital camera according to the present embodiment will be described with reference to FIG.
  • FIG. 51 is a diagram for explaining a digital camera 1400 according to another example of the present embodiment.
  • a tactile sensation generating unit 1402 is provided in a grip unit 1401 that is a part to be gripped when the user holds the digital camera 1400.
  • the tactile sensation generation unit 1402 includes a plurality of vibration units 1403 made of, for example, piezoelectric elements.
  • the vibration part 1403 is disposed on the front surface 1401 a and the back surface 1401 b of the grip part 1401. Then, the tactile sensation generating unit 1402 generates a haptic sensation that allows the user to perceive a change in form.
  • the vibration unit 1403 is vibrated sequentially around the y axis so that the user perceives rotation around the y axis.
  • the tactile sensation generation unit 1402 can make the user perceive rotation about the y-axis.
  • a mode has been described in which the digital camera gives the user a tactile sensation so that the user can perceive the change in the mode corresponding to the rotation direction that matches the recommended direction.
  • the present invention is not limited to this, and the user may perceive a change in the mode corresponding to the rotation direction that matches the recommended direction by giving the user a force sense.
  • FIG. 1 Another example of the digital camera according to the present embodiment will be described with reference to FIG.
  • FIG. 52 is a diagram for explaining a digital camera 1500 according to still another example of the present embodiment.
  • a digital camera 1500 according to still another example of the present embodiment includes a force sense generator 1501 that allows a user to sense a force sense.
  • the force generation unit 1501 includes a rotating body 1502 that rotates around the x axis, the y axis, or the z axis inside the digital camera 1500.
  • the rotator 1502 for example, a vibration rotator incorporated in a mobile phone may be applied.
  • the camera system control unit 701 causes the user to sense a force sense by rotating or stopping the rotation of the rotating body 1502.
  • the force generation unit 1501 may include an eccentric body that rotates eccentrically around the x axis, the y axis, or the z axis inside the digital camera 1500. This is because the user can sense a force sense by rotating the eccentric body.
  • the present invention is not limited to this, and if the user can perceive a change in the aspect corresponding to the rotation direction around at least one axis, it is possible to effectively support shooting of the subject in the Noork shooting mode.
  • the configuration of the shutter button 950 shown in FIG. 53 can be applied if the user perceives a change in the mode corresponding to the rotation direction around one axis.
  • FIG. 53 is a view for explaining still another example of the shutter button according to the fourth embodiment, and is a perspective view of the shutter button 950.
  • a shutter button 950 according to another example includes two rotating members. Specifically, the shutter button 950 includes a disc-shaped central rotating portion 951 and an annular outer rotating portion 952 disposed on the outer peripheral side of the central rotating portion 951.
  • the central rotating portion 951 includes a gear shaft portion 953 that extends downward.
  • Central rotating portion 951 in the direction of the arrow C 1 in FIG. 53, through a gear train that meshes with the gear shaft 953, it is rotated by a motor.
  • the outer rotating portion 952 includes a cylindrical gear shaft portion 954 extending downward.
  • the gear shaft portion 953 of the central rotating portion 951 is inserted into the gear shaft portion 954 provided in the outer rotating portion 952 and can rotate relative to the gear shaft portion 954.
  • the central rotating portion 951 and the outer rotating portion 952 are rotationally driven independently from each other using two motors.
  • the shutter button 950 can allow the user to perceive rotation about one axis.
  • the central rotating unit 951 and the outer rotating unit 952 may be rotationally driven at different rotational speeds using one motor and a speed reducer. Moreover, the structure which only any one of the center rotation part 951 and the outer side rotation part 952 rotates may be sufficient. 53, when another mechanism is combined with the shutter button 950 shown in FIG. 53, the user can simultaneously perceive the change of the mode corresponding to the rotation directions around two or more axes as shown in FIG. .
  • the digital camera only needs to include a tactile force sense generating unit that allows the user to sense a tactile force sense that is one of tactile sense and force sense.
  • the tactile force sense generating unit may be configured by combining the tactile sense generating unit and the force sense generating unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • General Engineering & Computer Science (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)

Abstract

 ストロボの充電等の撮影準備が完了すると、完了した旨をユーザに通知する撮像装置が知られている。しかしながら、ユーザは、特定の被写体が所望の領域に収まっているか否かを見つつ撮像しなければならない。 そこで、撮像装置は、例えば、人などの被写体像を撮像して撮像画像を生成する撮像部と、前記撮像部により生成された前記撮像画像の特定の被写体を認識する被写体認識部と、前記被写体認識部の認識に基づいて、前記特定の被写体が前記撮像画像における予め定められた領域にあるか否かをユーザに対して触覚的に通知する触覚通知部とを備える。

Description

撮像装置
 本発明は、撮像装置に関する。
 ストロボの充電等の撮影準備が完了すると、完了した旨をユーザに通知する撮像装置が知られている(例えば、特許文献1参照)。
 特許文献1 特開2003-262899号公報
 しかしながら、ユーザは、特定の被写体が所望の領域に収まっているか否かを見つつ撮像しなければならないといった課題がある。
 本発明の第1の態様においては、被写体像を撮像して撮像画像を生成する撮像部と、前記撮像部により生成された前記撮像画像の特定の被写体を認識する被写体認識部と、前記被写体認識部の認識に基づいて、前記特定の被写体が前記撮像画像における予め定められた領域にあるか否かをユーザに対して触覚的に通知する触覚通知部とを備える撮像装置を提供する。
 本発明の第2の態様における撮像装置は、振動子と、被写体像の少なくとも一部に基づいて被写体の状況を判断する判断部と、判断部の判断に応じて振動子が生じさせる振動波形を変化させることにより、ユーザに撮影タイミングを報知する振動制御部とを備える。
 本発明の第3の態様における制御プログラムは、振動子を備えた撮像装置に用いられる制御プログラムであって、被写体像の少なくとも一部に基づいて被写体の状況を判断する判断ステップと、判断ステップの判断に応じて撮像装置の振動子が生じさせる振動波形を変化させることにより、ユーザに撮影タイミングを報知する制御ステップとをコンピュータに実行させる。
 本発明の第4の態様におけるレンズユニットは、レンズ群と、少なくともレンズ群の光軸方向に離間して配設される複数の振動子とを備える。
 本発明の第5の態様におけるカメラユニットは、被写体からの光束を受光して電気信号に変換する撮像素子と、少なくとも被写体からの光束の入射方向に離間して配設される複数の振動子と、被写体像の少なくとも一部に基づいて被写体の奥行き状況を判断する判断部と、判断部の判断に応じて複数の振動子を連動させて振動させる振動制御部とを備える。
 本発明の第6の態様におけるカメラシステムは、少なくともレンズユニットとカメラユニットを含むカメラシステムであって、レンズユニットは、第1振動子を備え、カメラユニットは、第2振動子を備え、レンズユニットおよびカメラユニットの少なくともいずれかは、被写体像の少なくとも一部に基づいて被写体の奥行き状況を判断する判断部と、判断部の判断に応じて第1振動子および第2振動子を連動させて振動させる振動制御部を備える。
 本発明の第7の態様における撮像装置は、撮影対象空間からの入射光を電気信号に変換する撮像部と、撮影対象空間と撮像部の方向に関する相対的な関係を検知する検知部と、ユーザに態様の変化を知覚させる触力覚を発生させる発生部と、検知部が検知した関係と予め定められた基準とに基づいて、撮像部を回転すべき推奨方向を定め、推奨方向に一致する回転方向に対応する前記態様の変化を知覚させるように発生部を駆動する駆動制御部とを備える。
 本発明の第8の態様における撮像装置の制御プログラムは、撮影対象空間と撮像部の方向に関する相対的な関係を検知する検知ステップと、関係と予め定められた基準とに基づいて、撮像部を回転すべき推奨方向を定める方向決定ステップと、推奨方向に一致する回転方向を知覚させるように、ユーザに態様の変化を知覚させる触力覚を発生させる発生部を駆動する駆動制御ステップとをコンピュータに実行させる。
 なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
撮像装置の前面図である。 撮像装置の後面図である。 撮像装置10の制御系を説明するブロック図である。 撮像装置10の主制御処理を説明するフローチャートである。 ノールック処理(S14)を説明するフローチャートである。 ノールック処理(S14)の初期処理(S20)を説明するフローチャートである。 ノールック処理(S14)の被写体認識処理(S22)を説明するフローチャートである。 ノールック処理(S14)の触覚通知処理(S24)を説明するフローチャートである。 ノールック処理(S14)の記憶処理(S26)を説明するフローチャートである。 振動部の配置を変更した撮像装置の前面図である。 振動部の配置を変更した撮像装置の後面図である。 別の振動部の全体構成図である。 カメラシステム100の上部概観図である。 カメラシステム100の要部断面図である。 カメラシステム100のシステム構成図である。 振動子331に与える振動波形を説明するための説明図である。 カメラシステム100の撮影動作フロー図である。 振動子331に与える振動波形を説明するための説明図である。 振動子331に与える振動波形を説明するための説明図である。 カメラシステム101の上部概観図である。 振動子332、333に与える振動波形を説明するための説明図である。 振動子332、333に与える振動波形を説明するための説明図である。 振動子332、333に与える振動波形を説明するための説明図である。 振動子331に与える振動波形を説明するための説明図である。 振動子331に与える振動波形を説明するための説明図である。 カメラシステム102の上部概観図である。 カメラシステム400の外観斜視図である。 カメラシステム400の要部断面図である。 カメラシステム400のシステム構成図である。 振動子531、532に与える振動波形を説明するための説明図である。 カメラシステム400の撮影動作フロー図である。 振動子531、532に与える振動波形を説明するための説明図である。 振動子531、532に与える振動波形を説明するための説明図である。 振動子531、532に与える振動波形を説明するための説明図である。 振動子531、532に与える振動波形を説明するための説明図である。 振動子531、532に与える振動波形を説明するための説明図である。 カメラシステム401の上部概観図である。 カメラシステム402の上部概観図である。 カメラシステム403の側部概観図である。 デジタルカメラのシステム構成図である。 第4実施形態に係るシャッタボタンを説明するための図である。 第4実施形態に係るシャッタボタンの他の例を説明するための図である。 第4実施形態に係るノールック撮影モードにおける撮影動作の第1の例を説明するための概念図である。 第1の例に係るノールック撮影モードの撮影動作のフローチャートである。 第4実施形態に係るノールック撮影モードにおける撮影動作の第2の例を説明するための概念図である。 第2の例に係るノールック撮影モードの撮影動作のフローチャートである。 第4実施形態に係るノールック撮影モードにおける動画の撮影動作の第3の例を説明するための概念図である。 第3の例に係るノールック撮影モードの撮影動作のフローチャートである。 第4実施形態に係るノールック撮影モードにおける動画の撮影動作の第4の例を説明するための概念図である。 第4の例に係るノールック撮影モードの撮影動作のフローチャートである。 第4実施形態の他の例に係るデジタルカメラを説明するための図である。 第4実施形態のさらに他の例に係るデジタルカメラを説明するための図である。 第4実施形態に係るシャッタボタンのさらに他の例を説明するための図である。 第4実施形態に係るシャッタボタンのさらに他の例を説明するための図である。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
<第1実施形態>
 図1は、撮像装置の前面図である。図2は、撮像装置の後面図である。図1に矢印で示すように、撮像装置を操作するユーザから見て上下左右を、撮像装置の上下左右とする。また、ユーザから見て前方であって、被写体が存在する方向を撮像装置の前方向とする。
 図1及び図2に示すように、撮像装置10は、筐体12と、レンズ部14と、撮像部16と、レリーズスイッチ18と、表示部20と、モード設定部22と、タッチパネル24と、振動部26とを備える。
 筐体12は、中空の略直方体形状に形成されている。筐体12は、撮像装置10の各構成を収容または保持する。
 レンズ部14は、筐体12の前面に取りつけられている。レンズ部14は、複数のレンズを有する。レンズ部14は、前後方向に伸縮する。これにより、レンズ部14は、被写体を拡大縮小するズーム機能を有するとともに、被写体に焦点を合わせる合焦機能を有する。
 撮像部16は、レンズ部14の光軸上であって、レンズ部14の後方に配置されている。撮像部16は、筐体12の内部に収容されている。撮像部16は、被写体像を撮像して、電気信号の撮像画像を生成して出力する。
 レリーズスイッチ18は、筐体12の上面に、下方へ押圧可能に支持されている。ユーザがレリーズスイッチ18を押圧することにより、撮像部16によって受光されている被写体像が記憶される。
 表示部20は、筐体12の後面に配置されている。表示部20は、液晶画像表示装置、有機EL表示装置等を有する。表示部20は、撮像部16によって生成されている撮像画像(いわゆる、スルー画像)、及び、既に記憶されている撮像画像等を表示する。
 モード設定部22は、前後方向に延びる回転軸の周りに回動可能に、筐体12に支持されている。ユーザは、モード設定部22によって、通常モード、ノールックモード等を設定する。ノールックモードとは、ユーザが表示部20を見ずに特定の被写体である特定被写体を撮影する場合に選択されるモードである。通常モードとは、ノールックモード以外の複数のモードを含み、ユーザが表示部20等によって特定被写体を見つつ、撮影するモードである。
 タッチパネル24は、表示部20の表面に設けられている。ユーザは、タッチパネル24を介して、種々の情報を入力する。例えば、ユーザは、ノールックモードにおいて、特定被写体を捉える被写体領域の位置及び大きさを設定する。
 振動部26は、右上振動部30と、右下振動部32と、左上振動部34と、左下振動部36とを有する。右上振動部30、右下振動部32、左上振動部34、及び、左下振動部36は、それぞれ筐体12の異なる場所である四隅に配置されている。ここでいう四隅とは、前方から見て、筐体12を上下左右の四分割した各領域のいずれかのことである。右上振動部30、右下振動部32、左上振動部34、及び、左下振動部36は、圧電素子を含む。これにより、右上振動部30、右下振動部32、左上振動部34、及び、左下振動部36は、電圧が印加されると、振動する。
 図3は、撮像装置10の制御系を説明するブロック図である。図3に示すように、撮像装置10は、制御部40と、システムメモリ42と、メインメモリ44と、二次記憶媒体46と、レンズ駆動部48と、音声出力部50とを更に備える。
 制御部40は、CPUを含み撮像装置10の制御全般を司る。制御部40は、モード判定部52と、表示制御部54と、音声制御部56と、被写体認識部58と、触覚通知部60と、記憶処理部62とを有する。
 モード判定部52は、モード設定部22から入力されるモード情報に基づいて、複数の撮影モードのうち、選択されたモードを判定する。例えば、モード判定部52は、通常モードが設定されているか、ノールックモードが設定されているかを判定する。モード判定部52は、ノールックモードが設定されていると判定すると、その旨を、表示制御部54、音声制御部56及び被写体認識部58に出力する。
 表示制御部54は、撮像部16によって生成されている撮像画像、二次記憶媒体46に格納されている画像情報に基づいて、表示部20に画像を表示する。また、表示制御部54は、モード判定部52がノールックモードと判定すると、表示部20における画像表示を停止して、撮像画像を表示させない。
 音声制御部56は、レリーズスイッチ18が操作された場合のレリーズの音等の音声を、音声出力部50を介して出力する。また、音声制御部56は、モード判定部52がノールックモードと判定すると、音声出力部50を停止させて、レリーズスイッチ18が操作されてもレリーズの音を出力させない。
 被写体認識部58は、タッチパネル24を介して入力された領域情報に基づいて、撮像画像における被写体領域を設定する。被写体領域は、予め定められた領域の一例である。尚、ユーザが被写体領域を入力しない場合、被写体認識部58は、例えば、撮像素子68の中央部の領域を自動的に被写体領域として設定してもよい。被写体認識部58は、撮像部16によって生成された撮像画像の特定被写体を認識して、特定被写体が撮像画像に含まれるか否かを判定する。例えば、特定被写体が人の場合、被写体認識部58は、顔認識によって、特定被写体の有無を判定する。
 被写体認識部58は、撮像画像に特定被写体ありと判定すると、レンズ駆動部48を駆動させて、レンズ部14を特定被写体に合焦させる。更に、被写体認識部58は、特定被写体が被写体領域にあるか否かを判定する。被写体認識部58は、特定被写体が被写体領域から外れている場合、特定被写体が被写体領域のいずれの方向に外れているかを認識する。そして、被写体認識部58は、外れている方向を方向情報としてメインメモリ44に格納する。被写体認識部58は、特定被写体が被写体領域にあるが、特定被写体の大きさが被写体領域と異なる場合、レンズ駆動部48を駆動させて、レンズ部14をズームさせることにより、特定被写体を被写体領域と略同じ大きさにする。
 触覚通知部60は、被写体認識部58の認識に基づいて、特定被写体が撮像画像における被写体領域にあるか否かをユーザに対して振動によって通知する。尚、振動による通知は、触覚的な通知の一例である。具体的には、触覚通知部60は、特定被写体が被写体領域にある場合、右上振動部30、右下振動部32、左上振動部34、及び、左下振動部36のいずれをも振動させない。これにより、触覚通知部60は、特定被写体が被写体領域にあることをユーザに通知する。また、触覚通知部60は、特定被写体が被写体領域にない場合、被写体認識部58から入力された方向情報に基づいて、振動部26の右上振動部30、右下振動部32、左上振動部34、及び、左下振動部36のうち、いずれか少なくとも1個の圧電素子に電圧を印加して振動させる。これにより、触覚通知部60は、特定被写体が被写体領域にないこと、及び、特定被写体が被写体領域のいずれの方向に外れているかをユーザに通知する。触覚通知部60は、振動部26の振動状態を記憶処理部62に出力する。振動状態とは、振動停止時間を含む。
 記憶処理部62は、レリーズスイッチ18が操作されたと判定すると、振動部26から入力された振動状態に基づいて、振動が減衰したか否かを判定する。例えば、記憶処理部62は、二次記憶媒体46に格納されている振動部26の停止時間から減衰時間経過したか否かによって、振動部26の減衰を判定する。尚、減衰時間の一例は、1秒である。記憶処理部62は、振動が減衰したと判定すると、撮像画像を二次記憶媒体46に記憶させる。
 システムメモリ42は、不揮発性記録媒体、及び、読出専用記録媒体の少なくとも一方を含む。システムメモリ42は、制御部40が読み出して実行するファームウエア等を電力の供給なしに保持する。
 メインメモリ44は、RMAを含む。メインメモリ44は、制御部40が画像情報等を一時的に格納する制御部40の作業領域として機能する。
 二次記憶媒体46は、フラッシュメモリカード等の不揮発性記憶素子を備えた媒体等が適用される。二次記憶媒体46は、筐体12から着脱可能に取り付けられる。二次記憶媒体46には、撮像画像情報が格納される。
 レンズ駆動部48は、制御部40からの駆動信号に基づいて、レンズ部14を伸縮駆動させる。これにより、レンズ部14は、被写体に合焦、または、被写体をズームする。
 撮像部16は、撮像素子駆動部66と、撮像素子68と、A/D変換部70と、画像処理部72とを有する。撮像素子駆動部66は、撮像素子68を特定の撮像間隔で駆動させる。撮像素子68は、CCD(Charge Coupled Device)センサ、または、CMOS(Complementary Metal Oxide Semiconductor)センサ等の光電変換素子を有する。撮像素子68は、撮像間隔で被写体像を光電変換して、画像信号をA/D変換部70へと出力する。A/D変換部70は、撮像素子68から入力されたアナログの画像信号を、離散化したデジタルの撮像画像として画像処理部72へと出力する。画像処理部72は、撮像画像を補正、圧縮等の処理を実行して制御部40の表示制御部54、被写体認識部58、及び、記憶処理部62に出力する。
 図4は、撮像装置10の主制御処理を説明するフローチャートである。図4に示すように、主制御処理では、制御部40のモード判定部52が、モード設定部22から入力されたモード情報に基づいて、ノールックモードか否かを判定する(S10)。モード判定部52は、ノールックモードが選択されていないと判定すると(S10:No)、通常処理を実行させる(S12)。これにより、ユーザは、表示部20に表示された特定被写体を見つつ撮影する。一方、モード判定部52が、ノールックモードが選択されていると判定すると(S10:Yes)、モード判定部52は、その旨を表示制御部54、音声制御部56及び被写体認識部58に出力して、ノールック処理が実行される(S14)。
 図5は、ノールック処理(S14)を説明するフローチャートである。ノールック処理では、制御部40は、初期処理(S20)、被写体認識処理(S22)、触覚通知処理(S24)、記憶処理(S26)を順に実行する。
 図6は、ノールック処理(S14)の初期処理(S20)を説明するフローチャートである。図6に示すように、初期処理では、被写体認識部58が、撮像画像を取得する(S30)。具体的には、被写体認識部58は、撮像部16の撮像素子68によって撮像した被写体像を含む撮像画像を取得する。表示制御部54は、表示部20を停止する(S32)。尚、表示部20に画像が表示されていない場合、その非表示状態が継続する。これにより、表示部20は、撮像部16によって撮像された画像を表示しない。次に、音声制御部56は、音声出力部50を停止する(S34)。これにより、音声出力部50は、レリーズスイッチ18が操作されてもレリーズの音を出力しない。
 図7は、ノールック処理(S14)の被写体認識処理(S22)を説明するフローチャートである。図7に示すように、被写体認識処理では、被写体認識部58は、ユーザがタッチパネル24を介して入力された領域情報に基づいて、撮像画像における被写体領域の位置及び大きさを設定する(S40)。次に、被写体認識部58は、特定被写体が撮像画像にあるか否かを判定するとともに、特定被写体がある場合、特定被写体が被写体領域内に収まっているか否かを判定する(S42)。
 被写体認識部58は、特定被写体が被写体領域内に収まっていると判定すると(S42:Yes)、レンズ部14を駆動させて特定被写体に合焦させるとともに、フラグFに「0」を設定する(S44)。尚、特定被写体の大きさが被写体領域の大きさと異なる場合、被写体認識部58は、レンズ駆動部48を駆動させて、レンズ部14をズームさせることにより、特定被写体を被写体領域と略同じ大きさにしてもよい。一方、被写体認識部58は、特定被写体が被写体領域内に収まっていないと判定すると(S42:No)、フラグFに「1」を設定する(S46)。被写体認識部58は、特定被写体が被写体領域のいずれの方向に外れているかを認識して、外れている方向を方向情報としてメインメモリ44に格納する(S48)。
 図8は、ノールック処理(S14)の触覚通知処理(S24)を説明するフローチャートである。図8に示すように、触覚通知処理では、触覚通知部60は、フラグFが「1」か否かを判定する(S50)。触覚通知部60は、フラグFが「0」であると判定すると(S50:No)、これは被写体領域内に特定被写体が収まっていることを意味するので、振動部停止処理を実行する。振動部停止処理では、触覚通知部60は、振動部26を停止するとともに、停止時間を含む振動情報を二次記憶媒体46に格納する(S52)。尚、振動部26が既に停止している場合、停止状態が維持される。
 一方、触覚通知部60は、フラグFが「1」であると判定すると(S50:Yes)、メインメモリ44に格納されている方向情報を取得する(S54)。触覚通知部60は、方向情報に基づいて、振動部26の右上振動部30、右下振動部32、左上振動部34、及び、左下振動部36のいずれかの圧電素子に電圧を印加して、いずれかを振動駆動させる(S56)。例えば、触覚通知部60は、方向情報に基づいて、特定被写体が被写体領域から右上方向に外れていると判定すると、右上振動部30を振動させる。また、触覚通知部60は、方向情報に基づいて、特定被写体が被写体領域から上方向に外れていると判定すると、右上振動部30及び左上振動部34を振動させる。これにより、ユーザは、表示部20等を見ることなく、特定被写体を捉えることができる。
 図9は、ノールック処理(S14)の記憶処理(S26)を説明するフローチャートである。次に、記憶処理部62は、レリーズスイッチ18が操作されたか否かを判定する(S60)。記憶処理部62は、レリーズスイッチ18が操作されたと判定すると(S60:Yes)、フラグFが「0」か否かを判定する(S62)。記憶処理部62は、フラグFが「0」と判定すると(S62:Yes)、振動部26が減衰したか否かを判定する(S64)。記憶処理部62は、振動部26が減衰したと判定するまでステップS64を繰り返す。記憶処理部62は、振動部26が減衰したと判定すると(S64:Yes)、撮像画像を二次記憶媒体46に記憶させる(S66)。尚、記憶処理部62が、ステップS60において、レリーズスイッチ18が操作されていないと判定した場合(S60:No)、及び、ステップS62において、フラグFが「1」であると判定した場合(S62:No)、初期処理が実行される。
 上述したように撮像装置10では、被写体認識部58が特定被写体を認識して、その認識に基づいて、触覚通知部60がユーザに対して被写体領域にあるか否かを通知する。これにより、ユーザは、ノールック撮影において、表示部20を見ることなく、特定被写体を被写体領域に収めて撮像することができる。また、ユーザは、ローアングル及びハイアングルの撮影等の表示部20を見ることができない場合でも、容易に特定被写体を撮影できる。
 また、撮像装置10では、被写体認識部58は、特定被写体が被写体領域のいずれの方向に外れているかを認識して、その方向を方向情報として二次記憶媒体46に格納する。触覚通知部60は、方向情報に対応させて振動部26の右上振動部30、右下振動部32、左上振動部34、及び、左下振動部36のいずれかを振動させる。これにより、ユーザは、特定被写体が被写体領域のいずれの方向に外れているかを認識することができる。このため、ユーザは、迅速にかつ正確に特定被写体を被写体領域に収めることができる。
 撮像装置10では、右上振動部30、右下振動部32、左上振動部34、及び、左下振動部36が筐体12の四隅に配置されている。これにより、撮像装置10は、ユーザに特定被写体の方向をより精度よく通知できる。
 撮像装置10では、振動部26の振動によって、特定被写体が被写体領域内にあるか否かをユーザに通知している。これにより、ノールックモードにおいて、特定被写体はその通知に気づきにくい。このため、特定被写体が緊張することを低減できるので、ユーザは特定被写体の自然な表情等を撮影できる。
 撮像装置10では、ノールックモードにおいて、音声制御部56が、音声出力部50のレリーズの音の出力を停止している。また、振動部26は、ほとんど音を出すことなく振動可能な圧電素子を含む。これにより、特定被写体は撮影されていることに気づかないので、ユーザは、より特定被写体の自然な表情等を撮影できる。
 撮像装置10では、ノールックモードにおいて、表示制御部54が表示部20を停止させている。これにより、撮像装置10は、電力消費を低減できる。
 撮像装置10では、記憶処理部62が、振動部26による振動が減衰した場合に、撮像画像を二次記憶媒体46に格納する。これにより、撮像装置10では、振動によって画質の低下した撮像画像が格納されることを抑制できる。
 上述した実施形態の一部を変更した実施形態について説明する。
 4個の右上振動部30、右下振動部32、左上振動部34、及び、左下振動部36のうち、1個だけ、例えば、右上振動部30のみを筐体12に設けてもよい。この場合、ステップS56において、触覚通知部60は、右上振動部30を振動させることによって、特定被写体が被写体領域内にあるか否かのみを通知するようにしてもよい。例えば、触覚通知部60は、特定被写体が被写体領域内にある場合、右上振動部30を振動させてもよい。逆に、特定被写体が被写体領域内にない場合、右上振動部30を周期的に振動させて、特定被写体が被写体領域内に収まったら振動を停止させてもよい。右上振動部30を周期的に振動させる一例は、2回/秒である。
 また、右上振動部30のみを筐体12に設けた場合、ステップS56において、触覚通知部60は、特定被写体の有無、及び、被写体領域に対する特定被写体の外れている方向に対応させて、右上振動部30を複数の振動パターンによって制御してもよい。例えば、特定被写体が被写体領域の左方向に外れている場合、触覚通知部60は、細かい2回の振動を1セットとして、右上振動部30を周期的に振動させる。一方、特定被写体が被写体領域の右方向に外れている場合、触覚通知部60は、細かい3回の振動を1セットとして、右上振動部30を周期的に振動させる。また、上下方向に関しても、それぞれの振動パターンを設定する。更に、触覚通知部60は、特定被写体が被写体領域から外れている距離に対応させて、右上振動部30の振動の大きさ等を変更させてもよい。これにより、撮像装置10は、1個の右上振動部30によって、ユーザに特定被写体の位置及びどれだけ外れているかを通知できる。
 4個の右上振動部30、右下振動部32、左上振動部34、及び、左下振動部36を筐体12に設けた場合でも、複数の振動パターンによってこれらを振動させてもよい。例えば、触覚通知部60が、右上振動部30を細かい2回の振動を1セットとして周期的に振動させ、左上振動部34を細かい3回の振動を1セットとして周期的に振動させるように構成してもよい。これにより、触覚通知部60は、振動させる振動部の位置及び振動パターンによって、ユーザに特定被写体の位置を通知するので、より確実にユーザに特定被写体の位置を通知できる。
 振動部を1個だけにする場合、既に撮像装置10に搭載されている駆動機構を振動部として機能させてもよい。例えば、光学式手振れ防止機構によって、振動を発生させて、ユーザに通知してもよい。また、触覚通知部60は、手振れ等による振動が生じている場合、振動部26を振動させてユーザにその旨を通知してもよい。更に、被写体認識部58は、特定被写体と撮像素子68との間に障害物、例えば、ユーザの指等の有無を判定してもよい。そして、被写体認識部58が障害物ありと判定すると、触覚通知部60は、振動部26を振動させて、その旨を通知してもよく、記憶処理部62は、レリーズスイッチ18が操作されても、撮像画像を二次記憶媒体46への格納を禁止してもよい。
 ユーザが、タッチパネル24等を介して、振動部26の振動の大きさ及び振動パターンを変更できるように構成してもよい。
 上述の実施形態では、レリーズスイッチ18が操作された場合に、撮像画像を二次記憶媒体46に格納するように構成したが、記憶処理部62が、レリーズスイッチ18の操作以外で、撮像画像を格納するように構成してもよい。例えば、ノールックモードにおいて、記憶処理部62は、特定被写体が被写体領域に収まったと判定すると、ユーザの操作なしに、撮像画像を二次記憶媒体46に格納してもよい。また、記憶処理部62は、特定被写体が被写体領域に収まり、かつ、特定被写体が笑顔になったと判定すると、ユーザの操作なしに、撮像画像を二次記憶媒体46に格納してもよい。この場合、撮像画像は、1コマずつ格納してもよく、複数コマを連続的に格納してもよい。
 上述の実施形態では、モード設定部22がノールックモードに操作された場合に、モード判定部52はノールックモードと判定したが、モード設定部22の操作以外で、ノールックモードと判定するように構成してもよい。例えば、筐体12の後面の表示部20の近傍に補助撮像素子を設けて、補助撮像素子がユーザを撮像していない場合、即ち、ユーザが表示部20を見ていない場合、モード判定部52は、ノールックモードと判定して、ノールック処理を実行させてもよい。
 図10は、振動部の配置を変更した撮像装置の前面図である。図11は、振動部の配置を変更した撮像装置の後面図である。図10及び図11に示すように、撮像装置110は、筐体112と、レンズ部114と、振動部126と、表示部120とを備える。
 筐体112は、右前面に一体的に形成されたグリップ部113を有する。グリップ部113は、前方に突出するように設けられている。グリップ部113は、上下方向に延びるように形成されている。これにより、ユーザは、手でグリップ部113を覆うことにより、筐体112を安定して保持することができる。
 振動部126は、筐体112に収容された4個の右上振動部130、右下振動部132、左上振動部134、及び、左下振動部136を有する。右上振動部130、右下振動部132、左上振動部134、及び、左下振動部136は、グリップ部113の四隅のそれぞれに配置されている。これにより、右上振動部130、右下振動部132、左上振動部134、及び、左下振動部136は、グリップ部113を把持するユーザに振動をより確実に伝達できる。
 図12は、別の振動部の全体構成図である。振動部226は、モータ227と、回転軸229と、半円部材231とを備える。半円部材231の重心は、回転軸229と異なる位置に配置されている。これにより、回転軸229及び半円部材231は、モータ227によって回転駆動されると、筐体12、112が振動する。この結果、撮像装置10、110は、ユーザに振動を伝達することができる。この振動部226は、上述の右上振動部30、130、右下振動部32、132、左上振動部34、134、及び、左下振動部36、136の代わりに配置してもよく、いずれかの位置に配置してもよい。
 尚、撮像装置10及び撮像装置110のいずれにおいても、振動部の構成、個数及び配置は適宜変更してよい。また、振動以外の方法で、ユーザに特定被写体の情報を伝達してもよい。例えば、フィルム状の部材に凹凸を形成して、その凹凸によって、特定被写体の有無または特定被写体の方向等の情報を伝達してもよい。更に、熱等によって、特定被写体の情報を伝達してもよい。
<第2実施形態>
 図13は、本実施形態に係る撮像装置の一例としてのカメラシステム100の上部概観図である。カメラシステム100は、レンズユニット200がカメラユニット300に装着されて構成されるレンズ交換式一眼レフカメラである。カメラシステム100は、被写体を観察するためのファインダ窓318、ライブビュー画像等を表示するための表示部328を備える。カメラシステム100はさらに、振動子331を備え、被写体像の少なくとも一部に応じて被写体の状況を判断し、当該判断に応じて振動子331が生じさせる振動波形を変化させることにより、ユーザに撮影タイミングを報知する。本実施形態では、カメラシステム100は、被写体の状況として被写体のデフォーカス状態を判断する。
 振動子331は、撮影時にユーザがカメラシステム100を把持する部分に配置されることが好ましい。したがって、振動子331は、例えばカメラユニット300のグリップ部分330に配置される。本実施形態によれば、ユーザは、レンズユニット200を左手で把持しつつマニュアルフォーカス操作を行う場合、ファインダ窓318または表示部328を見なくとも、右手で振動を認知することによって、被写体のデフォーカス状態を把握しながらフォーカスリング201を調整することができる。なお、以後の説明においては、図示するように、光軸202に沿って被写体光束が入射する方向にz軸を定める。また、z軸に直交し、かつカメラユニット300の長手方向と平行な方向にx軸、z軸およびx軸に直交する方向にy軸を定める。
 図14は、カメラシステム100の要部断面図である。レンズユニット200は、光軸202に沿って配列されたレンズ群210、絞り221を備える。レンズ群210は、フォーカスレンズ211、ズームレンズ212を含む。レンズユニット200は、振動波モータ、VCM等の複数のモータを有し、フォーカスレンズ211を光軸202方向に駆動する。レンズユニット200はさらに、レンズユニット200の制御および演算を司るレンズシステム制御部222を備える。また、レンズユニット200は、フォーカスリング201を備える。ユーザは、マニュアルフォーカス操作を行う場合、フォーカスリング201を回転させることにより、フォーカスレンズ211を連動して駆動させる。
 レンズユニット200を構成する各要素は、レンズ鏡筒223に支持されている。また、レンズユニット200は、カメラユニット300との接続部にレンズマウント224を備え、カメラユニット300が備えるカメラマウント311と係合して、カメラユニット300と一体化する。レンズマウント224およびカメラマウント311はそれぞれ、機械的な係合部の他に電気的な接続部も備え、カメラユニット300からレンズユニット200への電力の供給および相互の通信を実現している。
 カメラユニット300は、レンズユニット200から入射される被写体像を反射するメインミラー312と、メインミラー312で反射された被写体像が結像するピント板313を備える。メインミラー312は、回転軸314周りに回転することによって、光軸202を中心とする被写体光束中に斜設される状態と、被写体光束から退避する状態を取り得る。メインミラー312は、ピント板313側へ被写体像を導く場合、被写体光束中に斜設される。また、ピント板313は、撮像素子315の受光面と共役の位置に配置されている。
 ピント板313で結像した被写体像は、ペンタプリズム316で正立像に変換され、接眼光学系317を介してユーザに観察される。斜設状態におけるメインミラー312の光軸202の近傍領域は、ハーフミラーとして形成されており、入射される光束の一部が透過する。透過した光束は、メインミラー312と連動して動作するサブミラー319で反射されて、焦点検出センサ322へ入射される。焦点検出センサ322は、例えば位相差検出センサであり、受光した被写体光束から位相差信号を検出する。なお、サブミラー319は、メインミラー312が被写体光束から退避する場合は、メインミラー312に連動して被写体光束から退避する。
 斜設されたメインミラー312の後方には、光軸202に沿って、フォーカルプレーンシャッタ323、光学ローパスフィルタ324、撮像素子315が配列されている。フォーカルプレーンシャッタ323は、撮像素子315へ被写体光束を導くときに開放状態を取り、その他のときに遮蔽状態を取る。光学ローパスフィルタ324は、撮像素子315の画素ピッチに対する被写体像の空間周波数を調整する役割を担う。撮像素子315は、例えばCMOSセンサなどの受光素子であり、受光面で結像した被写体像を電気信号に変換する。
 撮像素子315で光電変換された電気信号は、メイン基板325に搭載されたASICである画像処理部326によって画像データに処理される。メイン基板325は、画像処理部326の他に、カメラユニット300のシステムを統合的に制御するMPUであるカメラシステム制御部327を搭載している。カメラシステム制御部327は、カメラシーケンスを管理すると共に、各構成要素の入出力処理等を行う。
 カメラユニット300の背面には、液晶モニタ等による表示部328が配設されており、画像処理部326で処理された被写体画像が表示される。また、撮像素子315が連続的に光電変換する被写界像を表示部328に逐次表示することによって、ライブビュー表示が実現される。カメラユニット300はさらに、着脱可能な二次電池329を収容している。二次電池329は、カメラユニット300に限らず、レンズユニット200にも電力を供給する。カメラユニット300にはさらに、振動子331を収容している。
 振動子331は、例えばピエゾ素子であり、カメラユニット300の筐体内部に配置され、その伸縮によって筐体に振動を生じさせる。ピエゾ素子では、入力される駆動電圧としての振動波形と、素子の物理的な変位量としての振動波形とが比例関係を有する。振動子331は、その振動が被写体のデフォーカス情報の報知であることがユーザにとって把握しやすいよう、z軸方向に伸縮するよう配置される。
 図15は、カメラシステム100のシステム構成図である。カメラシステム100は、レンズユニット200とカメラユニット300のそれぞれに対応して、レンズシステム制御部222を中心とするレンズ制御系と、カメラシステム制御部327を中心とするカメラ制御系により構成される。そして、レンズ制御系とカメラ制御系は、レンズマウント224とカメラマウント311によって接続される接続部を介して、相互に各種データ、制御信号の授受を行う。
 カメラ制御系に含まれる画像処理部326は、カメラシステム制御部327からの指令に則して、撮像素子315で光電変換された撮像信号を所定の画像フォーマットに従った画像データに処理する。具体的には、画像処理部326は、静止画像としてJPEGファイルを生成する場合、色変換処理、ガンマ処理、ホワイトバランス処理等の画像処理を行った後に、適応離散コサイン変換等を施して圧縮処理をする。また、画像処理部326は、動画像としてMPEGファイルを生成する場合、所定の画素数に縮小して生成した連続する静止画としてのフレーム画像に対して、フレーム内符号化、フレーム間符号化を施して圧縮処理をする。
 カメラメモリ341は、例えばフラッシュメモリなどの不揮発性メモリであり、カメラシステム100を制御するプログラム、各種パラメータなどを記憶する役割を担う。ワークメモリ342は、例えばRAMなどの高速アクセスできるメモリであり、処理中の画像データを一時的に保管する役割などを担う。
 表示制御部343は、カメラシステム制御部327の指示に従って、表示画面を表示部328に表示させる。モード切替部344は、ユーザによる撮影モード、フォーカスモード等のモード設定を受け付けて、カメラシステム制御部327へ出力する。撮影モードには、動画撮影モードと静止画撮影モードが含まれる。また、フォーカスモードには、オートフォーカスモードとマニュアルフォーカスモードが含まれる。
 焦点検出センサ322には、被写体空間に対して、例えばユーザによって選択された一つの測距点が設定されている。焦点検出センサ322は、設定された測距点における位相差信号を検出する。焦点検出センサ322は、測距点における被写体がフォーカス状態かデフォーカス状態かを検出できる。焦点検出センサ322は、デフォーカス状態の場合、合焦位置からのデフォーカス量も検出することができるように構成されている。
 レリーズスイッチ345は、押し込み方向に2段階のスイッチ位置を備えている。カメラシステム制御部327は、第1段階のスイッチであるSW1がオンになったことを検出すると、焦点検出センサ322から位相差情報を取得する。カメラシステム制御部327は、フォーカスモードがオートフォーカスモードである場合、レンズシステム制御部222へフォーカスレンズ211の駆動情報を送信する。さらに、カメラシステム制御部327は、第2段階のスイッチであるSW2がオンになったことを検出すると、予め定められた処理フローに従って撮影処理を実行する。
 一方、フォーカスモードがマニュアルフォーカスモードである場合、カメラシステム制御部327は、焦点検出センサ322と協働して被写体像の少なくとも一部に応じて被写体の状況を判断する判断部として機能する。具体的には、カメラシステム制御部327は、焦点検出センサ322から取得した位相差情報から、被写体のデフォーカス状態を判断する。
 そして、カメラシステム制御部327は、被写体のデフォーカス状態に応じて振動子331が生じさせる振動波形を変化させることにより、ユーザに撮影タイミングを報知する振動制御部として機能する。また、ここでは、撮影タイミングは、被写体にフォーカスが合っている状態をいう。したがって、ユーザは、ファインダ窓318、表示部328を見ずに被写体を撮影する場合であっても、振動子331の振動の変化を認知することによって撮影タイミングを知ることができる。振動子331は、カメラシステム制御部327から振動波形を受け付け、受け付けた振動波形に従って伸縮する。
 続いて、カメラシステム制御部327による被写体のデフォーカス状態の判断について詳細に説明する。図16は、振動子331に与える振動波形を説明するための説明図である。図16(a)は、撮像素子315、フォーカスレンズ211、被写体301の光軸202方向の位置関係を示し、特に、フォーカスレンズ211の位置と被写体301のデフォーカス状態に応じた区分(s1、s2、s3、s4、s5)を示している。
 ここで、被写体301のデフォーカス状態に応じた区分とデフォーカス量との関係について説明する。例えば、区分s2の範囲内で合焦する前ピンにおいて、撮像面におけるデフォーカス量は一義的に定まる。したがって、カメラシステム制御部327は、デフォーカス量に応じてどの区分内でフォーカスレンズ211が合焦しているか判断することができる。
 カメラシステム制御部327は、図16(a)に示すように、被写体301のデフォーカス状態に応じた区分を予め設定している。具体的には、カメラシステム制御部327は、フォーカス状態とみなせる範囲を、焦点距離、絞り値等のパラメータのテーブルとして保持し、当該フォーカス状態とみなせる範囲を区分s3として設定している。
 さらに、カメラシステム制御部327は、デフォーカス状態が前ピンの場合をデフォーカス量に応じて区分s1、区分s2として2段階に分けて設定している。デフォーカス状態が後ピンの場合も同様に、カメラシステム制御部327は、デフォーカス量に応じて区分s4、区分s5として2段階に分けて設定している。
 図16(b)~図16(f)は、各区分に応じた振動波形を示している。具体的には、区分s1と図16(b)に示す振動波形とが、対応している。同様に、区分s2と図16(c)に示す振動波形、区分s3と図16(d)に示す振動波形、区分s4と図16(e)に示す振動波形、区分s5と図16(f)に示す振動波形とが、それぞれ対応している。ここで、図16(b)と図16(f)の振動波形は同一である。同様に、図16(c)と図16(e)の振動波形は同一である。各図において、縦軸が電圧V、横軸が時間tを示している。各振動波形における、電圧が上昇している部分によって振動子331は伸び、電圧が低下している部分によって振動子331は縮む。また、図16(d)に示す振動波形を振動波形a、図16(c)、図16(e)に示す振動波形を振動波形b、図16(b)、図16(f)に示す振動波形を振動波形cと称す。
 カメラシステム制御部327は、上述のように、各区分に応じた振動波形を予め設定している。具体的には、カメラシステム制御部327は、振動波形の設定項目として、振動波形の振幅、周期、種別を予めカメラメモリ341に保持している。振動波形の種別として、正弦曲線、のこぎり波等が挙げられる。
 カメラシステム制御部327は、被写体301のデフォーカス状態が区分s3に該当すると判断した場合、振動波形aを振動子331に与える。振動波形aは、振動波形a、b、cの中で最も振幅が小さい。したがって、振動を認知したユーザは、フォーカスレンズ211が合焦位置にあること、つまり、撮影タイミングであることを、ファインダ窓318または表示部328を見なくても把握することができる。また、カメラシステム制御部327は、撮影タイミングにおいて最も振幅が小さい振動波形aを与えるので、撮影時の手ぶれが抑制される。なお、カメラシステム制御部327は、被写体301のデフォーカス状態が区分s3に該当すると判断した場合、振動子331が生じさせる振動波形の振幅をゼロにしてもよい。
 カメラシステム制御部327は、デフォーカス状態が区分s2または区分s4に該当すると判断した場合、振動波形bを振動子331に与える。振動波形bの振幅は、振動波形aの振幅より大きいものの、振動波形cの振幅よりは小さい。したがって、振動を認知したユーザは、フォーカスレンズ211が合焦位置にないものの、デフォーカス量は小さいことを把握することができる。
 カメラシステム制御部327は、デフォーカス状態が区分s1または区分s5に該当すると判断した場合、振動波形cを振動子331に与える。振動波形cは、振動波形a、b、cの中で最も振幅が大きい。したがって、振動を認知したユーザは、デフォーカス量が大きいことを把握することができる。
 図17は、カメラシステム100の撮影動作フロー図である。撮影動作フローは、フォーカスモードがマニュアルフォーカスモード、撮影モードが静止画撮影モードに設定されている場合において、SW1がオンされたことをカメラシステム制御部327が検知することによって開始される。カメラシステム制御部327は、SW1がオンされたことを検知すると、焦点検出センサ322の出力を取得する(ステップS101)。
 カメラシステム制御部327は、被写体301のデフォーカス状態が区分s3に該当するか判定する(ステップS102)。カメラシステム制御部327は、被写体301のデフォーカス状態が区分s3に該当すると判定すれば(ステップS102:Yes)、振動子331に振動波形aを送信する(ステップS103)。カメラシステム制御部327は、被写体301のデフォーカス状態が区分s3に該当しないと判定すれば(ステップS102:No)、デフォーカス状態が区分s2または区分s4に該当するか判定する(ステップS104)。カメラシステム制御部327は、デフォーカス状態が区分s2または区分s4に該当すると判定すれば(ステップS104:Yes)、振動子331に振動波形bを送信する(ステップS105)。
 デフォーカス状態が区分s2または区分s4に該当しないと判定されれば(ステップS104:No)、デフォーカス状態は、区分s1または区分s5に該当することになる。この場合、カメラシステム制御部327は、振動子331に振動波形cを送信する(ステップS106)。カメラシステム制御部327は、何れかの振動波形を送信した後、SW2がオンされたかを判定する(ステップS107)。カメラシステム制御部327は、SW2がオンされたと判定すれば(ステップS107:Yes)、撮影処理を実行する(ステップS108)。
 一方、SW2がオンされていないと判定すれば(ステップS107:No)、カメラシステム制御部327は、SW1のタイマがオフされたか判定する(ステップS109)。カメラシステム制御部327は、SW1のタイマがオフされていないと判定すれば(ステップS109:No)、ステップS101に戻る。カメラシステム制御部327は、SW1のタイマがオフされたと判定すれば(ステップS109:Yes)、または撮影処理が実行されれば、振動波形の送信を停止し(ステップS110)、一連の撮影動作フローを終了する。なお、カメラシステム制御部327は、SW2がオンされたと判定すれば(ステップS107:Yes)、撮影処理前に振動波形の送信を停止してもよい。
 以上、説明したように、カメラシステム制御部327は、SW1がオンされている間、被写体301のデフォーカス状態を判断し、被写体301のデフォーカス状態に応じた振動波形を与える。つまり、カメラシステム制御部327は、被写体301の状況を連続的に判断し、被写体301の状況に応じて振動波形を連続的に変化させる。
 続いて、被写体のデフォーカス状態に応じた振動波形の振幅の変化を、振動波形の周波数の変化に替えた第1変形例について説明する。第1変形例では、カメラシステム制御部327は、被写体のデフォーカス状態に応じて振動波形の周波数を変化させることによって、撮影タイミングをユーザに報知する。
 図18は、振動子331に与える振動波形を説明するための説明図である。図18(a)は、撮像素子315、フォーカスレンズ211、被写体302の光軸202方向の位置関係を示し、特に、フォーカスレンズ211の位置と被写体302のデフォーカス状態に応じた区分(s1、s2、s3)を示している。カメラシステム制御部327は、図18(a)に示すように、被写体302のデフォーカス状態に応じた区分を予め設定している。ここでは、カメラシステム制御部327は、フォーカス状態とみなせる範囲を区分s2として設定している。さらに、カメラシステム制御部327は、デフォーカス状態が前ピンの場合を区分s1、後ピンの場合を区分s3として設定している。
 図18(b)~図18(d)は、各区分に応じた振動波形を示している。具体的には、区分s1と図18(b)に示す振動波形とが、対応している。同様に、区分s2と図18(c)に示す振動波形、区分s3と図18(d)に示す振動波形とが、それぞれ対応している。各図において、縦軸が電圧V、横軸が時間tを示している。また、図18(b)と図18(d)の振動波形は同一である。図18(b)、図18(d)で示される振動波形を振動波形d、図18(c)で示される振動波形を振動波形eと称す。カメラシステム制御部327は、上述のように、各区分に応じた振動波形を予め設定している。
 図18(b)~図18(d)に示すように、カメラシステム制御部327は、被写体302のデフォーカス状態に応じて振動波形の周波数を異ならせる。具体的には、カメラシステム制御部327は、デフォーカス状態が区分s1または区分s3に該当すると判断した場合、振動波形eより高周波の振動波形dを振動子331に与える。一方、カメラシステム制御部327は、被写体302のデフォーカス状態が区分s2に該当すると判断した場合、振動波形eを振動子331に与える。
 また、図18(b)~図18(d)で示す振動波形の振幅は一定であったが、デフォーカス量に応じて振幅の大きさが変わってもよい。例えば、図16で示したように、区分が5段階に設定された場合、カメラシステム制御部327は、デフォーカス量が大きくなるにつれて振幅の大きさが大きくなるよう各振動波形を設定してもよい。これにより、カメラシステム制御部327は、デフォーカス量とデフォーカス方向とを同時にユーザに報知することができる。
 振動波形をのこぎり波に替えた第2変形例について説明する。第2変形例では、カメラシステム制御部327は、被写体302の状況を判定し、判定結果に応じたのこぎり波を振動子331に与えることにより、ユーザに撮影タイミングを報知する。加えて、カメラシステム制御部327は、デフォーカス状態が前ピンの場合と後ピンの場合とでのこぎり波の形状を異ならせることにより、デフォーカス状態が前ピンか後ピンかをユーザに報知する。なお、第2変形例では、振動子331は、Z軸方向におけるユーザ側の一方向のみに伸縮する。
 図19は、振動子331に与える振動波形を説明するための説明図である。図19(a)は、図18(a)と同一であるので、説明を省略する。カメラシステム制御部327は、図19(a)に示すように、被写体302のデフォーカス状態に応じた区分(s1、s2、s3)を予め設定している。
 図19(b)~図19(d)は、各区分に応じた振動波形を示している。具体的には、区分s1と図19(b)に示す振動波形とが、対応している。同様に、区分s2と図19(c)に示す振動波形、区分s3と図19(d)に示す振動波形とが、それぞれ対応している。各図において、縦軸が電圧V、横軸が時間tを示している。各振動波形における、電圧が上昇している部分によって振動子331は伸び、電圧が低下している部分によって振動子331は縮む。また、図19(c)で示される振動波形を振動波形g、図19(b)で示される振動波形を振動波形h、図19(d)で示される振動波形を振動波形iと称す。カメラシステム制御部327は、上述のように、各区分に応じた振動波形を予め設定している。
 カメラシステム制御部327は、デフォーカス状態が区分s1に該当すると判断した場合、振動波形gを振動子331に与える。振動波形gは、急峻に立ち上がり、緩やかに立ち下がる。したがって、振動波形gが与えられた振動子331は、ユーザ側に急峻に伸張した後、被写体302側に緩やかに縮む。その結果、振動を認知したユーザは、カメラシステム100が自分の方に押される感じを受ける。これにより、ユーザは、デフォーカス状態が前ピンであることを把握することができる。
 カメラシステム制御部327は、デフォーカス状態が区分s3に該当すると判断した場合、振動波形iを振動子331に与える。振動波形iの振幅は、緩やかに立ち上がり、急峻に立ち下がる。したがって、振動波形iが与えられた振動子331は、ユーザ側に緩やかに伸張した後、被写体302側に急峻に縮む。よって、振動を認知したユーザは、カメラシステム100が被写体302側に引っ張られる感じを受ける。これにより、ユーザは、デフォーカス状態が後ピンであることを把握することができる。
 カメラシステム制御部327は、被写体302のデフォーカス状態が区分s2に該当すると判断した場合、振動波形hを振動子331に与える。振動波形hは、1周期における振幅の経時変化が対称である。このため、振動波形hによる振動の場合、ユーザは、振動波形g、hに比べて偏りのない振動を感じる。したがって、ユーザは、撮影タイミングであることを把握することができる。
 なお、図19(b)~図19(d)で示す振動波形の振幅は一定であったが、デフォーカス量に応じて振幅の大きさが変わってもよい。例えば、図16で示したように、区分が5段階に設定された場合、カメラシステム制御部327は、デフォーカス量が大きくなるにつれて振幅の大きさが大きくなるよう各振動波形を設定してもよい。これにより、カメラシステム制御部327は、デフォーカス量とデフォーカス方向とを同時にユーザに報知することができる。
 カメラシステムに複数の振動子が設けられた第3変形例について説明する。ここでは、振動子が二つ設けられた場合について説明する。図20は、カメラシステム101の上部概観図である。二つの振動子332、333は、グリップ部分330に、例えばz軸方向に離間して配置される。ここでは、ユーザが撮影時にカメラシステム101を構えた場合、被写体に近い側に振動子332が配置され、ユーザに近い側に振動子333が配置される。二つの振動子332、333がz軸方向に離間して配置される場合、カメラシステム制御部327が各振動子332、333に異なる振動波形を与えることにより、撮影タイミングおよびデフォーカス状態をユーザに報知することができる。
 図21は、振動子332、333に与える振動波形を説明するための説明図である。図21(a)は、図16(a)と同一であるので、説明を省略する。カメラシステム制御部327は、図21(a)に示すように、被写体301のデフォーカス状態に応じた区分(s1、s2、s3、s4、s5)を予め設定している。
 図21(b)~図21(f)は、各区分に応じた振動波形を示している。各図において、縦軸が電圧V、横軸が時間tを示している。図21(b)~図21(f)において、上段は、被写体側の振動子332に与えられる振動波形を示し、下段は、ユーザ側の振動子333に与えられる振動波形を示している。カメラシステム制御部327は、各区分に応じた振動波形を予め設定している。具体的には、カメラシステム制御部327は、図21(b)から図21(f)の上段の振動波形に示すように、被写体側の振動子332に対し、区分s1から区分s5に向かって変移するにつれて振幅が大きくなるよう振動波形を設定している。一方、図21(b)から図21(f)の下段の振動波形に示すように、カメラシステム制御部327は、ユーザ側の振動子333に対し、区分s1から区分s5に向かって変移するにつれて振幅が小さくなるよう振動波形を設定している。
 カメラシステム制御部327は、デフォーカス状態が区分s1または区分s2に該当する場合、つまり、デフォーカス状態が前ピンの場合、ユーザ側の振動子333に、被写体側の振動子332に与える振動波形の振幅より大きい振幅を有する振動波形を与える。一方、カメラシステム制御部327は、デフォーカス状態が区分s4または区分s5に該当する場合、つまり、デフォーカス状態が後ピンの場合、ユーザ側の振動子333に、被写体側の振動子332に与える振動波形の振幅より小さい振幅を有する振動波形を与える。したがって、ユーザは、どちらの振動子がより大きく振動するかによって、デフォーカス方向を把握することができる。
 また、図21(b)および図21(c)に関して、上段の各振動波形を比較すると、図21(b)に示す振動波形が、図21(c)に示す振動波形より振幅が小さい。下段の各振動波形を比較すると、逆に、図21(c)に示す振動波形が、図21(b)に示す振動波形より振幅が小さい。つまり、各振動波形の振幅の差は、区分s2より区分s1の方が大きい。したがって、ユーザは、各振動子の振幅の差の大きさによって、デフォーカス量を把握することができる。
 カメラシステム制御部327は、被写体301のデフォーカス状態が区分s3に該当すると判断した場合、振動子331、332に共通の振動波形を与える。各振動子331、332に与えられる振動波形の振幅が一致しているので、ユーザは、撮影タイミングを把握することができる。また、図21(b)から図21(f)に示すように、この例においては、少なくとも一方の振動子が振動しているので、ユーザにとって、カメラシステム100が正常に動作していることがわかりやすいというメリットがある。
 二つの振動子332、333が配置された場合において、各振動子に与えられる振動波形を替えた第4変形例について説明する。図22は、振動子332、333に与える振動波形を説明するための説明図である。図22(a)は、図21(a)と同一であるので、説明を省略する。カメラシステム制御部327は、図22(a)に示すように、被写体301のデフォーカス状態に応じた区分(s1、s2、s3、s4、s5)を予め設定している。
 図22(b)~図22(f)は、各区分に応じた振動波形を示している。各図において、縦軸が電圧V、横軸が時間tを示している。図22(b)~図22(f)において、上段は、被写体側の振動子332に与えられる振動波形を示し、下段は、ユーザ側の振動子333に与えられる振動波形を示している。具体的には、図22(b)から図22(f)の上段の振動波形に示すように、カメラシステム制御部327は、振動子332に対し、区分が区分s3→区分s4→区分s5と変移するにつれて振幅が大きくなるよう振動波形を設定している。図21との違いは、カメラシステム制御部327が、デフォーカス状態が前ピンの場合も合焦状態の場合と同様の振動波形を与えることである。
 一方、カメラシステム制御部327は、図22(b)から図22(f)の下段の振動波形に示すように、振動子333に対し、区分が区分s3→区分s2→区分s1と変移するにつれて振幅が大きくなるよう振動波形を設定している。図21との違いは、カメラシステム制御部327が、デフォーカス状態が後ピンの場合も合焦位置の場合と同様の振動波形を与えることである。図22(b)から図22(f)に示すように、この例においては、フォーカスレンズ211が合焦位置にある場合、どちらの振動子も振幅が最小となるので、振動による手振れを防止することができるというメリットがある。
 各振動子に与える振動波形の開始タイミングをずらすことにより、ユーザに被写体のデフォーカス状態を報知する第5変形例について説明する。図23は、振動子332、333に与える振動波形を説明するための説明図である。図23(a)は、図18(a)と同一であるので、説明を省略する。カメラシステム制御部327は、図23(a)に示すように、被写体302のデフォーカス状態に応じた区分(s1、s2、s3)を予め設定している。
 図23(b)~図23(d)は、各区分に応じた振動波形を示している。各図において、縦軸が電圧V、横軸が時間tを示している。図23(b)~図23(d)において、上段は、被写体側の振動子332に与えられる振動波形を示し、下段は、ユーザ側の振動子333に与えられる振動波形を示している。カメラシステム制御部327は、各振動子332、333に共通の振動波形を互いに開始タイミングをずらして与える。共通の振動波形の振幅は、経時的に大きくなる。
 具体的には、図23(b)に示すように、カメラシステム制御部327は、デフォーカス状態が区分s1に該当すると判断した場合、被写体側の振動子332に図23(b)上段に示す振動波形を、ユーザ側の振動子333に図23(b)下段に示す振動波形を、それぞれ与える。図23(b)の点線部分に示すように、図23(b)上段に示す振動波形は、図23(b)下段に示す振動波形より先に立ち上がる。したがって、振動を認知したユーザは、振動が被写体302側からユーザ側に移動したように感じる。これにより、ユーザは、被写体302から離れなければならないことを把握することができる。
 図23(d)に示すように、カメラシステム制御部327は、デフォーカス状態が区分s3に該当すると判断した場合、被写体側の振動子332に図23(d)上段に示す振動波形を、ユーザ側の振動子333に図23(d)下段に示す振動波形をそれぞれ与える。図23(d)の点線部分に示すように、図23(d)下段に示す振動波形は、図23(d)上段に示す振動波形より先に立ち上がる。したがって、振動を認知したユーザは、振動がユーザ側から被写体302側に移動したように感じる。これにより、ユーザは、被写体302に近づかなければならないことを把握することができる。
 また、図23(c)に示すように、カメラシステム制御部327は、被写体302の位置が区分s2に該当すると判断した場合、被写体側の振動子332に図23(c)上段に示す振動波形を、ユーザ側の振動子333に図23(c)下段に示す振動波形をそれぞれ与える。図23(c)上段および図23(d)下段に示す各振動波形は、開始タイミングが一致している。したがって、振動を認知したユーザは、撮影タイミングであることを把握することができる。なお、カメラシステム制御部327は、各振動子332、333に与える振動波形の位相をずらすことによって、開始タイミングをずらすこともできる。
 カメラシステム制御部327は、二つの振動子が配置された場合であっても、振動子が一つの場合と同様、被写体の状況を判定し、判定結果に応じた振動波形を各振動子に与えることで、ユーザに撮影タイミングを報知することができる。加えて、図21、図22に示したように、カメラシステム制御部327は、デフォーカス方向およびデフォーカス量に応じて各振動子に与える振動波形を異ならせる。したがって、どちらの振動子の振動が大きいかによってデフォーカス方向およびデフォーカス量をユーザに報知することができる。また、図23に示したように、カメラシステム制御部327は、デフォーカス方向に応じて各振動子に与える振動波形を互いにずらす。したがって、どちらの振動子の振動が先に振動するかによってデフォーカス方向をユーザに報知することができる。
 焦点検出センサ322の出力ではなく、ライブビューで表示されている画像の中の特定の被写体の大きさに応じて振動波形を変化させる第6変形例について説明する。第6変形例では、カメラシステムは、図1に示したように、振動子を一つ備える。カメラシステム制御部327は、ライブビューで表示されている画像の中の特定の被写体の大きさに応じて振動波形を変化させる。この場合、カメラシステム制御部327は、ユーザからの操作を受けて、カメラメモリ341にパターンマッチング用の被写体画像を予め記憶しておく。カメラシステム制御部327は、例えば、ユーザによって予め設定された被写体を、特定の被写体として設定する。被写体は、人物に限らず、動物であってもよい。画像処理部326は、ライブビュー画像の中から、人物認識、顔認識機能等を用いたパターンマッチングによって特定の被写体を認識する。
 カメラシステム制御部327は、画像処理部326によって認識された特定の被写体の大きさを判断する。そして、カメラシステム制御部327は、特定の被写体の大きさに応じて振動子331に与える振動波形を変化させることにより、ユーザに撮影タイミングを報知する。ここでは、撮影タイミングは、ライブビュー画像中の被写体が適切な大きさであることをいう。具体的には、カメラシステム制御部327は、ライブビュー画像中の特定の被写体を内接する長方形の各頂点の座標が、ライブビュー画像における縁に位置するか判断する。各頂点の座標の全てが画像における縁に位置する場合、カメラシステム制御部327は、特定の被写体が大きすぎると判断する。この場合、被写体が画像に収まっていない可能性が高いからである。
 カメラシステム制御部327は、各頂点の座標のうち画像における縁に位置しない座標が存在する場合、画像中の被写体を内接する長方形の面積を算出し、算出した面積を予め設定された閾値と比較する。そして、カメラシステム制御部327は、算出した面積が予め設定された閾値以上である場合、被写体の大きさが適切であると判断する。つまり、撮影タイミングであると判断する。一方、カメラシステム制御部327は、算出した面積が予め設定された閾値未満である場合、被写体の大きさが小さすぎると判断する。
 図24は、ライブビュー画像における被写体303の大きさと振動波形との関係を示す概念図である。特に図24(a)から図24(c)は、被写体303が大きすぎる場合、適切な大きさである場合、小さすぎる場合をそれぞれ示している。カメラシステム制御部327は、被写体303の大きさに応じた区分を予め設定している。ここでは、カメラシステム制御部327は、被写体303を囲む長方形304の各頂点の座標の全てが、画像における縁に位置する場合を区分s1として設定している。カメラシステム制御部327は、被写体303を内接する長方形304の面積が、予め設定された閾値以上である場合を区分s2として設定している。さらに、カメラシステム制御部327は、被写体303を内接する長方形304の面積が、予め設定された閾値未満である場合を区分3として設定している。
 図24(d)~図24(f)は、各区分に応じた振動波形を示している。具体的には、区分s1と図24(d)に示す振動波形とが、対応している。同様に、区分s2と図24(e)に示す振動波形、区分s3と図24(f)に示す振動波形とが、それぞれ対応している。各図において、縦軸が電圧V、横軸が時間tを示している。また、図24(d)と図24(f)の振動波形は同一である。図24(d)、図24(f)に示す振動波形を振動波形j、図24(e)に示す振動波形を振動波形kと称す。カメラシステム制御部327は、上述のように、各区分に応じた振動波形を予め設定している。
 カメラシステム制御部327は、被写体303の大きさが区分s2に該当すると判断した場合、振動波形kを振動子331に与える。振動波形kは、振動波形jに比べて振幅が小さい。したがって、振動を認知したユーザは、撮影タイミングであることを把握することができる。また、カメラシステム制御部327は、撮影タイミングにおいて最も振幅が小さい振動波形を与えるので、撮影時の手ぶれが抑制される。
 カメラシステム制御部327は、被写体303の大きさが区分s1に該当すると判断した場合、または被写体303の大きさが区分s3に該当すると判断した場合、振動波形jを振動子331に与える。振動波形jは、振動波形kより振幅が大きいので、振動を認知したユーザは、被写体303の大きさが適切でないことを把握することができる。カメラシステム制御部327は、被写体303の大きさに応じて振動子331に与える振動波形の周波数を異ならせてもよい。
 なお、カメラシステム制御部327は、被写体303の大きさに応じて振動子331に図19(b)から図19(d)に示すのこぎり波を与えてもよい。さらに、二つの振動子が配置されている場合、カメラシステム制御部327は、被写体303の大きさに応じて図21~図23で示した振動波形を各振動子に与えてもよい。これらの場合、カメラシステム制御部327は、被写体303が大きいのか、小さいのかをユーザに報知することができる。
 次に、カメラシステム制御部327が、ライブビューで表示されている画像の中の特定の被写体の位置に応じて振動波形を変化させる第7変形例について説明する。第7変形例では、カメラシステムは、図1に示したように、振動子を一つ備える。第7変形例では、カメラシステム制御部327は、ライブビューで表示されている画像の中の特定の被写体の位置、つまり、被写体画角に対する被写体の位置を判断し、当該被写体の位置に応じて振動波形を変化させる。これにより、カメラシステム制御部327は、ユーザに撮影タイミングを報知する。ここでは、撮影タイミングは、ライブビュー画像中の被写体が適切な位置にあることをいう。
 カメラシステム制御部327は、ライブビューで表示されている画像の中の被写体を内接する長方形を算出し、当該長方形の領域と予め設定された適正位置範囲の領域との重なり具合を判断する。カメラシステム制御部327は、長方形の領域と適正位置範囲の領域とが予め設定された割合以上重複している場合、被写体の位置が適切であると判断する。つまり、撮影タイミングであると判断する。
 一方、カメラシステム制御部327は、長方形の領域と適正位置範囲の領域とが重複している割合が、予め設定された割合未満である場合、被写体が左右どちらにずれているか判断する。具体的には、カメラシステム制御部327は、長方形の各頂点の座標が、適正位置範囲に対し左右どちらにずれているか判断することによって、被写体のずれ方向を判断する。
 図25は、ライブビュー画像における被写体305の位置と振動波形との関係を示す概念図である。特に図25(a)から図25(c)は、被写体305と適正位置範囲306との関係を示している。カメラシステム制御部327は、被写体305の位置に応じた区分を予め設定している。ここでは、カメラシステム制御部327は、図25(a)に示すように、長方形307が予め設定された割合未満で、かつ各頂点の座標が適正位置範囲306から左にずれている、つまり、被写体305が適正位置範囲306から左側にずれた場合を区分s1として設定している。カメラシステム制御部327は、図25(b)に示すように、長方形307の領域と適正位置範囲306の領域とが予め設定された割合以上重複している、つまり、被写体305が適正位置範囲306に存在する場合を区分s2として設定している。さらに、カメラシステム制御部327は、図25(c)に示すように、長方形307が予め設定された割合未満で、かつ各頂点の座標が適正位置範囲306から右にずれている、つまり、被写体305が適正位置範囲306から右側にずれた場合を区分3として設定している。
 図25(d)~図25(f)は、各区分に応じた振動波形を示している。図25(d)~図25(f)は、図24(d)~図24(f)と同一であるので、説明を省略する。カメラシステム制御部327は、上述のように、各区分に応じた振動波形を予め設定している。
 カメラシステム制御部327は、被写体305の位置が区分s2に該当すると判断した場合、つまり、被写体305が適正位置範囲306に存在する場合、振動波形kを振動子331に与える。振動波形kは、振動波形jに比べて振幅が小さい。したがって、撮影タイミングであることを把握することができる。また、カメラシステム制御部327は、撮影タイミングにおいて最も振幅が小さい振動波形を与えるので、撮影時の手ぶれが抑制される。
 カメラシステム制御部327は、被写体305の位置が区分s1に該当すると判断した場合、または被写体305の位置が区分s3に該当すると判断した場合、振動波形jを振動子331に与える。振動波形jは、振動波形kより振幅が大きい。したがって、振動を認知したユーザは、被写体305の位置が適切でないことを把握することができる。カメラシステム制御部327は、被写体303の大きさに応じて振動子331に与える振動波形の周波数を異ならせてもよい。
 なお、カメラシステム制御部327は、被写体303の大きさに応じて振動子331に図19(b)から図19(d)に示すのこぎり波を与えてもよい。さらに、二つの振動子が配置されている場合、カメラシステム制御部327は、被写体303の大きさに応じて図21~図23で示した振動波形を各振動子に与えてもよい。これらの場合、カメラシステム制御部327は、被写体305がずれている方向をユーザに報知することができる。
 カメラシステム制御部327が被写体305の位置に応じて振動波形を変化させる場合、振動子331は、光軸方向に交差する方向に振動するよう配置されることが好ましい。また、二つの振動子が配置される場合、光軸方向に交差する方向に離間して配置するのが好ましい。図26は、二つの振動子が配置される場合における、カメラシステム102の上部概観図である。ここでは、X軸方向に離間して振動子334、335が配置されている。
 カメラシステム制御部327は、被写体305の位置が区分s1に該当すると判断した場合、カメラシステム102を上部から見た場合において、右側の振動子334に図23(b)上段に示す振動波形を、左側の振動子335に図23(b)下段に示す振動波形をそれぞれ与えてもよい。図23(b)上段に示す振動波形は、図23(b)下段に示す振動波形より先に立ち上がる。したがって、振動を認知したユーザは、振動が右側から左側に移動したように感じる。これにより、ユーザは、カメラシステム102を右側に向けなければならないことを把握することができる。
 また、カメラシステム制御部327は、被写体305の位置が区分s3に該当すると判断した場合、右側の振動子334に図23(d)上段に示す振動波形を、左側の振動子335に図23(d)下段に示す振動波形をそれぞれ与える。図23(d)上段に示す振動波形は、図23(d)下段に示す振動波形より後に立ち上がる。したがって、振動を認知したユーザは、振動が左側から右側に移動したように感じる。これにより、ユーザは、カメラシステム102を左側に向けなければならないことを把握することができる。
 以上の説明において、振動子としてピエゾ素子が配置された構成について説明したが、振動子としてボイスコイルモータを用いることもできる。ボイスコイルモータが用いられる場合、カメラユニット300の筐体内部に膜を介してボイスコイルモータを配置することによって、振動ユニットが形成される。また、振動波形として正弦波形が適用される場合、例えば携帯電話機に用いられる振動モータが用いられてもよい。振動子としてピエゾ素子以外の素子が用いられた場合であっても、カメラシステム制御部327は、撮影タイミングにおいて素子の物理的な変位量が最小となるよう駆動電圧を与えることで、撮影タイミングをユーザに報知することができる。
 以上の説明において、振動子は、例えばカメラシステムのグリップ部分に配置されると説明したが、レンズユニットに配置されてもよい。また、レンズユニットが三脚座を有する場合、振動子は三脚座に配置されてもよい。振動子は、レンズユニット側の接点を共有することにより、電力の供給を受けることができる。また、振動子は、カメラシステムの重心部分に配置されてもよい。カメラシステムの重心部分に振動子が配置される構成によって、振動子の振動による回転トルクを最小限に留めることができる。したがって、カメラシステムの重心部分に振動子が配置される構成は、手振れ防止の観点から効果的である。
 また、以上の説明において、カメラシステム制御部327は、デフォーカス量に応じた区分を判断し、当該区分に応じた振動波形を振動子に与えたが、より直接的にデフォーカス量に比例した振幅を有する振動波形を与えてもよい。この場合、振動波形は、デフォーカス量を入力値とする関数で表現される。撮影モードが動画撮影モードに設定されている場合、カメラシステム制御部327は、撮影モードが静止画撮影モードに設定されている場合に比べて振動波形の振幅を小さくしてもよいし、振動子に振動波形を与えることを抑止してもよい。これにより、動画撮影時において、振動子の振動によって発生する音声が録音されることを防止することができる。
<第3実施形態>
 図27は、本実施形態に係るカメラシステム400の外観斜視図である。カメラシステム400は、レンズユニット500がカメラユニット600に装着されて構成されるレンズ交換式一眼レフカメラである。レンズユニット500は、レンズマウント524を備え、カメラユニット600は、カメラマウント611を備える。レンズマウント524とカメラマウント611が係合してレンズユニット500とカメラユニット600が一体化されると、レンズユニット500とカメラユニット600はカメラシステム400として機能する。なお、以後の説明においては、図示するように、光軸502に沿って被写体光束(被写体からの光束)が入射する方向である前後方向にz軸を定める。また、z軸に直交し、かつカメラユニット600の長手方向と平行な方向である左右方向にx軸、z軸およびx軸に直交する方向である上下方向にy軸を定める。
 光軸502と平行な矢印421に沿って、レンズマウント524をカメラマウント611へ接近させ、レンズ指標509とボディ指標640が対向するように両者を接触させる。更に、レンズマウント524のマウント面とカメラマウント611のマウント面の接触を保ったまま、レンズユニット500を矢印422の方向へ回転させる。すると、ロックピン650によるロック機構が作動し、レンズユニット500はカメラユニット600に固定される。この状態において、レンズユニット500側の通信端子とカメラユニット600側の通信端子は接続が確立され、互いに制御信号等の通信および電力の供給を行うことができる。
 カメラユニット600は、被写体を観察するためのファインダ窓618、ライブビュー画像等を表示するための表示部628を備える。また、レンズユニット500は、振動子531、532を備える。本実施形態において、振動子531、532は、撮影時にユーザがレンズユニット500を把持する部分に配置される。具体的には、レンズユニット500がカメラユニット600に装着された場合の横位置の姿勢において、振動子531、532は、レンズユニット500における鉛直下側の領域に配置される。ここで、横位置は、カメラシステム400の底面が、鉛直方向下向きに向いた状態をいう。振動子531、532は、z軸方向に離間して配置されている。
 そして、カメラシステム400は、被写体像の少なくとも一部に応じて被写体の状況を判断し、当該判断に応じて振動子531、532を連動させて振動させる。本実施形態では、カメラシステム400は、被写体の状況として被写体のデフォーカス状態を判断する。カメラシステム400は、被写体のデフォーカス状態に応じて振動子531、532が生じさせる振動波形を異ならせる。
 本実施形態によれば、ユーザは、レンズユニット500を左手で把持しつつマニュアルフォーカス操作を行う場合、左手で受ける振動によって、被写体のデフォーカス状態を把握することができる。したがって、ユーザは、ファインダ窓618または表示部628を見なくとも、フォーカスリング501を調整することができる。
 図28は、カメラシステム400の要部断面図である。レンズユニット500は、光軸502に沿って配列されたレンズ群510、絞り521を備える。レンズ群510は、フォーカスレンズ511、ズームレンズ512を含む。レンズユニット500は、振動波モータ、VCM等の複数のモータを有し、フォーカスレンズ511を光軸502方向に駆動する。レンズユニット500はさらに、レンズユニット500の制御および演算を司るレンズシステム制御部522を備える。また、レンズユニット500は、フォーカスリング501を備える。ユーザは、マニュアルフォーカス操作を行う場合、フォーカスリング501を回転させることにより、フォーカスレンズ511を連動して駆動させる。
 レンズユニット500はさらに、二つの振動子531、532を収容している。振動子531、532は、例えばピエゾ素子であり、レンズ鏡筒523に配置され、その伸縮によってレンズ鏡筒523に振動を生じさせる。ピエゾ素子では、入力される駆動電圧としての振動波形と、素子の物理的な変位量としての振動波形とが比例関係を有する。
 レンズユニット500を構成する各要素は、レンズ鏡筒523に支持されている。また、レンズユニット500は、カメラユニット600との接続部にレンズマウント524を備え、カメラユニット600が備えるカメラマウント611と係合して、カメラユニット600と一体化する。
 カメラユニット600は、レンズユニット500から入射される被写体像を反射するメインミラー612と、メインミラー612で反射された被写体像が結像するピント板613を備える。メインミラー612は、回転軸614周りに回転することによって、光軸502を中心とする被写体光束中に斜設される状態と、被写体光束から退避する状態を取り得る。メインミラー612は、ピント板613側へ被写体像を導く場合、被写体光束中に斜設される。また、ピント板613は、撮像素子615の受光面と共役の位置に配置されている。
 ピント板613で結像した被写体像は、ペンタプリズム616で正立像に変換され、接眼光学系617を介してユーザに観察される。斜設状態におけるメインミラー612の光軸502の近傍領域は、ハーフミラーとして形成されており、入射される光束の一部が透過する。透過した光束は、メインミラー612と連動して動作するサブミラー619で反射されて、焦点検出センサ622へ入射される。焦点検出センサ622は、例えば位相差検出センサであり、受光した被写体光束から位相差信号を検出する。なお、サブミラー619は、メインミラー612が被写体光束から退避する場合は、メインミラー612に連動して被写体光束から退避する。
 斜設されたメインミラー612の後方には、光軸502に沿って、フォーカルプレーンシャッタ623、光学ローパスフィルタ624、撮像素子615が配列されている。フォーカルプレーンシャッタ623は、撮像素子615へ被写体光束を導くときに開放状態を取り、その他のときに遮蔽状態を取る。光学ローパスフィルタ624は、撮像素子615の画素ピッチに対する被写体像の空間周波数を調整する役割を担う。撮像素子615は、例えばCMOSセンサなどの受光素子であり、受光面で結像した被写体像を電気信号に変換する。
 撮像素子615で光電変換された電気信号は、メイン基板625に搭載されたASICである画像処理部626によって画像データに処理される。メイン基板625は、画像処理部626の他に、カメラユニット600のシステムを統合的に制御するMPUであるカメラシステム制御部627を搭載している。カメラシステム制御部627は、カメラシーケンスを管理すると共に、各構成要素の入出力処理等を行う。
 カメラユニット600の背面には、液晶モニタ等による表示部628が配設されており、画像処理部626で処理された被写体画像が表示される。また、撮像素子615が連続的に光電変換する被写界像を表示部628に逐次表示することによって、ライブビュー表示が実現される。カメラユニット600はさらに、着脱可能な二次電池629を収容している。二次電池629は、カメラユニット600に限らず、レンズユニット500にも電力を供給する。
 図29は、カメラシステム400のシステム構成図である。カメラシステム400は、レンズユニット500とカメラユニット600のそれぞれに対応して、レンズシステム制御部522を中心とするレンズ制御系と、カメラシステム制御部627を中心とするカメラ制御系により構成される。そして、レンズ制御系とカメラ制御系は、レンズマウント524とカメラマウント611によって接続される接続部を介して、相互に各種データ、制御信号の授受を行う。
 カメラ制御系に含まれる画像処理部626は、カメラシステム制御部627からの指令に則して、撮像素子615で光電変換された撮像信号を所定の画像フォーマットに従った画像データに処理する。具体的には、画像処理部626は、静止画像としてJPEGファイルを生成する場合、色変換処理、ガンマ処理、ホワイトバランス処理等の画像処理を行った後に、適応離散コサイン変換等を施して圧縮処理をする。
 また、画像処理部626は、動画像としてMPEGファイルを生成する場合、所定の画素数に縮小して生成した連続する静止画としてのフレーム画像に対して、フレーム内符号化、フレーム間符号化を施して圧縮処理をする。
 カメラメモリ641は、例えばフラッシュメモリなどの不揮発性メモリであり、カメラシステム400を制御するプログラム、各種パラメータなどを記憶する役割を担う。ワークメモリ642は、例えばRAMなどの高速アクセスできるメモリであり、処理中の画像データを一時的に保管する役割などを担う。
 表示制御部643は、カメラシステム制御部627の指示に従って、表示画面を表示部628に表示させる。モード切替部644は、ユーザによる撮影モード、フォーカスモード等のモード設定を受け付けて、カメラシステム制御部627へ出力する。撮影モードには、動画撮影モードと静止画撮影モードが含まれる。また、フォーカスモードには、オートフォーカスモードとマニュアルフォーカスモードが含まれる。
 焦点検出センサ622には、被写体空間に対して、例えばユーザによって選択された一つの測距点が設定されている。焦点検出センサ622は、設定された測距点における位相差信号を検出する。焦点検出センサ622は、測距点における被写体がフォーカス状態かデフォーカス状態かを検出できる。焦点検出センサ622は、デフォーカス状態の場合、合焦位置からのデフォーカス量も検出することができるように構成されている。
 レリーズスイッチ645は、押し込み方向に2段階のスイッチ位置を備えている。カメラシステム制御部627は、第1段階のスイッチであるsw1がオンになったことを検出すると、焦点検出センサ622から位相差情報を取得する。カメラシステム制御部627は、フォーカスモードがオートフォーカスモードである場合、レンズシステム制御部522へフォーカスレンズ511の駆動情報を送信する。さらに、カメラシステム制御部627は、第2段階のスイッチであるsw2がオンになったことを検出すると、予め定められた処理フローに従って撮影処理を実行する。
 一方、フォーカスモードがマニュアルフォーカスモードである場合、カメラシステム制御部627は、焦点検出センサ622と協働して被写体像の少なくとも一部に基づいて被写体の奥行き状況を判断する判断部として機能する。具体的には、カメラシステム制御部627は、焦点検出センサ622から取得した位相差情報から、被写体のデフォーカス状態を判断する。
 そして、カメラシステム制御部627は、レンズシステム制御部522を介して、被写体のデフォーカス状態に応じた振動波形を振動子531、532に与える。したがって、ユーザは、ファインダ窓618、表示部628を見ずに被写体を撮影する場合であっても、振動子531、532の振動の変化を認知することによって被写体のデフォーカス状態を知ることができる。振動子531、532は、カメラシステム制御部627から振動波形を受け付け、受け付けた振動波形に従って伸縮する。
 続いて、カメラシステム制御部627による被写体のデフォーカス状態の判断について詳細に説明する。図30は、振動子531、532に与える振動波形を説明するための説明図である。図30(a)は、撮像素子615、フォーカスレンズ511、被写体411の光軸502方向の位置関係を示し、特に、フォーカスレンズ511の位置と被写体411のデフォーカス状態に応じた区分(s1、s2、s3、s4、s5)を示している。
 ここで、被写体411のデフォーカス状態に応じた区分とデフォーカス量との関係について説明する。例えば、区分s2の範囲内で合焦する前ピンにおいて、撮像面におけるデフォーカス量は一義的に定まる。したがって、カメラシステム制御部627は、デフォーカス量に応じてどの区分内でフォーカスレンズ511が合焦しているか判断することができる。
 カメラシステム制御部627は、図30(a)に示すように、被写体411のデフォーカス状態に応じた区分を予め設定している。具体的には、カメラシステム制御部627は、フォーカス状態とみなせる範囲を、焦点距離、絞り値等のパラメータのテーブルとして保持し、当該フォーカス状態とみなせる範囲を区分s3として設定している。
 さらに、カメラシステム制御部627は、デフォーカス状態が前ピンの場合をデフォーカス量に応じて区分s1、区分s2として2段階に分けて設定している。デフォーカス状態が後ピンの場合も同様に、カメラシステム制御部627は、デフォーカス量に応じて区分s4、区分s5として2段階に分けて設定している。
 図30(b)~図30(f)は、各区分に応じた振動波形を示している。具体的には、区分s1と図30(b)に示す振動波形とが、対応している。同様に、区分s2と図30(c)に示す振動波形、区分s3と図30(d)に示す振動波形、区分s4と図30(e)に示す振動波形、区分s5と図30(f)に示す振動波形とが、それぞれ対応している。ここで、図30(b)上段と図30(f)下段の振動波形は同一である。同様に、図30(c)上段と図30(e)下段の振動波形、図30(d)上段と図30(d)下段の振動波形、図30(e)上段と図30(c)下段の振動波形、図30(f)上段と図30(b)下段の振動波形は、それぞれ同一である。各図において、縦軸が電圧V、横軸が時間tを示している。各振動波形における、電圧が上昇している部分によって振動子531、532は伸び、電圧が低下している部分によって振動子531、532は縮む。
 また、図30(b)上段と図30(f)下段に示す振動波形を振動波形a、図30(c)上段と図30(e)下段に示す振動波形を振動波形b、図30(d)上段と図30(d)下段に示す振動波形を振動波形cと称す。さらに、図30(e)上段と図30(c)下段に示す振動波形を振動波形d、図30(f)上段と図30(b)下段に示す振動波形を振動波形eと称す。図30(b)~図30(f)において、上段は、被写体に近い側の振動子531に与えられる振動波形を示し、下段は、ユーザに近い側の振動子532に与えられる振動波形を示している。
 カメラシステム制御部627は、各区分に応じた振動波形を予め設定している。具体的には、カメラシステム制御部627は、振動波形の設定項目として、振動波形の振幅、周期、種別を予めカメラメモリ641に保持している。振動波形の種別として、正弦曲線、のこぎり波等が挙げられる。
 カメラシステム制御部627は、図30(b)から図30(f)の下段の振動波形に示すように、被写体側の振動子531に対し、区分s1から区分s5に向かって変移するにつれて振幅が大きくなるよう振動波形を設定している。一方、図30(b)から図30(f)の下段の振動波形に示すように、カメラシステム制御部627は、ユーザ側の振動子532に対し、区分s1から区分s5に向かって変移するにつれて振幅が小さくなるよう振動波形を設定している。
 カメラシステム制御部627は、デフォーカス状態が区分s1または区分s2に該当する場合、つまり、デフォーカス状態が前ピンの場合、ユーザ側の振動子532に、被写体側の振動子531に与える振動波形の振幅より大きい振幅を有する振動波形を与える。一方、カメラシステム制御部627は、デフォーカス状態が区分s4または区分s5に該当する場合、つまり、デフォーカス状態が後ピンの場合、ユーザ側の振動子532に、被写体側の振動子531に与える振動波形の振幅より小さい振幅を有する振動波形を与える。したがって、ユーザは、どちらの振動子がより大きく振動するかによって、デフォーカス方向を感覚的に理解することができる。
 また、図30(b)および図30(c)に関して、上段の各振動波形を比較すると、図30(b)に示す振動波形が、図30(c)に示す振動波形より振幅が小さい。下段の各振動波形を比較すると、逆に、図30(c)に示す振動波形が、図30(b)に示す振動波形より振幅が小さい。つまり、各振動波形の振幅の差は、区分s2より区分s1の方が大きい。したがって、ユーザは、各振動子の振幅の差の大きさによって、デフォーカス量を感覚的に理解することができる。
 カメラシステム制御部627は、被写体411のデフォーカス状態が区分s3に該当すると判断した場合、振動子531、532に共通の振動波形を与える。各振動子531、532に与えられる振動波形の振幅が一致しているので、ユーザは、ファインダ窓618または表示部628を見なくても、フォーカス状態であることを把握することができる。また、図30(b)から図30(f)に示すように、この例においては、少なくとも一方の振動子が振動しているので、ユーザにとって、カメラシステム400が正常に動作していることがわかりやすいというメリットがある。
 図31は、カメラシステム400の撮影動作フロー図である。撮影動作フローは、フォーカスモードがマニュアルフォーカスモード、撮影モードが静止画撮影モードに設定されている場合において、SW1がオンされたことをカメラシステム制御部627が検知することによって開始される。カメラシステム制御部627は、SW1がオンされたことを検知すると、焦点検出センサ622の出力を取得する(ステップS201)。
 カメラシステム制御部627は、被写体411のデフォーカス状態が区分s3に該当するか判定する(ステップS202)。カメラシステム制御部627は、被写体411のデフォーカス状態が区分s3に該当すると判定すれば(ステップS202:Yes)、振動子531、532に振動波形cを送信する(ステップS203)。カメラシステム制御部627は、被写体411のデフォーカス状態が区分s3に該当しないと判定すれば(ステップS202:No)、デフォーカス状態が区分s2に該当するか判定する(ステップS204)。カメラシステム制御部627は、デフォーカス状態が区分s2に該当すると判定すれば(ステップS204:Yes)、振動子531に振動波形bを、振動子532に振動波形dを送信する(ステップS205)。
 カメラシステム制御部627は、デフォーカス状態が区分s2に該当しないと判定すれば(ステップS204:No)、デフォーカス状態が区分s1に該当するか判定する(ステップS206)。カメラシステム制御部627は、デフォーカス状態が区分s1に該当すると判定すれば(ステップS206:Yes)、振動子531に振動波形aを、振動子532に振動波形eを送信する(ステップS207)。
 カメラシステム制御部627は、デフォーカス状態が区分s1に該当しないと判定すれば(ステップS206:No)、デフォーカス状態が区分s4に該当するか判定する(ステップS208)。カメラシステム制御部627は、デフォーカス状態が区分s4に該当すると判定すれば(ステップS208:Yes)、振動子531に振動波形dを、振動子532に振動波形bを送信する(ステップS209)。
 デフォーカス状態が区分s4に該当しないと判定されれば(ステップS208:No)、デフォーカス状態は、区分s5に該当することになる。この場合、カメラシステム制御部627は、振動子531に振動波形eを、振動子532に振動波形aを送信する(ステップS210)。
 カメラシステム制御部627は、何れかの振動波形を送信した後、SW2がオンされたかを判定する(ステップS211)。カメラシステム制御部627は、SW2がオンされたと判定すれば(ステップS211:Yes)、撮影処理を実行する(ステップS212)。
 一方、SW2がオンされていないと判定すれば(ステップS211:No)、カメラシステム制御部627は、SW1のタイマがオフされたか判定する(ステップS213)。カメラシステム制御部627は、SW1のタイマがオフされていないと判定すれば(ステップS213:No)、ステップS201に戻る。カメラシステム制御部627は、SW1のタイマがオフされたと判定すれば(ステップS213:Yes)、または撮影処理が実行されれば、振動波形の送信を停止し(ステップS214)、一連の撮影動作フローを終了する。なお、カメラシステム制御部627は、SW2がオンされたと判定すれば(ステップS211:Yes)、撮影処理前に振動波形の送信を停止してもよい。
 以上、説明したように、カメラシステム制御部627は、sw1がオンされている間、被写体411のデフォーカス状態を判断し、被写体411のデフォーカス状態に応じて振動子531、532を連動させて振動させる。つまり、カメラシステム制御部627は、被写体411の状況を連続的に判断し、被写体411の状況に応じて振動子531、532を連続的に振動させる。
 次に、各振動子に与えられる振動波形を替えた第1変形例について説明する。図32は、振動子531、532に与える振動波形を説明するための説明図である。図32(a)は、図30(a)と同一であるので、説明を省略する。カメラシステム制御部627は、図32(a)に示すように、被写体411のデフォーカス状態に応じた区分(s1、s2、s3、s4、s5)を予め設定している。
 図32(b)~図32(f)は、各区分に応じた振動波形を示している。各図において、縦軸が電圧V、横軸が時間tを示している。図32(b)~図32(f)において、上段は、被写体側の振動子531に与えられる振動波形を示し、下段は、ユーザ側の振動子532に与えられる振動波形を示している。具体的には、図32(b)から図32(f)の上段の振動波形に示すように、カメラシステム制御部627は、振動子531に対し、区分が区分s3→区分s4→区分s5と変移するにつれて振幅が大きくなるよう振動波形を設定している。図30との違いは、カメラシステム制御部627が、デフォーカス状態が前ピンの場合も合焦状態の場合と同様の振動波形を与えることである。
 一方、カメラシステム制御部627は、図32(b)から図32(f)の下段の振動波形に示すように、振動子532に対し、区分が区分s3→区分s2→区分s1と変移するにつれて振幅が大きくなるよう振動波形を設定している。図30との違いは、カメラシステム制御部627が、デフォーカス状態が後ピンの場合も合焦位置の場合と同様の振動波形を与えることである。図32(b)から図32(f)に示すように、この例においては、フォーカスレンズ511が合焦位置にある場合、どちらの振動子も振幅が最小となるので、振動による手振れを防止することができるというメリットがある。なお、カメラシステム制御部627は、フォーカスレンズ511が合焦位置にある場合、振動子531、532が生じさせる振動波形の振幅をゼロにしてもよい。
 次に、各振動子に与える振動波形の開始タイミングをずらすことにより、ユーザに被写体のデフォーカス状態を報知する第2変形例について説明する。図33は、振動子531、532に与える振動波形を説明するための説明図である。図33(a)は、撮像素子615、フォーカスレンズ511、被写体412の光軸502方向の位置関係を示し、特に、被写体412のデフォーカス状態に応じた区分(s1、s2、s3)を示している。カメラシステム制御部627は、図33(a)に示すように、被写体412のデフォーカス状態に応じた区分を予め設定している。ここでは、カメラシステム制御部627は、フォーカス状態とみなせる範囲を区分s2として設定している。さらに、カメラシステム制御部627は、デフォーカス状態が前ピンの場合を区分s1、後ピンの場合を区分s3として設定している。
 図33(b)~図33(d)は、各区分に応じた振動波形を示している。各図において、縦軸が電圧V、横軸が時間tを示している。図33(b)~図33(d)において、上段は、被写体側の振動子531に与えられる振動波形を示し、下段は、ユーザ側の振動子532に与えられる振動波形を示している。カメラシステム制御部627は、各振動子531、532に共通の振動波形を互いに開始タイミングをずらして与える。共通の振動波形の振幅は、経時的に大きくなる。
 具体的には、図33(b)に示すように、カメラシステム制御部627は、デフォーカス状態が区分s1に該当すると判断した場合、被写体側の振動子531に図33(b)上段に示す振動波形を、ユーザ側の振動子532に図33(b)下段に示す振動波形を、それぞれ与える。図33(b)の点線部分に示すように、図33(b)上段に示す振動波形は、図33(b)下段に示す振動波形より先に立ち上がる。したがって、振動を認知したユーザは、振動が被写体412側からユーザ側に移動したように感じる。これにより、ユーザは、被写体412から離れなければならないことを把握することができる。
 図33(d)に示すように、カメラシステム制御部627は、デフォーカス状態が区分s3に該当すると判断した場合、被写体側の振動子531に図33(d)上段に示す振動波形を、ユーザ側の振動子532に図33(d)下段に示す振動波形をそれぞれ与える。図33(d)の点線部分に示すように、図33(d)下段に示す振動波形は、図33(d)上段に示す振動波形より先に立ち上がる。したがって、振動を認知したユーザは、振動がユーザ側から被写体412側に移動したように感じる。これにより、ユーザは、被写体412に近づかなければならないことを把握することができる。
 また、図33(c)に示すように、カメラシステム制御部627は、被写体412の位置が区分s2に該当すると判断した場合、被写体側の振動子531に図33(c)上段に示す振動波形を、ユーザ側の振動子532に図33(c)下段に示す振動波形をそれぞれ与える。図33(c)上段および図33(d)下段に示す各振動波形は、開始タイミングが一致している。したがって、振動を認知したユーザは、フォーカス状態であることを把握することができる。なお、カメラシステム制御部627は、各振動子531、532に与える振動波形の位相をずらすことによって、開始タイミングをずらすこともできる。
 次に、被写体のデフォーカス状態に応じた振動波形の振幅の変化を、振動波形の周波数の変化に替えた第3変形例について説明する。第3変形例では、カメラシステム制御部627は、被写体のデフォーカス状態に応じて各振動子に与える振動波形の周波数を異ならせることにより、デフォーカス状態をユーザに報知する。
 図34は、振動子531、532に与える振動波形を説明するための説明図である。図34(a)は、図33(a)と同一であるので、説明を省略する。カメラシステム制御部627は、図34(a)に示すように、被写体412の位置に応じた区分(s1、s2、s3)を予め設定している。
 図34(b)~図34(d)は、各区分に応じた振動波形を示している。各図において、縦軸が電圧V、横軸が時間tを示している。図34(b)~図34(d)において、上段は、被写体側の振動子531に与えられる振動波形を示し、下段は、ユーザ側の振動子532に与えられる振動波形を示している。カメラシステム制御部627は、各区分に応じた振動波形を予め設定している。具体的には、カメラシステム制御部627は、図34(b)から図34(d)の上段の振動波形に示すように、被写体側の振動子531に対し、区分s1から区分s3に向かって変移するにつれて周波数が低くなるよう振動波形を設定している。
 一方、図34(b)から図34(f)の下段の振動波形に示すように、カメラシステム制御部627は、ユーザ側の振動子532に対し、区分s1から区分s3に向かって変移するにつれて周波数が高くなるよう振動波形を設定している。したがって、ユーザは、どちらの振動子が高周波かによって、デフォーカス方向を感覚的に理解することができる。
 また、カメラシステム制御部627は、被写体412のデフォーカス状態が区分s2に該当すると判断した場合、振動子531、532に与える振動波形の周波数を一致させる。したがって、ユーザは、フォーカス状態であることを把握することができる。
 次に、焦点検出センサ622の出力ではなく、ライブビューで表示されている画像の中の特定の被写体の大きさに応じて振動子531、532を連動させて振動させる第4変形例について説明する。第4変形例では、カメラシステム制御部627は、ライブビューで表示されている画像の中の特定の被写体の大きさに応じて振動子531、532を連動させて振動させる。この場合、カメラシステム制御部627は、ユーザからの操作を受けて、カメラメモリ641にパターンマッチング用の被写体画像を予め記憶しておく。カメラシステム制御部627は、例えば、ユーザによって予め設定された被写体を、特定の被写体として設定する。被写体は、人物に限らず、動物であってもよい。画像処理部626は、ライブビュー画像の中から、人物認識、顔認識機能等を用いたパターンマッチングによって特定の被写体を認識する。
 カメラシステム制御部627は、画像処理部626によって認識された特定の被写体の大きさを判断する。そして、カメラシステム制御部627は、特定の被写体の大きさに応じて振動子531、532を連動させて振動させる。これにより、ユーザに画像中の被写体の大きさを報知する。具体的には、カメラシステム制御部627は、ライブビュー画像中の特定の被写体を内接する長方形の各頂点の座標が、ライブビュー画像における縁に位置するか判断する。各頂点の座標の全てが画像における縁に位置する場合、カメラシステム制御部627は、特定の被写体が大きすぎると判断する。この場合、被写体が画像に収まっていない可能性が高いからである。
 カメラシステム制御部627は、各頂点の座標のうち画像における縁に位置しない座標が存在する場合、画像中の被写体を内接する長方形の面積を算出し、算出した面積を予め設定された閾値と比較する。そして、カメラシステム制御部627は、算出した面積が予め設定された閾値以上である場合、被写体の大きさが適切であると判断する。つまり、撮影タイミングであると判断する。一方、カメラシステム制御部627は、算出した面積が予め設定された閾値未満である場合、被写体の大きさが小さすぎると判断する。
 図35は、ライブビュー画像における被写体417の大きさと振動波形との関係を示す概念図である。特に図35(a)から図35(c)は、被写体417が大きすぎる場合、適切な大きさである場合、小さすぎる場合をそれぞれ示している。カメラシステム制御部627は、被写体417の大きさに応じた区分を予め設定している。ここでは、カメラシステム制御部627は、被写体417を囲む長方形418の各頂点の座標の全てが、画像における縁に位置する場合を区分s1として設定している。カメラシステム制御部627は、被写体417を内接する長方形418の面積が、予め設定された閾値以上である場合を区分s2として設定している。さらに、カメラシステム制御部627は、被写体417を内接する長方形418の面積が、予め設定された閾値未満である場合を区分3として設定している。
 図35(d)~図35(f)は、各区分に応じた振動波形を示している。図35(e)上段と図35(f)上段の振動波形は同一である。同様に、図35(d)下段と図35(e)下段の振動波形は同一である。各図において、縦軸が電圧V、横軸が時間tを示している。図35(d)~図35(f)において、上段は、被写体側の振動子531に与えられる振動波形を示し、下段は、ユーザ側の振動子532に与えられる振動波形を示している。カメラシステム制御部627は、上述のように、各区分に応じた振動波形を予め設定している。
 具体的には、カメラシステム制御部627は、被写体側の振動子531に対し、区分s1の場合に与える振動波形として、他の区分に与える振動波形の振幅より大きな振幅を有する振動波形を設定している。一方、カメラシステム制御部627は、ユーザ側の振動子532に対し、区分s3の場合に与える振動波形として、他の区分に与える振動波形の振幅より大きな振幅を有する振動波形を設定している。
 カメラシステム制御部627は、被写体417の大きさが区分s2に該当すると判断した場合、図35(e)で示す各振動波形を振動子531、532に与える。振動子531、532に与えられる振動波形の振幅が共に小さいので、振動を認知したユーザは、被写体の大きさが適切であること、つまり、撮影タイミングであることを把握することができる。また、カメラシステム制御部627は、撮影タイミングにおいて最も振幅が小さい振動波形を与えるので、撮影時の手ぶれが抑制される。
 カメラシステム制御部627は、被写体417の大きさが区分s1に該当すると判断した場合、図35(d)に示す各振動波形を振動子531、532に与える。また、カメラシステム制御部627は、被写体417の大きさが区分s3に該当すると判断した場合、図35(f)で示す各振動波形を振動子531、532に与える。これらの場合、一方の振動子のみが大きく振動するので、振動を認知したユーザは、被写体417の大きさが大きすぎるのか、小さすぎるのかを把握することができる。
 次に、カメラシステム制御部627が、ライブビューで表示されている画像の中の特定の被写体の移動に応じて振動子531、532を連動させて振動させる第5変形例について説明する。第5変形例では、カメラシステム制御部627は、ライブビューで表示されている画像の中の特定の被写体の面積を第1面積として算出する。そして、一定時間経過後に、カメラシステム制御部627は、再度、特定の被写体の面積を第2面積として算出し、両面積を比較する。
 カメラシステム制御部627は、第1面積と第2面積の差が一定の範囲に収まる場合、被写体が移動していないと判断する。カメラシステム制御部627は、第1面積と第2面積の差が一定の範囲に収まらない場合、第2面積が第1面積より大きければ、被写体がユーザ側に近づいたと判断する。一方、カメラシステム制御部627は、第2面積が第1面積より小さければ、被写体がユーザ側から遠のいたと判断する。
 図36は、振動子531、532に与える振動波形を説明するための説明図である。特に図36(a)から図36(c)は、被写体419の状況を示している。カメラシステム制御部627は、被写体419の移動に応じた区分を予め設定している。ここでは、カメラシステム制御部627は、図36(a)に示すように、被写体419がユーザから遠のいた場合を区分s1として設定している。カメラシステム制御部627は、図36(b)に示すように、被写体419が移動していない場合を区分s2として設定している。さらに、カメラシステム制御部627は、図36(c)に示すように、被写体419がユーザに近づいた場合を区分3として設定している。
 図36(d)~図36(f)は、各区分に応じた振動波形を示している。図36(d)~図36(f)は、図35(d)~図35(f)と同一であるので、説明を省略する。カメラシステム制御部627は、各区分に応じた振動波形を予め設定している。
 カメラシステム制御部627は、被写体419の移動が区分s2に該当すると判断した場合、図36(e)で示す各振動波形を振動子531、532に与える。振動子531、532に与えられる振動波形の振幅が共に小さいので、振動を認知したユーザは、被写体が移動していないこと、つまり、撮影タイミングであることを把握することができる。また、カメラシステム制御部627は、撮影タイミングにおいて最も振幅が小さい振動波形を与えるので、撮影時の手ぶれが抑制される。
 カメラシステム制御部627は、被写体419の移動が区分s1に該当すると判断した場合、図36(d)に示す各振動波形を振動子531、532に与える。また、カメラシステム制御部627は、被写体419の移動が区分s3に該当すると判断した場合、図36(f)で示す各振動波形を振動子531、532に与える。これらの場合、一方の振動子のみが大きく振動するので、振動を認知したユーザは、被写体419がユーザに近づいたのか、ユーザから遠のいたのかを感覚的に理解することができる。
 次に、二つの振動子がカメラユニットに配置された第6変形例について説明する。第6変形例では、カメラシステム制御部627は、被写体のデフォーカス状態を判断する。図37は、カメラシステム401の上部概観図である。ここでは、二つの振動子631、632は、カメラユニット601のグリップ部分630に、z軸方向に離間して配置される。したがって、ユーザは、レンズユニット503を左手で把持しつつマニュアルフォーカス操作を行う場合、ファインダ窓618または表示部628を見なくとも、右手で振動を認知することによって、被写体のデフォーカス状態を把握しながらフォーカスリング501を調整することができる。
 二つの振動子の一方がレンズユニットに配置され、他方がカメラユニットに配置された第7変形例について説明する。第7変形例では、カメラシステム制御部627は、被写体のデフォーカス状態を判断する。図38は、カメラシステム402の上部概観図である。振動子533はレンズユニット504に、振動子633はカメラユニット602のグリップ部分630に、z軸方向に離間して配置される。振動子533は、レンズユニット504の鉛直方向の下側の領域に配置される。したがって、ユーザは、レンズユニット504を左手で把持しつつマニュアルフォーカス操作を行う場合、ファインダ窓618または表示部628を見なくとも、両手で振動を認知することによって、被写体のデフォーカス状態を把握しながらフォーカスリング501を調整することができる。
 また、レンズユニットが三脚座を有する場合、各振動子は三脚座に配置されてもよい。この場合、カメラシステムは、被写体の大きさを判断する。図39は、カメラシステム403の側部概観図である。レンズユニット505は、三脚座550を有し、三脚座550の内部に、光軸502方向に離間して振動子534、535が配置されている。したがって、ユーザは、三脚座550を左手で把持しながら撮影する場合、ファインダ窓618または表示部628を見なくとも、左手で振動を認知することによって、被写体の大きさを把握しながら撮影することができる。また、カメラシステム403は、被写体の移動を判断してもよい。なお、上述では、カメラシステム制御部627が、被写体像の少なくとも一部に基づいて被写体の奥行き状況を判断する判断し、当該判断に応じて振動子531、532を連動させて振動させる機能を備えていたが、レンズシステム制御部522が当該機能を備えていてもよい。
 以上の説明において、振動子としてピエゾ素子が配置された構成について説明したが、振動子としてボイスコイルモータを用いることもできる。ボイスコイルモータが用いられる場合、レンズユニットまたはカメラユニットの内部に膜を介してボイスコイルモータを配置することによって、振動ユニットが形成される。また、振動波形として正弦波形が適用される場合、例えば携帯電話機に用いられる振動モータが用いられてもよい。振動子としてピエゾ素子以外の素子が用いられた場合であっても、カメラシステム制御部627は、フォーカス状態において素子の物理的な変位量が最小となるよう駆動電圧を与えることで、デフォーカス状態をユーザに報知することができる。被写体の大きさ、または被写体の移動に関しても同様に、カメラシステム制御部627は、駆動電圧を適宜調節することにより被写体の状況をユーザに報知することができる。
 また、カメラシステム制御部627は、デフォーカス量に応じた区分を判断し、当該区分に応じた振動波形を振動子に与えたが、より直接的にデフォーカス量に比例した振幅を有する振動波形を与えてもよい。この場合、振動波形は、デフォーカス量を入力値とする関数で表現される。撮影モードが動画撮影モードに設定されている場合、カメラシステム制御部627は、撮影モードが静止画撮影モードに設定されている場合に比べて振動波形の振幅を小さくしてもよいし、振動子に振動波形を与えることを抑止してもよい。これにより、動画撮影時において、振動子の振動によって発生する音声が録音されることを防止することができる。
<第4実施形態>
 図40は、本実施形態に係るデジタルカメラ700のシステム構成図である。デジタルカメラ700は、デジタルカメラ700を直接的または間接的に制御するカメラシステム制御部701と、ズームレンズ等を含む光学系を制御するレンズシステム制御部702とを備える。デジタルカメラ700は、カメラシステム制御部701を中心とするカメラ制御系と、レンズシステム制御部702を中心とするレンズ制御系とにより構成される。レンズ制御系とカメラ制御系は、レンズマウント703とカメラマウント704によって接続される接続部を介して、相互に各種データ、制御信号の授受を行う。レンズシステム制御部702は、カメラシステム制御部701からの指令を受け取って、ズームレンズ駆動部705にズームレンズ制御信号を送る。ズームレンズ駆動部705は、レンズシステム制御部702から受信したズームレンズ制御信号に応じて、ズームレンズを駆動する。
 カメラ制御系に含まれる画像処理部706は、カメラシステム制御部701からの指令に則して、撮像部としての撮像素子707において光電変換された撮像信号を所定の画像フォーマットに従った画像データに処理する。具体的には、画像処理部706は、静止画像としてJPEGファイルを生成する場合、色変換処理、ガンマ処理、ホワイトバランス処理等の画像処理を行った後に、適応離散コサイン変換等を施して圧縮処理をする。また、画像処理部706は、動画像としてMPEGファイルを生成する場合、所定の画素数に縮小して生成した連続する静止画としてのフレーム画像に対して、フレーム内符号化、フレーム間符号化を施して圧縮処理をする。
 カメラメモリ708は、例えばフラッシュメモリなどの不揮発性メモリであり、デジタルカメラ700を制御するプログラム、各種パラメータなどを記憶する役割を担う。ワークメモリ709は、例えばRAMなどの高速アクセスできるメモリであり、処理中の画像データを一時的に保管する役割などを担う。画像処理部706によって処理された画像データは、ワークメモリ709から記録部712に記録される。記録部712は、フラッシュメモリ等により構成される、デジタルカメラ700に対して着脱可能な不揮発性メモリである。画像処理部706は、記録用に処理される画像データに並行して、表示用の画像データを生成する。表示用の画像データは、記録用に処理される画像データをコピーして間引き処理された、画素数の少ない画像データである。
 表示制御部710は、カメラシステム制御部701の指示に従って、表示画面を表示部711に表示させる。画像処理部706によって生成された表示用の画像データは、表示制御部710の制御に従って、表示部711に表示される。また、表示制御部710は、逐次表示用の画像データを生成し、ライブビュー画像を表示部711に表示させる。
 デジタルカメラ700は、当該デジタルカメラ700の姿勢を検出する姿勢センサ713を備える。姿勢センサ713は、例えば互いに直交する3軸方向に感度を有する加速度センサであって、デジタルカメラ700の姿勢を検出することができる。また、姿勢センサ713は、精度良く重力方向を検出する重力加速度センサとしても機能する。この場合、カメラシステム制御部701は、姿勢センサ713の出力信号を解析する場合のサンプリング周波数または感度を変更することによって、姿勢センサ713の出力信号に応じて重力方向を検出する。
 モード切替部715は、ユーザによる撮影モード等のモード設定を受け付けて、カメラシステム制御部701へ出力する。本実施形態に係る撮影モードには、ノールック撮影モードが含まれる。ここで、ノールック撮影モードとは、光学ファインダ像または表示部711に表示されるライブビュー画像を視認することなく、被写体の撮影を行うことを支援する撮影モードである。なお、ノールック撮影モードにおける撮影動作については、後述する。
 シャッタボタン800は、押し込み方向に2段階のスイッチ位置を有しており、ユーザから撮影動作の指示を受け付ける。ユーザがシャッタボタン800を第1段階の位置に押し込むと、カメラシステム制御部701は、撮影準備動作としてフォーカス調整および測光を実行する。そして、ユーザがシャッタボタン800を第2段階の位置に押し込むと、カメラシステム制御部701は、撮影動作を実行する。
 本実施形態に係るシャッタボタン800は、上記したノールック撮影モードで撮影する場合に、撮像素子707が被写体像を適切に捉えるために必要なデジタルカメラ700の回転方向に対応する態様の変化をユーザに知覚させる構成を備えている。具体的には、シャッタボタン800は、当該シャッタボタン800に触れるユーザに対して触覚を感知させるように動作する触覚発生部を備えている。シャッタボタン駆動部714は、カメラシステム制御部701からの指令に応じて、シャッタボタン800に設けられた触覚発生部を駆動する。
 図41は、本実施形態に係るシャッタボタン800を説明するための図である。図41(a)は、シャッタボタン800の分解斜視図を示す。シャッタボタン800は、デジタルカメラ700本体に取り付けられる土台部801と、土台部801の上方から取り付けられるカバー802と、触覚発生部803とを備える。土台部801は、円柱状の中空部材であって、土台部801の上面には、複数の貫通孔804が形成されている。本実施形態においては、計8個の貫通孔804が、土台部801の上面に周方向に略等間隔に配置されている。
 触覚発生部803は、それぞれの貫通孔804に挿通された触覚棒805と、土台部801の内部に収容され、各触覚棒805を上下方向に駆動する触覚棒駆動部806とを含む。触覚棒駆動部806は、例えばソレノイドによって構成され、シャッタボタン駆動部714からの指令に応じて、各触覚棒805を上下方向に駆動する。カバー802は、例えばゴムシート等の可撓性材料から構成され、触覚棒805と接触するように、土台部801の上方から取り付けられる。
 図41(b)は、触覚発生部803がユーザに傾き方向を検知させるように、各触覚棒805を配置させた状態を示す図である。図41(b)に示す状態においては、触覚棒駆動部806は、紙面右端に配置された触覚棒805aを最も高い位置に駆動している。そして、触覚棒805aの紙面左側に隣接する触覚棒805b、805cを触覚棒805aよりもやや低い位置に駆動している。同様に、触覚棒駆動部806は、触覚棒805d、805eを触覚棒805b、805cよりもやや低い位置に、触覚棒805f、805gを触覚棒805d、805eよりもやや低い位置に、それぞれ駆動している。そして、触覚棒駆動部806は、紙面左端に配置された触覚棒805hを最も低い位置に駆動している。
 触覚棒駆動部806が触覚棒805を図41(b)に示すように駆動することによって、各触覚棒805の上端に覆い被されるカバー802は、図41(b)中の仮想平面Aに示すように、左下がりに傾斜して変形する。これにより、ユーザは、触覚棒805によって形成される傾斜方向を知覚することができる。なお、触覚棒駆動部806は、各触覚棒805の駆動量を変化させることによって、様々な方向の傾斜を作り出すことができる。
 図41(c)は、ユーザに回転方向に対応する態様の変化を検知させるように、触覚棒駆動部806が触覚棒805を駆動する状態を示す図である。図41(c)に示す状態においては、触覚棒駆動部806は、触覚棒805dを他の触覚棒805よりも高い位置に突出させている。例えば、触覚棒駆動部806は、次の段階として、触覚棒805dを他の触覚棒805の位置にまで下げ、触覚棒805fを他の触覚棒805よりも高い位置に突出させる。同様にして、触覚棒駆動部806は、触覚棒805f、触覚棒805h、触覚棒805g、触覚棒805e、触覚棒805c、触覚棒805a、触覚棒805bの順に突出させる。この動作によって、ユーザは、図41(b)の矢印Bに示すように、紙面上方から見て反時計周りの回転を検知することができる。
 同様にして、触覚発生部803は、ユーザに、矢印Bの反対方向、すなわち、紙面上方から見て時計周りの方向への回転を検知させることもできる。この場合、触覚棒駆動部806は、触覚棒805d、触覚棒805b、触覚棒805a、触覚棒805c、触覚棒805e、触覚棒805g、触覚棒805h、触覚棒805fの順に上方に突出させる。なお、触覚棒駆動部806は、触覚棒805を上記の順に振動させることによって、ユーザに回転方向に対応する態様の変化を検知させてもよい。
 また、触覚発生部803は、図41(b)に示す傾斜と、図41(c)に示す回転とを組み合わせることによって、ユーザに同時に2方向の情報を知覚させることもできる。具体的には、図41(b)に示す触覚棒805の配置において、図41(b)の仮想平面Aの上方に突出する触覚棒805を、図41(c)に示すように順次変更することによって、触覚発生部803は、ユーザに傾斜方向と回転方向の2方向の情報を同時に知覚させることができる。
 デジタルカメラ700に撮影準備動作または撮影指示をする場合、ユーザは、カバー802を下方に押し込む。シャッタボタン800は、カバー802を介して土台部801に対して加えられた下方への力を検知する。例えば、土台部801は、ユーザの押し込む力に応じて、下方へ向けて二段階に移動することができるように、デジタルカメラ700の本体に取り付けられる。シャッタボタン800は、土台部801の移動を検知することによって、ユーザによる二段階のスイッチ操作を受け付ける。
 図42は、本実施形態に係るシャッタボタン900の他の例を説明するための図である。図42(a)は、シャッタボタン900の斜視図である。シャッタボタン900は、円環状のリング部901と、リング部901の中心孔902の内部に配置される球部903と、リング部901および球部903を駆動する触覚発生部904とを有する。リング部901の下面には、複数の駆動棒905が枢支されている。各駆動棒905の下端は、上記した触覚棒駆動部806と同様の、例えばソレノイドによって構成されるリング部駆動部906に連結されている。球部903は、下方へ延在する駆動棒907を含む。駆動棒907の下端は、球部駆動部908に接続される。球部駆動部908は、例えばモーターによって構成される。他の例においては、リング部駆動部906と球部駆動部908とによって触覚発生部が構成されている。
 図42(b)は、シャッタボタン900の断面図である。中心孔902の内壁面は、当該中心孔902内に配置される球部903の外周面に沿うように形成される。球部903の外周面と、中心孔902の内壁面との間には、隙間が設けられており、球部903とリング部901とは、互いに相対的に移動することができる。
 シャッタボタン900は、上記したシャッタボタン800と同様に、ユーザに傾斜方向と回転方向の2方向の情報を同時に知覚させることができる。具体的には、リング部駆動部906は、シャッタボタン駆動部714の指令に応じて、各駆動棒905を上下方向に駆動する。例えば、リング部駆動部は、紙面左側に配置された駆動棒905を上方に、紙面右側に配置された駆動棒905を下方に移動させることによって、図42(b)の点線に示すように、リング部901を紙面右下がりに傾斜させる。図42(b)に示された傾斜方向に限らず、リング部駆動部は、駆動棒905を適宜移動させることによって、リング部901を様々な方向に傾斜させることができる。
 球部駆動部は、シャッタボタン駆動部714の指令に応じて、駆動棒905を鉛直軸方向の周りに回転させる。駆動棒905が回転駆動されることにより、球部903は、図42(b)の矢印Cに示すように、鉛直軸方向の周りに回転する。球部駆動部は、球部903を、鉛直軸方向の周りに、紙面上方から見て時計回り、または反時計回りの方向に回転させる。ユーザは、シャッタボタン900を操作する場合、リング部901および球部903の双方に触れる。このため、ユーザは、リング部901の傾斜方向および球部903の回転方向によって、2方向の情報を同時に知覚することができる。なお、リング部駆動部が、ユーザに回転方向を知覚させる目的で、リング部901を回転させてもよい。
 以下、デジタルカメラ700のノールック撮影モードにおける撮影動作について具体的に説明する。図43は、本実施形態に係るノールック撮影モードにおける撮影動作の第1の例を説明するための概念図である。図43(a)は、被写体の撮影を開始した初期状態を示す図であって、左側の図は、デジタルカメラ700と被写体Dとの位置関係を模式的に表す図であり、右側の図は、撮像素子707から出力された撮影対象空間の画像データを示す。なお、図示するように、被写体側からカメラ背面側へ向かう光軸方向をz軸プラス方向と定め、カメラ背面側から見て撮像素子707の長辺方向右側をx軸プラス方向、撮像素子707の短辺方向上側をy軸プラス方向と定める。
 ユーザがデジタルカメラ700の撮影モードをノールック撮影モードに設定すると、モード切替部715は、ユーザによる撮影モード等のモード設定を受け付けて、カメラシステム制御部701へ出力する。カメラシステム制御部701は、ライブビュー動作を開始し、撮像素子707に指令を送って被写体像を取り込む。そして、画像処理部706は、画像データを生成する。
 ここで、第1の例においては、ユーザは、撮影対象空間の画角に対して被写体を収めたい領域を、被写体領域1000として予め設定する。被写体領域1000の設定情報は、カメラメモリ708に記録される。そして、カメラシステム制御部701は、第1の例に係るノールック撮影モードにおいて、被写体領域1000の設定情報をカメラメモリ708から読み出し、撮像素子707から出力された撮影対象空間の画像データに対して、被写体領域1000を設定する。例えば、図43に示す例の場合、被写体領域1000は、撮影対象空間の画像1001の中央領域に設定されている。被写体領域1000の設定は、カメラメモリ708に記録される。
 ここで、図43(a)に示す状態においては、被写体Dは、デジタルカメラ700の光軸1002に対して、x軸マイナス方向側に位置している。したがって、この状態において撮像素子707から出力された画像1001においては、被写体Dは、ユーザが設定した被写体領域1000のx軸マイナス方向側に位置することとなる。このような構図は、ユーザの意図に則したものではない。この場合、ユーザは、被写体Dを被写体領域1000内に収めて撮影を行うために、撮像素子707、すなわちデジタルカメラ700を、y軸プラス方向から見て反時計周りの方向である矢印Eの方向に回転させる必要がある。
 そこで、第1の例に係るノールック撮影モードにおいては、カメラシステム制御部701は、撮像素子707から出力された画像1001から、例えば顔認識技術を利用した身体認識技術により被写体Dを認識し、画像1001における被写体Dの位置を検知する。このように、第1の例に係るカメラシステム制御部701は、撮影対象空間と撮像素子707の方向に関する相対的な関係を検知する検知部として機能する。そして、カメラシステム制御部701は、撮影対象空間における被写体Dの位置と、予め設定された被写体領域1000とに応じて、デジタルカメラ700を回転すべき推奨方向を特定する。図43(a)に示す例の場合、カメラシステム制御部701は、矢印Eの方向を推奨方向として検出する。そして、カメラシステム制御部701は、推奨方向に一致する回転方向に対応する態様の変化をユーザに知覚させるように、シャッタボタン駆動部714を介して、シャッタボタン800の触覚棒805を駆動する。このように、カメラシステム制御部701は、シャッタボタン駆動部714と協働して、上記推奨方向に一致する回転方向に対応する態様の変化をユーザに知覚させるように触覚棒805を駆動する駆動制御部として機能する。
 カメラシステム制御部701は、シャッタボタン駆動部714に指令を送り、シャッタボタン800の触覚発生部803を駆動させる。図41(c)を用いて説明した動作によって、触覚発生部803は、推奨方向をユーザに知覚させるために、y軸プラス方向から見て反時計周りの方向である矢印Fに示す方向に、触覚棒805を回転駆動する。これにより、ユーザは、光学ファインダまたは表示部711を視認することなく、被写体Dを被写体領域1000内に収めて撮影するために必要なデジタルカメラ700の回転方向を知覚することができる。
 図43(b)は、撮影対象空間の画像1001において、被写体Dが被写体領域1000内に収められた状態を示す。カメラシステム制御部701は、撮像素子707から出力された画像1001を順次解析し、デジタルカメラ700が矢印Eの方向に回転されて、被写体Dが被写体領域1000内に収められたと判断すると、触覚発生部803の駆動を停止する。この動作により、ユーザは、被写体Dが被写体領域1000内に収められたことを知覚する。第1の例によれば、ユーザは、光学ファインダまたは表示部711を視認することなく、被写体Dを被写体領域1000内に収めて撮影を行うことができる。
 図44は、第1の例に係るノールック撮影モードの撮影動作のフローチャートである。ユーザが上述したノールック撮影モードを開始したときに、カメラシステム制御部701は、図44に示す動作フローを開始する。ステップS301において、カメラシステム制御部701は、撮影対象空間の画像を取り込む。ステップS302において、カメラシステム制御部701は、被写体領域1000を撮影対象空間の画像1001に対して設定する。具体的には、カメラシステム制御部701は、図4を用いて説明したように、ユーザによって予め設定された被写体領域1000の設定情報をカメラメモリ708から読み出し、撮像素子707から出力された画像1001に対して被写体領域1000を設定する。
 なお、第1の例に係るノールック撮影モードにおいては、ステップS301において取り込んだ画像1001を、ライブビュー画像として表示部711に表示させてもよいし、ライブビュー画像を表示しなくてもよい。なぜならば、上記したように、ノールック撮影モードにおいては、ユーザは、ライブビュー画像を視認することなく、自身が希望する構図で被写体の撮影を行うことができるからである。ノールック撮影モードにおいて、ライブビュー画像を表示部711に表示させないことによって、消費電力を低減することができる。
 ステップS303において、カメラシステム制御部701は、被写体Dを認識する。例えば、カメラシステム制御部701は、画像1001を解析して被写体Dの顔認識処理を実行し、画像1001における被写体Dの位置を検出してもよい。この場合、カメラシステム制御部701は、顔認識処理によって取得した被写体Dの顔の位置から、被写体Dの胴体および手足を含む被写体Dの身体領域を推定してもよい。
 ステップS304において、カメラシステム制御部701は、被写体Dが被写体領域1000内に収められているか否かを判断する。具体的には、カメラシステム制御部701は、S103にて検出した画像1001における被写体Dの位置と、被写体領域1000とを比較し、被写体Dが被写体領域1000内に収められているか否かを判断する。カメラシステム制御部701は、被写体Dが被写体領域1000内に収められているものと判断すると、ステップS305へ進む。一方、カメラシステム制御部701は、被写体Dが被写体領域1000内に収められていないと判断すると、ステップS309へ進む。
 ステップS304においてNOと判断されると、ステップS309において、カメラシステム制御部701は、図4を用いて説明したように、デジタルカメラ700を回転すべき推奨方向を特定する。ステップS310において、カメラシステム制御部701は、シャッタボタン800の触覚発生部803を駆動させる。具体的には、カメラシステム制御部701は、シャッタボタン駆動部714に指令を送り、推奨方向をユーザに知覚させるために、触覚棒805を回転駆動する。そして、カメラシステム制御部701は、動作フローをステップS301に戻す。
 ステップS304においてYESと判断されると、ステップS305において、カメラシステム制御部701は、シャッタボタン800を通常の状態に戻して停止させる。図41に示す実施形態の場合においては、カメラシステム制御部701は、シャッタボタン駆動部714に指令を送り、触覚発生部803の触覚棒805を、図41(a)に示す通常状態の配列に戻し、触覚棒805の駆動を停止する。
 ステップS306において、カメラシステム制御部701は、ユーザから撮影指示があったか否かを判断する。カメラシステム制御部701は、ユーザから撮影指示があったものと判断すると、ステップS307へ進む。一方、カメラシステム制御部701は、ユーザから撮影指示がないものと判断すると、ステップS301へ戻る。
 ステップS307において、カメラシステム制御部701は、撮影動作を実行する。具体的には、カメラシステム制御部701は、ユーザがシャッタボタン800を第1段階の位置に押し込むと、撮影準備動作としてフォーカス調整および測光を実行する。そして、ユーザがシャッタボタン800を第2段階の位置に押し込むと、カメラシステム制御部701は、被写体Dの撮影を実行し、画像データとしての画像ファイルを生成する。なお、第1の例においては、S105においてシャッタボタン800が停止した後に、ユーザが撮影指示をした場合を想定した。しかしながら、これに限らず、カメラシステム制御部701は、ユーザから撮影指示を受け付けた場合は、例えばS110においてシャッタボタン800を駆動させている状態であったとしても、撮影動作を優先的に実行する。
 ステップS308において、カメラシステム制御部701は、デジタルカメラ700の電源がOFFとされたか否かを判断する。カメラシステム制御部701は、デジタルカメラ700の電源がOFFとされたと判断すると、撮影フローを終了させる。一方、カメラシステム制御部701は、デジタルカメラ700の電源がONのままであると判断すると、ステップS301へ戻る。
 図45は、本実施形態に係るノールック撮影モードにおける撮影動作の第2の例を説明するための概念図である。図45(a)は、撮影対象空間の撮影を開始した初期状態を示す図であって、左側の図は、デジタルカメラ700と撮影対象空間との位置関係を模式的に表す図であり、右側の図は、撮像素子707から出力された撮影対象空間の画像1100を示す。
 第2の例に係るノールック撮影モードにおいては、カメラシステム制御部701は、撮像素子707から出力された被写体像における重力方向Gが、画像1100の短辺方向と一致するように、デジタルカメラ700を回転すべき推奨方向を、ユーザに知覚させる。具体的には、カメラシステム制御部701は、姿勢センサ713からの出力信号を参照し、図45の矢印Gに示す実際の重力方向を検出する。
 図45(a)に示す例の場合、デジタルカメラ700が傾斜して保持されており、実際の重力方向Gと画像1100の短辺方向、すなわちy軸方向とが一致していない。このため、撮像素子707から出力された画像1100においては、被写体としての建物1101が、斜めに傾斜して写ってしまう。この場合、ユーザは、画像1100において建物1101が鉛直に建っている構図を撮影するためには、撮像素子707、すなわちデジタルカメラ700を、矢印Oに示すように、z軸の周りに、z軸プラス方向から見て反時計周りに回転させる必要がある。
 そこで、第2の例に係るノールック撮影モードにおいては、カメラシステム制御部701は、姿勢センサ713を用いて実際の重力方向Gを検出し、重力方向Gとデジタルカメラ700のy軸マイナス方向とが一致するように、デジタルカメラ700を回転すべき推奨方向を特定する。上記したように、図45(a)に示す例の場合、カメラシステム制御部701は、矢印Oの方向を推奨方向として特定する。そして、カメラシステム制御部701は、推奨方向に一致する回転方向に対応する態様の変化をユーザに知覚させるようにシャッタボタン800の触覚棒805を駆動する。
 具体的には、カメラシステム制御部701は、シャッタボタン駆動部714に指令を送り、シャッタボタン800の触覚発生部803を駆動させる。例えば、触覚発生部803は、矢印Oの方向にデジタルカメラ700を回転すべきことを視覚させるために、図41(b)を用いて説明した、傾斜した仮想平面Aを形成するように、触覚棒805を駆動する。この場合、触覚発生部803は、矢印Oの方向への回転をユーザに報知するために、例えば図45(a)に示すように、x軸マイナス方向側に向けて下がるように傾斜した仮想平面Aを形成する。これにより、ユーザは、光学ファインダまたは表示部711を視認することなく、触覚発生部803によって形成される傾斜方向によって、デジタルカメラ700を回転すべき方向を知覚することができる。
 図45(b)は、重力方向Gとy軸マイナス方向とを一致させた状態を示す。カメラシステム制御部701は、重力方向Gとy軸マイナス方向とが一致したと判断すると、触覚棒805を通常の位置に戻し、触覚発生部803の駆動を停止する。この動作により、ユーザは、重力方向Gとy軸マイナス方向とが一致したことを知覚する。第2の例によれば、ユーザは、光学ファインダまたは表示部711を視認することなく、画像1100における重力方向Gと、画像1100の短辺方向とを一致させて撮影することができる。
 図46は、第2の例に係るノールック撮影モードの撮影動作のフローチャートである。ユーザがノールック撮影モードを開始したときに、カメラシステム制御部701は、図46に示す動作フローを開始する。ステップS401において、カメラシステム制御部701は、重力方向を検出する。ステップS402において、カメラシステム制御部701は、図45を用いて説明したように、重力方向とy軸マイナス方向とが一致しているか否かを判断する。カメラシステム制御部701は、重力方向とy軸マイナス方向とが一致しているものと判断すると、ステップS403へ進む。一方、カメラシステム制御部701は、重力方向とy軸マイナス方向とが一致していないと判断すると、ステップS407へ進む。
 ステップS402においてNOと判断されると、ステップS407において、カメラシステム制御部701は、図45を用いて説明したように、デジタルカメラ700を回転すべき推奨方向を特定する。ステップS408において、カメラシステム制御部701は、シャッタボタン800の触覚発生部803を駆動させる。具体的には、図45を用いて説明したように、カメラシステム制御部701は、シャッタボタン駆動部714に指令を送り、回転方向Pに対応する態様の変化をユーザに知覚させるために、傾斜した仮想平面Aを形成するように触覚棒805を配列させる。そして、カメラシステム制御部701は、動作フローをステップS401に戻す。
 ステップS402においてYESと判断されると、ステップS403において、カメラシステム制御部701は、シャッタボタン800を通常の状態に戻して停止させる。図41に示す実施形態の場合においては、カメラシステム制御部701は、シャッタボタン駆動部714に指令を送り、触覚発生部803の触覚棒805を、図41(a)に示す通常状態の配列に戻し、触覚棒805の駆動を停止する。
 ステップS404において、カメラシステム制御部701は、ユーザから撮影指示があったか否かを判断する。カメラシステム制御部701は、ユーザから撮影指示があったものと判断すると、ステップS405へ進む。一方、カメラシステム制御部701は、ユーザから撮影指示がないものと判断すると、ステップS401へ戻る。
 ステップS405において、カメラシステム制御部701は、撮影動作を実行する。具体的には、カメラシステム制御部701は、ユーザがシャッタボタン800を第1段階の位置に押し込むと、撮影準備動作としてフォーカス調整および測光を実行する。そして、カメラシステム制御部701は、ユーザがシャッタボタン800を第2段階の位置に押し込むと、被写体の撮影を実行し、画像データとしての画像ファイルを生成する。なお、上記した第1の例と同様に、カメラシステム制御部701は、ユーザから撮影指示を受け付けた場合は、撮影動作を優先的に実行する。
 ステップS406において、カメラシステム制御部701は、デジタルカメラ700の電源がOFFとされたか否かを判断する。カメラシステム制御部701は、デジタルカメラ700の電源がOFFとされたと判断すると、撮影フローを終了させる。一方、カメラシステム制御部701は、デジタルカメラ700の電源がONのままであると判断すると、ステップS401へ戻る。
 図47は、本実施形態に係るノールック撮影モードにおける動画の撮影動作の第3の例を説明するための概念図である。図47(a)は、撮影対象空間の撮影を開始した初期状態を示す図であって、左側の図は、デジタルカメラ700と被写体との位置関係を模式的に表す図であり、右側の図は、撮像素子707から出力された撮影対象空間の画像を示す。
 第3の例に係るノールック撮影モードは、ユーザが、光学ファインダ像または表示部711を視認することなく、自身が希望するカメラワークにより被写体の撮影を行うことができる撮影モードである。第3の例においては、ユーザは、カメラワークに関するプログラムを予め選択する。カメラワークに関するプログラムは、カメラメモリ708に予め記録されている。ここで、カメラワークに関するプログラムとは、例えば動画の撮影において、より演出効果を高めた映像を撮影するために、ユーザに対して、カメラを向ける方向等の指示を与えるプログラムである。例えば図47に示す例において、ユーザが、主役としての被写体1200を最初に撮影し、その後に被写体1201、被写体1202と順に撮影した後、再度主役たる被写体1200を撮影するというカメラワークを実行したい場合を想定する。
 この場合、カメラワークに関するプログラムは、条件1~条件3を含む。例えば、条件1は「被写体1200を認識」であり、条件2は「被写体1202の認識」であり、条件3は「被写体1200の認識」である。そして、カメラシステム制御部701は、それぞれの条件を満足しているか否かに応じて、シャッタボタン800の触覚棒805を駆動する。
 図47を参照して具体的に説明すると、カメラシステム制御部701は、まず、条件1が満足されるまで触覚棒805を駆動する。この場合、カメラシステム制御部701は、条件1を満足するために、図4を用いて説明した撮影フローを実行してもよい。具体的には、ユーザは、撮影対象空間の画像1203において被写体1200を収めたい領域を、被写体領域1204として予め設定する。図47に示す例においては、被写体領域1204は、図4と同様に、画像1203の中央領域に設定されている。カメラシステム制御部701は、撮影対象空間における被写体1200の位置と、予め設定された被写体領域1204とに応じて、デジタルカメラ700を回転すべき推奨方向を特定する。そして、カメラシステム制御部701は、推奨方向に一致する回転方向に対応する態様の変化をユーザに知覚させるようにシャッタボタン800の触覚棒805を駆動する。
 被写体1200が被写体領域1204に収められると、画像1203は、図47(a)の状態となる。カメラシステム制御部701は、被写体1200が被写体領域1204に収められたことを認識した場合に、条件1を満足したものと判断する。そして、カメラシステム制御部701は、シャッタボタン800の触覚発生部803を駆動し、条件2を満足すべく次にユーザが行うべきカメラワークを触覚によってユーザに知覚させる。図47に示す例の場合、触覚発生部803は、デジタルカメラ700をy軸プラス方向から見て反時計回りに回転させることをユーザに知覚させるように、触覚棒805を回転駆動する。
 図47(b)は、ユーザが、触覚発生部803の動作に従って、デジタルカメラ700をy軸周りに反時計回りに回転させている途中の状態を示す図である。そして、カメラシステム制御部701は、図47(b)の矢印Hに示すように、触覚棒805を回転させ続ける。
 図47(c)は、被写体1202が被写体領域1204に収められた状態を示す図である。カメラシステム制御部701は、図47(c)に示すように、被写体1202が被写体領域1204に収められたことを認識すると、条件2を満足したものと判断する。なお、被写体1202が被写体領域1204に収められたことを認識するためにカメラシステム制御部701が行う動作フローは、上記と同様であってもよい。条件2を満足した後、カメラシステム制御部701は、シャッタボタン800の触覚発生部803を駆動し、条件3が満足されるまで、次にユーザが行うべきカメラワークを、触覚によってユーザに知覚させる。
 図47に示す例の場合、触覚発生部803は、デジタルカメラ700を、y軸プラス方向から見て時計回りに回転させることをユーザに知覚させるように、図47(c)の矢印Iに示すように触覚棒805を回転駆動する。ユーザは、触覚発生部803の動作によって、次に行うべきカメラワークを知覚することができる。
 図47(d)は、被写体1200が被写体領域1204に再度収められた状態を示す図である。カメラシステム制御部701は、図47(d)に示すように、被写体1202が被写体領域1204に収められたことを認識すると、条件3を満足したものと判断する。このように、第3の例においては、カメラシステム制御部701は、カメラワークに関するプログラムに応じて、撮影経過と共に変化する条件を順次満足するように、触覚発生部803を回転駆動する。第3の例によれば、ユーザは、自身が希望したカメラワークにより被写体の撮影を行うことができるので、より満足度の高い映像を容易に撮影することができる。なお、動画撮影時に、触覚発生部803を駆動する場合には、静止画撮影時とは異なる駆動形態を採用してもよい。例えば、駆動に伴う雑音を低減させるために、駆動量を小さくする。
 図48は、第3の例に係るノールック撮影モードの撮影動作のフローチャートである。ユーザがカメラワークに関するプログラムを予め選択し、ノールック撮影モードを開始したときに、カメラシステム制御部701は、図48に示す動作フローを開始する。ステップS501において、カメラシステム制御部701は、プログラムの条件数nを読み出すとともに、変数iに1を代入する。また、カメラシステム制御部701は、各条件の内容を併せて読み出す。図47を用いて説明した例の場合、カメラシステム制御部701は、カメラメモリ708から、カメラワークに関するプログラムの条件1~条件3を読み出す。
 ステップS502において、カメラシステム制御部701は、条件iを満足したか否かを判断する。図47を用いて説明した例の場合、カメラシステム制御部701は、動作フローが開始した後、まず、条件1「被写体1200を認識」を満足したか否かを判断する。カメラシステム制御部701は、条件iを満足していないと判断すると、ステップS503へ進む。一方、条件iを満足したと判断すると、カメラシステム制御部701は、ステップS505へ進む。
 カメラシステム制御部701は、ステップS502においてNOと判断した場合、ステップS503において、デジタルカメラ700を回転すべき推奨方向を特定する。そして、ステップS504において、カメラシステム制御部701は、シャッタボタン800の触覚発生部803を駆動させる。図47を用いて説明した例の場合、カメラシステム制御部701は、条件1を満足するために、被写体1200を被写体領域1204に収めるように触覚棒805を駆動する。
 カメラシステム制御部701は、ステップS502においてYESと判断した場合、ステップS505において、変数iをインクリメントする。そして、ステップS506において、カメラシステム制御部701は、ステップS505においてインクリメントされた変数iが、条件数nを超えたか否かを判断する。具体的には、カメラシステム制御部701は、ステップS501において読み出した条件を全て満足したか否かを判断する。変数iが条件数nを超えたと判断すると、カメラシステム制御部701は、ステップS507へ進む。一方、変数iが条件数nを超えていないと判断すると、カメラシステム制御部701は、ステップS502へ戻り、プログラムに規定された次の条件を満足すべく、ステップS502~ステップS504の動作を実行する。具体的には、カメラシステム制御部701は、条件1に次いで、条件2、条件3の順に、各動作を実行する。
 ステップS507において、カメラシステム制御部701は、デジタルカメラ700の電源がOFFとされたか否かを判断する。カメラシステム制御部701は、デジタルカメラ700の電源がOFFとされたと判断すると、撮影フローを終了させる。一方、カメラシステム制御部701は、デジタルカメラ700の電源がONのままであると判断すると、ステップS501へ戻る。
 図49は、本実施形態に係るノールック撮影モードにおける動画の撮影動作の第4の例を説明するための概念図である。図49(a)の左側の図は、デジタルカメラ700と被写体1300との位置関係を模式的に表す図であり、右側の図は、デジタルカメラ700を被写体1300の正面の位置Jに配置した場合に撮像素子707から出力された撮影対象空間の画像を示す。
 ユーザは、図49(a)の位置Jに示すように、被写体1300の正面から撮影するのみならず、図49(a)の位置Kに示すように被写体の上方側から、または、図49(a)の位置Lに示すように被写体の下方側から、斜めのアングルで撮影したい場合がある。特に近年、ユーザが、自身の上方側から自身を撮影する、いわゆる「自分撮り」を行いたいという要望が高まってきている。このような撮影を行う場合、ユーザは、光学ファインダまたはライブビュー画像を表示する表示部711を視認することができない場合がある。したがって、実際に撮影した画像が、ユーザの希望する構図と異なってしまう場合がある。
 第4の例に係るノールック撮影モードは、予め記録されたサンプル画像を基準として、ユーザが光学ファインダまたは表示部711を視認することなく、自身が希望する構図で被写体の撮影を行うことができる撮影モードである。第4の例においては、ユーザは、撮影したい構図のサンプル画像を予め指定する。サンプル画像は、記録部712に予め記録されている。サンプル画像としては、例えば、被写体の下方側から撮影する場合に参照するサンプル画像と、被写体の上方側から被写体を撮影する場合に参照するサンプル画像とが挙げられる。
 図49(b)は、被写体の下方側から撮影する場合に参照するサンプル画像1301を示す図である。ユーザは、被写体1300の下方側から斜めのアングルで撮影したい場合、図49(a)の位置Lに示すように、デジタルカメラ700を被写体1300の下方側に保持する。そして、ユーザは、図49(a)の矢印Nに示すように、デジタルカメラ700をx軸周りに回転させ、撮影対象空間の画像における被写体1300の位置を調整する。
 被写体を下方側から撮影した場合、ユーザの胴体および足が、ユーザの頭部より大きく写るという特徴を有する画像が撮影されることとなる。デジタルカメラ700は、図49(b)に示すサンプル画像1301のような、被写体1300を下方側から撮影した場合の構図に近似する画像データを基準として用いる。カメラメモリ708は、サンプル画像1301のようなサンプル画像を、複数パターン記録している。ユーザは、これらサンプル画像から、自身が希望する構図に近いサンプル画像を選択する。なお、サンプル画像としては、図49(b)に示すように、輪郭線からなる幾何学的な画像データを用いてもよい。また、サンプル画像として、写真の画像データを用いてもよい。
 図49(c)は、被写体の上方側から撮影する場合に参照するサンプル画像1302を示す図である。ユーザは、被写体1300の上方側から斜めのアングルで撮影したい場合、図49(a)の位置Kに示すように、デジタルカメラ700を被写体1300の上方側に保持する。そして、ユーザは、図49(a)の矢印Mに示すように、デジタルカメラ700をx軸周りに回転させ、撮影対象空間の画像における被写体1300の位置を調整する。
 被写体を上方側から撮影した場合、ユーザの頭部が、ユーザの胴体および足より大きく写るという特徴を有する画像が撮影されることとなる。デジタルカメラ700は、図49(c)に示すサンプル画像1302のような、被写体1300を上方側から撮影した場合の構図に近似する画像データを基準として用いる。カメラメモリ708は、サンプル画像1301のようなサンプル画像を、複数パターン記録している。ユーザは、これらサンプル画像から、自身が希望する構図に近いサンプル画像を選択する。
 第4の例に係るノールック撮影モードでの撮影時おいては、カメラシステム制御部701は、まず、ユーザによって選択されたサンプル画像を読み出す。そして、カメラシステム制御部701は、撮像素子707から出力された撮影対象空間の画像から、被写体1300を認識する。この場合において、レンズシステム制御部702は、ズームレンズ駆動部705に指令を送ってオートズームを実行し、撮影対象空間の画像における被写体1300の大きさを調整してもよい。
 被写体1300を認識した後、カメラシステム制御部701は、被写体像とサンプル画像とを比較する。カメラシステム制御部701は、被写体像とサンプル画像の特徴点を検出し、これら特徴点の相関性を解析することによって、被写体像とサンプル画像とを比較する。
 カメラシステム制御部701は、被写体像とサンプル画像との比較結果から、デジタルカメラ700を回転すべき推奨方向を特定する。そして、カメラシステム制御部701は、推奨方向に一致する回転方向に対応する態様の変化をユーザに知覚させるようにシャッタボタン800の触覚棒805を駆動する。例えば、触覚発生部803は、図49(a)の矢印M、Nに示すように、x軸の周りにデジタルカメラ700を回転すべきことを視覚させるために、図41(b)を用いて説明した、傾斜した仮想平面Aを形成するように、触覚棒805を配列させる。
 より具体的には、例えば触覚発生部803は、x軸マイナス方向から見て反時計回りにデジタルカメラ700を回転すべきことを視覚させるために、z軸マイナス方向側に向けて下がるように傾斜した仮想平面Aを形成する。これにより、ユーザは、光学ファインダまたは表示部711を視認することなく、触覚発生部803によって形成される傾斜方向によって、デジタルカメラ700を回転すべき方向を知覚することができる。
 図50は、第4の例に係るノールック撮影モードの撮影動作のフローチャートである。ユーザがサンプル画像を予め選択し、ノールック撮影モードを開始したときに、カメラシステム制御部701は、図50に示す動作フローを開始する。ステップS601において、カメラシステム制御部701は、ユーザによって選択されたサンプル画像を記録部712から読み出す。ステップS602において、カメラシステム制御部701は、撮影対象空間の画像を取り込む。ステップS603において、カメラシステム制御部701は、撮影対象空間の画像から被写体を認識する。
 ステップS604において、カメラシステム制御部701は、被写体像とサンプル画像の特徴点が一致しているか否かを判断する。カメラシステム制御部701は、被写体像とサンプル画像の特徴点が一致しているものと判断すると、ステップS605へ進む。一方、カメラシステム制御部701は、被写体像とサンプル画像の特徴点が一致していないと判断すると、ステップS609へ進む。
 ステップS604においてNOと判断されると、ステップS609において、カメラシステム制御部701は、デジタルカメラ700を回転すべき推奨方向を特定する。そして、ステップS610において、カメラシステム制御部701は、シャッタボタン800の触覚発生部803を駆動させる。図49に示す例の場合、カメラシステム制御部701は、x軸回りの回転をユーザに知覚させるために、触覚棒805を、z軸マイナスまたはプラス方向側に向けて下がるように傾斜した仮想平面Aを形成するように、配列させる。そして、カメラシステム制御部701は、動作フローをステップS602に戻す。
 ステップS604においてYESと判断されると、ステップS605において、カメラシステム制御部701は、シャッタボタン800を通常の状態に戻して停止させる。ステップS606において、カメラシステム制御部701は、ユーザから撮影指示があったか否かを判断する。カメラシステム制御部701は、ユーザから撮影指示があったものと判断すると、ステップS607へ進む。一方、カメラシステム制御部701は、ユーザから撮影指示がないものと判断すると、ステップS602へ戻る。
 ステップS607において、カメラシステム制御部701は、撮影動作を実行する。なお、第4の例においても、カメラシステム制御部701は、ユーザから撮影指示を受け付けた場合は、撮影動作を優先的に実行する。ステップS608において、カメラシステム制御部701は、デジタルカメラ700の電源がOFFとされたか否かを判断する。カメラシステム制御部701は、デジタルカメラ700の電源がOFFとされたと判断すると、撮影フローを終了させる。一方、カメラシステム制御部701は、デジタルカメラ700の電源がONのままであると判断すると、ステップS602へ戻る。
 なお、本実施形態においては、触覚発生部803がシャッタボタン800に組み込まれている場合について述べた。しかしながら、これに限らず、触覚発生部をデジタルカメラの本体に設けてもよい。以下、本実施形態に係るデジタルカメラの他の例について、図51を参照して説明する。
 図51は、本実施形態の他の例に係るデジタルカメラ1400を説明するための図である。本実施形態の他の例においては、ユーザがデジタルカメラ1400を持つときに把持する部分であるグリップ部1401に、触覚発生部1402を設けている。触覚発生部1402は、例えば圧電素子からなる複数の振動部1403を含む。振動部1403は、グリップ部1401の前面1401aと背面1401bとに配設されている。そして、触覚発生部1402は、ユーザに態様の変化を知覚させる触力覚を発生させる。具体的には、シャッタボタン駆動部714の指令の下、例えばユーザにy軸周りの回転を知覚させるように、振動部1403をy軸周りに順に振動させる。振動部1403をこのように順に振動させることによって、触覚発生部1402は、ユーザにy軸周りの回転を知覚させることができる。
 また、本実施形態においては、デジタルカメラがユーザに触覚を与えることによって、推奨方向に一致する回転方向に対応する態様の変化をユーザに知覚させる形態について述べた。しかしながら、これに限らず、デジタルカメラがユーザに力覚を与えることによって、推奨方向に一致する回転方向に対応する態様の変化をユーザに知覚させてもよい。以下、本実施形態に係るデジタルカメラの他の例について、図52を参照して説明する。
 図52は、本実施形態のさらに他の例に係るデジタルカメラ1500を説明するための図である。本実施形態のさらに他の例に係るデジタルカメラ1500は、ユーザに力覚を感知させる力覚発生部1501を備えている。例えば、力覚発生部1501は、デジタルカメラ1500の内部で、x軸、y軸、またはz軸の周りに回転する回転体1502を含む。回転体1502としては、例えば携帯電話に組み込まれるバイブレーション用の回転装置を適用してもよい。そして、カメラシステム制御部701は、回転体1502の回転または回転停止によって、ユーザに力覚を感知させる。これにより、ユーザは、x軸、y軸、またはz軸周りの回転方向を知覚することができる。なお、力覚発生部1501は、デジタルカメラ1500の内部で、x軸、y軸、またはz軸の周りに偏心回転する偏心体を含んでもよい。偏心体を回転させることによって、ユーザに力覚を感知させることができるからである。
 なお、図41および図42に示すシャッタボタンにおいては、当該シャッタボタンが傾斜および回転することによって、二つの軸周りの回転方向に対応する態様の変化をユーザに同時に知覚させることができる場合について説明した。しかしながら、これに限らず、少なくとも一つの軸周りの回転方向に対応する態様の変化をユーザに知覚させることができれば、ノールック撮影モードによる被写体の撮影を有効に支援することができる。ユーザに一つの軸周りの回転方向に対応する態様の変化を知覚させるのであれば、例えば図53に示すシャッタボタン950の構成を適用することができる。
 図53は、第4実施形態に係るシャッタボタンのさらに他の例を説明するための図であり、シャッタボタン950の斜視図である。さらに他の例に係るシャッタボタン950は、二つの回転部材を備えている。具体的には、シャッタボタン950は、円板状の中央回転部951と、中央回転部951の外周側に配置される円環状の外側回転部952とを備える。中央回転部951は、下方へ延在する歯車軸部953を含む。中央回転部951は、図53の矢印Cの方向に、歯車軸部953と噛合する歯車列を介して、モータによって回転駆動される。
 一方、外側回転部952は、下方へ延在する円筒状の歯車軸部954を含む。中央回転部951の歯車軸部953は、外側回転部952に設けられた歯車軸部954に挿通されており、歯車軸部954に対して相対的に回転することができる。外側回転部952は、中央回転部951と同様に、図53の矢印Cの方向に、歯車軸部954と噛合する歯車列を介して、モータによって回転駆動される。中央回転部951および外側回転部952は、二つのモータを用いて互いに独立して回転駆動される。さらに他の例によれば、シャッタボタン950は、ユーザに、一つの軸周りの回転を知覚させることができる。なお、中央回転部951および外側回転部952は、一つのモータと減速機とを用いて、それぞれ異なる回転速度で回転駆動されてもよい。また、中央回転部951および外側回転部952のいずれか一方のみが回転する構成であってもよい。なお、図53に示すシャッタボタン950に、さらに別の機構を組み合わせると、図54に示すように、二つ以上の軸周りの回転方向に対応する態様の変化を同時にユーザに知覚させることができる。
 以上説明したように、デジタルカメラは、触覚および力覚のいずれか一方である触力覚をユーザに感知させる触力覚発生部を備えていればよい。触力覚発生部は、上記した触覚発生部と力覚発生部とを組み合わせることによって構成してもよい。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
 10 撮像装置、12 筐体、14 レンズ部、16 撮像部、18 レリーズスイッチ、20 表示部、22 モード設定部、24 タッチパネル、26 振動部、30 右上振動部、32 右下振動部、34 左上振動部、36 左下振動部、40 制御部、42 システムメモリ、44 メインメモリ、46 二次記憶媒体、48 レンズ駆動部、50 音声出力部、52 モード判定部、54 表示制御部、56 音声制御部、58 被写体認識部、60 触覚通知部、62 記憶処理部、66 撮像素子駆動部、68 撮像素子、70 A/D変換部、72 画像処理部、110 撮像装置、112 筐体、113 グリップ部、114 レンズ部、120 表示部、126 振動部、130 右上振動部、132 右下振動部、134 左上振動部、136 左下振動部、226 振動部、227 モータ、229 回転軸、231 半円部材、301 被写体、302 被写体、303 被写体、304 長方形、305 被写体、306 適正位置範囲、307 長方形、100 カメラシステム、101 カメラシステム、102 カメラシステム、200 レンズユニット、300 カメラユニット、201 フォーカスリング、202 光軸、210 レンズ群、211 フォーカスレンズ、212 ズームレンズ、221 絞り、222 レンズシステム制御部、223 レンズ鏡筒、224 レンズマウント、311 カメラマウント、312 メインミラー、313 ピント板、314 回転軸、315 撮像素子、316 ペンタプリズム、317 接眼光学系、318 ファインダ窓、319 サブミラー、322 焦点検出センサ、323 フォーカルプレーンシャッタ、324 光学ローパスフィルタ、325 メイン基板、326 画像処理部、327 カメラシステム制御部、328 表示部、329 二次電池、330 グリップ部分、331 振動子、332 振動子、333 振動子、334 振動子、335 振動子、341 カメラメモリ、342 ワークメモリ、343 表示制御部、344 モード切替部、345 レリーズスイッチ、400 カメラシステム、401 カメラシステム、402 カメラシステム、403 カメラシステム、411 被写体、412 被写体、417 被写体、418 長方形、419 被写体、421 矢印、422 矢印、500 レンズユニット、503 レンズユニット、504 レンズユニット、505 レンズユニット、600 カメラユニット、601 カメラユニット、602 カメラユニット、501 フォーカスリング、502 光軸、509 レンズ指標、510 レンズ群、511 フォーカスレンズ、512 ズームレンズ、521 絞り、522 レンズシステム制御部、523 レンズ鏡筒、524 レンズマウント、531 振動子、532 振動子、533 振動子、534 振動子、535 振動子、550 三脚座、611 カメラマウント、612 メインミラー、613 ピント板、614 回転軸、615 撮像素子、616 ペンタプリズム、617 接眼光学系、618 ファインダ窓、619 サブミラー、622 焦点検出センサ、623 フォーカルプレーンシャッタ、624 光学ローパスフィルタ、625 メイン基板、626 画像処理部、627 カメラシステム制御部、628 表示部、629 二次電池、630 グリップ部分、631 振動子、632 振動子、633 振動子、640 ボディ指標、641 カメラメモリ、642 ワークメモリ、643 表示制御部、644 モード切替部、645 レリーズスイッチ、650 ロックピン、700,1400,1500 デジタルカメラ、701 カメラシステム制御部、702 レンズシステム制御部、703 レンズマウント、704 カメラマウント、705 ズームレンズ駆動部、706 画像処理部、707 撮像素子、708 カメラメモリ、709 ワークメモリ、710 表示制御部、711 表示部、712 記録部、713 姿勢センサ、714 シャッタボタン駆動部、715 モード切替部、800,900,950 シャッタボタン、801 土台部、802 カバー、803,1402 触覚発生部、804 貫通孔、805,805a,805b,805c,805d,805e,805f,805g,805h 触覚棒、806 触覚棒駆動部、901 リング部、902 中心孔、903 球部、904 触覚発生部、905,907 駆動棒、906 リング部駆動部、908 球部駆動部、951 中央回転部、952 外側回転部、953,954 歯車軸部、1000,1204 被写体領域、1001,1100,1203 画像、1002 光軸、1101 建物、1200,1201,1202,1300 被写体、1301,1302 サンプル画像、1401 グリップ部、1401a 前面、1401b 背面、1403 振動部、1501 力覚発生部、1502 回転体

Claims (64)

  1.  被写体像を撮像して撮像画像を生成する撮像部と、
     前記撮像部により生成された前記撮像画像の特定の被写体を認識する被写体認識部と、
     前記被写体認識部の認識に基づいて、前記特定の被写体が前記撮像画像における予め定められた領域にあるか否かをユーザに対して触覚的に通知する触覚通知部と
    を備える撮像装置。
  2.  前記被写体認識部は、前記撮像画像に前記特定の被写体が含まれるか否かを判定する
    請求項1に記載の撮像装置。
  3.  前記被写体認識部は、前記特定の被写体が前記予め定められた領域のいずれの方向に外れているかを認識する
    請求項1または2に記載の撮像装置。
  4.  異なる場所に配置された複数の振動部を更に備え、
     前記触覚通知部は、前記被写体認識部によって認識された前記特定の被写体の外れている方向を前記複数の振動部のいずれかを振動させることによってユーザに通知する
    請求項3に記載の撮像装置。
  5.  前記被写体認識部は、前記特定の被写体と前記撮像部との間の障害物の有無を判定して、
     前記触覚通知部は、前記被写体認識部によって障害物ありと判定されると、その旨を通知する
    請求項1から4のいずれか1項に記載の撮像装置。
  6.  前記触覚通知部によって振動される4個の振動部と、
     前記4個の振動部が四隅に配置された筐体と
    を更に備える請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記触覚通知部によって振動される4個の振動部と、
     前方に突出したグリップ部を有し、前記4個の振動部を収容する筐体と
    を更に備え、
     前記4個の振動部は、前記グリップ部の四隅に配置されている
    請求項1から5のいずれか1項に記載の撮像装置。
  8.  前記触覚通知部によって振動される振動部を更に備え、
     前記触覚通知部は、複数の振動パターンによって前記振動部を振動させる
    請求項1から7のいずれか1項に記載の撮像装置。
  9.  前記被写体認識部が機能するノールックモードを含む複数の撮影モードのうち、選択されたモードを判定するモード判定部と、
     前記撮像部によって生成された撮像画像を表示する表示部と、
     前記表示部を制御する表示制御部とを更に備え、
     前記モード判定部によってノールックモードと判定されると、前記表示制御部は前記表示部に撮像画像を表示させない
    請求項1から8のいずれか1項に記載の撮像装置。
  10.  前記被写体認識部が機能するノールックモードを含む複数の撮影モードのうち、選択されたモードを判定するモード判定部と、
     レリーズの音を出力する音声出力部と、
     前記音声出力部を制御する音声制御部とを更に備え、
     前記モード判定部によってノールックモードと判定されると、前記音声制御部は前記音声出力部にレリーズの音を出力させない
    請求項1から9のいずれか1項に記載の撮像装置。
  11.  前記触覚通知部によって振動される圧電素子を含む振動部を更に備える
    請求項1から10のいずれか1項に記載の撮像装置。
  12.  振動子と、
     被写体像の少なくとも一部に基づいて被写体の状況を判断する判断部と、
     前記判断部の判断に応じて前記振動子が生じさせる振動波形を変化させることにより、ユーザに撮影タイミングを報知する振動制御部と
    を備える撮像装置。
  13.  前記判断部は、前記被写体の状況を連続的に判断し、前記振動制御部は、前記振動波形を連続的に変化させる請求項12記載の撮像装置。
  14.  前記判断部は、前記被写体のデフォーカス状態を判断し、
     前記振動制御部は、前記判断部によって判断された前記被写体のデフォーカス状態に応じて前記振動子が生じさせる振動波形を変化させる請求項12または13に記載の撮像装置。
  15.  前記振動制御部は、レンズが合焦位置にある場合に振動波形の振幅を最も小さくすることにより、ユーザに撮影タイミングを報知する請求項14に記載の撮像装置。
  16.  前記振動制御部は、前記判断部によって判断された前記被写体のデフォーカス状態に応じて振動波形の周波数を変化させる請求項14に記載の撮像装置。
  17.  前記振動制御部は、レンズが合焦位置にある場合に1周期における振幅の経時変化を対称にすることにより、ユーザに撮影タイミングを報知する請求項14または15に記載の撮像装置。
  18.  前記振動制御部は、前記デフォーカス状態が前ピンの場合と後ピンの場合とで振動波形を変化させる請求項17に記載の撮像装置。
  19.  前記判断部は、予め設定された対象である前記被写体の大きさを判断し、
     前記振動制御部は、前記判断部によって判断された前記被写体の大きさに応じて前記振動子が生じさせる振動波形を変化させる請求項12または13に記載の撮像装置。
  20.  前記振動制御部は、撮像画像における予め設定された範囲内に前記被写体が収まっており、かつ、前記被写体が予め設定された大きさ以上である場合に振動波形の振幅を最も小さくすることにより、ユーザに撮影タイミングを報知する請求項19に記載の撮像装置。
  21.  前記振動制御部は、前記被写体の大きさに応じて振動波形の周波数を変化させる請求項19または20に記載の撮像装置。
  22.  前記振動制御部は、撮像画像における予め設定された範囲内に前記被写体が収まっている場合に1周期における振幅の経時変化を対称にすることにより、ユーザに撮影タイミングを報知する請求項19または20に記載の撮像装置。
  23.  前記振動制御部は、前記被写体が予め設定された範囲内に収まっていない場合と前記被写体が予め設定された大きさ未満である場合とで振動波形を変化させる請求項22に記載の撮像装置。
  24.  前記判断部は、予め設定された対象である前記被写体の位置を判断し、
     前記振動制御部は、前記判断部によって判断された被写体画角に対する前記被写体の位置に応じて前記振動子が生じさせる振動波形を変化させる請求項12または13に記載の撮像装置。
  25.  前記振動制御部は、撮像画像における予め設定された範囲に前記被写体が存在する場合に振動波形の振幅を最も小さくすることにより、ユーザに撮影タイミングを報知する請求項24に記載の撮像装置。
  26.  前記振動制御部は、前記被写体の位置に応じて振動波形の周波数を変化させる請求項24または25に記載の撮像装置。
  27.  前記振動制御部は、撮像画像における予め設定された範囲に前記被写体が存在する場合に1周期における振幅の経時変化を対称にすることにより、ユーザに撮影タイミングを報知する請求項24または25に記載の撮像装置。
  28.  前記振動制御部は、前記被写体が予め設定された範囲に存在しない場合、当該範囲に対してどちらの方向に前記被写体がずれているかに応じて振動波形を変化させることにより、ユーザに撮影方向をさらに報知する請求項27に記載の撮像装置。
  29.  前記振動子は複数配置されており、
     前記振動制御部は、複数の振動子それぞれが異なる振動波形を生じさせる請求項12または13に記載の撮像装置。
  30.  前記振動制御部は、撮影タイミングにおいて、前記複数の振動子それぞれの振動波形の振幅を同一にすることにより、ユーザに撮影タイミングを報知する請求項29に記載の撮像装置。
  31.  前記振動制御部は、撮影タイミングにおいて、前記複数の振動子それぞれの振動波形の振幅を最も小さくすることにより、ユーザに撮影タイミングを報知する請求項29に記載の撮像装置。
  32.  前記振動制御部は、前記複数の振動子それぞれが生じさせる振動波形の開始タイミングをずらさせる請求項29から31の何れか1項に記載の撮像装置。
  33.  振動子を備えた撮像装置に用いられる制御プログラムであって、
     被写体像の少なくとも一部に基づいて前記被写体の状況を判断する判断ステップと、
     前記判断ステップの判断に応じて前記撮像装置の前記振動子が生じさせる振動波形を変化させることにより、ユーザに撮影タイミングを報知する制御ステップと
    をコンピュータに実行させる制御プログラム。
  34.  レンズ群と、
     少なくとも前記レンズ群の光軸方向に離間して配設される複数の振動子と
    を備えるレンズユニット。
  35.  カメラユニットに装着された場合、横位置の姿勢において、前記複数の振動子は、鉛直下側の領域に配置される
     請求項34に記載のレンズユニット。
  36.  被写体からの光束を受光して電気信号に変換する撮像素子と、
     少なくとも前記被写体からの光束の入射方向に離間して配設される複数の振動子と、
     被写体像の少なくとも一部に基づいて被写体の奥行き状況を判断する判断部と、
     前記判断部の判断に応じて前記複数の振動子を連動させて振動させる振動制御部と
    を備えるカメラユニット。
  37.  前記判断部は、前記被写体の奥行き状況を判断し、前記振動制御部は、前記複数の振動子を連続的に振動させる請求項36記載のカメラユニット。
  38.  前記判断部は、前記被写体のデフォーカス状態を判断し、
     前記振動制御部は、前記判断部によって判断された前記被写体のデフォーカス状態に応じて前記複数の振動子を連動させて振動させる請求項36または37に記載のカメラユニット。
  39.  前記振動制御部は、前記被写体がフォーカス状態である場合に、前記複数の振動子それぞれが生じさせる振動波形の振幅を同一にする請求項38に記載のカメラユニット。
  40.  前記振動制御部は、前記被写体がフォーカス状態である場合に、前記複数の振動子それぞれが生じさせる振動波形の振幅を最も小さくする請求項38に記載のカメラユニット。
  41.  前記振動制御部は、デフォーカス状態が前ピンの場合と後ピンの場合とで前記複数の振動子それぞれが生じさせる振動波形の振幅を異ならせる請求項38から40の何れか1項に記載のカメラユニット。
  42.  前記振動制御部は、前記複数の振動子それぞれが生じさせる振動波形の開始タイミングをずれさせる請求項38から40の何れか1項に記載のカメラユニット。
  43.  前記振動制御部は、デフォーカス状態が前ピンの場合と後ピンの場合とで前記複数の振動子それぞれが生じさせる振動波形の周波数を異ならせる請求項38から40の何れか1項に記載のカメラユニット。
  44.  少なくともレンズユニットとカメラユニットを含むカメラシステムであって、
     前記レンズユニットは、第1振動子を備え、
     前記カメラユニットは、第2振動子を備え、
     前記レンズユニットおよび前記カメラユニットの少なくともいずれかは、
     被写体像の少なくとも一部に基づいて被写体の奥行き状況を判断する判断部と、
     前記判断部の判断に応じて前記第1振動子および前記第2振動子を連動させて振動させる振動制御部を備えるカメラシステム。
  45.  前記判断部は、前記被写体の奥行き状況を連続的に判断し、前記振動制御部は、前記第1振動子および前記第2振動子を連続的に振動させる請求項44記載のカメラシステム。
  46.  前記判断部は、前記被写体のデフォーカス状態を判断し、
     前記振動制御部は、前記判断部によって判断された前記被写体のデフォーカス状態に応じて前記第1振動子および前記第2振動子を連動させて振動させる請求項44または45に記載のカメラシステム。
  47.  前記振動制御部は、前記レンズユニットのレンズ群が合焦位置にある場合に、前記第1振動子および前記第2振動子が生じさせる振動波形の振幅を同一にする請求項46に記載のカメラシステム。
  48.  前記振動制御部は、前記レンズユニットのレンズ群が合焦位置にある場合に、前記第1振動子および前記第2振動子が生じさせる振動波形の振幅を最も小さくする請求項46に記載のカメラシステム。
  49.  前記振動制御部は、デフォーカス状態が前ピンの場合と後ピンの場合とで前記第1振動子および前記第2振動子が生じさせる振動波形の振幅を異ならせる請求項46から48の何れか1項に記載のカメラシステム。
  50.  前記振動制御部は、前記第1振動子および前記第2振動子が生じさせる振動波形の開始タイミングをずれさせる請求項46から48の何れか1項に記載のカメラシステム。
  51.  前記振動制御部は、デフォーカス状態が前ピンの場合と後ピンの場合とで前記第1振動子および前記第2振動子が生じさせる振動波形の周波数を異ならせる請求項46から48の何れか1項に記載のカメラシステム。
  52.  被写体からの光束を受光して電気信号に変換する撮像素子と、少なくとも前記被写体からの光束の入射方向に離間して配設される複数の振動子とを備えるカメラユニットに用いられる制御プログラムであって、
     被写体像の少なくとも一部に基づいて被写体の奥行き状況を判断する判断ステップと、
     前記判断ステップの判断に応じて前記複数の振動子を連動させて振動させる振動制御ステップと
    をコンピュータに実行させる制御プログラム。
  53.  少なくともレンズユニットとカメラユニットを含み、前記レンズユニットが第1振動子を備え、前記カメラユニットが第2振動子を備えたカメラシステムに用いられる制御プログラムであって、
     被写体像の少なくとも一部に基づいて被写体の奥行き状況を判断する判断ステップと、
     前記判断ステップの判断に応じて前記第1振動子および前記第2振動子を連動させて振動させる振動制御ステップをコンピュータに実行させる制御プログラム。
  54.  撮影対象空間からの入射光を電気信号に変換する撮像部と、
     前記撮影対象空間と前記撮像部の方向に関する相対的な関係を検知する検知部と、
     ユーザに態様の変化を知覚させる触力覚を発生させる発生部と、
     前記検知部が検知した前記関係と予め定められた基準とに基づいて、前記撮像部を回転すべき推奨方向を定め、前記推奨方向に一致する回転方向に対応する前記態様の変化を知覚させるように前記発生部を駆動する駆動制御部と
    を備える撮像装置。
  55.  前記発生部は、前記入射光を受光する撮像面の長辺方向に平行なx軸および短辺方向に平行なy軸と、前記撮像面に直交するz軸の少なくともいずれかの軸周りの前記触力覚を発生させる請求項54に記載の撮像装置。
  56.  前記発生部は、シャッタボタンに設けられた請求項55に記載の撮像装置。
  57.  前記発生部は、前記シャッタボタンの押面の円周方向に沿って順次振動を発生させることにより前記y軸周りの前記触力覚を発生させる請求項56に記載の撮像装置。
  58.  前記発生部は、前記シャッタボタンの押面を傾斜させることにより前記x軸周りおよび前記z軸周りの前記触力覚を発生させる請求項56または57に記載の撮像装置。
  59.  前記検知部は、前記撮像部が取得した画像データにより前記撮影対象空間における特定の被写体の方向を前記関係として検知し、
     前記駆動制御部は、前記撮像部の有効領域に対して予め定められた部分領域に前記被写体が存在することを前記基準として、前記発生部を駆動する請求項54から58のいずれか1項に記載の撮像装置。
  60.  前記検知部は、前記撮像部に対する重力方向を検知し、
     前記駆動制御部は、前記撮像部が取得する被写体像における重力方向が、前記被写体像の長辺方向または短辺方向と一致することを基準として、前記発生部を駆動する請求項54から59のいずれか1項に記載の撮像装置。
  61.  前記駆動制御部は、動画撮影中においては前記基準を撮影経過と共に変化させて、前記発生部を駆動する請求項54から60のいずれか1項に記載の撮像装置。
  62.  前記駆動制御部は、予め指示されたサンプル画像の構図に近似させることを前記基準として、前記発生部を駆動する請求項54から61のいずれか1項に記載の撮像装置。
  63.  前記駆動制御部は、動画撮影中である場合とその他の場合で、前記発生部の発生態様を異ならせる請求項54から62のいずれか1項に記載の撮像装置。
  64.  撮影対象空間と撮像部の方向に関する相対的な関係を検知する検知ステップと、
     前記関係と予め定められた基準とに基づいて、前記撮像部を回転すべき推奨方向を定める方向決定ステップと、
     前記推奨方向に一致する回転方向を知覚させるように、ユーザに態様の変化を知覚させる触力覚を発生させる発生部を駆動する駆動制御ステップと
    をコンピュータに実行させる撮像装置の制御プログラム。
PCT/JP2012/003994 2011-06-23 2012-06-19 撮像装置 WO2012176441A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201280025461.3A CN103621056A (zh) 2011-06-23 2012-06-19 拍摄装置
US14/137,070 US20140104453A1 (en) 2011-06-23 2013-12-20 Image capturing apparatus

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2011139703A JP2013009106A (ja) 2011-06-23 2011-06-23 撮像装置
JP2011-139703 2011-06-23
JP2011-269408 2011-12-08
JP2011269403A JP2013120359A (ja) 2011-12-08 2011-12-08 レンズユニット、カメラユニット、カメラシステムおよび制御プログラム
JP2011269408A JP2013121143A (ja) 2011-12-08 2011-12-08 撮像装置およびその制御プログラム
JP2011-269403 2011-12-08
JP2012-019248 2012-01-31
JP2012019248A JP2013157953A (ja) 2012-01-31 2012-01-31 撮像装置および撮像装置の制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/137,070 Continuation US20140104453A1 (en) 2011-06-23 2013-12-20 Image capturing apparatus

Publications (1)

Publication Number Publication Date
WO2012176441A1 true WO2012176441A1 (ja) 2012-12-27

Family

ID=47422298

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003994 WO2012176441A1 (ja) 2011-06-23 2012-06-19 撮像装置

Country Status (3)

Country Link
US (1) US20140104453A1 (ja)
CN (1) CN103621056A (ja)
WO (1) WO2012176441A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2752734A3 (en) * 2013-01-07 2017-02-01 Samsung Electronics Co., Ltd Method for controlling camera operation based on haptic function and terminal supporting the same
JP2020005250A (ja) * 2018-06-25 2020-01-09 キヤノン株式会社 振動デバイスを有する撮像装置
JP2022095736A (ja) * 2017-05-16 2022-06-28 アップル インコーポレイテッド ユーザインタフェースのための触知フィードバック
US11735014B2 (en) 2016-06-12 2023-08-22 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10142496B1 (en) * 2013-01-26 2018-11-27 Ip Holdings, Inc. Mobile device image capture and image modification including filters, superimposing and geofenced comments in augmented reality
JP6261187B2 (ja) * 2013-05-21 2018-01-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6702100B2 (ja) * 2015-11-18 2020-05-27 カシオ計算機株式会社 情報処理装置、情報処理方法、及び、プログラム
USD836152S1 (en) * 2016-08-31 2018-12-18 Fujifilm Corporation Lens for camera
US11047702B1 (en) * 2016-09-16 2021-06-29 Apple Inc. Tracking systems for electronic devices
WO2018207287A1 (ja) * 2017-05-10 2018-11-15 三菱電機株式会社 撮影補助装置および撮影補助方法
US10194078B2 (en) * 2017-06-09 2019-01-29 Immersion Corporation Haptic enabled device with multi-image capturing abilities
US10607143B2 (en) * 2017-08-22 2020-03-31 Internatonal Business Machines Corporation Profile data camera adjustment
WO2019087504A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 振動発生装置、振動制御方法及びプログラム
CN107819907B (zh) * 2017-11-14 2019-12-27 维沃移动通信有限公司 一种摄像头控制方法及移动终端
JP7330715B2 (ja) * 2018-04-03 2023-08-22 キヤノン株式会社 電子機器、電子機器の制御方法およびプログラム
WO2019244563A1 (ja) * 2018-06-18 2019-12-26 キヤノン株式会社 振動デバイスを有する光学機器
US11341383B2 (en) * 2019-08-18 2022-05-24 Kyocera Document Solutions Inc. Methods and apparatus to detect effective tiling area and fill tiles efficiently
JP2021128317A (ja) * 2020-02-17 2021-09-02 キヤノン株式会社 撮像装置
JP2021136615A (ja) * 2020-02-27 2021-09-13 キヤノン株式会社 撮像装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125621A (ja) * 1990-09-18 1992-04-27 Nikon Corp カメラの信号伝達装置
JPH04255175A (ja) * 1991-02-07 1992-09-10 Fuji Photo Film Co Ltd カメラ一体型ビデオテープレコーダ
JPH0595501A (ja) * 1991-10-02 1993-04-16 Konica Corp 電子スチルビデオカメラ
JP2008118276A (ja) * 2006-11-01 2008-05-22 Sony Ericsson Mobilecommunications Japan Inc カメラ付き移動機器およびその撮影支援方法
JP2008281532A (ja) * 2007-05-14 2008-11-20 Denso Corp 無線携帯機及び車両存在方向報知システム
JP2009065577A (ja) * 2007-09-10 2009-03-26 Ricoh Co Ltd 撮像装置および撮像方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3979384B2 (ja) * 2003-12-22 2007-09-19 ソニー株式会社 撮像手段を有する電子機器および記録再生手段を有する撮像装置
JP4046095B2 (ja) * 2004-03-26 2008-02-13 ソニー株式会社 触覚機能付き入力装置、情報入力方法及び電子機器
JP4462305B2 (ja) * 2007-08-17 2010-05-12 ソニー株式会社 撮像装置、方法、およびプログラム
US20100225773A1 (en) * 2009-03-09 2010-09-09 Apple Inc. Systems and methods for centering a photograph without viewing a preview of the photograph
US8913004B1 (en) * 2010-03-05 2014-12-16 Amazon Technologies, Inc. Action based device control
US9069760B2 (en) * 2010-08-24 2015-06-30 Lg Electronics Inc. Mobile terminal and controlling method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125621A (ja) * 1990-09-18 1992-04-27 Nikon Corp カメラの信号伝達装置
JPH04255175A (ja) * 1991-02-07 1992-09-10 Fuji Photo Film Co Ltd カメラ一体型ビデオテープレコーダ
JPH0595501A (ja) * 1991-10-02 1993-04-16 Konica Corp 電子スチルビデオカメラ
JP2008118276A (ja) * 2006-11-01 2008-05-22 Sony Ericsson Mobilecommunications Japan Inc カメラ付き移動機器およびその撮影支援方法
JP2008281532A (ja) * 2007-05-14 2008-11-20 Denso Corp 無線携帯機及び車両存在方向報知システム
JP2009065577A (ja) * 2007-09-10 2009-03-26 Ricoh Co Ltd 撮像装置および撮像方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2752734A3 (en) * 2013-01-07 2017-02-01 Samsung Electronics Co., Ltd Method for controlling camera operation based on haptic function and terminal supporting the same
US9667870B2 (en) 2013-01-07 2017-05-30 Samsung Electronics Co., Ltd Method for controlling camera operation based on haptic function and terminal supporting the same
US11735014B2 (en) 2016-06-12 2023-08-22 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
JP2022095736A (ja) * 2017-05-16 2022-06-28 アップル インコーポレイテッド ユーザインタフェースのための触知フィードバック
JP2020005250A (ja) * 2018-06-25 2020-01-09 キヤノン株式会社 振動デバイスを有する撮像装置
JP7247009B2 (ja) 2018-06-25 2023-03-28 キヤノン株式会社 振動デバイスを有する撮像装置

Also Published As

Publication number Publication date
US20140104453A1 (en) 2014-04-17
CN103621056A (zh) 2014-03-05

Similar Documents

Publication Publication Date Title
WO2012176441A1 (ja) 撮像装置
JP5535080B2 (ja) カメラシステム
JP5853197B2 (ja) 交換レンズ、カメラボディ及びカメラシステム
JP4441565B2 (ja) 撮像装置
US20110122268A1 (en) Imaging device
WO2005091620A1 (ja) 撮像装置
JP2010263254A (ja) カメラシステムおよびカメラ本体
US8743181B2 (en) Image pickup apparatus
JP6444025B2 (ja) 光学機器
JP2012225947A (ja) レンズ鏡筒
JP4609183B2 (ja) 撮像装置
JP2013046296A (ja) 複眼撮像装置
CN112153276B (zh) 摄像装置
JP2013009106A (ja) 撮像装置
JP2013157953A (ja) 撮像装置および撮像装置の制御プログラム
JP2012053303A (ja) ステレオカメラ装置および電子情報機器
JP2006259327A (ja) 撮像装置
CN112534330B (zh) 摄像装置
JP5637491B2 (ja) 撮影装置、撮影方法、及びプログラム
JP5803129B2 (ja) カメラ
JP6764308B2 (ja) 補正装置及びその制御方法、撮像装置、プログラム並びに記憶媒体
JP4848763B2 (ja) 撮影装置及びプログラム
JP2013120359A (ja) レンズユニット、カメラユニット、カメラシステムおよび制御プログラム
KR102109543B1 (ko) 촬상장치, 진동제어장치, 진동제어방법
JP2013121143A (ja) 撮像装置およびその制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12803365

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12803365

Country of ref document: EP

Kind code of ref document: A1