WO2015151650A1 - 撮像装置およびその制御方法 - Google Patents

撮像装置およびその制御方法 Download PDF

Info

Publication number
WO2015151650A1
WO2015151650A1 PCT/JP2015/055109 JP2015055109W WO2015151650A1 WO 2015151650 A1 WO2015151650 A1 WO 2015151650A1 JP 2015055109 W JP2015055109 W JP 2015055109W WO 2015151650 A1 WO2015151650 A1 WO 2015151650A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection unit
imaging device
camera
touch
posture
Prior art date
Application number
PCT/JP2015/055109
Other languages
English (en)
French (fr)
Inventor
敬太 亀井
大久保 猛
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2015151650A1 publication Critical patent/WO2015151650A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices

Definitions

  • the present invention relates to an imaging apparatus and a control method thereof.
  • Patent Documents 1 and 2 In order to improve the functionality of camera operation, there are some in which a touch panel is provided on the outer periphery of the lens barrel of the camera (Patent Documents 1 and 2). Parameters are set by a touch operation on the touch panel. In addition, since there are ways to shoot vertically and horizontally in a camera, there is a camera that detects whether or not it is vertically shot and changes the shooting operation and image recording content (Patent Document 3).
  • JP 2013-57837 A JP 2013-214935 JP JP 2011-142661
  • Cited Documents 1 and 2 since the touch panel is formed only at the position corresponding to the side surface of the lens barrel when the camera is set for landscape shooting, it may be difficult to operate for portrait shooting. In Cited Document 3, it is difficult to operate with the left hand that holds the lens at the time of shooting.
  • An object of the present invention is to facilitate the operation of the touch detection unit provided on the outer peripheral surface of the lens barrel regardless of whether it is taken vertically or horizontally.
  • an imaging device including a lens and a lens barrel, a posture detection unit that detects the posture of the imaging device, a touch detection unit provided on the outer peripheral surface of the lens barrel, and a posture detected by the posture detection unit.
  • a partial area determining unit that determines a partial area that is a partial area of the touch detection unit, and a control unit that performs at least one of imaging control and lens control based on a touch operation in the partial area of the touch detection unit. It is characterized by.
  • the present invention also provides a control method suitable for the imaging apparatus. That is, in the control method of the imaging apparatus including the lens and the lens barrel, the attitude detection unit detects the attitude of the imaging apparatus, the touch detection unit is provided on the outer peripheral surface of the lens barrel, and the partial area determination unit includes The partial area, which is a partial area of the touch detection unit, is determined based on the posture detected by the posture detection unit, and the control unit performs imaging control or lens control based on the touch operation in the partial area of the touch detection unit. To perform at least one of the following.
  • the touch detection unit may include an area positioned in the horizontal direction and an area positioned in the vertical direction in the upright posture of the imaging apparatus.
  • the partial area determination unit determines, for example, an area located in the horizontal direction as the partial area in the posture of the imaging device detected by the posture detection unit among the areas included in the touch detection unit.
  • the area of the touch detection unit positioned in the horizontal direction in the upright posture of the imaging device may include two areas facing each other with the optical axis of the lens interposed therebetween.
  • the area of the touch detection unit positioned in the vertical direction in the upright posture of the imaging device includes two areas facing each other with the optical axis of the lens interposed therebetween.
  • control unit performs imaging based on a combination of a touch operation on one area and a touch operation on the other area of two areas facing each other across the optical axis of the lens in the determined partial area.
  • Control at least one of control and lens control.
  • the posture detection unit detects, for example, whether the imaging device is in a horizontal shooting posture or a vertical shooting posture.
  • the posture detection unit may be, for example, whether the imaging device is in a landscape orientation, a first portrait orientation, or a second portrait orientation in which the imaging device is rotated opposite to the first portrait orientation relative to a horizontal plane. To detect.
  • the posture detection unit detects, for example, the posture of the imaging device a plurality of times, and uses the posture detected continuously at least twice or more as the posture of the imaging device.
  • the posture detection unit detects the posture of the imaging device three times or more, and the posture detected most frequently among the detected postures may be the posture of the imaging device.
  • a second notification unit that notifies at least one of the contents that can be controlled by the touch operation on the partial area determined by the partial area determination unit and the control content set by the touch operation may be further provided.
  • the posture of the imaging apparatus is detected, and a partial area that is a partial area of the touch detection unit provided on the outer peripheral surface of the lens barrel is determined based on the posture. At least one of imaging control and lens control is performed based on the touch operation in the determined partial area.
  • FIG. 1 shows an embodiment of the present invention and is a perspective view of a camera 1 (imaging device).
  • 2 is a plan view of the camera 1
  • FIG. 3 is a front view of the camera 1
  • FIG. 4 is a bottom view of the camera 1
  • FIG. 5 is a right side view of the camera 1
  • FIG. 6 is a left side view of the camera 1
  • FIG. 2 is a rear view of the camera 1.
  • the camera 1 includes a camera body 1 and a lens barrel 30.
  • the camera body 1 and the lens barrel 30 are detachable, but this need not be the case.
  • An operation unit 11 for giving commands to the camera 1 is formed on the upper surface (top surface) of the camera body 10.
  • a liquid crystal display screen 12 for displaying a captured subject image or the like is formed on the back surface of the camera body 10.
  • a touch detection unit 20 including a first touch detection unit 21, a second touch detection unit 22, a third touch detection unit 23, and a fourth touch detection unit 22.
  • the touch detection unit 20 detects a touch by the user.
  • the first touch detection unit 21 is provided along the outer peripheral surface of the lens barrel 30 at a position above the camera barrel 30 when the camera 1 is in an upright state.
  • the second touch detection unit 22 is along the outer peripheral surface of the lens barrel 30 at a position that is the right side surface of the lens barrel 30 (right side when the camera 1 is viewed from the front). Is provided.
  • the third touch detection unit 23 is provided along the outer peripheral surface of the lens barrel 30 at a position that becomes the bottom surface of the lens barrel 30 when the camera 1 is in the upright state.
  • the fourth touch detection unit 24 is located along the outer peripheral surface of the lens barrel 30 at a position on the left side surface of the lens barrel 30 (left side surface when the camera 1 is viewed from the front). Is provided.
  • the area of the touch detection unit 20 positioned in the horizontal direction in the upright posture of the camera 1 includes two areas (second touch detection) facing each other across the optical axis of the lens barrel 30 (imaging lens 31).
  • Area 22 and the fourth touch detection section 24), and the area of the touch detection section 20 that is positioned in the vertical direction in the upright posture of the camera 1 is opposed across the optical axis of the lens barrel 30 (imaging lens 31). 2 areas (first touch detection unit 21 and third touch detection unit 23).
  • FIG. 8 is a block diagram showing the electrical configuration of the camera 1.
  • the lens barrel 30 includes a control device 32, which controls the operation of the lens barrel 30.
  • the touch signal generated by the touch operation on the touch detection unit 20 is input to the control device 32. Based on the touch operation on the touch detection unit 20, the lens barrel 30 and the camera body 10 (camera) are controlled.
  • the driving device 34 is controlled by the control device 32, and the imaging lens 31 is driven by the driving device 34.
  • the lens barrel 30 also includes a communication device 33 and can communicate with the camera body 10.
  • the lens barrel 30 is controlled in accordance with a command from the camera body 10.
  • the lens barrel 30 also includes a memory 35.
  • the camera body 10 includes a signal processing / control device 14 and controls the operation of the camera 1.
  • the subject image is formed on the light receiving surface of the image sensor 13 by the imaging lens 31 included in the lens barrel 30.
  • the video signal representing the subject image is subjected to predetermined signal processing in the signal processing / control device 14 and is given to the main body side display device 17.
  • the captured subject image is displayed on the liquid crystal display screen 12 described above.
  • a signal output from the signal processing / control device 14 is given to the recording control device 15.
  • the recording control device 15 records a video signal representing the subject image on a recording medium such as the memory card 16.
  • the camera body 10 includes an attitude detection device (attitude detection unit) 2 that detects the attitude of the camera 1 (camera body 10).
  • the posture detection device 2 is in a state in which the camera 1 is in the horizontal shooting mode (the top surface of the camera body 10 is at the top) or the camera 1 is in the first vertical shooting mode (the right side surface of the camera body 10 is in the upper side) 11 (see FIG. 11), or whether the camera 1 is in the second vertical shooting state (the state in which the left side surface of the camera body 10 is at the top, see FIG. 12).
  • the second vertical shooting state is a state in which the camera 1 is rotated with respect to the horizontal plane in the opposite direction to the first vertical shooting state.
  • the posture detection device 2 is provided with a first sensor inside the left side surface of the camera 1, a second sensor inside the right side surface of the camera 1, the first sensor is present on the lower side, and the second sensor Is present on the upper side, it is determined as the first vertical shooting, and when the first sensor is present on the upper side and the second sensor is present on the lower side, it is determined as the second vertical shooting, When the first sensor and the second sensor are present in the horizontal direction, it is determined that the pre-emption is performed. Further, the posture of the camera 1 can be determined using a sensor capable of detecting the rotation angle and the rotation direction.
  • the first vertical shooting is determined and the camera 1 is viewed from the front.
  • rotating 90 degrees clockwise or 270 degrees counterclockwise it can be determined as the second vertical shooting.
  • the camera body includes a communication device 19 and can communicate with the lens barrel 30.
  • the camera body 10 also includes a memory 18.
  • FIG. 9 is a flowchart showing the processing procedure of the camera 1.
  • the camera 1 includes a touch detection unit 20 (a first touch detection unit 21, a second touch detection unit 22, a third touch detection unit 23, and a first touch detection unit 20 provided on the outer peripheral surface of the lens barrel 30.
  • a control command (lens control, camera control) is given to the camera 1 by a touch operation on the touch detection unit 24).
  • the posture of the camera 1 is detected, and the partial area of the touch detection unit 20 is determined according to the detected posture. At least one of camera control and lens control is performed based on the touch operation in the determined partial area.
  • the posture of the camera 1 is detected by the posture detection device 2 (step 41).
  • the detected posture of the camera 1 is determined (step 42).
  • an area located in the horizontal direction in the touch detection unit 20 is determined as a partial area by the signal processing / control device 14 (partial area determination unit). (Step 43).
  • the projected area of the fourth touch detection unit 24) is an area (first touch detection unit 21, second area) on the horizontal plane parallel to the first area A1, the optical axis of the lens barrel 30 (imaging lens 31).
  • the area projected from the touch detection unit 22, the third touch detection unit 23, or the fourth touch detection unit 24) is the second area A2
  • the first area A1 is larger than the second area A2.
  • the case is “positioned in the horizontal direction”, and the case where the second area A2 is larger than the first area A1 is “positioned in the vertical direction”.
  • FIG. 11 is a front view of the camera 1 in the case of landscape shooting. Unlike FIG. 3, positions of the first touch detection unit 21, the second touch detection unit 22, the third touch detection unit 23, and the fourth touch detection unit 24 provided on the outer peripheral surface of the lens barrel 30. The detectors 21 to 24 are shown so that the relationship can be understood.
  • the horizontal direction perpendicular to the optical axis of the lens barrel 30 is the horizontal direction of the camera 1 in a posture (upright posture) with the top surface of the camera 1 vertically upward and the bottom surface vertically downward.
  • a posture in which the absolute value of the angle formed by the horizontal direction of the camera 1 with respect to the horizontal plane is 0 degree or more and less than 45 degrees is defined as horizontal shooting.
  • a posture in which the absolute value is 45 degrees or more and 90 degrees or less is referred to as vertical shooting (first vertical shooting or second vertical shooting).
  • the second touch detection unit 22 and the fourth touch detection unit 24 are positioned in the horizontal direction. These second touch detection unit 22 and fourth touch detection unit 24 are determined as partial areas (step 43).
  • an area located in the horizontal direction in the touch detection unit 20 is determined as a partial area (step 44).
  • FIG. 12 is a front view of the camera 1 in the case of the first vertical shooting.
  • the first touch detection unit 21 and the third touch detection unit 23 are positioned in the horizontal direction. These first touch detection unit 21 and third touch detection unit 23 are determined as partial areas (step 44).
  • an area located in the horizontal direction in the touch detection unit 20 is determined as a partial area (step 45).
  • FIG. 13 is a front view of the camera 1 in the case of the second vertical shooting.
  • the first touch detection unit 21 and the third touch detection unit 23 are positioned in the horizontal direction as in the case of the first vertical shooting. These first touch detection unit 21 and third touch detection unit 23 are determined as partial areas (step 45).
  • the touch operation detection process for the determined partial area is performed (step 46).
  • the determined partial area for example, the second touch detection unit 22 and the fourth touch detection unit 24 for horizontal shooting, and the first touch detection unit 21 and the third touch detection unit 23 for vertical shooting
  • the touch operation detection process itself may be stopped, or all of the first touch detection unit 21, the second touch detection unit 22, and the third touch detection unit 23 of the touch detection unit 20 may be stopped.
  • the touch operation is detected by the fourth touch detection unit 24.
  • a process described later may be performed.
  • a signal representing the touch operation is given to the signal processing / control device 14 of the camera body 10.
  • the signal processing / control device 14 it is determined what touch pattern touch operation has been performed (step 48). However, the touch pattern may be determined by the control device 32 of the lens barrel 30.
  • a control command is stored in the memory 18 of the camera body 10 for each touch pattern. When the determined touch pattern matches the stored touch pattern (step 49), the control corresponding to the matched touch pattern is performed. The command is read by the signal processing / control device 14. Camera control or lens control is performed based on the read control command (step 50).
  • the touch detection unit positioned in the horizontal direction in the posture of the camera 1 is two areas facing each other across the optical axis of the imaging lens 31 included in the lens barrel 30, the touch detection unit is based on a touch operation on one of the areas.
  • At least one of camera control and lens control can be performed from the determined touch pattern, touch operation on one of the two areas facing each other across the optical axis of the imaging lens 31, and touch on the other area It is also possible to perform at least one of camera control and lens control from a touch pattern determined based on a combination with operation.
  • FIG. 14 is a plan view showing a state where the camera 1 is picking up images.
  • a portion of the touch detection unit 20 located on the left side when viewed from the user The thumb T is used for the second touch detection unit 22 in the case of horizontal shooting, and the portion located on the right side when viewed from the user (the fourth touch detection unit 24 in the case of horizontal shooting).
  • the index finger F1 or the middle finger F2 is often used. Since the touch operation on the portion located on the left side when viewed from the user is different from the touch operation on the portion located on the right side when viewed from the user, It is necessary to determine whether the touch operation is performed on the portion located on the right side when viewed.
  • the fourth touch detection unit 24 is always the touch detection unit 22 and is located on the right side as viewed from the user with the camera 1 held by the user.
  • the third touch detection unit 23 is located on the left side when viewed from the user with the camera 1 held by the user, and the user holds the camera 1.
  • the first touch detection unit 21 is located on the right side as viewed from the user.
  • the first touch detection unit is located on the left side as viewed from the user.
  • the third touch detector 23 is located on the right side as viewed from the user. As described above, in the case of the first vertical shooting and the case of the second vertical shooting, the portion of the touch detection unit 20 positioned on the left side when viewed from the user with the camera 1 held by the user and the user. The touch detection unit 20 located on the right side is opposite. For this reason, when it is determined that the first vertical shooting is performed, it is determined that the third touch detection unit 23 exists on the left side when viewed from the user, and the first touch detection unit 21 exists on the right side when viewed from the user. As described above, touch pattern discrimination is performed.
  • the first touch detection unit 21 exists on the left side as viewed from the user with the camera 1 held, and the third touch panel on the right side as viewed from the user.
  • the touch detection unit 23 is determined to be present, and the touch pattern discrimination is performed as described above. Even in the first vertical shooting or the second vertical shooting, the touch pattern can be accurately determined.
  • FIGS. 15 and 16 are examples of marks displayed on the liquid crystal display screen 12 formed on the back surface of the camera 1.
  • the mark 52 is displayed on the liquid crystal display screen 12 so as to notify the user of the determined partial area.
  • the mark 52 displays the determined partial area corresponding to the posture of the camera 1.
  • the second touch detection unit 22 and the fourth touch detection unit 24 positioned in the horizontal direction are determined as partial areas as described above.
  • the mark 52 includes a mark M2 representing the second touch detection unit 22 and a mark M4 representing the fourth touch detection unit 24.
  • the mark 52 includes a mark M1 representing the first touch detection unit 21 and a mark M3 representing the third touch detection unit 23 so that the area is determined.
  • the determined partial area is notified to the user (first notification unit).
  • FIG. 17 and FIG. 18 show an example of how to use the touch detection unit 20 when the first image processing mode is set.
  • the first image processing mode can be set by a mode setting switch (not shown).
  • This mode setting switch may be provided on the outer periphery of the lens barrel 30 or may be provided on the camera body 1.
  • FIG. 17 is a right side view of the camera 1 and corresponds to FIG.
  • FIG. 18 shows a state of an image displayed on the liquid crystal display screen 12 when the first image processing mode is set.
  • the second touch detection unit 22 and the fourth touch detection unit 24 are determined as partial areas.
  • Each mode in the first image processing mode is determined according to the touch position in the optical axis direction with respect to the second touch detection unit 22.
  • Positions P1 to P6 are defined.
  • FIG. 18 shows what first image processing mode is set for each of these positions P1 to P6. For example, when the position P1, P2, P3, P4, P5 or P6 of the second touch detection unit 22 is touched, “blur”, “sharpness”, “brightness”, “color”, “air feeling” Alternatively, the first image processing mode of “contrast” is set.
  • each mode in the first image processing mode is set according to the touch position of the second touch detection unit 22 in the optical axis direction.
  • the adjustment amount in the set mode can be set by tracing the second touch detection unit 22 (or the fourth touch detection unit 24) in the circumferential direction. For example, the adjustment amount of the set mode is increased by tracing from the bottom to the top with a thumb or the like, and conversely, the adjustment amount of the set mode is decreased by tracing from the top to the bottom.
  • the adjustment amount is displayed on the display screen 12.
  • FIG. 18 it can be seen that the adjustment amount in the “sharpness” mode is set to 80%.
  • at least one of the contents that can be controlled by the touch operation on the determined partial area and the control contents set by the touch operation are notified by the liquid crystal display screen 12 (second notification unit).
  • the touch pattern corresponding to the touch operation is detected by the signal processing / control device 14, and the setting of each mode in the first image processing mode and the setting of the adjustment amount are signaled according to the touch pattern. This is done in the processing / control unit 14.
  • the first touch detection unit 21 and the third touch detection unit 23 are determined as partial areas, but the touch position with respect to the third touch detection unit 23 is determined. Accordingly, each of the first image processing modes is determined, and control in the signal processing / control device 14 is performed so that the adjustment amount is determined according to the touch operation on the first touch detection unit 21.
  • the first touch detection unit 21 and the third touch detection unit 23 are determined as partial areas. Control in the signal processing / control device 14 is performed so that each mode of the first image processing mode is determined according to the touch position with respect to 21 and the adjustment amount is determined according to the touch operation with respect to the third touch detection unit 23. Done. As described above, in either the first vertical shooting or the second vertical shooting, the user does not need to change the touch detection unit that performs the touch operation, so that the operability is improved.
  • the touch operation method (for example, when the second touch detection unit 22 is touched, each mode of the first image processing mode can be set according to the touch position in the optical axis direction) or the touch operation is performed.
  • the control content (for example, the processing such as sharpness described above being performed) may be displayed (notified) on the liquid crystal display screen 12 (third notification unit).
  • FIG. 19 shows another example of the display method of the liquid crystal display screen 12.
  • the display screen 12 Character strings indicating each mode are arranged from top to bottom. Further, an arc is displayed on the display screen to indicate that the degree of image processing is set by tracing the second touch detection unit 22 and the fourth touch detection unit 24 in the circumferential direction.
  • the thick part of the arc represents the degree, and in the example shown in FIG. 19, it is understood that 20% contrast processing is set.
  • FIGS. 20 to 22 show another example of how to use the touch detection unit 20 when the second image processing mode is set.
  • FIG. 19 is a side view of the camera 1 and corresponds to FIGS. 5 and 17.
  • FIG. 21 shows the relationship between the touch position and the image processing type and setting.
  • FIG. 22 shows the rear surface of the camera 1 and corresponds to FIGS. 7 and 18.
  • the second image processing mode can also be set with the mode setting switch.
  • the posture of the camera 1 shown in FIG. If it is horizontal shooting, as described above, the second touch detection unit 22 and the fourth touch detection unit 24 are determined as partial areas.
  • the processing method and its degree in the second image processing mode are determined according to the touch position on the second touch detection unit 22.
  • the optical axis direction L1 and the optical axis direction L1 are considered as the vertical direction V1, and the first direction is determined based on these directions L1 and V1.
  • the processing method and its degree in the second image processing mode are determined.
  • Nine areas (not necessarily nine) I1 to I9 are considered in the area Ar, and these areas I1 to I9 define the processing method in the second image processing mode.
  • the signal processing / control device 14 performs image processing using the image processing method defined by the touched region. Is called.
  • the area I1 is processed into a sepia color, and when a part is touched in the area I1, the image is changed to a sepia color.
  • the degree of the sepia color process is determined according to the distance between the area I1 and the touch position. For example, even when the position indicated by the symbol P is touched, the degree of the sepia color processing may be determined according to the distance from the position indicated by the symbol P to the region I1.
  • the degree of image processing may be performed by other methods than the touch operation in the second touch detection unit 22 (for example, as described above by the touch operation on the fourth touch detection unit 24). May be done). There are various types of processing in the second image processing mode. In this manner, the image processing and its degree can be designated based on the touch operation in the second touch detection unit 22.
  • a mark 53 indicating the touch position on the second detection unit 22 is displayed. By looking at the mark 53, the user can grasp the touched position.
  • the first touch detection unit 21 and the third touch detection unit 23 are determined as partial areas.
  • the signal processing / control device 14 performs control so that the image processing in the second image processing mode is determined in accordance with the touch position on the third touch detection unit 23.
  • the first touch detection unit 21 and the third touch detection unit 23 are determined as partial areas. Control in the signal processing / control device 14 is performed so that the image processing in the second image processing mode is determined in accordance with the touch position on 21.
  • the user does not need to change the touch detection unit that performs the touch operation, so that the operability is improved.
  • FIG. 23 is a flowchart showing another processing procedure of the camera 1, and corresponds to the processing procedure of FIG.
  • the processing procedure shown in FIG. 23 detects the camera posture a plurality of times, and determines that the camera is in the same posture n times (for example, at least twice) continuously, the horizontal shooting, the first vertical shooting, or the second It is determined that this is a vertical shooting.
  • the continuous number calculation variable i is reset to 0 (step 61), and the posture of the camera 1 is detected (step 62). If it is the first posture detection after power-on (or posture detection after a certain period of time has elapsed since the previous posture detection) (YES in step 63), the previous posture detection result is not stored in the memory. The result is stored in the memory 18 (step 64). The continuous number calculation variable i is incremented (step 66). It is confirmed whether or not the variable i has reached n times (step 67). If not n times (NO in step 67), the processing from step 62 is repeated. If it is not the first posture detection (NO in step 63), it is confirmed whether the current detection result and the detection result stored in the memory 18 are the same (step 65).
  • step 65 If the current detection result and the detection result stored in the memory 18 are not the same (NO in step 65), the processing from step 61 is repeated. If they are the same (YES in step 65), the continuous number calculation variable i is incremented (step 66), and it is confirmed whether the variable i has reached n times (step 67). When the continuous number calculation variable i becomes n times (YES in step 67), the current detection result is overwritten in the memory 18 (step 68), and the posture of the camera 1 is determined based on the posture stored in the memory 18. (Step 69). Thereafter, as in the process shown in FIG. 9, the presence / absence of a touch operation and the tapping pattern are determined. If there is no touch operation or the touch pattern does not match the predetermined pattern, the processing from step 62 is repeated.
  • FIG. 24 is a flowchart showing a part of another processing procedure of the camera 1, and corresponds to the processing procedure of FIG.
  • the detection result is stored in the memory 18.
  • the number of detections for each posture is obtained from the detection results of the past N times (for example, N is 3 or more) including this time (step 72). Of the past N times, the most detected posture is determined as the posture of the camera 1 (step 73). Thereafter, the processing after step 41 in FIG. 9 is performed.
  • FIG. 25 to FIG. 31 show another embodiment.
  • FIG. 25 is a perspective view of the camera 1A.
  • 26 to 31 are six views of the camera 1A.
  • 26 is a plan view of camera 1A
  • FIG. 27 is a front view of camera 1A
  • FIG. 28 is a bottom view of camera 1A
  • FIG. 29 is a right side view of camera 1A
  • FIG. 30 is a left side view of camera 1A
  • FIG. It is a rear view of the camera 1A.
  • the same components as those shown in FIGS. 1 to 7 are designated by the same reference numerals and description thereof is omitted.
  • the lens barrel 30A is not formed with the four touch detectors 21 to 24 in the circumferential direction of the outer peripheral surface of the lens barrel 30, but touches the entire outer peripheral surface of the lens barrel 30A.
  • a detection unit 20A is formed. In this way, the touch detection unit 20A may be formed over the entire outer periphery of the lens barrel 30A.
  • 32 to 35 are a plan view, a bottom view, a right side view, and a left side view of the camera 1A.
  • the touch detection unit 20A is formed over the entire outer circumference of the lens barrel 30A, as in the first touch detection unit 21 to the fourth touch detection unit 24 described above, FIG. As shown in FIG. 35, the first touch detection unit 21A to the fourth touch detection unit 24B are defined (however, the physical areas of the touch detection units 21A to 24A are not defined, Cannot be grasped.) As described above, the partial area is determined according to the posture of the camera 1A, and the above-described processing is performed.
  • FIG. 36 is a perspective view of the camera 1B.
  • 37 to 42 are six views of the camera 1B.
  • 37 is a plan view of the camera 1B
  • FIG. 38 is a front view of the camera 1B
  • FIG. 39 is a bottom view of the camera 1B
  • FIG. 40 is a right side view of the camera 1B
  • FIG. 41 is a left side view of the camera 1B
  • FIG. It is a rear view of the camera 1B.
  • the same components as those shown in FIGS. 1 to 7 are designated by the same reference numerals and description thereof is omitted.
  • the touch detection unit 20A is formed over the entire circumference of the outer peripheral surface of the lens barrel 30B. Further, touch detection units 25 and 26 are formed over the entire outer peripheral surface of the lens barrel 30B with the touch detection unit 20A interposed therebetween. By a touch operation on the touch detection unit 25 or 26, at least one control command of camera control or lens control can be given to the camera 1B.
  • 1,1A, 1B Camera (imaging device) 2 Attitude detection device (Attitude detection unit) 10 Camera body 14 Signal processing / control device (partial area determination unit, control unit) 20, 20A touch detection unit 21 First touch detector (partial area) 22 Second touch detector (partial area) 23 Third touch detector (partial area) 24 Fourth touch detector (partial area) 30, 30A, 30B lens barrel

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

 レンズ鏡筒の外周面に設けられたタッチ検出部の操作を容易とする撮像装置およびその制御方法を提供する。カメラのレンズ鏡筒の外周面には周方向に4つに分かれたタッチ検出部が設けられている。カメラの姿勢が検出され(ステップ41),水平方向に位置するタッチ検出部が部分エリアと決定される(ステップ43,44,45)。部分エリアのタッチ操作が検出され(ステップ46),そのタッチパターンに応じてカメラ制御,レンズ制御が行われる(ステップ48-50)。カメラの姿勢にかかわらず,ユーザのタッチ操作のやり方が同じとなるので,タッチ検出部の操作が容易となる。

Description

撮像装置およびその制御方法
 この発明は,撮像装置およびその制御方法に関する。
 カメラ操作の機能性を向上させるためにカメラのレンズ鏡筒の外周部にタッチパネルが設けられているものがある(特許文献1,2)。タッチパネルに対する接触操作によってパラメータの設定等が行われる。また,カメラでは縦撮り,横撮りの構え方があるので,縦撮りか否かを検知し,撮影動作,画像記録内容を変更するものもある(特許文献3)。
特開2013-57837号公報 特開2013-214935号公報 特開2011-142661号公報
 引用文献1,2では,横撮りに構えた場合にレンズ鏡筒の側面に対応する箇所にしかタッチパネルが形成されていないから,縦撮りの場合には操作しづらいことがある。また,引用文献3では,撮影時にレンズを把持する左手による操作は難しい。
 この発明は,縦撮り,横撮りにかかわらずレンズ鏡筒の外周面に設けられたタッチ検出部の操作を容易とすることを目的とする。
 この発明は,レンズおよびレンズ鏡筒を備えた撮像装置において,撮像装置の姿勢を検出する姿勢検出部,レンズ鏡筒の外周面に設けられたタッチ検出部,姿勢検出部において検出された姿勢にもとづいて,タッチ検出部の一部のエリアである部分エリアを決定する部分エリア決定部,ならびにタッチ検出部の部分エリアにおけるタッチ操作にもとづいて撮像制御またはレンズ制御の少なくとも一方を行う制御部を備えていることを特徴とする。
 この発明は,撮像装置に適した制御方法も提供している。すなわち,レンズおよびレンズ鏡筒を備えた撮像装置の制御方法において,姿勢検出部が,撮像装置の姿勢を検出し,タッチ検出部が,レンズ鏡筒の外周面に設けられ,部分エリア決定部が,姿勢検出部において検出された姿勢にもとづいて,タッチ検出部の一部のエリアである部分エリアを決定し,制御部が,タッチ検出部の部分エリアにおけるタッチ操作にもとづいて撮像制御またはレンズ制御の少なくとも一方を行うものである。
 タッチ検出部は,撮像装置の正立姿勢において水平方向に位置するエリアと鉛直方向に位置するエリアとを含んでもよい。この場合,部分エリア決定部は,たとえば,タッチ検出部に含まれるエリアのうち,姿勢検出部によって検出された撮像装置の姿勢において,水平方向に位置するエリアを部分エリアと決定する。
 撮像装置の正立姿勢において水平方向に位置するタッチ検出部のエリアは,レンズの光軸を挟んで対向する2つのエリアを含んでもよい。この場合,撮像装置の正立姿勢において鉛直方向に位置するタッチ検出部のエリアは,レンズの光軸を挟んで対向する2つのエリアを含む。
 制御部は,たとえば,決定された部分エリアにおけるレンズの光軸を挟んで対向する2つのエリアのうちの,一方のエリアに対するタッチ操作と,他方のエリアに対するタッチ操作との組み合わせにもとづいて,撮像制御またはレンズ制御の少なくとも一方を制御する。
 姿勢検出部は,たとえば,撮像装置が横撮りの姿勢か縦撮りの姿勢かを検出するものである。
 姿勢検出部は,たとえば,撮像装置が横撮りの姿勢か,第1の縦撮りの姿勢か,撮像装置が水平面に対して第1の縦撮り姿勢と反対に回転した第2の縦撮りの姿勢かを検出する。
 姿勢検出部は,たとえば,撮像装置の姿勢を複数回検出するものであり,少なくとも二回以上連続して検出した姿勢を撮像装置の姿勢とするものである。
 姿勢検出部は,撮像装置の姿勢を三回以上検出するものであり,検出された姿勢のうちもっとも多く検出された姿勢を撮像装置の姿勢とするものでもよい。
 部分エリア決定部によって決定された部分エリアを報知する第1の報知部をさらに備えてもよい。
 部分エリア決定部によって決定された部分エリアに対するタッチ操作により制御可能な内容およびタッチ操作により設定された制御内容の少なくとも一方を報知する第2の報知部をさらに備えてもよい。
 部分エリア決定部によって決定された部分エリアにおけるタッチ操作の方法およびタッチ操作が行われたことにより生じる制御内容を報知する第3の報知部をさらに備えてもよい。
 この発明によると,撮像装置の姿勢が検出され,その姿勢にもとづいて,レンズ鏡筒の外周面に設けられているタッチ検出部の一部のエリアである部分エリアが決定される。決定された部分エリアにおけるタッチ操作にもとづいて撮像制御またはレンズ制御の少なくとも一方が行われる。撮像装置の姿勢に応じて操作しやすい部分エリアが決定されることにより,撮像装置がどのような姿勢(縦撮り,横撮り)であろうと,ユーザは操作が容易となる。
カメラの斜視図である。 カメラの平面図である。 カメラの正面図である。 カメラの底面図である。 カメラの右側面図である。 カメラの左側面図である。 カメラの背面図である。 カメラの電気的構成を示すブロック図である。 カメラの処理手順を示すフローチャートである。 タッチ検出部を面に投影した様子を示している。 横撮りのカメラの状態を示している。 第1の縦撮りのカメラの状態を示している。 第2の縦撮りのカメラの状態を示している。 カメラを使用している状態を示している。 横撮り状態のカメラの背面図である。 第1の縦撮り状態のカメラの背面図である。 カメラの右側面図である。 カメラの背面図である。 カメラの背面図である。 カメラの右側面図である。 タッチ位置と画像加工を決定する領域との関係を示している。 カメラの背面図である。 カメラの処理手順を示すフローチャートである。 カメラの処理手順を示すフローチャートである。 カメラの斜視図である。 カメラの平面図である。 カメラの正面図である。 カメラの底面図である。 カメラの右側面図である。 カメラの左側面図である。 カメラの背面図である。 カメラの平面図である。 カメラの底面図である。 カメラの右側面図である。 カメラの左側面図である。 カメラの斜視図である。 カメラの平面図である。 カメラの正面図である。 カメラの底面図である。 カメラの右側面図である。 カメラの左側面図である。 カメラの背面図である。
 図1は,この発明の実施例を示すもので,カメラ1(撮像装置)の斜視図である。図2はカメラ1の平面図,図3はカメラ1の正面図,図4はカメラ1の底面図,図5はカメラ1の右側面図,図6はカメラ1の左側面図,図7はカメラ1の背面図である。
 カメラ1には,カメラ本体1とレンズ鏡筒30とが含まれている。カメラ本体1とレンズ鏡筒30とは,着脱自在であるが,そうでなくともよい。
 カメラ本体10の上面(天面)には,カメラ1に指令を与えるための操作部11が形成されている。
 また,図7に示すように,カメラ本体10の背面には,撮像している被写体像などを表示するための液晶表示画面12が形成されている。
 レンズ鏡筒30の外周面には,第1のタッチ検出部21,第2のタッチ検出部22,第3のタッチ検出部23および第4のタッチ検出部22から構成されているタッチ検出部20が設けられている。タッチ検出部20は,ユーザによるタッチを検出するものである。第1のタッチ検出部21は,図1に示すようにカメラ1が正立状態の場合に,カメラ鏡筒30の上部となる位置にレンズ鏡筒30の外周面に沿って設けられている。第2のタッチ検出部22は,カメラ1が正立状態の場合に,レンズ鏡筒30の右側面となる(カメラ1を正面から見て右側面)位置にレンズ鏡筒30の外周面に沿って設けられている。第3のタッチ検出部23は,カメラ1が正立状態の場合に,レンズ鏡筒30の底面となる位置にレンズ鏡筒30の外周面に沿って設けられている。第4のタッチ検出部24は,カメラ1が正立状態の場合に,レンズ鏡筒30の左側面となる(カメラ1を正面から見て左側面)位置にレンズ鏡筒30の外周面に沿って設けられている。
 このように,カメラ1の正立姿勢において水平方向に位置するタッチ検出部20のエリアは,レンズ鏡筒30(撮像レンズ31)の光軸を挟んで対向する2つのエリア(第2のタッチ検出部22,第4のタッチ検出部24)を含み,カメラ1の正立姿勢において鉛直方向に位置するタッチ検出部20のエリアは,レンズ鏡筒30(撮像レンズ31)の光軸を挟んで対向する2つのエリア(第1のタッチ検出部21,第3のタッチ検出部23)を含む。
 図8は,カメラ1の電気的構成を示すブロック図である。
 レンズ鏡筒30には,制御装置32が含まれており,レンズ鏡筒30の動作が統括される。
 上述したタッチ検出部20へのタッチ操作によるタッチ信号は,制御装置32に入力する。タッチ検出部20へのタッチ操作にもとづいて,レンズ鏡筒30およびカメラ本体10(カメラ)の制御が行われる。
 制御装置32によって駆動装置34が制御され,駆動装置34によって撮像レンズ31が駆動させられる。レンズ鏡筒30には,通信装置33も含まれており,カメラ本体10と通信可能である。カメラ本体10からの指令に応じてレンズ鏡筒30が制御されることとなる。また,レンズ鏡筒30には,メモリ35も含まれている。
 カメラ本体10には,信号処理/制御装置14が含まれており,カメラ1の動作が統括される。
 レンズ鏡筒30に含まれる撮像レンズ31によって被写体像が撮像素子13の受光面上に結像する。被写体像を表わす映像信号は,信号処理/制御装置14において所定の信号処理が行われて本体側表示装置17に与えられる。撮像された被写体像が上述した液晶表示画面12に表示される。操作部11に含まれるシャッタ・レリーズ・ボタンによりシャッタが押されると,信号処理/制御装置14から出力される信号は記録制御装置15に与えられる。記録制御装置15により,被写体像を表わす映像信号がメモリ・カード16のような記録媒体に記録される。
 カメラ本体10には,カメラ1(カメラ本体10)の姿勢を検出する姿勢検出装置(姿勢検出部)2が含まれている。姿勢検出装置2は,カメラ1が横撮り撮影時の状態か(カメラ本体10の天面が上部にある状態),カメラ1が第1の縦撮りの状態か(カメラ本体10の右側面が上部にある状態。図11参照),カメラ1が第2の縦撮りの状態か(カメラ本体10の左側面が上部にある状態。図12参照)を検出するものである。第2の縦撮りの状態は,カメラ1が,水平面に対して第1の縦撮りの状態と反対に回転した状態である。姿勢検出装置2は,カメラ1の左側面内部に第1のセンサを設け,カメラ1の右側面内部に第2のセンサを設け,第1のセンサが下側に存在し,かつ第2のセンサが上側に存在する場合には第1の縦撮りと判断し,第1のセンサが上側に存在し,かつ第2のセンサが下側に存在する場合には第2の縦撮りと判断し,第1のセンサおよび第2のセンサが水平方向に存在する場合には横取りと判断する。また,回転角度および回転方向を検出可能なセンサを利用してカメラ1の姿勢を判断できる。たとえば,横撮りの状態を基準として,カメラ1の正面から見て反時計回りに90度回転または時計回りに270度回転した場合には第1の縦撮りと判断し,カメラ1の正面から見て時計回りに90度回転または反時計回りに270度回転した場合には第2の縦撮りと判断できる。
 カメラ本体には,通信装置19が含まれており,レンズ鏡筒30と通信可能である。また,カメラ本体10にはメモリ18も含まれている。
 図9は,カメラ1の処理手順を示すフローチャートである。
 この実施例によるカメラ1は,レンズ鏡筒30の外周面に設けられているタッチ検出部20(第1のタッチ検出部21,第2のタッチ検出部22,第3のタッチ検出部23,第4のタッチ検出部24)へのタッチ操作によりカメラ1に制御指令(レンズ制御,カメラ制御)が与えられる。この実施例では,カメラ1の姿勢が検出され,検出された姿勢に応じて,タッチ検出部20の部分エリアが決定される。決定された部分エリアにおけるタッチ操作にもとづいてカメラ制御またはレンズ制御の少なくとも一方が行われる。
 撮像モードにおいては,上述のように,カメラ1の姿勢が姿勢検出装置2によって検出される(ステップ41)。検出されたカメラ1の姿勢が判定される(ステップ42)。
 カメラ1の姿勢が横撮りであると判定されると(ステップ42),タッチ検出部20のうち,水平方向に位置するエリアが信号処理/制御装置14(部分エリア決定部)によって部分エリアと決定される(ステップ43)。
 図10に示すように,レンズ鏡筒30(撮像レンズ31)の光軸と平行な鉛直平面にエリア(第1のタッチ検出部21,第2のタッチ検出部22,第3のタッチ検出部23または第4のタッチ検出部24)を投影した面積を第1の面積A1,レンズ鏡筒30(撮像レンズ31)の光軸と平行な水平平面にエリア(第1のタッチ検出部21,第2のタッチ検出部22,第3のタッチ検出部23または第4のタッチ検出部24)を投影した面積を第2の面積A2とした場合,第2の面積A2よりも第1の面積A1が大きい場合を「水平方向に位置する」とし,第1の面積A1よりも第2の面積A2の方が大きい場合を「鉛直方向に位置する」とする。
 図11は,横撮りの場合のカメラ1の正面図である。図3と異なり,レンズ鏡筒30の外周面に設けられている第1のタッチ検出部21,第2のタッチ検出部22,第3のタッチ検出部23および第4のタッチ検出部24の位置関係が分るように,それらの検出部21から24が図示されている。
 カメラ1の天面を鉛直上側,底面を鉛直下側にした姿勢(正立姿勢)において,レンズ鏡筒30(撮像レンズ31)の光軸と直交する水平方向をカメラ1の横方向とした場合に,カメラ1の横方向が水平面に対してなす角の絶対値が0度以上45度未満となる姿勢を横撮りとする。また,その絶対値が45度以上90度以下となる姿勢を縦撮り(第1の縦撮りまたは第2の縦撮り)とする。
 図11に示すように,横撮りの場合には,水平方向には第2のタッチ検出部22および第4のタッチ検出部24が位置する。これらの第2のタッチ検出部22および第4のタッチ検出部24が部分エリアと決定される(ステップ43)。
 カメラ1の姿勢が第1の縦撮りであると判定された場合も(ステップ42),タッチ検出部20のうち,水平方向に位置するエリアが部分エリアと決定される(ステップ44)。
 図12は,第1の縦撮りの場合のカメラ1の正面図である。
 図12に示すように,第1の縦撮りの場合には,水平方向には第1のタッチ検出部21および第3のタッチ検出部23が位置する。これらの第1のタッチ検出部21および第3のタッチ検出部23が部分エリアと決定される(ステップ44)。
 カメラ1の姿勢が第2の縦撮りであると判定された場合も(ステップ42),タッチ検出部20のうち,水平方向に位置するエリアが部分エリアと決定される(ステップ45)。
 図13は,第2の縦撮りの場合のカメラ1の正面図である。
 図13に示すように,第2の縦撮りの場合も第1の縦撮りと同様に,水平方向には第1のタッチ検出部21および第3のタッチ検出部23が位置する。これらの第1のタッチ検出部21および第3のタッチ検出部23が部分エリアと決定される(ステップ45)。
 決定された部分エリアのタッチ操作の検出処理が行われる(ステップ46)。決定された部分エリア(例えば,横撮りであれば第2のタッチ検出部22および第4のタッチ検出部24,縦撮りであれば第1のタッチ検出部21および第3のタッチ検出部23)以外の部分エリアについてはタッチ操作の検出処理自体を停止させてもよいし,タッチ検出部20のすべての第1のタッチ検出部21,第2のタッチ検出部22,第3のタッチ検出部23および第4のタッチ検出部24においてタッチ操作の検出が行われるが,決定した部分エリアにおいてタッチ操作が検出された場合に後述する処理が行われるようにしてもよい。
 タッチ操作があると(ステップ47でYES),タッチ操作を表わす信号は,カメラ本体10の信号処理/制御装置14に与えられる。信号処理/制御装置14において,どのようなタッチパターンのタッチ操作が行われたかどうかが判別される(ステップ48)。もっとも,レンズ鏡筒30の制御装置32によってタッチパターンが判別されてもよい。カメラ本体10のメモリ18には,タッチパターンごとに制御指令が記憶されており,判別されたタッチパターンと記憶されているタッチパターンとが一致すると(ステップ49),一致したタッチパターンに対応する制御指令が信号処理/制御装置14によって読み出される。読み出された制御指令にもとづいてカメラ制御またはレンズ制御が行われる(ステップ50)。
 カメラ1の姿勢において水平方向に位置するタッチ検出部は,レンズ鏡筒30に含まれる撮像レンズ31の光軸を挟んで対向する2つのエリアであるから,いずれかのエリアに対するタッチ操作にもとづいて決定されるタッチパターンからカメラ制御またはレンズ制御の少なくとも一方を行うことができるし,撮像レンズ31の光軸を挟んで対向する2つのエリアのうち一方のエリアに対するタッチ操作と,他方のエリアに対するタッチ操作との組み合わせにもとづいて決定されるタッチパターンからカメラ制御またはレンズ制御の少なくとも一方を行うこともできる。
 図14は,カメラ1を用いて撮像している様子を示すもので,平面図である。
 この実施例によるカメラ1を用いて,レンズ鏡筒30の外周に設けられているタッチ検出部20に対してタッチ操作を行う場合,タッチ検出部20のうち,ユーザから見て左側に位置する部分(横撮りの場合には第2のタッチ検出部22)に対しては親指Tを用い,ユーザから見て右側に位置する部分(横撮りの場合には第4のタッチ検出部24)に対しては人差し指F1または中指F2を用いることが多い。ユーザから見て左側に位置する部分に対するタッチ操作とユーザから見て右側に位置する部分に対するタッチ操作とは,異なるものであるから,ユーザから見て左側に位置する部分に対するタッチ操作か,ユーザから見て右側に位置する部分に対するタッチ操作かが判断される必要がある。
 横撮りの場合には,カメラ1を正立状態から逆さまにして撮像することは無いと考えられるから,ユーザがカメラ1を構えた状態でユーザから見て左側に位置するのは常に第2のタッチ検出部22であり,ユーザがカメラ1を構えた状態でユーザから見て右側に位置するのは常に第4のタッチ検出部24である。これに対して,第1の縦撮りの場合には,ユーザがカメラ1を構えた状態でユーザから見て左側に位置するのは第3のタッチ検出部23であり,ユーザがカメラ1を構えた状態でユーザから見て右側に位置するのは第1のタッチ検出部21であるが,第2の縦撮りの場合には,ユーザから見て左側に位置するのは第1のタッチ検出部21であり,ユーザから見て右側に位置するのは第3のタッチ検出部23である。このように,第1の縦撮りの場合と第2の縦撮りの場合とでは,ユーザがカメラ1を構えた状態でユーザから見て左側に位置するタッチ検出部20の部分とユーザから見て右側に位置するタッチ検出部20の部分とが反対となる。このため第1の縦撮りと判断された場合には,ユーザから見て左側に第3のタッチ検出部23が存在し,ユーザから見て右側に第1のタッチ検出部21が存在すると判断されて,上述のように,タッチパターン判別が行なわれている。同様に,第2の縦撮りと判断された場合には,ユーザがカメラ1を構えた状態でユーザから見て左側に第1のタッチ検出部21が存在し,ユーザから見て右側に第3のタッチ検出部23が存在すると判断されて,上述のように,タッチパターン判別が行なわれている。第1の縦撮りまたは第2の縦撮りであっても,正確にタッチパターンを判別できる。
 図15および図16は,カメラ1の背面に形成されている液晶表示画面12に表示されるマークの一例である。
 上述したように,部分エリアが決定されると,その決定された部分エリアをユーザに知らせるように液晶表示画面12にマーク52が表示される。マーク52は,カメラ1の姿勢に対応して,決定された部分エリアを表示している。
 図15に示す場合は,カメラ1は横撮りの姿勢であるから,上述のように,水平方向に位置している第2のタッチ検出部22および第4のタッチ検出部24が部分エリアとして決定されたことが分るように,第2のタッチ検出部22を表わすマークM2および第4のタッチ検出部24を表すマークM4がマーク52に含まれている。
 図16に示す場合は,カメラ1は第1の縦撮りの姿勢であるから,上述のように,水平方向に位置している第1のタッチ検出部21および第3のタッチ検出部23が部分エリアとして決定されたことが分るように,第1のタッチ検出部21を表わすマークM1および第3のタッチ検出部23を表すマークM3がマーク52に含まれている。
 このようにして,決定された部分エリアがユーザに報知される(第1の報知部)。
 図17および図18は,タッチ検出部20の使用方法の一例を示すもので,第1の画像加工モードが設定された場合のものである。
 第1の画像加工モードは,モード設定スイッチ(図示略)により設定することができる。このモード設定スイッチは,レンズ鏡筒30の外周に設けられてもよいし,カメラ本体1に設けられていてもよい。第1の画像加工モードには,様々な加工の種類がある。この実施例では,画像のぼかしを調整する「ボケ」,画像の鮮鋭さを調整する「シャープネス」,画像の鮮やかさを調整する「鮮やかさ」,画像の色味を調整する「色味」,画像の空気感を調整する「空気感」,画像のコントラストを調整する「コントラスト」の各モードがある。これらの各モードおよびその各モードでの調整量を,タッチ検出部20を利用して設定できる。
 図17は,カメラ1の右側面図であり,図5に対応している。図18は,第1の画像加工モードが設定された場合の液晶表示画面12に表示される画像の様子を示している。
 図17に示すカメラ1の姿勢は,横撮りのものであるとする。横撮りであるとすると,上述のように,第2のタッチ検出部22および第4のタッチ検出部24が部分エリアとして決定される。第2のタッチ検出部22に対する光軸方向におけるタッチ位置に応じて第1の画像加工モードの中の各モードが定められる。位置P1から位置P6が規定されている。図18には,これらの位置P1からP6のそれぞれがどのような第1の画像加工モードを設定するかが示されている。たとえば,第2のタッチ検出部22の位置P1,P2,P3,P4,P5またはP6がタッチされると,「ボケ」,「シャープネス」,「鮮やかさ」,「色味」,「空気感」または「コントラスト」の第1の画像加工モードが設定される。また,設定されているモードが分るように,設定されているモードの文字については,他のモードの文字と異なる表示とされている(図18では,「シャープネス」が設定されており,「シャープネス」が設定されていることを示すように破線の枠で囲まれている)。このように,第2のタッチ検出部22の光軸方向におけるタッチ位置により,第1の画像加工モードの中の各モードが設定される。
 設定されたモードにおける調整量は,第2のタッチ検出部22(第4のタッチ検出部24でもよい)を周方向になぞることにより設定できる。たとえば,下から上に親指などでなぞることにより,設定されたモードの調整量を大きくし,逆に上から下になぞることにより,設定されたモードの調整量が小さくされる。その調整量は表示画面12に表示される。図18においては,「シャープネス」のモードにおける調整量が80%に設定されていることがわかる。図18に示すように,液晶表示画面12によって,決定された部分エリアに対するタッチ操作により制御可能な内容およびタッチ操作により設定された制御内容の少なくとも一方が報知される(第2の報知部)。
 上述したように,タッチ操作に応じたタッチパターンが信号処理/制御装置14において検出され,そのタッチパターンに応じて第1の画像加工モードの中の各モードの設定およびその調整量の設定が信号処理/制御装置14において行なわれる。
 第1の縦撮りの場合(図12参照)には,第1のタッチ検出部21と第3のタッチ検出部23とが部分エリアと決定されるが,第3のタッチ検出部23に対するタッチ位置に応じて第1の画像加工モードの各モードが決定され,第1のタッチ検出部21に対するタッチ操作に応じて調整量が決定されるように信号処理/制御装置14における制御が行われる。これに対して,第2の縦撮りの場合(図13参照)にも第1のタッチ検出部21と第3のタッチ検出部23とが部分エリアと決定されるが,第1のタッチ検出部21に対するタッチ位置に応じて第1の画像加工モードの各モードが決定され,第3のタッチ検出部23に対するタッチ操作に応じて調整量が決定されるように信号処理/制御装置14における制御が行われる。このように,第1の縦撮りまたは第2の縦撮りのいずれにおいてもユーザは,タッチ操作をするタッチ検出部を変える必要がないので,操作性が向上する。
 タッチ操作の方法(例えば,第2のタッチ検出部22をタッチした場合に,光軸方向におけるタッチ位置に応じて,第1の画像加工モードの各モードを設定できる)やタッチ操作が行われたことにより生じる制御内容(例えば,上述したシャープネスなどの処理が行われること)を液晶表示画面12に表示(報知)するようにしてもよい(第3の報知部)。
 図19は,液晶表示画面12の表示方法の他の一例を示している。
 図18に示すように,第2のタッチ検出部22における光軸方向のタッチ位置に応じて第1の画像加工モードの各モードが設定されることを示すために,表示画面12には,それらの各モードを示す文字列が上から下に並んでいる。また,画像加工の程度を第2のタッチ検出部22および第4のタッチ検出部24の周方向になぞることにより設定することを示すために,表示画面には円弧が表示されている。円弧の太い部分がその程度を表わし,図19に示す例では20%のコントラスト処理が行われるように設定されていることが分る。
 図20から図22は,タッチ検出部20の使用方法の他の一例を示すもので,第2の画像加工モードが設定された場合のものである。図19は,カメラ1の側面図であり,図5,図17に対応する。図21,タッチ位置と画像加工の種類および程度の設定との関係を示している。図22は,カメラ1の背面を示すもので,図7および図18に対応している。
 第2の画像加工モードもモード設定スイッチにより設定できる。
 図20に示すカメラ1の姿勢も横撮りのものであるとする。横撮りであるとすると,上述のように,第2のタッチ検出部22および第4のタッチ検出部24が部分エリアとして決定される。第2のタッチ検出部22に対するタッチ位置に応じて第2の画像加工モードでの加工方法およびその程度が定められる。
 図21を参照して,第2のタッチ検出部22に対応した領域Arを考えた場合,光軸方向L1および光軸方向L1に垂直方向V1を考え,それらの方向L1およびV1にもとづいて第2の画像加工モードでの加工方法およびその程度が決定する。領域Ar内に9つの領域(9つでなくともよい)I1からI9が考えられ,これらの領域I1からI9が第2の画像加工モードでの加工方法が規定される。第2のタッチ検出部22において,領域I1からI9にそれぞれ対応する部分がタッチされると,そのタッチされた領域によって規定される画像加工方法での画像加工処理が信号処理/制御装置14において行われる。たとえば,領域I1は,セピア色に加工するものであり,領域I1に部分がタッチされると,画像がセピア色とされる。領域I1がタッチされなくとも,その領域I1とタッチ位置との距離に応じてセピア色にする処理の程度が決定される。たとえば,符号Pで示す位置がタッチされた場合であっても,その符号Pの位置から領域I1までの距離応じてセピア色にする処理の程度が決定されてもよい。もっとも,画像処理の程度は,第2のタッチ検出部22におけるタッチ操作ではなく,他の方法により行なわれてもよい(例えば,第4のタッチ検出部24に対するタッチ操作により上述したのと同様に行われてもよい)。第2の画像加工モードも様々な加工の種類がある。このようにして,第2のタッチ検出部22におけるタッチ操作にもとづいて画像処理およびその程度を指定できる。
 図22に示すように,第2の検出部22におけるタッチ位置を示すマーク53が表示される。マーク53を見ることにより,ユーザは,タッチしている位置を把握できる。
 図20から図22に示す場合においても,第1の縦撮りの場合(図12参照)には,第1のタッチ検出部21と第3のタッチ検出部23とが部分エリアと決定されるが,第3のタッチ検出部23に対するタッチ位置に応じて第2の画像加工モードの画像処理が決定されるように信号処理/制御装置14における制御が行われる。これに対して,第2の縦撮りの場合(図13参照)にも第1のタッチ検出部21と第3のタッチ検出部23とが部分エリアと決定されるが,第1のタッチ検出部21に対するタッチ位置に応じて第2の画像加工モードの画像処理が決定されるように信号処理/制御装置14における制御が行われる。このように,第1の縦撮りまたは第2の縦撮りのいずれにおいてもユーザは,タッチ操作をするタッチ検出部を変える必要がないので,操作性が向上する。
 図23は,カメラ1の他の処理手順を示すフローチャートであり,図9の処理手順に対応する。
 図23において,図9に示す処理と同一の処理ついては同一符号を付して説明を省略する。図23に示す処理手順は,カメラの姿勢を複数回検出し,連続してn回(例えば少なくとも2回)同じ姿勢であると判定された場合に,横撮り,第1の縦撮りまたは第2の縦撮りと判定するものである。
 連続回数算出変数iが0にリセットされ(ステップ61),カメラ1の姿勢が検出される(ステップ62)。電源オン後の第1回目の姿勢検出(または前回の姿勢検出から一定時間経過後の姿勢検出)であれば(ステップ63でYES),前回の姿勢検出の結果がメモリに記憶されていないから検出結果がメモリ18に記憶される(ステップ64)。連続回数算出変数iがインクレメントされ(ステップ66)。その変数iがn回になったかどうかが確認される(ステップ67)。n回となっていなければ(ステップ67でNO),ステップ62からの処理が繰り返される。第1回目の姿勢検出でなければ(ステップ63でNO),今回の検出結果とメモリ18に記憶されている検出結果とが同じかどうかが確認される(ステップ65)。
 今回の検出結果とメモリ18に記憶されている検出結果とが同じでなければ(ステップ65でNO),ステップ61からの処理が繰り返される。同じであれば(ステップ65でYES),連続回数算出変数iがインクレメントされ(ステップ66),その変数iがn回になったかどうかが確認される(ステップ67)。連続回数算出変数iがn回となると(ステップ67でYES),今回の検出結果がメモリ18に上書きされ(ステップ68),メモリ18に記憶された姿勢にもとづいて,カメラ1の姿勢が判断される(ステップ69)。その後は,図9に示す処理と同様に,タッチ操作の有無,タッパターンの判別が行なわれる。タッチ操作が無い,あるいはタッチパターンが所定パターンと一致しない場合にはステップ62からの処理が繰り返される。
 図24は,カメラ1の他の処理手順の一部を示すフローチャートであり,図9の処理手順に対応している。
 カメラ1の姿勢検出が行なわれると(ステップ71),その検出結果がメモリ18に記憶される。今回も含めた過去N回(例えばNは3以上)の検出結果から姿勢ごとの検出回数が求められる(ステップ72)。過去N回のうち,最も多く検出された姿勢がカメラ1の姿勢と決定される(ステップ73)。その後は,図9のステップ41以降の処理が行われる。
 図25から図31は,他の実施例を示すものである。
 図25は,カメラ1Aの斜視図である。図26から図31はカメラ1Aの六面図である。図26はカメラ1Aの平面図,図27はカメラ1Aの正面図,図28はカメラ1Aの底面図,図29はカメラ1Aの右側面図,図30はカメラ1Aの左側面図,図31はカメラ1Aの背面図である。これらの図において,図1から図7に示すものと同一物については同一符号を付して説明を省略する。
 レンズ鏡筒30Aには,上述したように,レンズ鏡筒30の外周面の周方向に4つのタッチ検出部21から24が形成されているのではなく,その外周面の全周に渡ってタッチ検出部20Aが形成されている。このように,レンズ鏡筒30Aの外周面の全周に渡ってタッチ検出部20Aが形成されていてもよい。
 図32から図35は,カメラ1Aの平面図,底面図,右側面図および左側面図である。
 タッチ検出部20Aがレンズ鏡筒30Aの外周面の全周に渡って形成されている場合には,上述した第1のタッチ検出部21から第4のタッチ検出部24と同様に,図32から図35に示すように,第1のタッチ検出部21Aから第4のタッチ検出部24Bが規定される(但し,タッチ検出部21Aから24Aは物理的な領域が規定されているわけではなく,視覚的には把握できない。)。上述したように,カメラ1Aの姿勢に応じて部分エリアが決定され,上述した処理が行われることとなる。
 図36から図42は,他の実施例を示すものである。
 図36は,カメラ1Bの斜視図である。図37から図42は,カメラ1Bの六面図である。図37はカメラ1Bの平面図,図38はカメラ1Bの正面図,図39はカメラ1Bの底面図,図40はカメラ1Bの右側面図,図41はカメラ1Bの左側面図,図42はカメラ1Bの背面図である。これらの図において,図1から図7に示すものと同一物については同一符号を付して説明を省略する。
 レンズ鏡筒30Bには,上述したように,レンズ鏡筒30Bの外周面の全周に渡ってタッチ検出部20Aが形成されている。さらに,このタッチ検出部20Aを挟んで,レンズ鏡筒30Bの外周面の全周に渡ってタッチ検出部25および26が形成されている。タッチ検出部25または26に対するタッチ操作により,カメラ1Bにカメラ制御またはレンズ制御の少なくとも一方の制御指令を与えることができる。
1,1A,1B カメラ(撮像装置)
2 姿勢検出装置(姿勢検出部)
10 カメラ本体
14 信号処理/制御装置(部分エリア決定部,制御部)
20,20A タッチ検出部
21 第1のタッチ検出部(部分エリア)
22 第2のタッチ検出部(部分エリア)
23 第3のタッチ検出部(部分エリア)
24 第4のタッチ検出部(部分エリア)
30,30A,30B レンズ鏡筒

Claims (12)

  1.  レンズおよびレンズ鏡筒を備えた撮像装置において,
     撮像装置の姿勢を検出する姿勢検出部,
     上記レンズ鏡筒の外周面に設けられたタッチ検出部,
     上記姿勢検出部において検出された姿勢にもとづいて,上記タッチ検出部の一部のエリアである部分エリアを決定する部分エリア決定部,ならびに
     上記タッチ検出部の上記部分エリアにおけるタッチ操作にもとづいて撮像制御またはレンズ制御の少なくとも一方を行う制御部,
     を備えた撮像装置。
  2.  上記タッチ検出部は,上記撮像装置の正立姿勢において水平方向に位置するエリアと鉛直方向に位置するエリアとを含み,
     上記部分エリア決定部は,
     上記タッチ検出部に含まれるエリアのうち,上記姿勢検出部によって検出された撮像装置の姿勢において,水平方向に位置するエリアを上記部分エリアと決定するものである,
     請求項1に記載の撮像装置。
  3.  上記撮像装置の正立姿勢において水平方向に位置する上記タッチ検出部のエリアは,上記レンズの光軸を挟んで対向する2つのエリアを含み,
     上記撮像装置の正立姿勢において鉛直方向に位置する上記タッチ検出部のエリアは,上記レンズの光軸を挟んで対向する2つのエリアを含む,
     請求項2に記載の撮像装置。
  4.  上記制御部は,
     上記決定された部分エリアにおける上記レンズの光軸を挟んで対向する2つのエリアのうちの,一方のエリアに対するタッチ操作と,他方のエリアに対するタッチ操作との組み合わせにもとづいて,撮像制御またはレンズ制御の少なくとも一方を制御するものである,
     請求項3に記載の撮像装置。
  5.  上記姿勢検出部は,
     上記撮像装置が横撮りの姿勢か縦撮りの姿勢かを検出するものである,
     請求項1から4のうち,いずれか1項に記載の撮像装置。
  6.  上記姿勢検出部は,
     上記撮像装置が横撮りの姿勢か,第1の縦撮りの姿勢か,上記撮像装置が水平面に対して上記第1の縦撮り姿勢と反対に回転した第2の縦撮りの姿勢かを検出するものである,
     請求項1から4のうち,いずれか1項に記載の撮像装置。
  7.  上記姿勢検出部は,
     上記撮像装置の姿勢を複数回検出するものであり,
     少なくとも二回以上連続して検出した姿勢を上記撮像装置の姿勢とする,
     請求項1から6のうち,いずれか1項に記載の撮像装置。
  8.  上記姿勢検出部は,
     上記撮像装置の姿勢を三回以上検出するものであり,
     検出された姿勢のうちもっとも多く検出された姿勢を上記撮像装置の姿勢とする,
     請求項1から6のうち,いずれか1項に記載の撮像装置。
  9.  上記部分エリア決定部によって決定された部分エリアを報知する第1の報知部,
     をさらに備えた請求項1から8のうち,いずれか1項に記載の撮像装置。
  10.  上記部分エリア決定部によって決定された部分エリアに対するタッチ操作により制御可能な内容およびタッチ操作により設定された制御内容の少なくとも一方を報知する第2の報知部,
     をさらに備えた請求項1から9のうち,いずれか1項に記載の撮像装置。
  11.  上記部分エリア決定部によって決定された部分エリアにおけるタッチ操作の方法およびタッチ操作が行われたことにより生じる制御内容を報知する第3の報知部,
     をさらに備えた請求項1から10のうち,いずれか1項に記載の撮像装置。
  12.  レンズおよびレンズ鏡筒を備えた撮像装置の制御方法において,
     姿勢検出部が,撮像装置の姿勢を検出し,
     タッチ検出部が,上記レンズ鏡筒の外周面に設けられ,
     部分エリア決定部が,上記姿勢検出部において検出された姿勢にもとづいて,上記タッチ検出部の一部のエリアである部分エリアを決定し,
     制御部が,上記タッチ検出部の上記部分エリアにおけるタッチ操作にもとづいて撮像制御またはレンズ制御の少なくとも一方を行う,
     撮像装置の制御方法。
PCT/JP2015/055109 2014-03-31 2015-02-24 撮像装置およびその制御方法 WO2015151650A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014071030 2014-03-31
JP2014-071030 2014-03-31

Publications (1)

Publication Number Publication Date
WO2015151650A1 true WO2015151650A1 (ja) 2015-10-08

Family

ID=54239986

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/055109 WO2015151650A1 (ja) 2014-03-31 2015-02-24 撮像装置およびその制御方法

Country Status (1)

Country Link
WO (1) WO2015151650A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000081659A (ja) * 1998-09-03 2000-03-21 Canon Inc カメラシステム
JP2002229107A (ja) * 2001-01-29 2002-08-14 Olympus Optical Co Ltd カメラの信号検出装置
JP2005333340A (ja) * 2004-05-19 2005-12-02 Fuji Photo Film Co Ltd 撮像装置
JP2007171806A (ja) * 2005-12-26 2007-07-05 Nikon Corp カメラ
JP2009037106A (ja) * 2007-08-03 2009-02-19 Nikon Corp 光学機器および指令出力方法
JP2009169266A (ja) * 2008-01-18 2009-07-30 Nikon Corp レンズ鏡筒およびカメラシステム
JP2011164228A (ja) * 2010-02-05 2011-08-25 Canon Inc 撮像装置及びその制御方法
JP2013145444A (ja) * 2012-01-13 2013-07-25 Nikon Corp カメラ
JP2013145944A (ja) * 2012-01-13 2013-07-25 Olympus Imaging Corp 撮影システムおよびレンズ鏡筒

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000081659A (ja) * 1998-09-03 2000-03-21 Canon Inc カメラシステム
JP2002229107A (ja) * 2001-01-29 2002-08-14 Olympus Optical Co Ltd カメラの信号検出装置
JP2005333340A (ja) * 2004-05-19 2005-12-02 Fuji Photo Film Co Ltd 撮像装置
JP2007171806A (ja) * 2005-12-26 2007-07-05 Nikon Corp カメラ
JP2009037106A (ja) * 2007-08-03 2009-02-19 Nikon Corp 光学機器および指令出力方法
JP2009169266A (ja) * 2008-01-18 2009-07-30 Nikon Corp レンズ鏡筒およびカメラシステム
JP2011164228A (ja) * 2010-02-05 2011-08-25 Canon Inc 撮像装置及びその制御方法
JP2013145444A (ja) * 2012-01-13 2013-07-25 Nikon Corp カメラ
JP2013145944A (ja) * 2012-01-13 2013-07-25 Olympus Imaging Corp 撮影システムおよびレンズ鏡筒

Similar Documents

Publication Publication Date Title
JP6153564B2 (ja) カメラとマーク出力とによるポインティング装置
CN105706028B (zh) 投影型影像显示装置
US10585473B2 (en) Visual gestures
US9367279B2 (en) Display device and method of controlling therefor
US8441567B2 (en) Digital photographing apparatus and method of controlling the same
US20120011456A1 (en) Information processing device, information processing method, and program
JP5434997B2 (ja) 画像表示装置
US20150281565A1 (en) Image processing apparatus, method for controlling image processing apparatus and storage medium
US9692977B2 (en) Method and apparatus for adjusting camera top-down angle for mobile document capture
JP2012104096A (ja) プロジェクタ
US9485412B2 (en) Device and method for using pressure-sensing touch screen to take picture
US10552946B2 (en) Display control apparatus and method for controlling the same based on orientation
US20110063327A1 (en) Display and imager displaying and magnifying images on their screen
US9400572B2 (en) System and method to assist reaching screen content
KR102474729B1 (ko) 모니터링 장치
JP2017073758A5 (ja)
JP2009031981A (ja) インタフェース装置、インタフェース方法及びインタフェースプログラム
JP6428020B2 (ja) Gui装置
US11068062B2 (en) Display device and method for cancelling a user selected feature on a graphical user interface according to a change in display device rotation
US10652442B2 (en) Image capturing apparatus with operation members provided on different sides, control method of the same, and storage medium
WO2014141612A1 (ja) 撮像装置
WO2015151650A1 (ja) 撮像装置およびその制御方法
JP6686319B2 (ja) 画像投影装置及び画像表示システム
TW201432549A (zh) 資訊處理裝置,資訊處理方法以及電腦程式產品
JP6922686B2 (ja) 操作装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15773473

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15773473

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP