WO2019188035A1 - 撮像装置及び撮像装置における通知制御方法、並びに情報処理装置 - Google Patents

撮像装置及び撮像装置における通知制御方法、並びに情報処理装置 Download PDF

Info

Publication number
WO2019188035A1
WO2019188035A1 PCT/JP2019/008565 JP2019008565W WO2019188035A1 WO 2019188035 A1 WO2019188035 A1 WO 2019188035A1 JP 2019008565 W JP2019008565 W JP 2019008565W WO 2019188035 A1 WO2019188035 A1 WO 2019188035A1
Authority
WO
WIPO (PCT)
Prior art keywords
vibration
imaging device
control unit
unit
detection
Prior art date
Application number
PCT/JP2019/008565
Other languages
English (en)
French (fr)
Inventor
孝之 畑中
祐介 大西
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/982,583 priority Critical patent/US20210306569A1/en
Publication of WO2019188035A1 publication Critical patent/WO2019188035A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications

Definitions

  • the technology disclosed in this specification relates to an imaging apparatus that notifies a user who performs a touch operation on a screen, a notification control method in the imaging apparatus, and an information processing apparatus.
  • An imaging device that is currently popular, such as a digital camera, generally includes an electronic or optical viewfinder and a monitor screen such as a liquid crystal display.
  • a monitor screen such as a liquid crystal display.
  • Many monitor screens include a touch panel as a user input means (see, for example, Patent Document 1).
  • a touch pad AF function for moving the focus frame on the monitor screen with a fingertip is also known.
  • the user can smoothly move the focus frame position by swiping on the touch panel on the back of the main body while looking through the viewfinder (in other words, without taking his eyes off the viewfinder).
  • the touchpad AF function there is a problem that the user unconsciously moves his / her finger out of the detection area of the touch panel and cannot perform the operation.
  • Patent Documents For example, in an electronic device equipped with a display panel, a technique for changing the vibration of the touch panel when the position touched by the user moves between the display area and the outside has been proposed (for example, Patent Documents). 1).
  • Patent Documents when notified by vibration after the touch position deviates from a predetermined area, the user needs to visually confirm the touch position.
  • the touchpad AF function while looking into the viewfinder in a digital camera, if there is a vibration notification, the user must check the viewfinder once and check the valuable shutter. There is concern about missing opportunities.
  • An object of the technology disclosed in the present specification is to provide an imaging apparatus that performs notification to a user who performs a touch operation on a screen, a notification control method in the imaging apparatus, and an information processing apparatus.
  • a detection unit for detecting a touch position with respect to the detection region A control unit that controls notification based on a relationship between a first touch position detected by the detection unit and a second touch position detected after the first touch position; It is an imaging device which comprises.
  • the imaging apparatus further includes a vibration unit that applies vibration to the imaging apparatus, and the control unit is configured to control notification by the vibration.
  • the said control part detects that the said touch position is going out of the predetermined detection area
  • a second aspect of the technology disclosed in the present specification is a notification control method in an imaging apparatus including a display unit and a touch panel superimposed on a screen of the display unit, A detection step of detecting a touch position with respect to a detection region set in the display unit; A control step for controlling notification based on a change in the touch position detected in the detection step; It is the notification control method which has.
  • the third aspect of the technology disclosed in this specification is: A detection unit for detecting a touch position with respect to the detection region; A control unit that controls notification based on a relationship between a first touch position detected by the detection unit and a second touch position detected after the first touch position; Is an information processing apparatus.
  • an imaging apparatus that performs notification to a user based on a change in a touch position on a screen, a notification control method in the imaging apparatus, and an information processing apparatus.
  • FIG. 1 is a diagram illustrating a configuration example of the imaging apparatus 100.
  • FIG. 2 is a diagram schematically illustrating a functional configuration of the imaging apparatus 100.
  • FIG. 3 is a flowchart illustrating a processing procedure for controlling the operation of the imaging apparatus 100 according to the user's touch operation.
  • FIG. 4 is a flowchart showing the processing procedure of the pre-processing 1.
  • FIG. 5 is a flowchart showing the procedure of the pre-processing 2.
  • FIG. 6 is a flowchart showing the processing procedure of the pre-processing 3.
  • FIG. 7 is a diagram illustrating a state in which the nose is in contact with the outside of the detection area of the touch panel 102.
  • FIG. 8 is a diagram for explaining a method of determining whether or not a finger is about to go out of the detection area of the touch panel 102.
  • FIG. 9 is a flowchart showing the processing procedure of the pre-processing 4.
  • FIG. 10 is a diagram for explaining the processing procedure of the preliminary processing 4.
  • FIG. 11 is a diagram illustrating the shape of the detection area that can be set on the touch panel 102.
  • FIG. 12 is a flowchart showing a processing procedure for notifying focus by vibration.
  • FIG. 13 is a flowchart illustrating an example of a processing procedure for notifying the subject distance by vibration.
  • FIG. 14 is a flowchart showing another example of a processing procedure for notifying the distance between objects by vibration.
  • FIG. 15 is a flowchart illustrating an example of a processing procedure for notifying that a specific object has been recognized by vibration.
  • FIG. 16 is a flowchart illustrating another example of a processing procedure for notifying that a specific object has been recognized by vibration.
  • FIG. 17 is a diagram illustrating an arrangement example of the vibration elements of the vibration unit 103.
  • FIG. 18 is a flowchart showing a processing procedure for guiding a user's finger to a subject by vibration.
  • FIG. 19 is a diagram showing a configuration example of a screen that guides to a focus frame position recommended by the camera system by video presentation.
  • FIG. 1 shows a configuration example of an imaging apparatus 100 to which the technology disclosed in this specification can be applied. This figure shows a state in which the main body of the imaging apparatus 100 is viewed from the side.
  • the imaging apparatus 100 includes a display unit 101, a touch panel 102, a vibration unit 103, and a viewfinder 104.
  • the display unit 101 includes a flat panel display such as a liquid crystal display (LCD) or an organic EL element (OLED), for example, and a user interface (such as a monitor screen for displaying an image captured by the imaging apparatus 100 or a menu button). Used to display UI).
  • a flat panel display such as a liquid crystal display (LCD) or an organic EL element (OLED), for example
  • a user interface such as a monitor screen for displaying an image captured by the imaging apparatus 100 or a menu button. Used to display UI).
  • the touch panel 102 is disposed so as to be superimposed on the display screen of the display unit 101.
  • the touch panel 102 detects, for example, a user operation on the UI displayed on the monitor screen.
  • various user operations related to the photographing operation such as the touch pad AF can be performed.
  • the touch panel 102 may be any operation method such as a pressure-sensitive method or an electrostatic method.
  • the vibration unit 103 is disposed so as to contact the back surface of the touch panel 102, for example, and can apply vibration to the touch panel 102. Details of vibration control of the vibration unit 103 such as vibration timing, vibration pattern, and amplitude will be described later.
  • a vibration element such as a vibration actuator or a vibration motor of any operation method can be used.
  • the vibration unit 103 is illustrated in the side view of FIG. 1, but actually, the vibration unit 103 is disposed inside the housing of the imaging apparatus 100 and is not visible from outside the housing.
  • the viewfinder 104 is a small viewing window provided on the upper back of the main body of the imaging apparatus 100 for observing an image captured by the imaging apparatus 100.
  • the viewfinder 104 may be either an electronic viewfinder in which a liquid crystal screen is embedded in a viewing window, or an optical viewfinder that directly observes a subject through an imaging lens via a reflection mirror (not shown).
  • the electronic viewfinder includes a flat panel display such as a liquid crystal display (LCD) or an organic EL element (OLED).
  • the finder 104 may be equipped with an eye sensor (not shown) that detects that an object such as a user's eye has approached. The detection method of the eye sensor is arbitrary.
  • the user can observe the captured image from the viewfinder 104. Since the display unit 101 and the touch panel 102 are disposed on the back surface of the main body of the imaging apparatus 100 and the finder 104 is disposed on the top of the main body, the nose of the user who is looking into the finder 104 is touched by the touch panel 102. May hit you.
  • FIG. 2 schematically shows a functional configuration of the imaging apparatus 100.
  • the illustrated imaging apparatus includes an imaging unit 201, a panel control unit 202, a vibration control unit 203, and a main control unit 204.
  • the imaging unit 201 includes an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device), and forms an image on the surface (imaging surface) of the imaging element via an imaging optical system (not shown). Take a subject image.
  • an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device)
  • CCD Charge Coupled Device
  • the panel control unit 202 controls display driving of the display unit 101 such as a liquid crystal and user input / output via the touch panel 102. Specifically, the panel control unit 202 controls the display output of the image captured by the imaging unit 201 and the UI screen to the display unit 101. Further, the panel control unit 202 detects the coordinates of the position touched by an object (user's fingertip, nose, etc.) on the touch panel 102 and outputs the detection result to the main control unit 204.
  • the panel control unit 202 is depicted as a single functional block in FIG. 2, but in actuality, it is configured as a separate control circuit chip for the display unit 101 and for the input / output control of the Dutch panel 102, respectively. There is also a case.
  • the vibration control unit 203 controls driving of the vibration unit 103 including one or more vibration elements such as a vibration actuator or a vibration motor.
  • the vibration control unit 203 vibrates the vibration element of the vibration unit 103 with a vibration pattern (vibration period, amplitude, number of times, time) based on an instruction from the main control unit 204.
  • the main control unit 204 controls the overall operation of the imaging apparatus 100. Specifically, the main control unit 204 controls imaging operations such as exposure and shutter timing in the imaging unit 201, and performs image processing such as AD conversion, demosaicing, and image quality correction of imaging signals of the imaging unit 201. Further, the main control unit 204 instructs the panel control unit 202 to display a captured image or UI screen on the display unit 101 or receives a detection signal of the touch panel 102 via the panel control unit 202, and touches the user. The imaging operation of the imaging unit 201 is controlled according to the operation, or the vibration control unit 203 is instructed to vibrate the vibration unit 103 (that is, notification to the user using the vibration).
  • the imaging apparatus 100 can detect a touch operation on the screen of the display unit 101 by the touch panel 102 and can vibrate the screen by the vibration unit 103.
  • the user can operate the touch panel 102 and receive feedback by vibration from the touch panel 102 while looking through the viewfinder 104.
  • the imaging apparatus 100 equipped with the touch panel 102 for example, when the user uses while looking through the viewfinder 104 (for example, when the user is using the touchpad AF function), the following (P1) to (P6) are shown. This is considered to be an operational issue.
  • the nose tip of the user looking into the finder 104 is the touch panel.
  • the nose may be misdetected or misrecognized as a finger.
  • the vibration function installed in devices such as existing digital cameras can express a click feeling by giving vibration to the area touched by the user, but presents only one-dimensional information. It is not possible to present two-dimensional information such as direction.
  • (S1) A function of preventing the user's finger from moving outside the detection area of the touch panel 102 due to the vibration of the vibration unit 103. Specifically, a function for notifying by vibration that the user's finger has approached the boundary of the detection area of the touch panel 102. The user can continue operating the touch panel 102 such as the touch pad AF while keeping his / her finger from moving outside the detection area of the touch panel 102 without taking his eyes off the viewfinder 104.
  • (S2) A function of preventing erroneous detection or recognition of parts other than the finger.
  • (S3) A function of notifying the degree of focus of the subject by vibration. Specifically, a function of notifying at least one of the vibration period, amplitude, number of times, and time of the vibration unit 103 and notifying the degree of focus of the subject. Since the user can detect the degree of focus by vibration even if the vicinity of the position where the finger is placed on the touch panel 102 is hidden by the fingertip and cannot be seen, the user can grasp the in-focus timing.
  • (S4) A function for notifying by vibration that the object designated in advance is in focus.
  • the user can preferably photograph the subject at the timing when the focus is notified by vibration.
  • (S5) A function of notifying the distance from the subject by vibration. Specifically, a function of notifying the distance from the subject by changing at least one of the vibration period, amplitude, number of times, and time of the vibration unit 103. Since the user can determine a change in the distance from the subject by vibration, it is easy to capture a photo opportunity to photograph the subject at a desired distance.
  • (S6) A function for notifying by vibration that the subject has moved to a predetermined distance. For example, when a moving body such as a railway train is to be photographed, the distance to be photographed is designated in advance, so that the railway train has been moved to that distance and is notified by vibration. Therefore, it becomes easy for the user to capture a photo opportunity to photograph a subject such as a railway train at a desired distance.
  • (S7) A function for notifying by vibration that a subject specified in advance has appeared in the imaging region. For example, by specifying in advance a specific object such as an unusual wild bird or other animal that cannot be predicted when it appears irregularly in the shooting area, it will vibrate that the specific object has appeared in the shooting area. Is notified. Therefore, it is not necessary for the user to follow the subject, and it is easy to capture a shutter chance for photographing the subject by waiting at a desired angle of view.
  • a specific object such as an unusual wild bird or other animal that cannot be predicted when it appears irregularly in the shooting area
  • (S8) A function for notifying by vibration that the subject designated in advance has moved. For example, when you want to take pictures of wild birds flapping or when other animals start moving, it is tired to always wait for a photo opportunity with high concentration. According to this function, since the user is informed by vibration that the subject has moved, it is easy to capture a photo opportunity even when the user is not always nervous.
  • (S9) A function that gives a sense of direction to the vibration to the fingertip.
  • the fingertip can be guided in the direction of the subject by presenting in which direction the touch panel 102 is vibrating instead of simply vibrating the touch panel 102.
  • FIG. 3 shows a processing procedure for controlling the operation in accordance with the user's touch operation on the touch panel 102 in the imaging apparatus 100 according to the present embodiment in the form of a flowchart.
  • the illustrated processing procedure is executed for each frame captured by the imaging unit 201 under the overall control of the main control unit 204.
  • the main control unit 204 outputs an instruction to the vibration control unit 203 to vibrate the vibration unit 103.
  • step S301 When a touch on the touch panel 102 is detected (step S301), first, as pre-processing 1, it is determined whether the imaging apparatus 100 is in a state immediately before shooting, such as half-pressing a shutter (not shown) (step S302).
  • step S302 When the imaging apparatus 100 is in a state immediately before shooting (Yes in step S302), the vibration function is turned off (that is, the operation of the vibration unit 103 is prohibited) (step S311), thereby preventing camera shake during shooting. Further, when the in-focus state has passed for a certain period of time, it is determined that shooting is in progress, and the vibration function is turned off.
  • step S302 when the imaging apparatus 100 is not in a state immediately before shooting (No in step S302), it is subsequently determined as pre-processing 2 whether the touch panel 102 is touched with a finger (step S303).
  • step S303 when a part other than the user's finger, such as a palm or forehead, is in contact with the touch panel 102 (No in step S303), the user does not give a shooting instruction such as the touchpad AF, so the vibration function is turned off. (That is, the operation of the vibration unit 103 is prohibited) (step S311).
  • the contact area to the touch panel 102 is a certain area or more (specifically, an area of 706 square millimeters of a circle having a diameter of 30 millimeters), it can be determined that a part other than the fingertip is in contact.
  • step S303 If it is determined that the touch panel 102 is touched with a finger (Yes in step S303), then as pre-processing 3, when the user is using the touchpad AF function while looking into the viewfinder 104, the user's It is determined whether or not the contact of the nose with the touch panel 102 is erroneously detected as a touch with a fingertip (step S304). The details of the method for detecting contact with the nose will be described later.
  • Step S304 When it is determined that the user's nose has touched the touch panel 102 (Yes in step S304), the contact with the nose is not related to the photographing operation, so the vibration function is turned off (that is, the operation of the vibration unit 103 is prohibited) ( Step S311). If a plurality of vibration elements are arranged as the vibration unit 103, in step S311, only the vibration element closer to the contact point of the nose tip is turned off so as not to apply vibration to the nose. Other vibration elements may be left on. For example, it is possible to determine that the place touched within a predetermined area is a nose.
  • the pre-processing 3 may be performed.
  • step S303 If it is determined in step S303 that the finger determined to be touching the touch panel 102 is not a false detection such as the tip of the nose (No in step S304), the touch panel 102 is subsequently touched as pre-processing 4. It is determined whether or not the finger protrudes from the touch panel detection area (step S305).
  • the finger While the user is swiping the touch panel 102 and moving the focus frame on the display screen of the display unit 101 while looking through the viewfinder 104 using the touch pad AF function, the finger is moved from the detection area of the touch panel 102. Is about to come off (Yes in step S305), the user is warned by vibration (alarm vibration) of the vibration unit 103 (step S312) to prevent the finger from protruding from the detection area. Details of a method for determining whether or not a finger is about to be removed from the detection area of the touch panel 102 will be described later.
  • step S306 the user selects a function of the imaging apparatus 100.
  • function selection is performed by selecting on the touch panel 102 one of the function selection menus displayed on the display screen of the display unit 101.
  • the imaging apparatus 100 provides the following four types of functions 1 to 4.
  • (Function 1) A function for notifying focus by vibration.
  • (Function 2) A function for notifying the distance between objects by vibration.
  • (Function 3) A function for notifying that a specific object has been recognized by vibration.
  • (Function 4) A function of guiding a finger to a subject by vibration.
  • step S306 When function 1 is selected in step S306, the main control unit 204 vibrates the touch panel 102 only once by vibrating the vibration unit 103 when detecting the in-focus state of the imaging unit 201 (step S307). .
  • step S306 When function 2 is selected in step S306, the main control unit 204, for example, when the user moves the focus frame on the touch panel 102 using the touchpad AF function, the subject in the focus frame The distance from the imaging device 100 to the user is notified by vibration (step S308).
  • the user sets a specific object in the imaging device 100 in advance.
  • the setting method is arbitrary.
  • the specific object may be set by menu selection on the touch panel 102, or the specific object may be set by voice input.
  • the main control unit 204 notifies the user by changing the type of vibration of the vibration unit 103 (step S309).
  • Function 4 is based on the premise that the imaging apparatus 100 can express a two-dimensional vibration pattern by arranging a plurality of vibration elements as the vibration unit 103 and combining the vibrations of the plurality of vibration elements.
  • the main control unit 204 vibrates the touch panel 102 by the vibration unit 103 and presents in which direction the vibration is performed, thereby changing the position of the user's finger. Guide to the recommended focus frame position (step S310).
  • step S306 When one of the functions 1 to 4 is executed according to the result of the user selecting the function in step S306 (steps S307 to S310), the process returns to step S301 for processing the next frame (step S313).
  • Pretreatment 1 In pre-processing 1 of step S302, it is determined whether or not the imaging apparatus 100 is in a state immediately before shooting, such as half-pressing a shutter (not shown). When the imaging apparatus 100 is in a state immediately before shooting, the vibration function is turned off (that is, the operation of the vibration unit 103 is prohibited).
  • the pre-process 1 is a process for preventing vibration when the touch panel 102 vibrates in the state immediately before photographing, which may interfere with camera shake or user operation.
  • FIG. 4 shows the processing procedure of the pre-processing 1 in the form of a flowchart. It is assumed that the pre-processing 1 is executed under the overall control of the main control unit 204.
  • the main control unit 204 checks whether or not the condition 1 of the preprocessing 1 is met (step S401).
  • the vibration function is turned off (that is, the operation of the vibration unit 103 is prohibited) (step S403).
  • Condition 1 of the pre-processing 1 is that, for example, a shutter button (not shown) is in a half-pressed state.
  • step S401 the main control unit 204 subsequently checks whether the condition 2 of the preprocessing 1 is met (step S402).
  • the vibration function is turned off (that is, the operation of the vibration unit 103 is prohibited) (step S403).
  • Condition 2 of the pre-processing 1 is that, for example, a fixed time (for example, 3 seconds) has passed in the focused state of the imaging unit 201.
  • the condition 2 of the preprocess 1 is not met (No in step S402), the process proceeds to the preprocess 2.
  • Pre-processing 1 is a basic process executed by the imaging apparatus 100. It should be fully understood that if the pre-processing 1 is not performed, the imaging apparatus 100 may inadvertently make a misjudgment to the user during shooting.
  • Condition 2 in step S402 described above is important in order to make it easy for the user to use the vibration function of the imaging apparatus 100. If there is no function to turn off the vibration function by this condition determination in the pre-processing 1, if the user keeps touching the touch panel 102 in a focused state, the user continues to vibrate for a long time.
  • Pretreatment 2 it is determined whether or not the touch panel 102 is touched with a finger.
  • the pre-processing 2 is a process for suppressing unnecessary vibration.
  • the contact area to the touch panel 102 is a certain area or more, such as a user's palm or forehead, it is meaningless to give vibration, so the vibration function should be turned off.
  • FIG. 5 shows the procedure of the pre-processing 2 in the form of a flowchart.
  • the preprocessing 2 is executed under the overall control of the main control unit 204.
  • the main control unit 204 checks whether or not the condition 1 of the pre-processing 2 is met (step S501).
  • the condition 1 of the pre-processing 2 is, for example, that the contact area with the touch panel 102 is a certain area or more (specifically, an area of a circle having a diameter of 30 millimeters is 706 square millimeters or more). If the contact area is equal to or greater than a certain area, it can be determined that a part other than the fingertip is in contact.
  • the main control unit 204 subsequently checks whether the condition 2 of the preprocessing 2 is met (step S502).
  • the vibration function is turned off (that is, the operation of the vibration unit 103 is prohibited) (step S403).
  • Condition 2 of the pre-processing 2 is that, for example, a specified number or more fingers are touching the touch panel 102.
  • Pretreatment 3 it is determined whether or not the user's nose touching the touch panel 102 is erroneously detected as a fingertip touch. This is because the user's nose easily touches the touch panel 102 when the user is using the touchpad AF function while looking into the viewfinder 104. Since the sizes of the nose and the fingertip are similar, if the nose is erroneously determined as the fingertip in the pre-processing 2, vibration is transmitted to the nose.
  • FIG. 6 shows the processing procedure of the pre-processing 3 in the form of a flowchart. It is assumed that the pre-processing 3 is executed under the overall control of the main control unit 204.
  • the main control unit 204 checks whether or not the condition 1 of the pre-processing 3 is met (step S601). Specifically, the condition 1 of the preprocessing 3 is that a touch having a predetermined area or less (for example, a diameter of 20 mm or less) is detected outside the detection area on the touch panel 102.
  • the contact area does not exceed the predetermined area.
  • the user's nose may come into contact with the touch panel 102 mainly when the user is looking into the viewfinder 104. Therefore, when the eye sensor detects the approach of the object to the finder 104, avoid the place on the touch panel 102 where the user's nose is likely to come in contact, or where contact with a predetermined area or less is detected. You may make it set.
  • step S601 the main control unit 204 determines that the user's nose has touched the touch panel 102 and turns off the vibration function (that is, prohibits the operation of the vibration unit 103). (Step S602). On the other hand, if the condition 1 of the preprocessing 3 is not satisfied (No in step S601), the process proceeds to the preprocessing 4.
  • the detection area of the touch panel 102 can be set in detail, and operations such as the touchpad AF function and the touch AF function are performed within the detection area of the touch panel 102.
  • the condition 1 of the pre-processing 3 is that the place where contact is detected on the touch panel 102 is outside the detection area.
  • FIG. 7 shows a state where the right half of the touch panel 102 is set as the detection area 701 and the user's nose tip 702 is in contact with the left half of the touch panel 102 (that is, outside the detection area).
  • the finder 104 is disposed on the upper right of the back surface of the imaging apparatus 100 main body. Accordingly, when the focus frame is moved using the thumb of the right hand while looking through the finder 104, the tip of the nose may hit the left half of the touch panel 102 unintentionally.
  • the right half of the touch panel 102 when the right half of the touch panel 102 is set as a detection area avoiding a place where the user's nose is likely to come into contact, or when the eye sensor detects the approach of an object to the finder 104,
  • the right half of the touch panel 102 is set as a detection area while avoiding a contact area 702 having a predetermined area or less on the area 102.
  • the nose tip touch area 702 is outside the detection area of the touch panel 102, or the touch area 702 is assumed to be a nose tip touch instead of a finger because the touch area 702 has a constant area. Can be turned off to prevent vibrations from being transmitted to the nose.
  • the arrangement of the finder 104 has been described in the case where it is arranged on the upper right side of the back surface of the imaging apparatus 100 main body. There are cases. According to the position of the finder 104, the detection area may be set by avoiding a place where the user's nose tip is likely to come into contact.
  • the vibration unit 103 includes a plurality of vibration elements, in step S602, the vibration elements in the vicinity of the place where it is determined that the nose tip has touched, instead of turning off all of the plurality of vibration elements.
  • the vibration element close to the detection area that is, the place where the user's fingertip touches may be left in the on state. For example, it is possible to determine that the place touched within a predetermined area is a nose.
  • the detection area of the touch panel 102 may be set more finely such as the upper half and the lower half of the right side in addition to the right half and the left half.
  • Pretreatment 4 it is determined whether or not the finger of the user who is operating the touch panel 102 is about to be out of the detection area of the touch panel 102.
  • the finger is removed from the detection area of the touch panel 102, it is necessary to take a look away from the viewfinder and check it. There is concern about missing a photo opportunity.
  • the pre-process 4 is a process for preventing the finger from coming off the detection area of the touch panel 102.
  • pre-processing 4 it is determined whether or not the finger is going out of the detection area of the touch panel 102.
  • the user is warned by vibration (alarm vibration) of the vibration unit 103 to prevent the finger from protruding from the detection area.
  • FIG. 8 illustrates an example of a method for determining whether or not a finger is about to go out of the detection area of the touch panel 102.
  • An area from the boundary of the detection area 801 set on the touch panel 102 to a predetermined distance (shown in gray in the figure) is defined as an outer peripheral designated range 802 as a designated area. Then, it is assumed that the touch position of the fingertip on the touch panel 102 is detected at a predetermined cycle, and the current touch detection coordinate is already within the outer peripheral designated range 802 and is closer to the detection area boundary than the previous touch detection coordinate.
  • the main control unit 204 determines that the finger touch position is about to go out of the detection area of the touch panel 102.
  • FIG. 9 shows the processing procedure of the preprocessing 4 in the form of a flowchart. It is assumed that the pre-processing 4 is executed under the overall control of the main control unit 204.
  • reference numeral 1001 is a detection area set on the touch panel 102.
  • the detection area 1001 is a rectangle, and the four sides constituting the boundary of the detection area 1001 are a1 to a4, respectively.
  • Reference numerals 1002 and 1003 are positions where the fingertip touch is detected for the first time in the detection area 1001 and positions where the fingertip touch is detected for the second time.
  • the distance from the detection position 1002 to the nearest boundary a2 of the detection area 1001 is d1
  • the distance from the detection position 1003 to the nearest boundary a2 of the detection area 1001 is d2.
  • the main control unit 204 detects the coordinates of the first fingertip touch position 1002 in the detection area 1001 (step S901). Then, a distance d1 from the touch position 1002 to the nearest boundary a2 of the detection area 1001 is calculated (step S902).
  • the main control unit 204 detects the coordinates of the second fingertip touch position 1003 in the detection area 1001 (step S903). Then, a distance d2 from the touch position 1003 to the nearest boundary a2 of the detection area 1001 is calculated (step S904).
  • the main control unit 204 further checks whether the condition 2 of the preprocessing 4 is met (step S906).
  • the condition 2 of the pre-processing 4 is that the second touch detected in step S903 is not an erroneous contact.
  • E a predetermined value
  • step S906 If the second touch is not a false contact, that is, if the condition 2 of the pre-processing 4 is satisfied (Yes in step S906), the user is warned by vibration (alarm vibration) of the vibration unit 103 (step S907). ) To prevent the finger from protruding from the detection region 1001.
  • the main control unit 204 may issue a warning to the user by using any means other than the vibration instead of the alarm vibration or simultaneously with the alarm vibration.
  • information display for notifying that a finger is about to protrude from the detection area of the touch panel 102 on the display screen of the display unit 101 may be executed.
  • This information display includes display of icons and characters.
  • the display of icons and characters is not particularly limited as long as the user notifies that the finger is about to protrude from the detection area of the touch panel.
  • the icon or characters indicating a warning or the outer frame of the display unit 101 is displayed. It is assumed to be various, such as highlighting.
  • an icon imitating an arrow that notifies the user to move away from the outside of the detection area may be displayed based on the boundary between the detection position of the touch and the detection area.
  • information for warning to the user may be displayed using the screen of the finder 104 (however, in the case of an electronic finder).
  • step S306 the process proceeds to the next function selection process. For example, in the case of d1 ⁇ d2 ⁇ 0 or D ⁇ d2, it can be determined that the finger is not going out of the detection area of the touch panel 102, so notification by vibration is not performed. If d2 ⁇ 0, the touch coordinates detected for the second time are outside the detection area, or the current touch coordinate position is outside the detection area, and the touch panel 102 using the touch pad AF function or the touch AF function is used. Since it is not regarded as a normal touch operation, no notification is made by vibration.
  • step S306 the next function selection process (step S306) is performed. move on.
  • E a predetermined value
  • a rectangular detection area is drawn, but the shape of the detection area that can be set on the touch panel 102 is not limited to a square.
  • a detection area having a triangle indicated by reference numeral 1101, a pentagon indicated by reference numeral 1102, a hexagon indicated by reference numeral 1103, or a decagon indicated by reference numeral 1104 is set, or other various areas not shown.
  • a rectangular detection area can also be set.
  • a detection region having an arbitrary shape other than a polygon can be set.
  • the detection area on the touch panel 102 can be set at an arbitrary time after the initial setting of the imaging apparatus 100 and the use of the imaging apparatus 100 is started.
  • the user may be able to select a desired one from several types of detection areas prepared in advance in the imaging apparatus 100.
  • the user may be able to freely set the detection area.
  • the method of specifying the vertex of the detection area by the user himself for example, specifying four vertices if the rectangle is used
  • the method of the user specifying the boundary of the detection region for example, if the rectangle is four, specifying the four sides
  • a detection area of a desired shape is set on the right half of the touch panel 102 avoiding a place where the user's nose is likely to touch, or the eye sensor detects the object to the viewfinder 104.
  • Function 1 that can be selected in step S306 is a function that notifies focus by vibration.
  • Digital cameras that make a sound when the camera is in focus are well known, but sound output may be turned off in quiet shooting environments where no sound can be produced. In this case, it may be difficult for the user to hear the in-focus notification sound.
  • the function 1 as an alternative to the notification by sound, the user can be notified of the in-focus state by vibration. In other words, it is possible to show that the focus is changed by changing the color of the focus frame, but the focus frame is often hidden by the finger operating the touch panel 102, and the change in the color of the focus frame is overlooked. There is a risk that. According to the vibration, it is possible to notify the user of in-focus regardless of the position of the fingertip.
  • FIG. 12 shows a processing procedure for notifying focusing by vibration of function 1 in the form of a flowchart. It is assumed that the illustrated processing procedure is executed under the overall control of the main control unit 204.
  • the imaging unit 201 detects the amount of focus shift (step S1202).
  • the main control unit 204 checks whether or not the amount of focus deviation matches the condition 1 of the function 1 (step S1203).
  • the condition 1 mentioned here specifically means that the amount of focus deviation is 0, that is, the in-focus state.
  • step S1203 If the amount of focus shift is 0 (Yes in step S1203), the main control unit 204 vibrates the vibration unit 103 for a certain period of time (step S1204) and notifies the user that the imaging unit 201 has been focused. To do.
  • the main control unit 204 vibrates the vibration unit 103 for a certain period of time with a vibration pattern corresponding to the focus shift amount (step S1205). Notify the user of the degree of focus.
  • step S1205 for example, the closer the focus frame touched by the user is to the in-focus state, the more the focus is on the user by changing the vibration period, amplitude, number of times, and time of the vibration unit 103 (for example, shortening the vibration period). Notify the degree.
  • the user may not focus in the area touched with the finger, and the user may press the shutter without noticing that.
  • the area touched by the user is hidden by a finger, and there is a case where the user wants to focus on an area slightly away from the area. If the degree of focus is presented by vibration, these problems can be solved.
  • step S1205 the vibration period, amplitude, number of times, and time of the vibration unit 103 are changed so as to be closer to focusing on a specific object (for example, a pupil or a face registered in advance) designated in advance by the user. (For example, shorten the period of vibration) and notify the user of the degree of focus.
  • a specific object for example, a pupil or a face registered in advance
  • the function 1 it is possible to easily notify the user of the degree of focus by the vibration pattern. In addition, it is difficult to know where the subject is in focus simply by touching the touch panel 102, but according to the function 1, such a problem can be solved.
  • Function 2 that can be selected in step S306 is a function that notifies the distance between objects by vibration. According to the function 2, for example, when the focus frame is moved using the touchpad AF function, the distance between the subject in the focused area and the imaging apparatus 100 can be notified to the user by vibration. .
  • FIG. 13 shows an example of a processing procedure of function 2 for notifying the distance between objects by vibration in the form of a flowchart. It is assumed that the illustrated processing procedure is executed under the overall control of the main control unit 204.
  • the imaging unit 201 detects the amount of focus shift (step S1302).
  • the main control unit 204 vibrates the vibration unit 103 for a certain period of time with a vibration pattern corresponding to the detected amount of focus deviation (step S1303), and notifies the user of the degree of focus.
  • step S1303 for example, the closer the focus frame touched by the user is to the in-focus state, the more the focus is on the user by changing the vibration period, amplitude, number of times, and time of the vibration unit 103 (for example, shortening the vibration period). Notify the degree.
  • FIG. 14 shows another example of the processing procedure of the function 2 for notifying the distance between objects by vibration in the form of a flowchart. It is assumed that the illustrated processing procedure is executed under the overall control of the main control unit 204.
  • step S1401 the user focuses on an object at a distance to be photographed.
  • step S1402 the user selects a subject to be photographed using, for example, the touch panel 102 (step S1402).
  • the imaging unit 201 detects the amount of focus shift of the selected subject (step S1403).
  • the main control unit 204 vibrates the vibration unit 103 for a certain period of time with a vibration pattern corresponding to the amount of focus shift from the distance to be photographed of the selected subject (step S1404), and notifies the user of the degree of focus.
  • step S ⁇ b> 1404 for example, the closer the focus frame touched by the user is to the in-focus state, the more the focus is on the user by changing the vibration period, amplitude, number of times, and time of the vibration unit 103 (for example, shortening the vibration period). Notify the degree.
  • Function 2 is effective when shooting a dynamic subject such as a train.
  • the user can grasp the situation that is difficult to discriminate from the screen, such as how far away the dynamic subject is, from the vibration pattern.
  • the function 2 when the function 2 is realized according to the processing procedure shown in FIG. 14, when the user wants to photograph a dynamic subject at a desired photographing distance, the user can set the subject and the photographing distance as desired.
  • the optimum shooting timing can be known from the vibration pattern.
  • Function 3 that can be selected in step S306 is a function for notifying that a specific object has been recognized by vibration.
  • important subjects may come into the field of view in addition to the subject of interest (for example, when shooting a rare wild bird, another bird of the same type Come in).
  • the subject position of interest does not move and the user wants to shoot at the moment it moves.
  • the function 3 since such a timing can be notified by vibration, the user does not miss a photo opportunity.
  • FIG. 15 shows an example of a processing procedure for notifying that the specific object of function 3 is recognized by vibration in the form of a flowchart. It is assumed that the illustrated processing procedure is executed under the overall control of the main control unit 204.
  • the user sets a subject to be photographed as a specific object (step S1501).
  • a specific object may be a previously registered object such as a face. It is also possible to set an object that moves in a region that can be arbitrarily set in the shooting screen or an object that includes a color that can be arbitrarily set as the specific object. Alternatively, an arbitrarily settable area centered on a portion focused on the touch panel 102 (for example, designated by touch of a fingertip) can be set as the specific object.
  • the main control unit 204 checks whether or not the condition 1 of the function 3 is met (step S1502).
  • the condition 1 specifically means that the specific object set in step S1501 has entered the shooting screen.
  • step S1503 When the specific object enters the shooting screen (Yes in step S1502), the main control unit 204 vibrates the vibration unit 103 for a certain time (step S1503), and the specific object enters the shooting screen. Notify users of this. By changing the vibration period, amplitude, number of times, and time of the vibration unit 103 (for example, shortening the vibration period), the user is notified that the specific object has entered the shooting screen.
  • FIG. 16 shows another example of the processing procedure for notifying that the specific object of function 3 is recognized by vibration in the form of a flowchart. It is assumed that the illustrated processing procedure is executed under the overall control of the main control unit 204.
  • the user sets a subject to be photographed as a specific object (step S1601).
  • a specific object There are various methods for setting a specific object.
  • an object registered in advance such as a face, a region arbitrarily set in the shooting screen, a focused part on the touch panel 102, or the like can be set as the specific object.
  • step S1602 the main control unit 204 checks whether or not the condition 2 of the function 3 is met (step S1602).
  • the condition 2 is specifically that the specific object set in step S1601 has moved.
  • the main control unit 204 vibrates the vibration unit 103 for a certain time (step S1603), and notifies the user that the specific object has moved.
  • the vibration period amplitude, number of times, and time of the vibration unit 103 (for example, shortening the vibration period)
  • the user is notified that the specific object has moved.
  • the function 4 that can be selected in step S306 is a function that guides the user's finger to the subject by vibration. Function 4 can be applied, for example, when the user uses the touchpad AF function while looking through the viewfinder 104, or when using the touch AF function that instructs autofocus and shooting on the touch panel 102 with one touch. .
  • the function 4 is based on the premise that the vibration unit 103 can present two-dimensional information such as a direction, that is, a function of giving a sense of direction to the fingertip of the user who operates the touch panel 102.
  • FIG. 17 shows a configuration example of the vibration element of the vibration unit 103 for giving a sense of direction to the vibration to the fingertip.
  • two vibration elements 1701 and 1702 constituting the vibration unit 103 are arranged on the back surface of the touch panel 102 so that their vibration directions are orthogonal to each other.
  • the vibration control unit 203 controls the vibrations of the vibration elements 1701 and 1702 based on an instruction from the main control unit 204.
  • a combination of vibration patterns (vibration period, amplitude, number of times, time) of the vibration elements 1701 and 1702, that is, a sense of direction can be given to the fingertip of the user who operates the touch panel 102.
  • a direction presentation function can be actively used to guide the position of the user's finger operating the touch panel 102 to the focus frame position recommended by the camera system.
  • the configuration of the vibration unit 103 illustrated in FIG. 17 is merely an example. Further, the number of vibration elements constituting the vibration unit 103 is not limited to two, and three or more vibration elements may be arranged on the back surface of the touch panel 102.
  • FIG. 18 shows a processing procedure for guiding the user's finger to the subject by vibration of function 4 in the form of a flowchart. It is assumed that the illustrated processing procedure is executed under the overall control of the main control unit 204.
  • the imaging unit 201 detects the amount of focus shift (step S1802).
  • the main control unit 204 checks whether or not the touch detection position on the touch panel 102 matches the condition 1 of the function 4 (step S1803).
  • the condition 1 mentioned here specifically means that the touch detection position on the touch panel 102 does not coincide with the focus frame position recommended by the camera system.
  • the main control unit 204 vibrates the vibration unit 103 to set the position of the user's finger on the camera.
  • the guidance is performed in the direction of the focus frame position recommended by the system (step S1804).
  • the vibration pattern may be changed. For example, as the touch detection position on the touch panel 102 is closer to the focus frame position recommended by the camera system, the vibration period, amplitude, number of times, and time of the vibration unit 103 are changed (for example, the vibration period is shortened). The user may be notified that has approached the recommended position.
  • the method of determining the focus frame position recommended by the camera system is arbitrary.
  • a previously registered object such as a face may be recommended as the focus frame position.
  • an object specified based on the user's previous shooting history or the like may be recommended as the focus frame position.
  • the function 4 in addition to guiding the user's finger to the subject by the vibration as described above, it may be guided to the focus frame position recommended by the camera system by the video presentation.
  • FIG. 19 shows a configuration example of a screen that guides to a focus frame position recommended by the camera system by video presentation.
  • reference numeral 1901 is the focus frame position currently set by the fingertip touch.
  • Reference numeral 1902 is an arrow indicating the moving direction to the focus frame position recommended by the camera system.
  • the user when the user uses the touchpad AF function while looking through the viewfinder 104, the user has few opportunities to see the video presentation as shown in FIG.
  • the touch AF function when the user uses the touch AF function while observing the display screen of the display unit 101, it is very effective because the direction can be presented in the video as well as the direction by vibration.
  • presentation by video is almost meaningless, and the function 4 for guiding the user's finger to the subject by vibration is extremely effective.
  • the notification to the user using the screen display as shown in FIG. 19 is not the display unit 101 on the back surface of the main body of the imaging apparatus 100 (or in combination with the display unit), but the finder 104 (however, the electronic finder In the case of ()).
  • the imaging apparatus 100 As described above, according to the imaging apparatus 100 according to the present embodiment, it is possible to present useful information to the user by using the vibration that the vibration unit 103 applies to the touch panel 102.
  • the main advantages of the imaging apparatus 100 according to this embodiment are listed below.
  • the imaging device 100 When the image is taken while the user looks into the viewfinder 104, the imaging device 100 unconsciously moves the focus frame using the touchpad AF function, and the fingertip is unconsciously moved outside the detection area of the touch panel 102. The user can be made aware by vibration before coming off. Therefore, it is possible to prevent the user from missing an important shutter opportunity.
  • the detection area on the touch panel 102 can be freely set and changed by the user. For example, it is possible to prevent erroneous detection or recognition of the contact of the nose tip by removing from the detection area a place where the nose tip is likely to come into contact with the user while taking a picture while looking through the viewfinder 104.
  • the imaging apparatus 100 can perform notification of in-focus by vibration as an alternative to the notification sound. .
  • the imaging apparatus 100 can perform notification of in-focus by vibration as an alternative to the notification sound. .
  • the user uses the touch AF function while observing the display screen of the display unit 101, the focus frame is hidden by the finger and the in-focus state cannot be confirmed by visual observation, but due to vibration from the imaging device 100 The in-focus state can be recognized based on the notification, and the position can be finely adjusted.
  • the imaging apparatus 100 has a function of notifying the distance from the subject by vibration, the user can determine the change in the distance from the subject by vibration even in a situation where it is difficult to determine the distance only by the shooting screen.
  • the imaging apparatus 100 designates a specific object in advance and notifies by vibration when the object suddenly enters the shooting screen or when the object continues to be stationary but suddenly starts moving. be able to. The user can use this function to reduce the number of missed perfect photo opportunities.
  • the imaging device 100 has a function of giving a sense of direction to the vibration to the fingertip. Using this function, it is possible to realize a new photographing assist function such as guiding the user's fingertip to the focus frame recommended by the camera system.
  • the imaging apparatus 100 includes only the pre-processing 4 for example.
  • a part of the pre-processing 1 to the pre-processing 4 may be included.
  • the imaging apparatus may have only a part of functions 1 to 4 such as, for example, only function 1 is configured.
  • the embodiment in which the technology disclosed in the present specification is applied to the imaging apparatus 100 including the viewfinder and the touch panel as illustrated in FIG. 1 has been mainly described, but the technology disclosed in the present specification.
  • the gist of the present invention is not limited to this.
  • the technology disclosed in this specification can be applied to various types of information devices such as a smartphone equipped with a photographing function and a touch panel.
  • a detection unit that detects a touch position with respect to the detection region
  • a control unit that controls notification based on a relationship between a first touch position detected by the detection unit and a second touch position detected after the first touch position
  • An imaging apparatus comprising: (2) It further includes a vibration unit that applies vibration to the imaging device, The control unit controls notification by the vibration.
  • the imaging device according to (1) above.
  • the control unit controls notification on the screen of the display unit.
  • the imaging device according to any one of (1) and (2) above.
  • the control unit controls notification based on a relationship between a first distance between the detection area and the first touch position, and a second distance between the detection area and the second touch position.
  • the control unit sets a designated area having a predetermined distance from the boundary of the detection area, and notifies when the second touch position is detected between the boundary of the detection area and the designated area. Control to do, The imaging device according to any one of (1) to (4) above. (6) When the second touch position is outside the detection area, the control unit performs control so that notification by the vibration is not performed. The imaging device according to any one of (1) to (5) above.
  • the control unit has a time when the first touch position is detected and a time when the second touch position is detected within a predetermined time, and the first distance and the second distance When the difference of exceeds a predetermined value, control not to perform notification,
  • the imaging device according to any one of (4) to (6) above.
  • It further includes a display unit that displays the captured image,
  • the detection area is an area set in the display unit, and is an area for setting a focusing frame of a captured image.
  • the imaging device according to any one of (1) to (7) above.
  • the control unit sets the detection area specified by the user.
  • the viewfinder An eye sensor for detecting approach to the viewfinder; Further comprising When the eye sensor detects an approach and the detection unit detects a touch with a predetermined area or less, the control unit includes the detection region that does not include a place where the touch with the predetermined area or less is detected.
  • Set The imaging device according to any one of (8) and (9).
  • the control unit controls the vibration unit so as not to generate vibration outside the detection region.
  • the control unit performs control so that the vibration unit does not generate vibration in a state immediately before photographing of the imaging device.
  • the imaging device according to any one of (2) to (11).
  • the control unit controls the vibration unit not to generate vibration when the detection unit detects a touch of a predetermined area or more.
  • the imaging device according to any one of (2) to (12) above.
  • the control unit controls the vibration unit so as not to generate vibration when the detection unit detects a contact with a second predetermined area or more.
  • the imaging device according to (13) above.
  • the control unit performs control so that the vibration unit does not generate vibration when the detection unit detects a touch of a specified number of fingers or more.
  • the imaging device according to (13) above.
  • the control unit controls a condition of vibration generated in the vibration unit according to a focus state of the imaging device.
  • the imaging device according to any one of (2) to (13).
  • the control unit controls a vibration pattern generated in the vibration unit according to a focus state of the imaging device.
  • the imaging device 14 above.
  • the control unit controls a condition of vibration generated in the vibration unit according to a distance between the imaging device and a subject.
  • (15-1) The control unit controls a vibration pattern generated in the vibration unit according to the distance.
  • (16) The control unit controls a condition of vibration generated in the vibration unit according to a distance between the position to be focused and a subject.
  • (16-1) The control unit controls a vibration pattern generated in the vibration unit according to the distance.
  • the control unit controls a condition of vibration generated in the vibration unit according to a recognition result of the specific object.
  • the control unit controls a vibration pattern generated in the vibration unit according to the recognition result.
  • the control unit presents a direction to a position of a specific focusing frame by the vibration of the vibration unit.
  • the vibration unit includes a plurality of vibration elements including two vibration elements arranged so that the vibration directions thereof are orthogonal to each other.
  • a notification control method in an imaging apparatus including a display unit and a touch panel superimposed on a screen of the display unit, A detection step of detecting a touch position with respect to a detection region set in the display unit; A control step for controlling notification based on a change in the touch position detected in the detection step;
  • a notification control method comprising: (21) a detection unit that detects a touch position with respect to the detection region; A control unit that controls notification based on a relationship between a first touch position detected by the detection unit and a second touch position detected after the first touch position;
  • An information processing apparatus comprising:
  • DESCRIPTION OF SYMBOLS 100 ... Imaging device 101 ... Display part, 102 ... Touch panel 103 ... Vibration part, 104 ... Finder 201 ... Imaging part, 202 ... Panel control part 203 ... Vibration control part, 204 ... Main control part

Abstract

画面上のタッチ位置の変化に基づいてユーザーに通知を行う撮像装置を提供する。 撮像装置は、検出領域に対するタッチ位置を検出する検出部と、前記検出部が検出する第1のタッチ位置と、前記第1のタッチ位置の後に検出する第2のタッチ位置との関係に基づいて通知を制御する制御部を具備する。前記撮像装置に振動を与える振動部をさらに備え、前記制御部は、前記タッチ位置が前記画面上の所定の検出領域外に出ようとしていることを検出して、前記振動による通知を制御する。また、前記制御部は、表示部の画面上での通知を制御する。

Description

撮像装置及び撮像装置における通知制御方法、並びに情報処理装置
 本明細書で開示する技術は、画面をタッチ操作するユーザーに通知を行う撮像装置及び撮像装置における通知制御方法、並びに情報処理装置に関する。
 デジタルカメラなど現在普及している撮像装置は、一般に、電子式又は光学式のファインダーと、液晶などのモニター画面を備えている。また、モニター画面の多くは、ユーザーの入力手段としてのタッチパネルを備えている(例えば、特許文献1を参照のこと)。
 また、上記のような構成からなる撮像装置において、モニター画面上のフォーカス枠を指先で移動させるタッチパッドAFの機能も知られている。ユーザー(撮影者)は、ファインダーを覗きながら(言い換えれば、ファインダーから目線を離さずに)、本体背面のタッチパネル上をスワイプすることで、フォーカス枠位置をスムースに動かすことができる。ところが、ユーザーがタッチパッドAF機能を使用中に、無意識にタッチパネルの検出領域の外に指を移動させてしまい、操作ができなくなるという問題がある。
 例えば、表示パネルを装備する電子機器において、ユーザーがタッチしている位置が表示エリアのうちと外の間で移動したときにタッチパネルの振動を変更する技術について提案がなされている(例えば、特許文献1を参照のこと)。しかしながら、タッチ位置が所定のエリアから外れた後に振動により通知されると、ユーザーは目視によりタッチ位置を確認する必要がある。例えば、デジタルカメラにおいてファインダーを覗きながらタッチパッドAF機能を利用している際に、振動による通知があると、ユーザーは、一旦ファインダーから目を離して確認しなければならず、その間に貴重なシャッターチャンスを逃してしまうことが懸念される。
特開2017-84044号公報
 本明細書で開示する技術の目的は、画面をタッチ操作するユーザーに通知を行う撮像装置及び撮像装置における通知制御方法、並びに情報処理装置を提供することにある。
 本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
 検出領域に対するタッチ位置を検出する検出部と、
 前記検出部が検出する第1のタッチ位置と、前記第1のタッチ位置の後に検出する第2のタッチ位置との関係に基づいて通知を制御する制御部と、
を具備する撮像装置である。
 第1の側面に係る撮像装置は前記撮像装置に振動を与える振動部をさらに備え、前記制御部は、前記振動による通知を制御するように構成されている。そして、前記制御部は、前記タッチ位置が前記画面上の所定の検出領域外に出ようとしていることを検出して、前記振動による通知を制御するようになっている。また、前記制御部は、表示部の画面上での通知を制御するようにしてもよい。
 また、本明細書で開示する技術の第2の側面は、表示部及び前記表示部の画面に重畳するタッチパネルを備えた撮像装置における通知制御方法であって、
 前記表示部に設定される検出領域に対するタッチ位置を検出する検出ステップと、
 前記検出ステップにおいて検出されたタッチ位置の変化に基づいて通知を制御する制御ステップと、
を有する通知制御方法
である。
 また、本明細書で開示する技術の第3の側面は、
 検出領域に対するタッチ位置を検出する検出部と、
 前記検出部が検出する第1のタッチ位置と、前記第1のタッチ位置の後に検出する第2のタッチ位置との関係に基づいて通知を制御する制御部と、
を具備する情報処理装置である。
 本明細書で開示する技術によれば、画面上のタッチ位置の変化に基づいてユーザーに通知を行う撮像装置及び撮像装置における通知制御方法、並びに情報処理装置を提供することができる。
 なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
 本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、撮像装置100の構成例を示した図である。 図2は、撮像装置100の機能的構成を模式的に示した図である。 図3は、ユーザーのタッチ操作に応じた撮像装置100の動作を制御するための処理手順を示したフローチャートである。 図4は、事前処理1の処理手順を示したフローチャートである。 図5は、事前処理2の処理手順を示したフローチャートである。 図6は、事前処理3の処理手順を示したフローチャートである。 図7は、タッチパネル102の検出領域外に鼻が接触している様子を示した図である。 図8は、指がタッチパネル102の検出領域外に出ようとしているかどうかを判定する方法を説明するための図である。 図9は、事前処理4の処理手順を示したフローチャートである。 図10は、事前処理4の処理手順を説明するための図である。 図11は、タッチパネル102上に設定できる検出領域の形状を例示した図である。 図12は、振動により合焦を通知するための処理手順を示したフローチャートである。 図13は、被写体間距離を振動により通知する処理手順の一例を示したフローチャートである。 図14は、振動により被写体間距離を通知する処理手順の他の例を示したフローチャートである。 図15は、特定物体を認識したことを振動により通知するための処理手順の一例を示したフローチャートである。 図16は、特定物体を認識したことを振動により通知するための処理手順の他の例を示したフローチャートである。 図17は、振動部103の振動素子の配置例を示した図である。 図18は、振動によりユーザーの指を被写体へ誘導するための処理手順を示したフローチャートである。 図19は、映像提示によりカメラのシステムが推奨するフォーカス枠位置へ誘導する画面の構成例を示した図である。
 以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
 図1には、本明細書で開示する技術を適用可能な撮像装置100の構成例を示している。同図は、撮像装置100本体を側面から眺めた様子を示している。撮像装置100は、表示部101と、タッチパネル102と、振動部103と、ファインダー104を備えている。
 表示部101は、例えば液晶ディスプレイ(LCD)や有機EL素子(OLED)などのフラットパネルディスプレイからなり、当該撮像装置100が撮像している画像を表示するモニター画面や、メニューボタンなどのユーザーインターフェース(UI)の表示に用いられる。
 タッチパネル102は、表示部101の表示画面に重畳して配設される。タッチパネル102は、例えば、モニター画面に表示されたUIに対するユーザーの操作を検知する。また、タッチパネル102を利用して、タッチパッドAFなど撮影動作に関連するさまざまなユーザー操作を行なうことができる。タッチパネル102は、感圧式又は静電式などいずれの動作方式であってもよい。
 振動部103は、例えばタッチパネル102の裏面に当接するように配置され、タッチパネル102に対して振動を加えることができる。振動タイミングや振動パターン、振幅など、振動部103の振動制御の詳細については、後述に譲る。振動部103には、任意の動作方式の振動アクチュエーター又は振動モーターといった振動素子を使用することができる。説明の都合上、図1の側面図に振動部103を描いているが、実際には、振動部103は撮像装置100の筐体内に配設され、筐体外からは見えない。
 なお、振動部103を構成する振動素子の配置の詳細については、後述に譲る。
 ファインダー104は、撮像装置100本体の背面上部に設けられた、当該撮像装置100が撮像している画像を観察するための小さな覗き窓である。ファインダー104は、覗き窓に液晶画面を埋め込んだ電子式ファインダー、又は、反射ミラー(図示しない)を介して撮像レンズ越しの被写体を直接観察する光学式ファインダーのいずれであってもよい。電子式ファインダーは、液晶ディスプレイ(LCD)や有機EL素子(OLED)などのフラットパネルディスプレイからなる。なお、ファインダー104は、ユーザーの眼などの物体が接近したことを検出するアイセンサー(図示しない)を装備していてもよい。アイセンサーの検出方式は任意である。
 ユーザー(撮影者)は、ファインダー104から撮像画像を観察することができる。なお、撮像装置100本体の背面に表示部101及びタッチパネル102が配設され、且つ、その本体上部にファインダー104が配設されるという構造から、ファインダー104を覗き込んでいるユーザーの鼻先がタッチパネル102に当たってしまうことがある。
 図2には、撮像装置100の機能的構成を模式的に示している。図示の撮像装置は、撮像部201と、パネル制御部202と、振動制御部203と、主制御部204を備えている。
 撮像部201は、例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などの撮像素子からなり、撮像光学系(図示しない)を介して撮像素子の表面(撮像面)に結像される被写体像を撮像する。
 パネル制御部202は、液晶などの表示部101の表示駆動、並びにタッチパネル102を介したユーザー入出力を制御する。具体的には、パネル制御部202は、撮像部201で撮像された画像やUI画面の表示部101への表示出力を制御する。また、パネル制御部202は、タッチパネル102上で物体(ユーザーの指先や鼻、その他)がタッチした位置の座標を検出して、検出結果を主制御部204に出力する。なお、便宜上、図2ではパネル制御部202を単一の機能ブロックとして描いたが、実際には、表示部101用及びダッチパネル102の入出力制御用に、それぞれ個別の制御回路チップとして構成される場合もある。
 振動制御部203は、振動アクチュエーター若しくは振動モーターなどの1以上の振動素子からなる振動部103の駆動を制御する。振動制御部203は、主制御部204からの指示に基づく振動パターン(振動周期、振幅、回数、時間)で、振動部103の振動素子を振動させる。
 主制御部204は、撮像装置100全体の動作を統括的に制御する。具体的には、主制御部204は、撮像部201における露光やシャッタータイミングといった撮像動作を制御したり、撮像部201の撮像信号のAD変換、デモザイク、画質補正といった画像処理を行ったりする。また、主制御部204は、表示部101に撮像画像やUI画面を画面表示するようにパネル制御部202に指示したり、タッチパネル102の検出信号をパネル制御部202経由で受け取って、ユーザーのタッチ操作に応じて撮像部201の撮像動作を制御したり、振動制御部203に対して振動部103の振動(すなわち、振動を利用したユーザーへの通知)を指示したりする。
 本実施形態に係る撮像装置100は、表示部101の画面上のタッチ操作をタッチパネル102により検出可能であるとともに、振動部103により画面を振動させることができる。付言すれば、ユーザーは、ファインダー104を覗きながら、タッチパネル102を操作したり、タッチパネル102から振動によるフィードバックを受けたりすることができる。
 タッチパネル102を装備する撮像装置100においては、例えばユーザーがファインダー104を覗きながら使用する際(例えば、ユーザーがタッチパッドAF機能を使用中)には、以下の(P1)~(P6)に示すようなことが操作上の課題になると考えられる。
(P1)無意識にタッチパネル102の検出領域の外に指を移動させてしまうと、目視によりタッチ位置を確認する必要がある。ユーザーがファインダー104から目を離している間に、貴重なシャッターチャンスを逃してしまう。
(P2)撮像装置100本体上部にファインダー104が配設され、撮像装置100本体の背面に表示部101及びタッチパネル102が配設されるという構造上、ファインダー104を覗き込んでいるユーザーの鼻先がタッチパネル102に当たって、鼻を指と誤検出又は誤認識することがある。
(P3)ユーザーが表示部101のモニター画面を観察しながらフォーカス位置を選ぶ際に、指を置いた位置近傍のフォーカス位置を調整したくても、指先で隠れるため、微調整し難い、合焦したタイミングを逃してしまうというおそれがある。
(P4)タッチパネル102をタッチしてフォーカスしたい被写体を指定しても、合焦したことしか通知されず、その被写体からどのくらい離れているのか情報がない。例えば、鉄道列車などの移動体を撮影しようとしているときに、タッチパッドAF機能などを利用して鉄道列車の前面を被写体に指定しても、合焦位置しか通知されないと、シャッターチャンスを捉え難い。
(P5)撮影の際に、注目している(若しくは、タッチパネル102上で指定した)被写体以外にも、重要な被写体が視野内に入ってくることもある。また、注目している被写体の動きがなく、動いた瞬間を撮影したいこともある。重要な被写体の出現や、静止している被写体が動き出した瞬間といった絶好のタイミングをユーザーが気付かないと、撮影の機会を損失してしまう。
(P6)既存のデジタルカメラなどの機器に搭載されている振動機能は、ユーザーがタッチした領域に振動を与えることによってクリック感などを表現することはできるが、1次元的な情報しか提示することができず、方向などの2次元的な情報を提示することはできない。
 本明細書では、上述したような課題(P1)~(P6)を解決するための、以下の(S1)~(S9)に示すような機能を撮像装置100に装備することを以下で提案する。
(S1)振動部103の振動により、ユーザーの指がタッチパネル102の検出領域の外に移動するのを防止する機能。具体的には、ユーザーの指がタッチパネル102の検出領域の境界に近づいたことを振動により通知する機能。ユーザーは、ファインダー104から目を離さなくても、自分の指がタッチパネル102の検出領域の外に移動しないようにしながら、タッチパッドAFなどタッチパネル102の操作を継続することができる。
(S2)指以外の部位の誤検出又は誤認識を防止する機能。例えば、鼻先など指以外の部位を検出しないようにタッチパネル102の検出領域を可変にする機能。若しくは、鼻先など指以外の部位の接触か否かを判定する機能。
(S3)被写体の合焦度合いを振動により通知する機能。具体的には、振動部103の振動周期、振幅、回数、時間のうち少なくとも1つを変化させて、被写体の合焦度合いを通知する機能。ユーザーは、タッチパネル102上の指を置いた位置近傍が指先で隠れて目視できなくても、振動により合焦度合いを検知することができるので、合焦したタイミングを捉えることができる。
(S4)事前に指定した被写体と合焦したことを振動により通知する機能。ユーザーは、振動により合焦が通知されたタイミングで被写体を好適に撮影することができる。
(S5)被写体からの距離を振動により通知する機能。具体的には、振動部103の振動周期、振幅、回数、時間のうち少なくとも1つを変化させて、被写体からの距離を通知する機能。ユーザーは、被写体からの距離の変化を振動によって判断することができるので、所望する距離で被写体を撮影するシャッターチャンスを捉え易くなる。
(S6)事前に指定した距離に被写体が移動したことを振動により通知する機能。例えば、鉄道列車などの移動体を撮影しようとしているときに、撮影したい距離を事前に指定しておくことにより、鉄道列車がその距離まで移動してきたことが振動により通知される。したがって、ユーザーは、所望する距離で鉄道列車などの被写体を撮影するシャッターチャンスを捉え易くなる。
(S7)事前に指定した被写体が撮影領域内に出現したことを振動により通知する機能。例えば、珍しい野鳥やその他の動物など、動きが不規則でいつ撮影領域内に出現するのか予測できない特定物体を事前に指定しておくことにより、その特定物体が撮影領域内に出現したことが振動により通知される。したがって、ユーザーは、被写体を追いかける必要はなく、所望する画角で待ち構えて、被写体を撮影するシャッターチャンスを捉え易くなる
(S8)事前に指定した被写体が動いたことを振動により通知する機能。例えば、野鳥が羽ばたいたときや、その他の動物が動き始めた瞬間などを撮影したいとき、常に高い集中力でシャッターチャンスを待機するのは疲れる。当該機能によれば、ユーザーは、被写体が動いたことを振動で知らされるので、常に緊張していなくてもシャッターチャンスを捉え易くなる。
(S9)指先への振動に方向感を与える機能。単にタッチパネル102を振動させるのではなく、どちらの方向に振動しているかを提示することにより、例えば指先を被写体の方向へ誘導することができる。
 なお、指先への振動に方向感を与えるための振動部103の振動素子の配置の詳細については、後述に譲る。
 図3には、本実施形態に係る撮像装置100において、ユーザーのタッチパネル102へのタッチ操作に応じて動作を制御するための処理手順をフローチャートの形式で示している。図示の処理手順は、主制御部204の統括的な制御下で、撮像部201が撮像するフレーム毎に実行されるものとする。また、主制御部204は、振動制御部203に指示を出力して、振動部103を振動させるものとする。
 タッチパネル102のタッチが検出されると(ステップS301)、まず事前処理1として、シャッター(図示しない)の半押しなど、撮像装置100が撮影直前の状態かどうかを判定する(ステップS302)。
 撮像装置100が撮影直前の状態のときには(ステップS302のYes)、振動機能をオフ(すなわち、振動部103の動作を禁止)して(ステップS311)、撮影時の手振れなどを防止する。さらに合焦した状態が一定時間経過したときには、撮影時と判断して振動機能をオフにする。
 一方、撮像装置100が撮影直前の状態でないときには(ステップS302のNo)、続いて事前処理2として、タッチパネル102を指でタッチしているかどうかを判定する(ステップS303)。
 例えば手のひらや額など、ユーザーの指以外の部位がタッチパネル102に接触しているときには(ステップS303のNo)、ユーザーはタッチパッドAFなど撮影の指示を行っている訳ではないので、振動機能をオフ(すなわち、振動部103の動作を禁止)にする(ステップS311)。例えば、タッチパネル102への接触面積が一定面積以上(具体的には、直径30ミリメートルの円の面積706平方ミリメートル以上)であれば、指先以外の部位が接触していると判定することができる。
 タッチパネル102を指でタッチしていると判定したときには(ステップS303のYes)、続いて、事前処理3として、ユーザーがファインダー104を覗き込みながらタッチパッドAF機能を使用しているときに、ユーザーの鼻がタッチパネル102に接触したことを指先によるタッチと誤検出していないかどうかを判定する(ステップS304)。なお、鼻の接触の検出方法の詳細については、後述に譲る。
 ユーザーの鼻がタッチパネル102に接触したと判定したときには(ステップS304のYes)、鼻の接触は撮影操作とは関わりないので、振動機能をオフ(すなわち、振動部103の動作を禁止)にする(ステップS311)。また、振動部103として複数個の振動素子を配置している場合には、ステップS311では、鼻先の接触場所に近い方の振動素子のみを動作オフにして鼻に振動を与えないようにし、それ以外の振動素子はオン状態のままにしてもよい。例えば、所定面積以下で接触した場所を鼻と判定することができる。
 なお、ユーザーの鼻先がタッチパネル102に接触する可能性があるのは、主にユーザーがファインダー104を覗いているときである。したがって、アイセンサーがファインダー104への物体の接近を検出したときに、事前処理3を行うようにしてもよい。
 ステップS303でタッチパネル102をタッチしていると判定した指が鼻先などの誤検出でないと判定された場合には(ステップS304のNo)、続いて、事前処理4として、タッチパネル102をタッチしている指のタッチパネル検出エリア外へのはみ出しの判定を行う(ステップS305)。
 ユーザーが、タッチパッドAF機能を使用して、ファインダー104を覗きながら、タッチパネル102をスワイプして表示部101の表示画面上のフォーカス枠を移動させている最中に、タッチパネル102の検出領域から指が外れようとしている場合に(ステップS305のYes)、振動部103の振動(アラーム振動)によりユーザーに警告を行って(ステップS312)、検出領域からの指のはみ出しを防止する。タッチパネル102の検出領域から指が外れようとしているかどうかを判定する方法の詳細については、後述に譲る。
 上記の事前処理1~4が終了すると、ユーザーは、撮像装置100の機能選択を行う(ステップS306)。基本的には、表示部101の表示画面上に表示した機能選択用のメニューのいずれかを、タッチパネル102上で選択することで、機能選択が行われるものとする。
 本実施形態では、撮像装置100が以下の4種類の機能1~4を提供することを想定している。
(機能1)振動により合焦を通知する機能。
(機能2)振動により被写体間距離を通知する機能。
(機能3)振動により特定物体を認識したことを通知する機能。
(機能4)振動により指を被写体へ誘導する機能。
 ステップS306で機能1が選択された場合、主制御部204は、撮像部201の合焦を検出したときに、振動部103を振動させて、タッチパネル102を1回だけ振動を与える(ステップS307)。
 また、ステップS306で機能2が選択された場合、主制御部204は、例えばユーザーがタッチパッドAF機能を使用してタッチパネル102上のフォーカス枠を移動させているときに、そのフォーカス枠内の被写体から当該撮像装置100までの距離を、振動によってユーザーに通知する(ステップS308)。
 また、ステップS306で機能3が選択された場合、ユーザーは、あらかじめ特定物体を撮像装置100に設定しておく。設定方法は任意である。例えば、タッチパネル102上のメニュー選択により特定物体を設定してもよいし、音声入力により特定物体を設定してもよい。あらかじめ設定した特定物体が撮像部201の撮影領域に入ってきたときに、主制御部204は、振動部103の振動の種類を変化させることで、ユーザーに通知する(ステップS309)。
 機能4は、撮像装置100が振動部103として複数個の振動素子を配置して、複数個の振動素子の振動を組み合わせて2次元的な振動パターンを表現できることを前提とする。そして、ステップS306で機能4が選択された場合、主制御部204は、振動部103によりタッチパネル102を振動させて、どちらの方向に振動しているかを提示することにより、ユーザーの指の位置を推奨するフォーカス枠位置へ誘導する(ステップS310)。
 ステップS306においてユーザーが機能選択した結果に応じて、いずれかの機能1~4を実行すると(ステップS307~S310)、次のフレームの処理のために(ステップS313)、ステップS301に戻る。
 続いて、図3に示したフローチャート中の各ステップの詳細について説明する。
《事前処理1》
 ステップS302の事前処理1では、シャッター(図示しない)の半押しなど、撮像装置100が撮影直前の状態かどうかを判定する。撮像装置100が撮影直前の状態のときには、振動機能をオフ(すなわち、振動部103の動作を禁止)にする。事前処理1は、撮影直前の状態でタッチパネル102が振動すると手振れやユーザーの操作の邪魔になる可能性があり、振動させないようにする処理である。
 図4には、事前処理1の処理手順をフローチャートの形式で示している。事前処理1は、主制御部204の統括的な制御下で実行されるものとする。
 主制御部204は、事前処理1の条件1に適合するかどうかをチェックする(ステップS401)。そして、条件1に適合するときには(ステップS401のYes)、振動機能をオフ(すなわち、振動部103の動作を禁止)にする(ステップS403)。事前処理1の条件1は、例えばシャッターボタン(図示しない)が半押し状態であることである。
 また、事前処理1の条件1に適合しない場合には(ステップS401のNo)、主制御部204は、続いて、事前処理1の条件2に適合するかどうかをチェックする(ステップS402)。そして、条件2に適合するときには(ステップS402のYes)、振動機能をオフ(すなわち、振動部103の動作を禁止)にする(ステップS403)。事前処理1の条件2は、例えば撮像部201の合焦状態で一定時間(例えば3秒)を経過したことである。一方、事前処理1の条件2にも適合しない場合には(ステップS402のNo)、事前処理2に進む。
 合焦状態で一定時間が経過した場合、撮像装置100の撮影準備が整っていると判断することができる。このような場合には、手振れやユーザーの操作の邪魔にならないように、不要な振動を出さないようにすべきである。但し、撮像部201が合焦状態でなくなったときには、上記の条件2は解除され、振動機能はオンになる。
 事前処理1は、撮像装置100が実行する基本的な処理である。事前処理1を実施しないと、撮像装置100は撮影時に不用意にユーザーに誤判断を与える可能性がある、という点を十分理解されたい。
 例えば、上記のステップS402における条件2は、撮像装置100の振動機能をユーザーにとって使い易くするために重要である。事前処理1におけるこの条件判断により振動機能をオフにする機能がないと、合焦した状態でユーザーはタッチパネル102をタッチし続けると、ずっと振動し続けてしまう。
《事前処理2》
 ステップS303の事前処理2では、タッチパネル102を指でタッチしているかどうかを判定する。指以外の物体がタッチパネル102に接触しているときには、振動しても特に意味がないので、事前処理2は、不要な振動を抑制するための処理である。また、ユーザーの手のひらや額など、タッチパネル102への接触面積が一定面積以上となる場合も、振動を与える意味がないので、振動機能をオフにするべきである。
 図5には、事前処理2の処理手順をフローチャートの形式で示している。事前処理2は、主制御部204の統括的な制御下で実行されるものとする。
 主制御部204は、事前処理2の条件1に適合するかどうかをチェックする(ステップS501)。そして、条件1に適合するときには(ステップS501のYes)、振動機能をオフ(すなわち、振動部103の動作を禁止)にする(ステップS503)。事前処理2の条件1は、例えばタッチパネル102への接触面積が一定面積以上(具体的には、直径30ミリメートルの円の面積706平方ミリメートル以上)であることである。接触面積が一定面積以上であれば、指先以外の部位が接触していると判定することができる。
 また、事前処理2の条件1に適合しない場合には(ステップS501のNo)、主制御部204は、続いて、事前処理2の条件2に適合するかどうかをチェックする(ステップS502)。そして、条件2に適合するときには(ステップS402のYes)、振動機能をオフ(すなわち、振動部103の動作を禁止)にする(ステップS403)。事前処理2の条件2は、例えば指定本数以上の指がタッチパネル102にタッチしていることである。
 例えば、2本の指がタッチパネル102にタッチしている場合には、1本目の指でタッチパッドAF機能を利用してフォーカス枠を指定しながら、2本目の指で露光エリア設定などの撮影条件の設定を行っていることが想定されるので、タッチパネル102に振動を与える意味がない。また、3本以上の指がタッチパネル102にタッチしている場合には、そもそも撮影状態ではないことが想定されるため、タッチパネル102に振動を与える意味がない。
 一方、事前処理2の条件2にも適合しない場合には(ステップS502のNo)、事前処理3に進む。
《事前処理3》
 ステップS304の事前処理3では、ユーザーの鼻がタッチパネル102に接触したことを指先によるタッチと誤検出していないかどうかを判定する。ユーザーがファインダー104を覗き込みながらタッチパッドAF機能を使用しているときに、ユーザーの鼻がタッチパネル102に接触し易いからである。鼻と指先の大きさは似ているため、事前処理2において鼻を指先と誤判定してすると、鼻先にも振動が伝わってしまう。
 図6には、事前処理3の処理手順をフローチャートの形式で示している。事前処理3は、主制御部204の統括的な制御下で実行されるものとする。
 主制御部204は、事前処理3の条件1に適合するかどうかをチェックする(ステップS601)。事前処理3の条件1は、具体的には、タッチパネル102上の検出領域外で、所定面積以下(例えば、直径20ミリメートル以下)のタッチが検出されたことである。
 タッチパネル102に接触したのが指ではなく鼻先であれば、その接触面積は所定面積を超えることはない。また、ユーザーの鼻先がタッチパネル102に接触する可能性があるのは、主にユーザーがファインダー104を覗いているときである。そこで、アイセンサーがファインダー104への物体の接近を検出したときに、タッチパネル102上で、ユーザーの鼻先が接触しそうな場所、若しくは、所定面積以下の接触を検出した場所を避けて、検出領域を設定するようにしてもよい。
 そして、主制御部204は、条件1に適合するときには(ステップS601のYes)、ユーザーの鼻がタッチパネル102に接触したと判定して、振動機能をオフ(すなわち、振動部103の動作を禁止)にする(ステップS602)。他方、事前処理3の条件1に適合しない場合には(ステップS601のNo)、事前処理4に進む。
 ここでは、タッチパネル102の検出領域を細かく設定可能であり、タッチパッドAF機能やタッチAF機能などの操作は、タッチパネル102の検出領域の中で行われることを前提とする。そして、事前処理3の条件1は、タッチパネル102上で接触を検出した場所が検出領域の外であることとする。
 図7には、タッチパネル102の右半分を検出領域701に設定して、タッチパネル102の左半分(すなわち、検出領域の外)にユーザーの鼻先702が接触している様子を示している。
 通常、ファインダー104は、撮像装置100本体背面の右上に配設されている。したがって、ファインダー104を覗きながら右手の親指を使ってフォーカス枠を移動させているとき、無意識に鼻先がタッチパネル102の左半分に当たってしまうことがある。
 そこで、図7に示すように、ユーザーの鼻先が接触しそうな場所を避けてタッチパネル102の右半分を検出領域に設定したり、アイセンサーがファインダー104への物体の接近を検出したときに、タッチパネル102上で所定面積以下の接触領域702を避けてタッチパネル102の右半分を検出領域に設定したりする。このようにすれば、鼻先のタッチ領域702はタッチパネル102の検出領域外となり、若しくは、タッチ領域702は一定面積であることから指ではなく鼻先のタッチと推定されるので、事前処理3により振動機能をオフにして、鼻に振動が伝わらないようにすることができる。ここで、ファインダー104の配置としては、撮像装置100本体背面の右上に配置されている場合を説明したが、この配置に特に限定されず、撮像装置100本体背面の中心近傍の上に配置される場合などもある。ファインダー104の位置に応じて、ユーザーの鼻先が接触しそうな場所を避けて検出領域を設定すればよい。
 なお、振動部103が複数個の振動素子で構成されている場合には、ステップS602では、複数個の振動素子をすべてオフにするのではなく、鼻先がタッチしたと判定した場所近傍の振動素子のみを動作オフにして鼻に振動を与えないようにし、検出領域すなわちユーザーの指先がタッチする場所に近い振動素子はオン状態のままにしてもよい。例えば、所定面積以下で接触した場所を鼻と判定することができる。
 また、タッチパネル102の検出領域は、右半分、左半分の他に、右側の上半分、下半分のように、さらに細かく設定可能であってもよい。
 事前処理3によれば、ユーザーがファインダー104を覗き込みながらタッチパッドAF機能を使用しているときに、鼻先が無意識にタッチパネル102に当たっている場合に、不要な振動を鼻先に与えないようにすることができる。
《事前処理4》
 ステップS305の事前処理4では、タッチパネル102を操作しているユーザーの指がタッチパネル102の検出領域から外れようとしているかどうかを判定する。ユーザーが、ファインダー104を覗きながらタッチパッドAF機能を使用しているとき、指がタッチパネル102の検出領域から外れてしまうと、一旦ファインダーから目を離して確認しなければならず、その間に貴重なシャッターチャンスを逃してしまうことが懸念される。事前処理4は、指がタッチパネル102の検出領域から外れてしまうことを防ぐための処理である。
 事前処理4では、指がタッチパネル102の検出領域外に出ようとしているかどうかを判定する。そして、タッチパネル102の検出領域から指が外れようとしていると判定したときには、振動部103の振動(アラーム振動)によりユーザーに警告を行って、検出領域からの指のはみ出しを防止する。
 指がタッチパネル102の検出領域外に出ようとしているかどうかを判定するさまざまの方法が考えられる。図8には、指がタッチパネル102の検出領域外に出ようとしているかどうかを判定する方法の一例を図解している。タッチパネル102上で設定された検出領域801の境界から所定の距離までの(図中、グレーで示す)領域を指定領域として外周指定範囲802と定義する。そして、タッチパネル102上の指先のタッチ位置を所定周期で検出するものとし、今回のタッチ検出座標が既に外周指定範囲802内に入り、前回のタッチ検出座標よりもさらに検出領域の境界に接近しているときに、主制御部204は、指のタッチ位置がタッチパネル102の検出領域外に出ようとしていると判定する。
 図9には、事前処理4の処理手順をフローチャートの形式で示している。事前処理4は、主制御部204の統括的な制御下で実行されるものとする。
 但し、図9に示す処理手順では、図10に示すような状況を想定している。図10中、参照番号1001は、タッチパネル102上で設定された検出領域である。説明の便宜上、検出領域1001は四角形とし、検出領域1001の境界を構成する4辺をそれぞれa1~a4とする。また、参照番号1002、1003はそれぞれ、検出領域1001内で1回目に指先のタッチを検出した位置、2回目に指先のタッチを検出した位置である。そして、検出位置1002から検出領域1001の最寄りの境界a2までの距離をd1とし、検出位置1003から検出領域1001の最寄りの境界a2までの距離をd2とする。
 まず、主制御部204は、検出領域1001内で1回目の指先のタッチ位置1002の座標の検出を行う(ステップS901)。そして、このタッチ位置1002から検出領域1001の最寄りの境界a2までの距離d1を計算する(ステップS902)。
 次いで、主制御部204は、検出領域1001内で2回目の指先のタッチ位置1003の座標の検出を行う(ステップS903)。そして、このタッチ位置1003から検出領域1001の最寄りの境界a2までの距離d2を計算する(ステップS904)。
 そして、主制御部204は、事前処理4の条件1に適合するかどうかをチェックする(ステップS905)。条件1は、今回のタッチ検出座標が前回よりもさらに検出領域1001の境界に接近していることと(すなわち、d1-d2>0)、今回のタッチ検出座標が外周指定範囲802内に入っていることの2つの条件からなる。ここで、検出領域1001の境界からの距離がD(例えば、D=0.5ミリメートル)未満の領域を外周指定範囲と定義すると、2つ目の条件は、0<d2<D、と表すことができる。
 事前処理4の条件1に適合する場合には(ステップS905のYes)、主制御部204は、事前処理4の条件2に適合するかどうかをさらにチェックする(ステップS906)。事前処理4の条件2は、具体的には、ステップS903で検出した2回目のタッチが誤接触でないことである。例えば、特定時間Δt(例えば、Δt=20ミリ秒)で、タッチ座標が検出領域1001の境界に近づいた距離が所定値E(例えば、E=20ミリメートル)を超える場合には(すなわち、d1-d2>E≫0)、タッチはユーザーが意図しない誤接触であると判定する。そして、2回目のタッチが誤接触でない、すなわち事前処理4の条件2に適合する場合には(ステップS906のYes)、振動部103の振動(アラーム振動)によりユーザーに警告を行って(ステップS907)、検出領域1001からの指のはみ出しを防止する。
 なお、ステップS907では、主制御部204は、アラーム振動の代わり、若しくはアラーム振動と同時に、振動以外の任意の手段を利用して、ユーザーへの警告を行うようにしてもよい。例えば、表示部101の表示画面にタッチパネル102の検出領域から指がはみ出そうとしていることを通知するための情報表示を実行するようにしてもよい。この情報表示は、アイコンや文字の表示を含むものとする。アイコンや文字の表示は、ユーザーがタッチパネルの検出領域から指がはみ出そうとしていることを通知するものであれば、特に限定されないが、警告を示すアイコン若しくは文字の表示や表示部101の外枠を強調表示するなど、多様に想定される。また、タッチの検出位置と検出領域の境界に基づいて、検出領域外から遠ざかるように通知するような矢印を模したアイコンを表示してもよい。また、撮像装置100の本体背面の表示部101ではなく、ファインダー104(但し、電子式ファインダーの場合)の画面を利用して、ユーザーへの警告のための情報表示を行うようにしてもよい。
 他方、事前処理4の条件1に適合しない場合には(ステップS905のNo)、次の機能選択の処理(ステップS306)に進む。例えば、d1-d2<0又はD<d2の場合には、指がタッチパネル102の検出領域外に出ようとしてはいないと判定することができるので、振動による通知を行わない。また、d2<0の場合には、2回目に検出したタッチ座標が検出領域外、若しくは現在のタッチ座標位置が検出領域外であり、タッチパッドAF機能やタッチAF機能などを利用したタッチパネル102への通常のタッチ操作とはみなされないので、振動による通知を行わない。
 また、事前処理4の条件1には適合するが(ステップS905のYes)、事前処理4の条件2に適合しない場合(ステップS906のNo)には、次の機能選択の処理(ステップS306)に進む。特定時間Δt以内でのタッチ座標位置が移動した距離が所定値Eを超える場合(d1-d2>E)2回目のタッチが誤接触と判断することができるので、振動による通知を行わない。
 なお、図8や図10では、便宜上、四角形をした検出領域を描いたが、タッチパネル102上に設定できる検出領域の形状は四角形には限定されない。例えば、図11中、参照番号1101で示す三角形、参照番号1102で示す五角形、参照番号1103で示す六角形、あるいは参照番号1104で示す十角形をした検出領域を設定し、あるいは図示しないその他の多角形をした検出領域を設定することもできる。もちろん、多角形以外の任意の形状の検出領域を設定することもできる。
 また、タッチパネル102上の検出領域の設定は、撮像装置100の初期設定時を始め、撮像装置100の使用を開始した後の任意の時点で行うことができる。例えば、撮像装置100であらかじめ用意されている数種類の検出領域の中から所望のものをユーザーが選択できるようにしてもよい。
 あるいは、ユーザーが自由に検出領域を設定できるようにしてもよい。例えば、検出領域の頂点をユーザー自身が指定する方法や(例えば四角形であれば、4つの頂点を指定する)、検出領域の境界をユーザー自身が指定する方法(例えば四角形であれば、4辺を指定する)、などを採用することができる。
 なお、いずれの形状の検出領域を利用するにせよ、ユーザーの鼻先が接触しそうな場所を避けてタッチパネル102の右半分に所望形状の検出領域を設定したり、アイセンサーがファインダー104への物体の接近を検出したときに、タッチパネル102上で所定面積以下の接触領域702を避けてタッチパネル102の右半分に所望形状の検出領域を設定したりすることが望ましい。
《機能1》
 ステップS306で選択可能な機能1は、振動により合焦を通知する機能である。合焦したことを「ピッ」と音を鳴らして通知するデジタルカメラなどはよく知られているが、音を出せない静寂な撮影環境では音の出力をオフにしている場合があり、騒音環境下では合焦の通知音をユーザーが聴き取り難い場合がある。機能1によれば、音による通知の代替手段として、ユーザーに対して振動により合焦を通知することができる。付言すれば、フォーカス枠の色を変えることで合焦したことを提示することもできるが、タッチパネル102を操作する指でフォーカス枠が隠れてしまうことも多く、フォーカス枠の色の変化を見落としてしまうおそれがある。振動によれば、指先の位置に拘わらず、ユーザーに合焦を通知することができる。
 図12には、機能1の、振動により合焦を通知するための処理手順をフローチャートの形式で示している。図示の処理手順は、主制御部204の統括的な制御下で実行されるものとする。
 例えばタッチパネル102上でフォーカス枠を動かす度に(ステップS1201)、撮像部201において、ピントのズレ量を検出する(ステップS1202)。
 そして、主制御部204は、ピントのズレ量が当該機能1の条件1に合致するかどうかをチェックする(ステップS1203)。ここで言う条件1とは、具体的には、ピントのズレ量が0であること、すなわち合焦したことである。
 ピントのズレ量が0である場合には(ステップS1203のYes)、主制御部204は、振動部103を一定時間振動させて(ステップS1204)、撮像部201が合焦したことをユーザーに通知する。
 他方、ピントのズレ量が0でない場合には(ステップS1203のNo)、主制御部204は、振動部103を、ピントのズレ量に応じた振動パターンで一定時間振動させて(ステップS1205)、合焦度合いをユーザーに通知する。
 ステップS1205では、例えば、ユーザーがタッチしたフォーカス枠が合焦に近くなるほど、振動部103の振動周期、振幅、回数、時間を変えることにより(例えば、振動の周期を短くする)、ユーザーに合焦度合いを通知する。ユーザーが指でタッチした領域で合焦しないこともあり、ユーザーがそのことに気づかずにシャッターを押してしまうこともある。また、ユーザーがタッチした領域は指で隠れており、そこから少し離れた領域で合焦したかったということもある。振動により合焦度合いを提示するようにすれば、これらの問題を解決することができる。
 あるいは、ステップS1205では、ユーザーがあらかじめ指定した特定物体(例えば、瞳や、事前に登録した顔)に対して合焦に近くなるほど、振動部103の振動周期、振幅、回数、時間を変えることにより(例えば、振動の周期を短くする)、ユーザーに合焦度合いを通知する。
 機能1によれば、振動パターンにより合焦度合いをユーザーに分かり易く通知することができる。また、タッチパネル102をタッチしただけでは、どこが合焦したかが分かり難いが、機能1によればこのような課題も解決することができる。
《機能2》
 ステップS306で選択可能な機能2は、被写体間距離を振動により通知する機能である。機能2によれば、例えばタッチパッドAF機能を使用してフォーカス枠を移動させた際に、そのフォーカスしている領域の被写体と撮像装置100との距離を、振動によってユーザーに通知することができる。
 図13には、機能2の、被写体間距離を振動により通知する処理手順の一例をフローチャートの形式で示している。図示の処理手順は、主制御部204の統括的な制御下で実行されるものとする。
 例えばタッチパネル102上でフォーカス枠を動かす度に(ステップS1301)、撮像部201において、ピントのズレ量を検出する(ステップS1302)。
 そして、主制御部204は、振動部103を、検出したピントのズレ量に応じた振動パターンで一定時間振動させて(ステップS1303)、合焦度合いをユーザーに通知する。
 ステップS1303では、例えば、ユーザーがタッチしたフォーカス枠が合焦に近くなるほど、振動部103の振動周期、振幅、回数、時間を変えることにより(例えば、振動の周期を短くする)、ユーザーに合焦度合いを通知する。
 また、図14には、機能2の、振動により被写体間距離を通知する処理手順の他の例をフローチャートの形式で示している。図示の処理手順は、主制御部204の統括的な制御下で実行されるものとする。
 まず、ユーザーが撮影したい距離にある物体に合焦させる(ステップS1401)。
 次いで、ユーザーは、例えばタッチパネル102を利用して、撮影したい被写体を選択する(ステップS1402)。
 そして、撮像部201において、選択した被写体のピントのズレ量を検出する(ステップS1403)。主制御部204は、選択した被写体の、撮影したい距離からのピントズレ量に応じた振動パターンで、振動部103を一定時間振動させて(ステップS1404)、合焦度合いをユーザーに通知する。
 ステップS1404では、例えば、ユーザーがタッチしたフォーカス枠が合焦に近くなるほど、振動部103の振動周期、振幅、回数、時間を変えることにより(例えば、振動の周期を短くする)、ユーザーに合焦度合いを通知する。
 機能2は、例えば電車などの動的な被写体を撮影する際に有効である。
 図13に示した処理手順に従って機能2を実現する場合には、ユーザーは、動的な被写体がどの程度離れているかといった、画面からは判別し難い状況を振動パターンにより把握することができる。
 また、図14に示した処理手順に従って機能2を実現する場合には、所望する撮影距離で動的な被写体を撮影したい場合に、ユーザーは、被写体及び撮影距離を思い通りに設定することができ、且つ、振動パターンにより最適な撮影タイミングを知ることができる。
《機能3》
 ステップS306で選択可能な機能3は、特定物体を認識したことを振動により通知する機能である。撮影の際に、注目している被写体以外にも重要な被写体が画角に入ってくることがある(例えば、ある珍しい野鳥を撮影しようとしているときに、同じ種類の別の鳥が画角に入ってくる)。また、注目している被写体位に動きがなく、動いた瞬間に撮影したいこともある。機能3によれば、このようなタイミングを振動により通知することができるので、ユーザーはシャッターチャンスを逃さずに済む。
 図15には、機能3の、特定物体を認識したことを振動により通知するための処理手順の一例をフローチャートの形式で示している。図示の処理手順は、主制御部204の統括的な制御下で実行されるものとする。
 まず、ユーザーが、撮影したい被写体を特定物体として設定する(ステップS1501)。
 特定物体を設定する方法はさまざまである。例えば、顔などあらかじめ登録した物体であってもよい。また、撮影画面内で任意に設定可能な領域を移動する物体や、任意に設定可能な色が含まれる物体などを特定物体に設定することもできる。あるいは、タッチパネル102上でフォーカスした(例えば、指先のタッチにより指定した)部分を中心とする任意に設定可能な領域を特定物体に設定することもできる。
 次いで、主制御部204は、機能3の条件1に適合するかどうかをチェックする(ステップS1502)。条件1とは、具体的には、ステップS1501で設定した特定物体が撮影画面内に入ってきたことである。
 そして、特定物体が撮影画面内に入ってきたときには(ステップS1502のYes)、主制御部204は、振動部103を一定時間振動させて(ステップS1503)、撮影画面内に特定物体が入ってきたことをユーザーに通知する。振動部103の振動周期、振幅、回数、時間を変えることにより(例えば、振動の周期を短くする)、特定物体が撮影画面内に入ってきたことをユーザーに通知する。
 例えば、撮影画面内に突然入ってくることが想定される被写体を撮影したい場合には、図15に示した処理手順に従って機能3を実現することが有効である。例えば、野鳥撮影の際に、ステップS1501で鳥の情報を撮像装置100に設定しておけば、所望の野鳥が飛んで来た際のシャッターチャンスを逃すことが少なくなる。
 また、図16には、機能3の、特定物体を認識したことを振動により通知するための処理手順の他の例をフローチャートの形式で示している。図示の処理手順は、主制御部204の統括的な制御下で実行されるものとする。
 まず、ユーザーが、撮影したい被写体を特定物体として設定する(ステップS1601)。特定物体を設定する方法はさまざまである。上記と同様に、顔などのあらかじめ登録した物体や、撮影画面内で任意に設定した領域、タッチパネル102上でフォーカスした部分などを特定物体として設定することができる。
 次いで、主制御部204は、機能3の条件2に適合するかどうかをチェックする(ステップS1602)。条件2とは、具体的には、ステップS1601で設定した特定物体が動いたことである。
 そして、特定物体が動いたときには(ステップS1602のYes)、主制御部204は、振動部103を一定時間振動させて(ステップS1603)、特定物体が動いたことをユーザーに通知する。振動部103の振動周期、振幅、回数、時間を変えることにより(例えば、振動の周期を短くする)、特定物体が動いたことをユーザーに通知する。
 例えば、静止状態が続くが急に動き出すことが想定される被写体を撮影したい場合には、図16に示した処理手順に従って機能3を実現することが有効である。例えば、野鳥撮影の際に、ステップS1601で鳥の情報を撮像装置100に設定しておけば、水面に浮かんで静止している野鳥が急に羽ばたいた際のシャッターチャンスを逃すことが少なくなる。
《機能4》
 ステップS306で選択可能な機能4は、振動によりユーザーの指を被写体へ誘導する機能である。機能4は、例えば、ユーザーがファインダー104を覗きながらタッチパッドAF機能を使用する場合や、タッチパネル102上でオートフォーカス及び撮影をワンタッチで指示するタッチAF機能を使用する場合などに適用することができる。
 機能4は、振動部103が方向などの2次元的な情報を提示できること、すなわちタッチパネル102を操作するユーザーの指先に方向感を与える機能を備えていることを前提とする。
 図17には、指先への振動に方向感を与えるための振動部103の振動素子の構成例を示している。図示の例では、タッチパネル102の裏面に、振動部103を構成する2つの振動素子1701及び1702が、互いの振動方向が直交するように配置されている。振動制御部203は、主制御部204からの指示に基づいて、各振動素子1701及び1702の振動を制御する。そして、各振動素子1701及び1702の振動パターン(振動周期、振幅、回数、時間)の組み合わせにより、すなわちタッチパネル102を操作するユーザーの指先に方向感を与えることができる。また、このような方向提示機能を能動的に利用して、タッチパネル102を操作するユーザーの指の位置をカメラのシステムが推奨するフォーカス枠位置へ誘導することができる。
 なお、図17に示す振動部103の構成は一例に過ぎない。また、振動部103を構成する振動素子の個数は2個に限定されず、3個以上の振動素子をタッチパネル102の裏面に配置してもよい。
 図18には、機能4の、振動によりユーザーの指を被写体へ誘導するための処理手順をフローチャートの形式で示している。図示の処理手順は、主制御部204の統括的な制御下で実行されるものとする。
 例えばタッチパネル102上でフォーカス枠を動かす度に(ステップS1801)、撮像部201において、ピントのズレ量を検出する(ステップS1802)。
 そして、主制御部204は、タッチパネル102上のタッチ検出位置が当該機能4の条件1に合致するかどうかをチェックする(ステップS1803)。ここで言う条件1とは、具体的には、タッチパネル102上のタッチ検出位置がカメラのシステムが推奨するフォーカス枠位置と一致しないことである。
 タッチパネル102上のタッチ検出位置がカメラのシステムが推奨するフォーカス枠位置と一致しないときには(ステップS1803のYes)、主制御部204は、振動部103を振動させて、ユーザーの指の位置をカメラのシステムが推奨するフォーカス枠位置の方向へと誘導する(ステップS1804)。
 なお、ステップS1804において振動部103を振動させる際に、方向を提示することに加えて、振動パターンを変えていくようにしてもよい。例えば、タッチパネル102上のタッチ検出位置がカメラのシステムが推奨するフォーカス枠位置近くなるほど、振動部103の振動周期、振幅、回数、時間を変えることにより(例えば、振動の周期を短くする)、指が推奨位置に近づいたことをユーザーに通知するようにしてもよい。
 また、カメラのシステムが推奨するフォーカス枠位置の決め方は任意である。例えば、顔などのあらかじめ登録した物体をフォーカス枠位置として推奨してもよい。あるいは、ユーザーのこれまでの撮影履歴などに基づいて特定された物体をフォーカス枠位置として推奨してもよい。
 また、機能4として、上記のような振動によりユーザーの指を被写体へ誘導することに加えて、映像提示によりカメラのシステムが推奨するフォーカス枠位置へ誘導するようにしてもよい。
 図19には、映像提示によりカメラのシステムが推奨するフォーカス枠位置へ誘導する画面の構成例を示している。同図において、参照番号1901は、現在指先のタッチにより設定されているフォーカス枠位置である。また、参照番号1902は、カメラのシステムが推奨するフォーカス枠位置への移動方向を示す矢印である。
 例えば、ユーザーがファインダー104を覗きながらタッチパッドAF機能を使用する場合には、図19に示すような映像提示をユーザーが見る機会は少ない。これに対し、ユーザーが表示部101の表示画面を観察しながらタッチAF機能を使用する場合には、振動による方向提示とともに映像でも方向を提示することができるので極めて有効である。逆に言えば、ユーザーがファインダー104を覗きながらタッチパッドAF機能を使用する場合には、映像による提示は意味がほとんどなく、振動によりユーザーの指を被写体へ誘導する機能4は極めて有効である。
 なお、図19に示したような画面表示を利用したユーザーへの通知は、撮像装置100本体の背面の表示部101ではなく(若しくは、表示部と併せて)、ファインダー104(但し、電子式ファインダーの場合)の画面上で行うようにしてもよい。
 上述したように、本実施形態に係る撮像装置100によれば、振動部103がタッチパネル102に与える振動を利用して、ユーザーに有用な情報を提示することができる。本実施形態に係る撮像装置100の主な利点を以下に挙げておく。
(1)撮像装置100は、ユーザーがファインダー104を覗きながら撮影を行うとき、タッチパッドAF機能を使用してフォーカス枠を移動させている際に、無意識に指先がタッチパネル102の検出領域の外に外れる前に、振動でユーザーに気づかせることができる。したがって、ユーザーが大切なシャッターチャンスを逃すのを防ぐことができる。
(2)タッチパネル102上の検出領域をユーザーが自在に設定し、変更することが可能である。例えば、ユーザーがファインダー104を覗きながら撮影を行うときに鼻先が接触しそうな場所を検出領域から外すことにより、鼻先の接触の誤検出又は誤認識を防ぐことができる。
(3)通知音を出せない静寂な撮影環境や、騒音により通知音を聴きとれない撮影環境では、撮像装置100は、通知音の代替手段として、振動により合焦などの通知を行うことができる。
(4)ユーザーが表示部101の表示画面を観察しながらタッチAF機能を使用する場合などには、指でフォーカス枠が隠れて目視により合焦状態を確認できないが、撮像装置100からの振動による通知に基づいて合焦状態を認識できるとともに、位置の微調整を行うこともできる。
(5)撮像装置100は被写体からの距離を振動により通知する機能を有するので、ユーザーは、撮影画面だけでは距離を判別し難い状況でも被写体からの距離の変化を振動によって判断することができ、動きのある被写体などを適切なタイミングで撮影することができる。
(6)撮像装置100は、特定物体を事前に指定して、その物体が撮影画面内に突然入ってきたときや、その物体の静止状態が続くが急に動き出したときに、振動により通知することができる。ユーザーは、このような機能を利用して、絶好のシャッターチャンスを逃す回数を減らすことができる。
(7)撮像装置100は、指先への振動に方向感を与える機能を有する。この機能を使って、ユーザーの指先をカメラのシステムが推奨するフォーカス枠に誘導させるといった、新しい撮影補助機能を実現することができる。
 なお、本実施形態の撮像装置100の説明として事前処理1から事前処理4の一連の事前処理と各機能1から機能4の構成について説明したが、撮像装置100は、例えば事前処理4のみを構成するなど、事前処理1から事前処理4のうち一部の事前処理のみを有するものであってもよい。また、撮像装置は、例えば機能1のみを構成するなど、機能1から機能4のうち一部の機能のみを有するものであってもよい。
 以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
 本明細書では、図1に示したような、ファインダーとタッチパネルを備えた撮像装置100に本明細書で開示する技術を適用した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。撮影機能及びタッチパネルを装備するスマートフォンなどさまざまなタイプの情報機器にも同様に本明細書で開示する技術を適用することができる。
 要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
 なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)検出領域に対するタッチ位置を検出する検出部と、
 前記検出部が検出する第1のタッチ位置と、前記第1のタッチ位置の後に検出する第2のタッチ位置との関係に基づいて通知を制御する制御部と、
を具備する撮像装置。
(2)前記撮像装置に振動を与える振動部をさらに備え、
 前記制御部は、前記振動による通知を制御する、
上記(1)に記載の撮像装置。
(3)前記制御部は、表示部の画面上での通知を制御する、
上記(1)又は(2)のいずれかに記載の撮像装置。
(4)前記制御部は、前記検出領域と前記第1のタッチ位置の第1の距離と、前記検出領域と前記第2のタッチ位置の第2の距離との関係に基づいて、通知を制御する、
上記(1)乃至(3)のいずれかに記載の撮像装置。
(5)前記制御部は、前記検出領域の境界から所定の距離の指定領域を設定し、前記第2のタッチ位置が前記検出領域の境界と前記指定領域の間に検出された場合に通知を行うように制御する、
上記(1)乃至(4)のいずれかに記載の撮像装置。
(6)前記制御部は、前記第2のタッチ位置が前記検出領域外である場合には、前記振動による通知を行わないように制御する、
上記(1)乃至(5)のいずれかに記載の撮像装置。
(7)前記制御部は、前記第1のタッチ位置を検出した時間と、前記第2のタッチ位置を検出した時間が所定の時間内であり、且つ前記第1の距離と前記第2の距離の差が所定値を超える場合には、通知を行わないように制御する、
上記(4)乃至(6)のいずれかに記載の撮像装置。
(8)撮像画像を表示する表示部をさらに備え、
 前記検出領域は、前記表示部内に設定される領域であり、撮像画像の合焦枠を設定するための領域である、
上記(1)乃至(7)のいずれかに記載の撮像装置。
(9)前記制御部は、ユーザーにより指定された前記検出領域を設定する、
上記(8)に記載の撮像装置。
(10)ファインダーと、
 前記ファインダーへの接近を検出するアイセンサーと、
をさらに備え、
 前記制御部は、前記アイセンサーが接近を検知し、且つ、前記検出部が所定面積以下となるタッチを検出したときに、前記所定面積以下となるタッチを検出した場所を含まない前記検出領域を設定する、
上記(8)又は(9)のいずれかに記載の撮像装置。
(11)前記制御部は、前記検出領域外では振動を発生しないように前記振動部を制御する、
上記(2)に記載の撮像装置。
(12)前記制御部は、前記撮像装置の撮影直前の状態では、前記振動部が振動を発生しないように制御する、
上記(2)乃至(11)のいずれかに記載の撮像装置。
(13)前記制御部は、前記検出部が所定面積以上のタッチを検出したときに、前記振動部が振動を発生しないように制御する、
上記(2)乃至(12)のいずれかに記載の撮像装置。
(13-1)前記制御部は、前記検出部が第2の所定面積以上となる接触を検出したときに、前記振動部が振動を発生しないように制御する、
上記(13)に記載の撮像装置。
(13-2)前記制御部は、前記検出部が指定本数以上の指のタッチを検出したときに、前記振動部が振動を発生しないように制御する、
上記(13)に記載の撮像装置。
(14)前記制御部は、前記撮像装置の合焦状態に応じて、前記振動部に発生させる振動の条件を制御する、
上記(2)乃至(13)のいずれかに記載の撮像装置。
(14-1)前記制御部は、前記撮像装置の合焦状態に応じて、前記振動部に発生させる振動パターンを制御する、
上記(14)に記載の撮像装置。
(15)前記制御部は、前記撮像装置と被写体との距離に応じて、前記振動部に発生させる振動の条件を制御する、
上記(2)乃至(14)のいずれかに記載の撮像装置。
(15-1)前記制御部は、前記距離に応じて、前記振動部に発生させる振動パターンを制御する、
上記(15)に記載の撮像装置。
(16)前記制御部は、前記合焦したい位置と被写体との距離に応じて、前記振動部に発生させる振動の条件を制御する、
上記(2)乃至(15)のいずれかに記載の撮像装置。
(16-1)前記制御部は、前記距離に応じて、前記振動部に発生させる振動パターンを制御する、
上記(16)に記載の撮像装置。
(17)前記制御部は、特定物体の認識結果に応じて、前記振動部に発生させる振動の条件を制御する、
上記(2)乃至(16)のいずれかに記載の撮像装置。
(17-1)前記制御部は、前記認識結果に応じて、前記振動部に発生させる振動パターンを制御する、
上記(17)に記載の撮像装置。
(18)前記制御部は、前記振動部の振動により特定の合焦枠の位置への方向を提示する、
上記(2)乃至(17)のいずれかに記載の撮像装置。
(19)前記振動部は、互いの振動方向が直交するように配置された2つの振動素子を含む複数の振動素子を備える、
上記(18)に記載の撮像装置。
(20)表示部及び前記表示部の画面に重畳するタッチパネルを備えた撮像装置における通知制御方法であって、
 前記表示部に設定される検出領域に対するタッチ位置を検出する検出ステップと、
 前記検出ステップにおいて検出されたタッチ位置の変化に基づいて通知を制御する制御ステップと、
を有する通知制御方法。
(21)検出領域に対するタッチ位置を検出する検出部と、
 前記検出部が検出する第1のタッチ位置と、前記第1のタッチ位置の後に検出する第2のタッチ位置との関係に基づいて通知を制御する制御部と、
を具備する情報処理装置。
 100…撮像装置
 101…表示部、102…タッチパネル
 103…振動部、104…ファインダー
 201…撮像部、202…パネル制御部
 203…振動制御部、204…主制御部

Claims (20)

  1.  検出領域に対するタッチ位置を検出する検出部と、
     前記検出部が検出する第1のタッチ位置と、前記第1のタッチ位置の後に検出する第2のタッチ位置との関係に基づいて通知を制御する制御部と、
    を具備する撮像装置。
  2.  前記撮像装置に振動を与える振動部をさらに備え、
     前記制御部は、前記振動による通知を制御する、
    請求項1に記載の撮像装置。
  3.  前記制御部は、表示部の画面上での通知を制御する、
    請求項1に記載の撮像装置。
  4.  前記制御部は、前記検出領域と前記第1のタッチ位置の第1の距離と、前記検出領域と前記第2のタッチ位置の第2の距離との関係に基づいて、通知を制御する、
    請求項1に記載の撮像装置。
  5.  前記制御部は、前記検出領域の境界から所定の距離の指定領域を設定し、前記第2のタッチ位置が前記検出領域の境界と前記指定領域の間に検出された場合に通知を行うように制御する、
    請求項1に記載の撮像装置。
  6.  前記制御部は、前記第2のタッチ位置が前記検出領域外である場合には、前記振動による通知を行わないように制御する、
    請求項1に記載の撮像装置。
  7.  前記制御部は、前記第1のタッチ位置を検出した時間と、前記第2のタッチ位置を検出した時間が所定の時間内であり、且つ前記第1の距離と前記第2の距離の差が所定値を超える場合には、通知を行わないように制御する、
    請求項4に記載の撮像装置。
  8.  撮像画像を表示する表示部をさらに備え、
     前記検出領域は、前記表示部内に設定される領域であり、撮像画像の合焦枠を設定するための領域である、
    請求項1に記載の撮像装置。
  9.  前記制御部は、ユーザーにより指定された前記検出領域を設定する、
    請求項8に記載の撮像装置。
  10.  ファインダーと、
     前記ファインダーへの接近を検出するアイセンサーと、
    をさらに備え、
     前記制御部は、前記アイセンサーが接近を検知し、且つ、前記検出部が所定面積以下となるタッチを検出したときに、前記所定面積以下となるタッチを検出した場所を含まない前記検出領域を設定する、
    請求項8に記載の撮像装置。
  11.  前記制御部は、前記検出領域外では振動を発生しないように前記振動部を制御する、
    請求項2に記載の撮像装置。
  12.  前記制御部は、前記撮像装置の撮影直前の状態では、前記振動部が振動を発生しないように制御する、
    請求項2に記載の撮像装置。
  13.  前記制御部は、前記検出部が所定面積以上のタッチを検出したときに、前記振動部が振動を発生しないように制御する、
    請求項2に記載の撮像装置。
  14.  前記制御部は、前記撮像装置の合焦状態に応じて、前記振動部に発生させる振動の条件を制御する、
    請求項2に記載の撮像装置。
  15.  前記制御部は、前記撮像装置と被写体との距離に応じて、前記振動部に発生させる振動の条件を制御する、
    請求項2に記載の撮像装置。
  16.  前記制御部は、前記合焦したい位置と被写体との距離に応じて、前記振動部に発生させる振動の条件を制御する、
    請求項2に記載の撮像装置。
  17.  前記制御部は、特定物体の認識結果に応じて、前記振動部に発生させる振動の条件を制御する、
    請求項2に記載の撮像装置。
  18.  前記制御部は、前記振動部の振動により特定の合焦枠の位置への方向を提示する、
    請求項2に記載の撮像装置。
  19.  表示部及び前記表示部の画面に重畳するタッチパネルを備えた撮像装置における通知制御方法であって、
     前記表示部に設定される検出領域に対するタッチ位置を検出する検出ステップと、
     前記検出ステップにおいて検出されたタッチ位置の変化に基づいて通知を制御する制御ステップと、
    を有する通知制御方法。
  20.  検出領域に対するタッチ位置を検出する検出部と、
     前記検出部が検出する第1のタッチ位置と、前記第1のタッチ位置の後に検出する第2のタッチ位置との関係に基づいて通知を制御する制御部と、
    を具備する情報処理装置。
PCT/JP2019/008565 2018-03-28 2019-03-05 撮像装置及び撮像装置における通知制御方法、並びに情報処理装置 WO2019188035A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/982,583 US20210306569A1 (en) 2018-03-28 2019-03-05 Imaging apparatus, notification control method in imaging apparatus, and information processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-062058 2018-03-28
JP2018062058 2018-03-28

Publications (1)

Publication Number Publication Date
WO2019188035A1 true WO2019188035A1 (ja) 2019-10-03

Family

ID=68058902

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/008565 WO2019188035A1 (ja) 2018-03-28 2019-03-05 撮像装置及び撮像装置における通知制御方法、並びに情報処理装置

Country Status (2)

Country Link
US (1) US20210306569A1 (ja)
WO (1) WO2019188035A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7383552B2 (ja) 2020-03-31 2023-11-20 キヤノン株式会社 電子機器およびその制御方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232741A (ja) * 2010-04-08 2011-11-17 Canon Inc ファインダを通して観察される被写体を撮影する撮像装置、その制御方法および記憶媒体
JP2012147100A (ja) * 2011-01-07 2012-08-02 Nikon Corp 撮像装置
WO2014157270A1 (ja) * 2013-03-29 2014-10-02 富士フイルム株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
JP2015065616A (ja) * 2013-09-26 2015-04-09 京セラ株式会社 撮像装置、触覚情報出力プログラムおよび触覚情報出力方法
JP2015201868A (ja) * 2015-06-02 2015-11-12 Kddi株式会社 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
JP2017169215A (ja) * 2017-04-28 2017-09-21 オリンパス株式会社 撮像装置及び対象物確認方法
WO2018021165A1 (ja) * 2016-07-23 2018-02-01 キヤノン株式会社 電子機器およびその制御方法
WO2018042824A1 (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 撮像制御装置、表示制御装置及びそれらの制御方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232741A (ja) * 2010-04-08 2011-11-17 Canon Inc ファインダを通して観察される被写体を撮影する撮像装置、その制御方法および記憶媒体
JP2012147100A (ja) * 2011-01-07 2012-08-02 Nikon Corp 撮像装置
WO2014157270A1 (ja) * 2013-03-29 2014-10-02 富士フイルム株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
JP2015065616A (ja) * 2013-09-26 2015-04-09 京セラ株式会社 撮像装置、触覚情報出力プログラムおよび触覚情報出力方法
JP2015201868A (ja) * 2015-06-02 2015-11-12 Kddi株式会社 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
WO2018021165A1 (ja) * 2016-07-23 2018-02-01 キヤノン株式会社 電子機器およびその制御方法
WO2018042824A1 (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 撮像制御装置、表示制御装置及びそれらの制御方法
JP2017169215A (ja) * 2017-04-28 2017-09-21 オリンパス株式会社 撮像装置及び対象物確認方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7383552B2 (ja) 2020-03-31 2023-11-20 キヤノン株式会社 電子機器およびその制御方法

Also Published As

Publication number Publication date
US20210306569A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
US20060044399A1 (en) Control system for an image capture device
JP2008245055A (ja) 画像表示装置、撮影装置および画像表示方法
CN108377329B (zh) 摄像装置及其控制方法
JP4449082B2 (ja) 電子カメラ
CN109643208B (zh) 显示装置、存储介质、显示方法及控制装置
JP6339887B2 (ja) 画像表示装置
JP4203863B2 (ja) 電子カメラ
WO2017135276A1 (ja) 制御装置、制御方法および制御プログラム
US10397482B2 (en) Imaging control apparatus and method for controlling the same
JP5885395B2 (ja) 撮影機器及び画像データの記録方法
WO2020255675A1 (ja) 電子機器およびその制御方法
US20220321770A1 (en) Electronic device, control method for electronic device, and non-transitory computer readable storage medium
RU2635873C2 (ru) Способ и устройство для отображения информации кадрирования
JP7418104B2 (ja) 画像処理装置及び画像処理装置の制御方法
WO2019188035A1 (ja) 撮像装置及び撮像装置における通知制御方法、並びに情報処理装置
JP2018152787A (ja) 撮像装置、外部装置、撮像システム、撮像方法、操作方法およびプログラム
JP2020204915A (ja) 電子機器およびその制御方法
JP2013131906A (ja) デジタルカメラ
CN113364945A (zh) 电子装置、控制方法和计算机可读介质
US11526264B2 (en) Electronic apparatus for enlarging or reducing display object, method of controlling electronic apparatus, and non-transitory computer readable medium
CN113726991A (zh) 电子装置、电子装置的控制方法和计算机可读存储介质
JP2012027347A (ja) 撮像装置
US20210375002A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US20240073511A1 (en) Electronic apparatus, control method for electronic apparatus and storage medium
WO2023007904A1 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19777991

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19777991

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP