CN113949809A - 电子设备及其控制方法 - Google Patents

电子设备及其控制方法 Download PDF

Info

Publication number
CN113949809A
CN113949809A CN202110801143.2A CN202110801143A CN113949809A CN 113949809 A CN113949809 A CN 113949809A CN 202110801143 A CN202110801143 A CN 202110801143A CN 113949809 A CN113949809 A CN 113949809A
Authority
CN
China
Prior art keywords
input
unit
electronic device
movement
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110801143.2A
Other languages
English (en)
Inventor
吉田崇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN113949809A publication Critical patent/CN113949809A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

本发明涉及一种电子设备及其控制方法。该设备接收向显示单元的位置的输入,并且接收用于移动与显示单元上的输入位置相对应的选择位置的移动指示。该设备进行控制,使得在包括输入位置的被摄体区域具有第一大小的情况下,根据第一操作量的移动操作来移动选择位置,并且在被摄体区域具有比第一大小小的第二大小的情况下,根据第一操作量的移动操作来使选择位置移动比第一移动量小的第二移动量。

Description

电子设备及其控制方法
技术领域
本发明涉及设备及其控制方法。
背景技术
已知有如下的技术,该技术检测用户的视线位置,并且基于所检测到的视线位置来选择图像上的测量区域。在日本特开2018-74200中公开了:基于视线位置来选择测量区域;在所选择的测量区域在预定范围内的情况下,经由对操作构件的操作来以第一速度移动该测量区域;并且在其它情况下,以更快的第二速度移动该测量区域。
根据日本特开2018-74200中所公开的技术,当使用操作构件进行操作时,测量区域的移动速度根据基于视线位置所选择的测量区域而改变。因此,在基于最初的视线位置所选择的区域在预定范围外的情况下,存在如下的可能性:测量区域的移动速度增加,并且在要进行精细移动的情况下,操作变得更难进行。
发明内容
本发明是考虑到上述问题而做出的,并且实现可以提高在用户选择图像内的位置时的可操作性的技术。
为了解决上述问题,本发明的一方面提供一种电子设备,包括:第一指示单元,其被配置为能够接收向显示单元的位置的输入;第二指示单元,其被配置为能够接收移动指示,所述移动指示用于移动与所述显示单元上的由所述第一指示单元接收到了输入的输入位置相对应的选择位置;以及控制单元,其被配置为进行控制,使得:在包括所述输入位置的被摄体区域具有第一大小的情况下,根据针对所述第二指示单元进行的第一操作量的移动操作,使所述选择位置移动第一移动量,以及在所述被摄体区域具有比所述第一大小小的第二大小的情况下,根据针对所述第二指示单元进行的所述第一操作量的移动操作,使所述选择位置移动比所述第一移动量小的第二移动量。
本发明的另一方面提供一种电子设备的控制方法,所述电子设备包括:第一输入装置,其被配置为能够接收向显示装置的位置的输入;以及第二输入装置,其被配置为能够接收移动指示,所述移动指示用于移动与所述显示装置上的由所述第一输入装置接收到了输入的输入位置相对应的选择位置,所述控制方法包括:进行控制,使得:在包括所述输入位置的被摄体区域具有第一大小的情况下,根据针对所述第二输入装置进行的第一操作量的移动操作,使所述选择位置移动第一移动量,以及在所述被摄体区域具有比所述第一大小小的第二大小的情况下,根据针对所述第二输入装置进行的所述第一操作量的移动操作,使所述选择位置移动比所述第一移动量小的第二移动量。
根据本发明,可以提高在用户选择图像内的位置时的可操作性。
通过以下(参考附图)对典型实施例的说明,本发明的更多特征将变得明显。
附图说明
图1A和图1B是示出作为根据本发明实施例的摄像控制设备的一个示例的数字照相机的外观图的图。
图2是示出根据本实施例的数字照相机的示例性功能结构的框图。
图3A是示出根据本实施例的选择位置控制处理的操作的流程图(1)。
图3B是示出根据本实施例的选择位置控制处理的操作的流程图(2)。
图4A至图4E是示出根据本实施例的AF选择框的位置的控制的示例的图。
具体实施例
(第一实施例)
以下将参考附图来详细说明实施例。注意,以下实施例并不意图限制要求保护的发明的范围。在实施例中说明了多个特征,但并未限制成需要所有这些特征的发明,并且可以适当组合多个这样的特征。此外,在附图中,向相同或相似的结构赋予相同的附图标记,并且省略了对这些结构的重复说明。
(数字照相机的结构)
图2是示出作为本实施例的摄像控制设备的一个示例的数字照相机100的示例性功能结构的框图。注意,图2所示的功能块中的一个或多个可以由诸如ASIC和可编程逻辑阵列(PLA)等的硬件来实现,或者可以通过诸如CPU和MPU等的可编程处理器执行软件来实现。此外,这些功能块中的一个或多个可以通过软件和硬件的组合来实现。
图1A和图1B示出根据本实施例的数字照相机100的外观图。图1A是数字照相机100的正面立体图,并且图1B是数字照相机100的背面立体图。
数字照相机100允许附接和拆卸后面所述的镜头单元150,并且包括后面所述的摄像单元22,该摄像单元22将通过了镜头单元150的光学被摄体图像(光学图像)转换成电子图像数据。
背面显示单元28设置在数字照相机100的背面上,并且可以显示图像和各种类型的信息。触摸屏70a可以检测针对背面显示单元28的显示面(操作面)所进行的触摸操作和拖动操作。
在数字照相机100的背面侧的中央设置有后面所述的眼睛接近单元16。此外,数字照相机100的上部所设置的取景器外显示单元43显示数字照相机100的包括快门速度和f值的各种设置值。
快门按钮61是操作按钮,并且在被用户按下时进行后面所述的拍摄处理。注意,在快门按钮61的按下方向上存在第一位置(后面所述的第一快门开关62)和第二位置(后面所述的第二快门开关64)。在第一位置处进行确定快门速度和f值的操作,并且在第二位置处进行后面所述的拍摄处理。在本实施例的示例中,第二位置设置在比第一位置更深的位置。
模式切换开关60是用于在静止图像拍摄模式或运动图像拍摄模式之间进行切换的操作构件。例如,静止图像拍摄模式包括数字照相机100自动控制拍摄操作的自动拍摄模式、以及用户可以精细地设置快门速度和f值的手动拍摄模式等。
端子盖40是保护经由连接线缆在外部装置和数字照相机100之间连接的连接器(未示出)的盖。
主电子拨盘71是旋转操作构件;可以通过转动主电子拨盘71来改变快门速度和f值等。
电源开关72是如下的操作构件,该操作构件可以响应于按下电源开关72的操作而启动数字照相机100并将数字照相机100置于拍摄待机状态,并且在拍摄结束之后将数字照相机100切换为不工作状态。
副电子拨盘73是旋转操作构件,并且可以响应于在所拍摄到的图像显示在背面显示单元28上的状态下转动副电子拨盘73的操作而一个接一个地滚动所显示的图像。
十字键74例如是具有可以分别按下的上下左右部分的圆盘状四向键;例如,当在拍摄期间要移动被摄体已被聚焦的测距点时,可以根据对方向键进行的操作来移动测距点。
设置(SET)按钮75是操作按钮,并且主要用作确定所选择的项的单元。使用运动图像按钮76来进行用于开始和停止运动图像的拍摄(记录)的指示操作。AE锁定按钮77是如下的操作按钮,该操作按钮当在拍摄待机状态下被按下时,可以将指示被摄体的明亮度的曝光值固定为此时的曝光值。
放大按钮78例如是用于放大背面显示单元28上所显示的图像的一部分的操作按钮;在每次按下放大按钮78时,画面在正常显示、1倍、5倍和10倍之间切换。在按下了放大按钮78之后,例如,进行顺时针地转动主电子拨盘71的操作使得允许放大背面显示单元28上所显示的图像,而进行逆时针地转动主电子拨盘71的操作使得允许缩小背面显示单元28上所显示的图像。此外,同样在显示所记录的图像的再现模式中,可以放大或缩小所再现的图像。
再现按钮79是操作按钮;按下再现按钮79使得能够从拍摄待机状态切换到再现模式,或者从再现模式切换到拍摄待机状态。
菜单按钮81是操作按钮;按下菜单按钮81使得能够将诸如记录质量和日期等的各种类型的可设置项显示在背面显示单元28上。
麦克风82是用于识别操作者所产生的声音的声音输入麦克风。尽管在图1B中麦克风82布置在数字照相机100的背面上,但麦克风82未被特别限制成布置在数字照相机100的背面侧,只要麦克风82可以实现声音输入功能即可。
视线输入开始按钮83是用于在所选择的AF选择框位置处开始AF操作的按钮。通信端子10是打算用于数字照相机100与后面所述的(可安装且可拆卸的)镜头单元150进行通信的通信端子。
作为眼睛接近结构171的构成元件的眼睛接近单元16是在用户查看数字照相机100的情况下眼睛接近于的眼睛接近单元。用户可以通过使他/她的眼睛接近于眼睛接近单元16以查看眼睛接近单元16,来从视觉上识别后面所述的在内部设置的取景器内显示单元(以下称为EVF)29上所显示的视频。眼睛接近检测单元57是检测拍摄者的眼睛是否接近于眼睛接近单元16的眼睛接近检测传感器。
盖41是在附接和移除后面所述的可附接且可移除的记录介质200时可打开且可关闭的盖。握持单元90是用户抓握数字照相机100的部位,并且具有在用户抓握数字照相机100时用右手容易握持的形状。快门按钮61和主电子拨盘71布置于在当正用右手握持握持单元90时保持数字照相机100的状态下、用右手食指可以操作这两者的位置。此外,副电子拨盘73布置于在相同状态下用右手拇指可以操作该副电子拨盘73的位置。
(数字照相机的示例性功能结构)
接着,将参考图2来说明图1A和图1B所示的数字照相机100的示例性功能结构。
镜头单元150是可附接至数字照相机100且从数字照相机100可拆卸的可更换镜头。透镜103包括用于根据被被摄体反射的被摄体光来形成光学图像(被摄体图像)的多个透镜。注意,在图2所示的示例中,为简单起见,仅示出一个透镜。
通信端子6是打算用于镜头单元150与数字照相机100进行通信的通信端子。一旦镜头单元150中所设置的通信端子6和数字照相机100中所设置的通信端子10彼此电连接,镜头单元150内的诸如镜头系统控制电路4等的电路变得能够与数字照相机100内的系统控制单元50进行通信。因此,系统控制单元50可以通过与镜头系统控制电路4和光圈驱动电路2进行通信来控制光圈位置,并且通过与透镜驱动电路3的通信使透镜103移位来改变实像的聚焦状态。
快门101例如是可以在系统控制单元50的控制下自由地控制后面所述的摄像单元22的曝光时间段的焦平面快门。
摄像单元22具有形成有通过了透镜103的被摄体图像(光学图像)的摄像面,并且包括摄像装置(图像传感器),该摄像装置(图像传感器)通过光电转换输出与摄像面上的光学图像相对应的电气信号(模拟信号)。例如,使用CCD(电荷耦合器件)或CMOS(互补MOS)传感器作为摄像装置。
A/D转换器23包括用作信号转换单元的信号转换电路,并且将从摄像单元22输出的模拟信号转换成数字信号。
图像处理单元24通过针对来自A/D转换器23的数字信号或来自后面所述的存储器控制单元15的数字信号进行例如包括预定像素插值处理、诸如缩小等的调整大小处理和颜色转换处理等的预定计算处理,来生成图像数据。图像处理单元24所获得的计算结果被系统控制单元50使用以控制光圈位置并且控制透镜位置。使用图像数据,图像处理单元24进一步进行例如AWB(自动白平衡)处理、用于识别被摄体图像的处理、以及TTL方法的区域提取处理。
用于识别被摄体图像的处理例如包括如下的处理,该处理用于在被摄体已被识别为人物或动物的情况下,仅将面部识别为被摄体图像的显示范围,或者将还包括肩部和下半身的区域识别为被摄体图像的显示范围。此外,为了可靠地将包括所有头发和体毛的区域设置为被摄体图像的显示范围,可以将比所识别的区域略大的范围设置为被摄体图像的显示范围。由于该原因,被摄体图像的显示范围例如可以大致具有包括被摄体图像的区域的矩形形状,可以大致具有包括被摄体图像的区域的椭圆形形状,或者可以是通过大致勾画被摄体的轮廓所获得的范围。
在区域提取处理中,图像处理单元24进行用于从图像数据中提取被摄体图像的显示范围的处理。为了提取被摄体图像的显示范围,图像处理单元24可以应用利用显示图像的亮度和颜色信息的边缘检测,并且也可以通过用于识别被摄体图像的处理来辨别被摄体图像的类型,然后根据所辨别出的类型来提取被摄体图像的显示范围。此外,通过利用由未示出的测距单元测量到的被摄体的测距信息(距离信息),图像处理单元24可以将在与到视线位置处的被摄体图像的距离接近的距离处的范围设置为显示范围。在后面所述的实施例中,利用图像处理单元24所提取的被摄体图像的该范围作为特定范围。
存储器控制单元15是用于在A/D转换器23、图像处理单元24和存储器32之间交换系统控制单元50所控制的数据的存储器控制单元。从A/D转换器23输出的数字信号经由图像处理单元24和存储器控制单元15或者仅经由存储器控制单元15被直接写入后面所述的存储器32。
存储器32是如下的存储单元,该存储单元例如包括易失性半导体存储器,并且临时存储由摄像单元22获得且由A/D转换器23进行了转换的数字信号、以及由图像处理单元24生成的图像数据。存储器32具有足以存储预定数量的静止图像以及预定时间长度的运动图像和声音的存储容量。此外,存储器32还用作图像显示所用的存储器(视频存储器)。写入存储器32的数字信号和图像数据经由存储器控制单元15由背面显示单元28和EVF 29进行显示。
背面显示单元28进行与来自存储器控制单元15的信号相对应的显示。EVF 29包括布置在取景器内的显示面板,并且在眼睛接近检测单元57检测到眼睛接近的情况下,根据来自存储器控制单元15的信号来进行显示。
在数字照相机100中,作为由A/D转换器23对来自摄像单元22的模拟信号应用的A/D转换的结果所获得的并且已记录到存储器32中的数字信号被顺次地传送至背面显示单元28或EVF 29并显示在背面显示单元28或EVF 29上。因此,实现了作为实时显示的实时取景拍摄显示。
非易失性存储器56是例如包括诸如EEPROM等的非易失性半导体存储器的电可擦除且可记录的只读记录介质。系统控制单元50的操作所用的常数和程序等存储在非易失性存储器56中。这里提到的程序表示用于执行通过本实施例中后面将说明的流程图所示的处理的程序。
(选择位置控制处理)。
系统控制单元50包括至少一个处理器或电路,并且用作控制单元。系统控制单元50通过将非易失性存储器56中所记录的上述程序展开到后面所述的系统存储器52并执行该程序,来执行后面所述的选择位置控制处理并且控制整个数字照相机100。
系统存储器52是可读且可写的存储单元,该存储单元例如包括易失性半导体存储器,并且临时存储系统控制单元50的操作所用的常数和变量、以及从非易失性存储器56读出的程序等。
系统定时器53是测量直到执行自动断电为止的时间段、以及曝光时间段的时间测量单元,该自动断电在判断为拍摄者未正操作数字照相机100的情况下,熄灭背面显示单元28的灯以防止电池消耗。
模式切换开关60和操作单元70是用于向系统控制单元50输入各种类型的操作指示的操作单元。如前面所述,模式切换开关60在系统控制单元50的操作模式之间进行切换。操作模式包括例如静止图像拍摄模式和运动图像拍摄模式。
静止图像拍摄模式中所包括的拍摄模式包括自动拍摄模式、自动场景判别模式、手动拍摄模式、光圈优先模式(Av模式)、快门速度优先模式(Tv模式)和程序AE模式(P模式)。在用户进行了在按下模式切换开关60之后转动主电子拨盘71的操作的情况下,拍摄模式改变。类似地,运动图像拍摄模式也可以包括多个拍摄模式。
如前面所述,在对数字照相机100上所设置的快门按钮61进行的操作期间、也就是说在半按下快门按钮61(拍摄准备指示)时,第一快门开关62变为接通(ON)并且生成第一快门开关信号SWl。根据第一快门开关信号SWl,开始诸如AF(自动调焦)处理、AE(自动曝光)处理和AWB(自动白平衡)处理等的拍摄准备操作。在对快门按钮61进行的操作完成时、也就是说在全按下快门按钮61(拍摄指示)时,第二快门开关64接通并且生成第二快门开关信号SW2。根据第二快门开关信号SW2,系统控制单元50开始从自摄像单元22读取模拟信号起直到将图像数据写入后面所述的记录介质200为止的拍摄处理。
操作单元70包括各种类型的操作构件作为接收用户操作的输入单元,并且至少包括诸如图1A和图1B所示的按钮和拨盘等的操作构件。操作单元70不仅包括图2所示的触摸屏70a和快门按钮61等,而且还包括主电子拨盘71、副电子拨盘73、十字键74、设置按钮75和运动图像按钮76。操作单元70还进一步包括AE锁定按钮77、放大按钮78、再现按钮79、菜单按钮81、麦克风82和视线输入开始按钮83。
取景器外显示单元43包括显示面板,并且经由取景器外显示单元驱动电路44显示包括快门速度和f值的在拍摄时要设置的各种设置值。
电源控制单元80由用于检测充当用于驱动数字照相机100的电源的电源单元30的电路、DC-DC转换器、以及用于在电源的供给目的地之间进行切换的开关电路等构成,并且检测是否装载了电池、电池的类型和剩余电池电量。此外,电源控制单元80基于这些检测结果和来自系统控制单元50的指示来控制DC-DC转换器,并且在所需定时向供给目的地供给所需的电压。电源单元30例如可以包括一次电池(例如,碱性电池或锂电池)、二次电池(例如,NiCd电池、NiMH电池或Li电池)、以及AC适配器等。
记录介质I/F 18是用于后面所述的记录介质200的接口,其中记录介质200是存储卡或硬盘等。记录介质200例如是SD卡、
Figure BDA0003164581730000091
存储器或硬盘等,并且是可附接至数字照相机100以及从数字照相机100可移除且打算用于记录所拍摄到的图像的记录介质(诸如存储卡等)。注意,记录介质200可以设置在数字照相机100的内部。
姿势检测单元55检测数字照相机100相对于重力方向的姿势。基于姿势检测单元55所检测到的姿势,系统控制单元50可以输出如下的方向信息,该方向信息指示摄像单元22所拍摄到的图像是在水平地保持数字照相机100的状态下所拍摄到的图像、还是在垂直地保持数字照相机100的状态下所拍摄到的图像。系统控制单元50可以将从姿势检测单元55输出的方向信息添加到图像数据。例如,可以使用加速度传感器或陀螺仪等作为姿势检测单元55。使用加速度传感器或陀螺仪作为姿势检测单元55还使得能够检测数字照相机100的运动(数字照相机100被平摇、俯仰、抬起还是静止)。
红外发光二极管166是用于在眼睛接近于眼睛接近单元16的状态下检测用户的眼球(眼睛)的视线位置的发光元件,并且通过朝向眼睛接近单元16的外部发射红外光来用红外光照射接近于眼睛接近单元16的用户的眼球(眼睛)161。由红外发光二极管166发射的红外光被眼球(眼睛)161反射,并且所反射的红外光到达分色镜162。
分色镜162仅将红外光相对于入射方向垂直地反射,并且允许可见光穿过。光路已改变的反射红外光经由后面所述的成像透镜163在后面所述的视线检测传感器164的摄像面上成像。
成像透镜163是构成视线检测光学系统的光学构件,并且使反射红外光在后面所述的视线检测传感器164上成像作为眼球图像。视线检测传感器164由诸如CCD图像传感器等的摄像装置构成。
视线检测传感器164将所形成的眼球图像光电转换成电气信号,并且将这些电气信号输出至后面所述的视线检测电路165。基于视线检测传感器164的输出,视线检测电路165检测用户的视线位置,并且将所检测到的信息输出至系统控制单元50和注视判断单元170。如此,分色镜162、成像透镜163,视线检测传感器164、红外发光二极管166和视线检测电路165构成视线检测单元160,并且眼睛接近单元16具有视线操作单元的功能。注意,视线检测单元160不限于上述示例且可以以其它方式构成,并且可以任意改变预定阈值。
基于来自眼睛接近检测单元57和视线检测单元160的输出,系统控制单元50可以检测对眼睛接近单元16进行的操作或眼睛接近单元16的状态。例如,系统控制单元50可以检测到对已使他/她的眼睛接近于眼睛接近单元16的用户的视线的新检测、也就是说视线输入的开始。此外,系统控制单元50可以检测已使他/她的眼睛接近于眼睛接近单元16的用户正在进行视线输入的状态、以及已使他/她的眼睛接近于眼睛接近单元16的用户正在注视的状态。在本实施例中,用户正在注视的状态是由系统控制单元50例如在用户的视线位置在预定时间段内未超过预定移动量的情况下检测到的。此外,系统控制单元50可以检测已使他/她的眼睛接近于眼睛接近单元16的用户进行了输入所经由的视线的偏转、也就是说视线输入的结束。另一方面,系统控制单元50还可以检测已使他/她的眼睛接近于眼睛接近单元16的用户没有进行视线输入的状态。
在系统控制部50检测到进行视线输入的状态或用户正在注视的状态的情况下,系统控制部50基于来自视线检测电路165的检测信息中所包括的位置信息与EVF 29的显示坐标之间的对应关系来检测EVF 29的显示画面上的视线位置。如此,系统控制单元50用作用于检测显示画面上的视线位置的视线检测单元。
如前面参考图1A和图1B所述,眼睛接近检测单元57是如下的眼睛接近检测传感器,该眼睛接近检测传感器检测眼睛(物体)161接近于取景器的眼睛接近单元16的状态(眼睛接近)和眼睛已从取景器的眼睛接近单元16分离的状态(眼睛分离)(接近检测)。根据眼睛接近检测单元57所检测到的状态,系统控制单元50在背面显示单元28和EVF 29的显示(显示状态)和不显示(非显示状态)之间切换。在眼睛未接近的状态下(在非眼睛接近状态下),系统控制单元50使得背面显示单元28进行显示,并且使得EVF 29不进行显示。另一方面,在眼睛接近的状态下(在眼睛接近状态下),使得EVF 29进行显示,并且使得背面显示单元28不进行显示。
眼睛接近检测单元57例如可以使用诸如光遮断器等的红外线接近传感器,并且可以检测某种物体已接近内置有EVF 29的眼睛接近单元16的状态。在物体已接近的情况下,从眼睛接近检测单元57的光投射单元(未示出)投射的红外线被反射,并且被红外线接近传感器的受光单元(未示出)接收。在物体未接近的情况下,从眼睛接近检测单元57的光投射单元投射的红外线未被红外线接近传感器的受光单元接收。这样,根据红外线接近传感器的受光单元是否接收到光,眼睛接近检测单元57可以检测眼睛已接近于眼睛接近单元16的物体。此外,在检测到眼睛接近之后,系统控制单元50判断为维持眼睛接近状态,直到检测到眼睛分离为止。然后,在检测到眼睛分离之后,系统控制单元50假定维持非眼睛接近状态,直到检测到眼睛接近为止。
注意,尽管已经使用将红外线接近传感器用于眼睛接近检测的示例性情况提供了前述说明,但在眼睛接近检测单元57中可以使用另一传感器,只要该另一传感器可以检测可被视为眼睛接近的、眼睛或物体接近的状态即可。
声音输入单元58针对从麦克风82输入的声音进行声音识别处理。该声音识别处理辨认输入到麦克风82的声音是用户针对数字照相机100所发出的某种操作指示、还是其它声音或噪声。然后,在所输入的声音是针对数字照相机100的操作指示的情况下,该指示的内容被通信至系统控制单元50,并且系统控制单元50执行该操作指示的内容。
通信单元54包括通信电路或模块,并且可以经由诸如蓝牙
Figure BDA0003164581730000121
和无线LAN等的无线通信与外部设备进行通信。
(与选择位置控制处理有关的一系列操作)
接着,参考图3A、图3B和图4A至图4E来给出对本实施例中的选择位置控制处理的一系列操作的说明。选择位置控制处理是与经由视线输入和触摸屏上的手动操作(触摸操作和拖动操作)来改变AF选择框的位置有关的处理,并且在选择AF选择框相对于被摄体图像的位置时,实现了误操作的抑制以及简单且高度精确的位置选择。也就是说,通过根据本实施例选择AF选择框403的位置,可以以高精度容易地设置被摄体图像上的要进行AF操作的位置,这使得可以获得在更大程度上反映用户意图的拍摄图像。注意,以下说明是关于如下的模式来提供的,在该模式中,使用视线输入单元作为第一指示单元,并且进行触摸屏上的触摸操作和拖动操作作为第二指示单元。然而,第一指示单元和第二指示单元不限于视线输入、触摸操作和拖动操作。
此外,将参考图4A至图4E关于根据本实施例的在经由视线输入和手动操作(触摸操作和拖动操作)改变选择位置时的被摄体图像与AF选择框的位置之间的关系来提供以下说明。将使用特定范围402a用作第一位置区域并且特定范围402b用作第二位置区域的示例性情况来说明图4A至图4E。然而,第一位置区域和第二位置区域不限于特定范围402a和402b。注意,除了图4A至图4E所示的信息之外,EVF 29还可以显示诸如f值、快门速度和可以拍摄的图像数量等的各种类型的信息的组合。
注意,除非另外具体陈述,否则图3A和图3B所示的选择位置控制处理的一系列操作是通过系统控制单元50将非易失性存储器56中所记录的程序展开到系统存储器52并执行该程序来实现的。此外,在响应于用户对数字照相机100的电源开关72的操作而启动数字照相机100时开始该处理。
在步骤S301中,系统控制单元50使得数字照相机100转变为拍摄待机状态。在拍摄待机状态中,系统控制单元50可以进行控制以执行与在触摸屏70a上进行的操作相对应的各种操作。
在步骤S302中,系统控制单元50判断眼睛接近检测单元57是否检测到用户已经使他/她的脸接近(即,他/她的眼睛已接近)以查看EVF 29的状态。在系统控制单元50判断为检测到了眼睛接近的情况下,处理进入步骤S303;否则,处理进入步骤S307。
在步骤S303中,系统控制单元50使得背面显示单元28停止进行显示,并且还使得EVF 29开始显示被摄体图像。
在步骤S304中,系统控制部50使得视线检测单元160开始视线检测。
在步骤S305中,系统控制单元50判断经由用户在触摸屏70a上进行的手动操作(触摸操作或拖动操作:T&D)是否发出了针对AF选择框的位置的移动指示。例如,在用户在触摸屏70a上进行的触摸的移动量等于或大于预定量的情况下,系统控制单元50判断为发出了移动指示。在系统控制部50判断为发出了移动指示的情况下,处理进入步骤S306;否则,处理进入步骤S309。
在步骤S306中,系统控制单元50将AF选择框403移动到根据步骤S305的指示的位置。
在步骤S307中,系统控制单元50基于经由用户在触摸屏70a上进行的手动操作(触摸操作或拖动操作:T&D)所发出的移动指示来移动AF选择框403。
在步骤S308中,系统控制单元50在AF选择框403的位置处进行AF操作。
在步骤S309中,系统控制部50判断是否进行了按下视线输入开始按钮83的操作。在系统控制单元50判断为按下了视线输入开始按钮83的情况下,处理进入步骤S310;否则,处理返回到步骤S305。
在步骤S310中,系统控制单元50根据视线检测单元160所检测到的视线位置(也称为输入位置)的信息,例如,如图4A所示将视线位置显示401叠加显示在EVF 29的实时取景显示上。
现在,参考图4A。图4A示出EVF 29上所显示的被摄体图像411a和411b。在用户正在观看被摄体图像411a的情况下,基于视线检测单元160所检测到的视线位置的信息,系统控制单元50将视线位置显示401和特定范围402a叠加显示在作为用户的视线位置的被摄体图像411a上。
在步骤S311中,图像处理单元24进行用于提取位于视线位置处的被摄体图像的处理,并且系统控制单元50将该被摄体图像作为特定范围402a叠加显示在EVF 29上。
在步骤S312中,根据来自系统控制单元50的指示,图像处理单元24判断在步骤S311中所提取的特定范围402a中是否包括面部。在图像处理单元24判断为包括面部的情况下,系统控制单元50使得处理进入步骤S313;否则,系统控制单元50使得处理进入步骤S314。注意,系统控制单元50可以通过使用在步骤S311中图像处理单元24所执行的提取处理的结果来判断在特定范围402a中是否包括面部。
在步骤S313中,系统控制单元50将AF选择框403叠加显示在特定范围402a中所包括的面部的瞳孔的位置上。注意,在面部检测和瞳孔检测中可以使用已知技术,因而省略这些检测的详情。
在步骤S314中,系统控制单元50基于视线检测单元160所检测到的视线位置的信息来将AF选择框403显示在视线位置处。例如,系统控制单元50将AF选择框403叠加显示在EVF 29的显示图像上所显示的视线位置显示401上。
现在,参考图4B。图4B示出在特定范围402a内显示的AF选择框403a。图像处理单元24识别出被摄体图像411a的范围是特定范围402a,并且系统控制单元50将AF选择框403a显示在视线位置处。可以进行经由用户在触摸屏上进行的触摸操作和拖动操作来沿向上、向下、向左和向右方向中的任何方向移动该AF选择框403a的操作。
在视线位置显示401位于被摄体图像411a的左下部分的情况下,AF选择框403a显示在位于被摄体图像411a的左下部分的、与图4A的视线位置显示401的位置大致相同的位置处。
这样,通过直到步骤S314为止的处理,基于相对于所显示的显示图像的用户的视线,系统控制单元50将显示图像上的特定位置(视线位置或瞳孔位置)确定为用于在摄像时实现聚焦的选择位置(AF选择框的位置)。
在步骤S315中,系统控制单元50针对所显示的AF选择框403的位置处的被摄体图像进行AF操作。这里,在AF选择框403的位置移动以跟踪被摄体图像的移动的所谓的伺服AF操作中,特定范围402a和AF选择框403的位置在相同方向上以相同量进行跟踪移动。在该跟踪移动期间,相对于彼此的位置之间的关系得以维持,并且仅通过在后面所述的步骤S319中进行的用户操作而改变。
在步骤S316中,擦除步骤S310中所显示的视线位置显示401。在步骤S317中,根据来自系统控制单元50的指示,图像处理单元24计算特定范围402a与作为整个显示图像的范围的规定区域之间的大小比。图像处理单元24通过使用与这两个区域各自有关的诸如水平方向上的像素数、垂直方向上的像素数和区域内的像素总数等的信息来计算该大小比。.
在步骤S318中,系统控制单元50基于在步骤S317中计算出的大小比来改变触摸屏70a的操作灵敏度。后面将参考图4E来说明操作灵敏度。
在以下的步骤S319至S330中,系统控制单元50通过利用经由诸如触摸屏70a等的指示构件所进行的用户操作移动而确定的选择位置(AF选择框的位置)来将AF选择框的位置调整到期望位置。此时,即使在针对选择位置的用户操作包括误操作的情况下,系统控制单元50也控制选择位置的移动,使得选择位置不超出特定范围402a(或被摄体区域)。尽管后面将说明详情,但例如,系统控制部50根据要移动的选择位置是否到达特定范围402a的边界,经由该用户操作许可或不许可选择位置的移动。
在步骤S319中,系统控制单元50判断是否存在经由用户的触摸操作和拖拽操作选择AF选择框403的位置的操作。在系统控制部50判断为用户进行了选择位置的操作的情况下,系统控制部50检测操作量,并且处理进入步骤S320;否则,处理进入步骤S331。注意,在接收到用户操作之后,系统控制单元50可以禁止视线输入的接收并持续预定时间段(停止用户的视线的检测),使得视线输入不会中断经由用户的手动操作的选择位置的调整。
在步骤S320中,系统控制单元50识别特定范围402a和AF选择框403a的边界位置,并且检测上下左右方向上的边界位置是否一致。
现在,参考图4C。图4C示出位于特定范围402a的左端的AF选择框403a。在这种情况下,由于AF选择框403a和特定范围402a的左侧边界一致,因此即使接收到用户在向左方向上的触摸操作和拖动操作,系统控制单元50也不沿向左方向移动AF选择框403a。另一方面,在用户在除朝向左侧以外的方向上(例如,在向上方向上)进行了移动操作的情况下,系统控制单元50沿向上方向上移动AF选择框403a。因此,在图4C所示的示例中,系统控制单元50检测到特定范围402b和AF选择框403a的左侧边界一致,并且在上下左右方向上边界不一致。
图4D示出:随着用户视线位置从图4C移动,视线位置显示401已移动到移动后的视线位置,并且被摄体图像411b已被选择为特定范围402b。
图4E示出在特定范围402b内显示的AF选择框403b。图4E所示的特定范围402b小于图4B所示的特定范围402a。在这种情况下,在特定范围的大小小的情况下,系统控制单元50可以通过降低AF选择框403b的操作灵敏度来精细地移动特定范围402b内的选择位置。也就是说,通过根据特定范围(例如,位于选择位置的被摄体图像)的大小信息改变相对于选择位置的移动的用户操作的灵敏度,可以以高精度移动AF选择框403b(选择位置)。这里,操作灵敏度是AF选择框的移动量相对于在用户的触摸操作和拖动操作中使用的手指的移动量的比。该比越小,操作灵敏度变得越低,并且可以更容易地进行高度精确的位置选择。例如,假定特定范围具有500×1000个像素、并且整个画面具有3000×2000个像素的情况。在这种情况下,使用1作为改变操作灵敏度之前的移动量,通过“由于面积比为1/12因此使用移动量1/12”、“由于水平方向上的长度比为1/6因此使用移动量1/6”、“由于垂直方向上的长度比为1/2因此使用移动量1/2”等等来设置操作灵敏度。
在步骤S321中,系统控制单元50判断在步骤S319中接收到的输入操作(在输入操作分解为向上、向下、向左和向右方向这四个方向的分量的情况下)是否涉及两个方向(即,包括两个方向的分量)。例如,在输入的方向是左上的情况下,系统控制单元50判断为输入包括向上和向左方向这两个方向的分量。在系统控制单元50判断为输入操作涉及两个方向的情况下,处理进入步骤S322;否则(仅一个反向),处理进入步骤S323。
在步骤S322中,系统控制单元50将作为在步骤S319中检测到的选择AF选择框的位置的操作的输入操作的方向与在S320中检测到的一致的边界位置的方向进行比较,并且判断这两个类型的方向是否一致。在系统控制单元50判断为这两个类型的方向至少在一个方向上一致的情况下,处理进入步骤S324。在判断为这两个类型的方向在这两个方向中的任何方向上都不一致的情况下,处理进入步骤S327。
在步骤S323中,系统控制单元50将作为在步骤S319中检测到的选择AF选择框的位置的操作的输入操作的方向与在S320中检测到的一致的边界位置的方向进行比较,并且判断这两个类型的方向(即,输入操作的方向和一致的边界位置的方向)是否一致。在系统控制单元50判断为输入操作的方向和一致的边界位置的方向一致的情况下,处理进入步骤S328;否则,处理进入步骤S329。
在步骤S324中,系统控制单元50判断在步骤S322中这两个类型的方向是否被判断为在这两个方向上都一致。在系统控制单元50判断为这两个类型的方向在两个方向上一致的情况下,处理进入步骤S325;否则,处理进入步骤S326。
在步骤S325中,系统控制单元50将在步骤S316中接收到的输入操作视为无效。结果,AF选择框403a不移动;因而,AF选择框403a不会移动到特定范围402b的外侧。
在步骤S326中,系统控制单元50仅在根据步骤S324的判断得到这两个类型的方向不一致的方向上,才根据步骤S319中的输入操作量移动AF选择框403a。
在步骤S327中,系统控制单元50根据步骤S319中的输入操作方向和输入操作量来移动AF选择框403a。在步骤S328中,系统控制单元50将在步骤S319中接收到的输入操作视为无效。结果,AF选择框403a不移动;因而,AF选择框403a不会移动到特定范围402b的外侧。
在步骤S329中,系统控制单元50根据步骤S319中的输入操作量来移动AF选择框403a。在步骤S330中,系统控制单元50在AF选择框403a的位置处进行AF操作。注意,在AF操作之后,将在步骤S318中改变的操作灵敏度恢复为改变之前的灵敏度。
在步骤S331中,系统控制单元50判断是否接收到第二快门开关信号SW2。当系统控制单元50判断为接收到第二快门开关信号SW2时,处理进入步骤S332;否则,假定数字照相机处于拍摄待机状态,并且处理返回步骤S301。
在步骤S332中,系统控制单元50执行数字照相机100的拍摄处理。在步骤S333中,系统控制单元50判断用户是否操作了电源开关72。在系统控制单元50判断为操作了电源开关72的情况下,本处理的一系列操作结束。另一方面,在系统控制部50判断为未操作电源开关72的情况下,假定数字照相机的状态是拍摄待机状态,并且处理返回到步骤S301。
如上所述,在本实施例中,接收到对帧内取景器显示单元29的位置输入,并且接收到用于基于位于与所接收到的输入相对应的位置处的被摄体图像来在特定范围内移动选择位置的移动指示。然后,在移动之前的选择位置在特定范围内且未到达特定范围在第一方向上的边界的情况下,根据在第一方向上针对选择位置的移动指示操作来沿第一方向移动选择位置。此外,在移动之前的选择位置在特定范围内且到达了特定范围在第一方向上的边界的情况下,进行控制,使得即使在第一方向上对选择位置进行了移动指示操作,也不沿第一方向移动选择位置。也就是说,根据要移动的选择位置是否到达特定范围402a的边界,系统控制单元50许可或不许可经由用户操作的该选择位置的移动。以这种方式,可以提高在与实现聚焦的操作有关地选择图像内的位置时的可操作性。
此外,在本实施例中,根据位于选择位置的被摄体图像的大小,针对选择位置的移动接收到用户操作的灵敏度改变。这样,可以以高精度移动选择位置。
(示例性变形例)
已经使用用户在查看EVF 29的同时利用触摸屏70a和视线检测电路165进行操作的示例性情况说明了上述实施例。然而,根据本实施例的结构不限于该示例。以下说明根据本实施例的结构的示例性变形例。
上述的第一指示单元不限于使用视线输入,并且可以以其它方式构成,只要该第一指示单元可以指定摄像范围中的特定位置的绝对位置即可。例如,许可使用利用麦克风82的对名称的基于声音的输入、经由利用触摸屏70a触摸被摄体图像的对位置的输入、等等。在这种情况下,代替步骤S310中的视线位置,系统控制单元50使用通过声音输入所指定的并且被摄体图像显示于的位置、或者触摸输入的位置。
第二指示单元不限于使用触摸屏70a上的触摸操作和拖动操作,并且可以以其它方式构成,只要该第二指示单元可以指定AF选择框403的移动方向即可。例如,许可使用基于利用麦克风82的声音输入的方向指示、按下十字键74的操作、等等。在这种情况下,代替步骤S319中的基于触摸操作和拖动操作的与移动方向有关的指示,系统控制单元50使用基于通过声音指定的方向或十字键74的按下方向的移动指示。
此外,本实施例可用于在用户正在观看背面显示单元28时用户所操作的数字照相机。在这种情况下,例如,第一指示单元可以是使用麦克风82的声音输入,并且第二指示单元可以是经由十字键74进行的操作。此外,代替基于视线位置信息提取被摄体区域,声音输入单元58可以基于从麦克风82输入的信息来识别指示的内容,并且图像处理单元24可以提取被摄体区域并例如将特定范围402a叠加显示在背面显示单元28上的实时取景显示上。此外,系统控制单元50可以基于十字键74的输入方向而不是触摸操作和拖动操作来执行移动AF选择框403的操作。
另外,在如上述示例性变形例那样、第一指示单元不使用视线输入的情况下,EVF29可以不安装在数字照相机100中。在这种情况下,系统控制单元50可以从步骤S301进入步骤S305,并且跳过步骤S302~步骤S304的处理。此外,在步骤306之后,代替基于视线检测单元160的操作,系统控制单元50执行基于经由输入到作为第一指示单元的麦克风82的声音所发出的声音输入指示的操作。
此外,已经使用视线位置显示401具有十字形形状的示例性情况说明了图4A至图4E所示的示例。然而,视线位置显示401可以具有圆形形状或四边形形状而不是十字形形状,或者可以不显示。在不显示视线位置显示401的情况下,由于例如AF选择框403的位置根据视线位置的移动而移动,因而用户可以识别出他/她自身的视线位置的移动。
此外,开始视线检测单元160所进行的选择位置指示的操作例如可以是针对麦克风82的声音输入指示或其它任意按钮的按下、而不是按下视线输入开始按钮83的操作。在声音输入指示的情况下,系统控制单元50在麦克风82所检测到的声音中检测到诸如“开始视线输入”和“用眼睛选择位置”等的指示开始利用视线的选择操作的基于声音的语音的情况下,可以开始接收基于视线输入的指示操作。此外,在指示是其它按钮的按下的情况下,例如在按下除视线输入开始按钮83以外的任意按钮时可以开始基于视线输入的指示操作的接收。可选地,系统控制单元50可以基于来自通过按下菜单按钮81所显示的菜单画面的视线输入来在指示操作的持续接收的开启(ON)和关闭(OFF)之间切换。
此外,尽管将特定范围402的大小与规定区域的大小进行比较,但规定区域不一定是整个显示图像。例如,规定区域可以是固定区域,或者可以在每次进行比较时改变,诸如“紧前选择的特定范围402”等。以下说明具体示例。首先,假定以下状态:根据来自系统控制单元50的指示,在进行了从步骤S301到步骤S319的处理、并且进一步进行了步骤S319到步骤S330的处理之后,处理返回到步骤S301。此时,如图4B那样,选择被摄体图像411a作为特定范围402a。
接着,在步骤S310中,如图4D那样,视线位置移动到被摄体图像411b并且视线位置显示401叠加显示在被摄体图像411b上。此外,在步骤S311中也以叠加方式显示特定范围402b。此时,在规定区域被定义为“紧前选择的特定范围402”的情况下,特定范围402a用作规定区域。之后,如图4E那样,在步骤S313或步骤S314中以叠加方式显示AF选择框403b,并且在步骤S317中,基于特定范围402a和特定范围402b之间的比较来改变操作灵敏度。
此外,已经使用经由触摸操作和拖动操作接收到选择AF选择框403的位置的操作的示例性情况说明了步骤S319的操作。此时,响应于接收到该用户操作,系统控制单元50可以放大EVF 29上的显示,使得该显示包括整个特定范围402。在进行放大显示的情况下,系统控制单元50还改变第二指示单元的操作灵敏度。可以使用任意的适当值作为放大显示之前和之后的特定范围402的大小的比。放大之后的操作灵敏度以与上述比大致相同的比进行改变。例如,在以向上和向下都放大两倍的方式显示特定范围402的情况下,系统控制单元50将相对于操作量的AF选择框403的移动量向上和向下都增大两倍。这样,可以根据用户操作来精细地移动AF选择框403,因而可以以更高的精度指定AF选择框403的位置。
此外,已经使用如下的示例说明了步骤S321:识别特定范围402和AF选择框403的边界位置,并且判断这些边界位置在向上、向下、向左和向右方向中的各方向上是否一致。然而,能够判断AF选择框403是否位于特定范围402的边界附近就足够了。例如,在AF选择框403的一部分存在于特定范围402之外的情况下,AF选择框403的边界和特定范围402的边界共享交点。在存在该交点的状态下,边界位置可被判断为一致。此外,在AF选择框403位于特定范围402的边界附近、例如位于在从特定范围402的左端起的20%内的位置的情况下,边界位置可被判断为一致。这是因为,假定在AF选择框403在特定范围402的左侧边界附近时,进行多次操作将容易使边界位置一致。
注意,已经使用基于被摄体图像的范围来设置特定范围的示例性情况提供了上述说明。然而,特定范围可以是作为与被摄体图像无关的大小的预定大小的范围。
尽管已经使用用户改变AF选择框的位置的示例性情况说明了上述实施例,但要改变的项不一定是AF选择框。例如,许可使用如下的单元,该单元允许用户指定进行用于确定曝光的AE测量的位置、或者与在数字照相机100上可以改变的其它参数有关的位置。
注意,以上已经描述为由系统控制单元50进行的各种类型的控制可以由一个硬件来进行,或者整个设备可以通过多个硬件共享处理来控制。
此外,尽管已经基于本发明的优选实施例详细说明了本发明,但本发明不限于这样的特定实施例,并且在未背离本发明的原理的范围内的各种模式也包括在本发明内。另外,上述实施例仅仅例示本发明的一个实施例,并且可以适当组合不同的实施例。
此外,尽管已经使用将本发明应用于数字照相机的示例性情况说明了上述实施例,但该示例并不打算进行限制,并且本发明可应用于包括摄像单元的装置。也就是说,本发明可应用于例如配备有显示设备的电子装置,诸如个人计算机、PDA、移动电话终端、移动图像查看器、游戏装置、平板终端、智能电话和头戴式显示器等。
其它实施例
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
尽管已经参考典型实施例说明了本发明,但是应该理解,本发明不限于所公开的典型实施例。所附权利要求书的范围符合最宽的解释,以包含所有这类修改、等同结构和功能。

Claims (15)

1.一种电子设备,包括:
第一指示单元,其被配置为能够接收向显示单元的位置的输入;
第二指示单元,其被配置为能够接收移动指示,所述移动指示用于移动与所述显示单元上的由所述第一指示单元接收到了输入的输入位置相对应的选择位置;以及
控制单元,其被配置为进行控制,使得:
在包括所述输入位置的被摄体区域具有第一大小的情况下,根据针对所述第二指示单元进行的第一操作量的移动操作,使所述选择位置移动第一移动量,以及
在所述被摄体区域具有比所述第一大小小的第二大小的情况下,根据针对所述第二指示单元进行的所述第一操作量的移动操作,使所述选择位置移动比所述第一移动量小的第二移动量。
2.根据权利要求1所述的电子设备,
其中,相对于针对所述第二指示单元的操作量的、所述选择位置的移动量的大小是通过将整个画面与特定范围的大小信息进行比较而确定的。
3.根据权利要求2所述的电子设备,
其中,所述大小信息是所述特定范围在水平方向上的长度、所述特定范围在垂直方向上的长度和所述特定范围的面积至少之一。
4.根据权利要求1所述的电子设备,
其中,所述控制单元进行控制,使得:
在移动之前的所述选择位置在所述被摄体区域内且未到达所述被摄体区域在第一方向上的边界的情况下,根据用于向所述第二指示单元发出针对所述选择位置的沿所述第一方向的移动指示的操作,来沿所述第一方向移动所述选择位置,以及
在移动之前的所述选择位置在所述被摄体区域内且到达了所述被摄体区域在所述第一方向上的边界的情况下,即使在进行了用于向所述第二指示单元发出针对所述选择位置的沿所述第一方向的移动指示的操作的情况下,也不沿所述第一方向移动所述选择位置。
5.根据权利要求1所述的电子设备,
其中,所述被摄体区域是与在所述第一指示单元所输入的输入位置处检测到的被摄体相对应的区域。
6.根据权利要求1所述的电子设备,
其中,所述第一指示单元是视线输入单元、声音输入单元和触摸输入单元其中之一,所述视线输入单元被配置为接收作为经由视线针对被摄体图像进行的位置的输入的视线输入,所述声音输入单元被配置为接收经由声音针对被摄体图像进行的名称的输入,所述触摸输入单元被配置为接收作为经由触摸针对被摄体图像进行的位置的输入的触摸输入。
7.根据权利要求1所述的电子设备,
其中,在确定了基于所述第一指示单元的所述被摄体区域之后,所述被摄体区域在跟踪被摄体图像的移动的状态下移动。
8.根据权利要求1所述的电子设备,
其中,所述被摄体区域是基于在所述第一指示单元所输入的输入位置处检测到的被摄体的测距信息而确定的。
9.根据权利要求1所述的电子设备,
其中,在被摄体图像包括瞳孔的情况下,使用所述第一指示单元接收到了输入的位置作为瞳孔位置。
10.根据权利要求1所述的电子设备,
其中,所述被摄体区域是如下的范围,该范围包括所述第一指示单元接收到了输入的位置处的被摄体图像,并且该范围大致具有矩形形状、大致具有椭圆形形状、或者是通过大致勾画被摄体的轮廓所获得的。
11.根据权利要求1所述的电子设备,
其中,在已经开始来自所述第二指示单元的指示的情况下,所述控制单元在预定时间段中不接收来自所述第一指示单元的输入。
12.根据权利要求1所述的电子设备,
其中,所述显示单元包括布置在取景器内的显示面板。
13.根据权利要求1所述的电子设备,
其中,所述控制单元控制所述显示单元,使得将示出与所述输入位置相对应的所述被摄体区域的图像叠加显示在摄像单元所拍摄到的实时取景图像上。
14.根据权利要求13所述的电子设备,
其中,所述控制单元使得所述显示单元显示指示所述选择位置的图像。
15.一种电子设备的控制方法,所述电子设备包括:第一输入装置,其被配置为能够接收向显示装置的位置的输入;以及第二输入装置,其被配置为能够接收移动指示,所述移动指示用于移动与所述显示装置上的由所述第一输入装置接收到了输入的输入位置相对应的选择位置,所述控制方法包括:
进行控制,使得:
在包括所述输入位置的被摄体区域具有第一大小的情况下,根据针对所述第二输入装置进行的第一操作量的移动操作,使所述选择位置移动第一移动量,以及
在所述被摄体区域具有比所述第一大小小的第二大小的情况下,根据针对所述第二输入装置进行的所述第一操作量的移动操作,使所述选择位置移动比所述第一移动量小的第二移动量。
CN202110801143.2A 2020-07-16 2021-07-15 电子设备及其控制方法 Pending CN113949809A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-122348 2020-07-16
JP2020122348A JP2022018908A (ja) 2020-07-16 2020-07-16 撮像制御装置、その制御方法、プログラム及び記録媒体

Publications (1)

Publication Number Publication Date
CN113949809A true CN113949809A (zh) 2022-01-18

Family

ID=79293546

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110801143.2A Pending CN113949809A (zh) 2020-07-16 2021-07-15 电子设备及其控制方法

Country Status (3)

Country Link
US (1) US11770602B2 (zh)
JP (1) JP2022018908A (zh)
CN (1) CN113949809A (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6257198B2 (ja) 2013-07-22 2018-01-10 キヤノン株式会社 光学機器、その制御方法、および制御プログラム
KR102232517B1 (ko) * 2014-09-15 2021-03-26 삼성전자주식회사 이미지 촬영 방법 및 이미지 촬영 장치
JP6590628B2 (ja) * 2015-10-09 2019-10-16 キヤノン株式会社 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP2018074200A (ja) 2016-10-24 2018-05-10 キヤノン株式会社 撮像装置およびその制御方法

Also Published As

Publication number Publication date
JP2022018908A (ja) 2022-01-27
US11770602B2 (en) 2023-09-26
US20220021817A1 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
CN112714247B (zh) 摄像设备和摄像设备的控制方法
CN113301247B (zh) 一种摄像设备、其控制方法以及存储介质
EP3863013A1 (en) Voice input apparatus, control method thereof, and computer program for executing processing corresponding to voice instruction
US20240062583A1 (en) Electronic apparatus and method for controlling the same
JP7467071B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
CN112015266A (zh) 电子设备、电子设备的控制方法及计算机可读存储介质
JP2014017665A (ja) 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
US11381732B2 (en) Image-capturing controller and method for controlling same
CN113364945A (zh) 电子装置、控制方法和计算机可读介质
JP7490372B2 (ja) 撮像制御装置及びその制御方法
US20230018866A1 (en) Electronic device that displays a plurality of display items on a display and method for controlling electronic device
CN107800956B (zh) 摄像设备、控制方法和存储介质
JP2020178273A (ja) 表示制御装置およびその制御方法
US11526208B2 (en) Electronic device and method for controlling electronic device
US11442244B2 (en) Imaging device
CN113949809A (zh) 电子设备及其控制方法
CN112040095A (zh) 电子装置、电子装置的控制方法及存储介质
US11985426B2 (en) Electronic apparatus capable of performing line-of-sight input, control method for electronic apparatus, and storage medium
CN112954150B (zh) 电子设备及其控制方法和存储介质
US20240129622A1 (en) Electronic device and control method thereof
US20230209177A1 (en) Imaging apparatus
JP2022095306A (ja) 表示制御装置及びその制御方法
CN116648668A (zh) 电子设备、其控制方法、程序和存储介质
JP2021152744A (ja) 電子機器及びその制御方法
JP2021158502A (ja) 撮像装置、撮像方法、プログラムおよび記録媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination