CN112104809A - 电子装置、电子装置的控制方法及存储介质 - Google Patents
电子装置、电子装置的控制方法及存储介质 Download PDFInfo
- Publication number
- CN112104809A CN112104809A CN202010551188.4A CN202010551188A CN112104809A CN 112104809 A CN112104809 A CN 112104809A CN 202010551188 A CN202010551188 A CN 202010551188A CN 112104809 A CN112104809 A CN 112104809A
- Authority
- CN
- China
- Prior art keywords
- line
- gaze
- input
- selected position
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/02—Viewfinders
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
Abstract
本发明提供电子装置、电子装置的控制方法及存储介质。电子装置包括:视线接收单元,其基于眼睛跟踪处理接收所选位置的视线输入;操作接收单元,其接收特定操作构件的区域上的触摸操作,所述操作接收单元接收所述特定操作构件上的、用于移动所选位置的移动操作以及不同于所述移动操作的预定操作;以及控制单元进行控制,使得在正在进行所述预定操作的情况下,基于所述视线输入而移动所选位置;而在没有正在进行所述预定操作的情况下,基于由视线接收单元接收的所述视线输入来移动所选位置。
Description
技术领域
本公开涉及能够基于眼睛跟踪处理进行视线输入的电子装置、电子装置的控制方法及存储介质。
背景技术
已经讨论了如下相机,该相机检测拍摄者的视线(eye direction),检测拍摄者正在观察取景器视野内的哪个区域(位置),并且控制诸如自动聚焦功能的摄像功能。如果拍摄者不想使用基于视线的功能,则拍摄者可以从可执行基于视线的功能的状态切换到不执行基于视线的功能的状态。日本特开2001-100903号公报讨论了对用户的视线的检测,由此可以将光标移动到检测到的视线位置。根据日本特开2001-100903号公报,可以通过以下任意一者来打开/关闭光标跟随用户的视线位置的光标跟随模式:用户的手势、语音、视线和操作。
然而,根据日本特开2001-100903号公报,用户每次都需要使用手势、语音、视线或操作来发出指令,以打开/关闭基于视线输入的光标跟随模式。每次切换时进行这种操作的时间和劳力可能很令人烦恼。另外,在将光标跟随模式从打开切换为关闭之后,用户可能会忘记将光标跟随模式从关闭恢复为打开。
发明内容
本公开旨在使得能够基于用户的意图,通过视线输入来切换是否移动所选位置,而不会花费大量时间和劳力。
根据本发明的一方面,一种电子装置包括至少一个存储器和用作如下单元的至少一个处理器:视线接收单元,其被构造为基于眼睛跟踪处理接收所选位置的视线输入;操作接收单元,其被构造为接收特定操作构件的区域上的触摸操作,所述操作接收单元,接收所述特定操作构件上的、用于移动所选位置的移动操作以及不同于所述移动操作的预定操作;以及控制单元,其被构造为进行控制,使得在正在进行所述预定操作的情况下,不基于所述视线输入而移动所选位置;而在没有正在进行所述预定操作的情况下,基于所述视线输入来移动所选位置。
根据本发明的另一方面,一种电子装置包括:特定操作构件,其被构造为接收操作;以及至少一个存储器和用作如下单元的至少一个处理器:视线接收单元,其被构造为基于眼睛跟踪处理接收作为所选位置的输入的视线输入;以及控制单元,其被构造为进行控制,使得在正在按下所述特定操作构件的情况下,不基于所述视线输入而移动所选位置的移动;而在没有正在按下所述特定操作构件的情况下,基于由所述视线接收单元接收的所述视线输入来移动所选位置。
根据本发明的又一方面,一种电子装置包括:第一操作构件,其被构造为指示图像传感器拍摄图像;特定操作构件,其不同于所述第一操作构件;以及至少一个存储器和用作如下单元的至少一个处理器:视线接收单元,其被构造为基于眼睛跟踪处理接收所选位置的视线输入;以及控制单元,其被构造为进行控制,使得在没有正在操作所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在正在操作所述特定操作构件的情况下,基于由所述视线接收单元接收的所述视线输入来移动所选位置。
根据本发明的再一方面,一种电子装置包括:至少一个存储器和用作如下单元的至少一个处理器:视线接收单元,其被构造为基于眼睛跟踪处理接收所选位置的视线输入;操作接收单元,其被构造为接收特定操作构件的区域上的触摸操作;以及控制单元,其被构造为进行控制,使得在没有正在触摸所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在正在触摸所述特定操作构件的情况下,即使没有用于移动所选位置的触摸操作,也基于由所述视线接收单元接收的所述视线输入来移动所选位置。
通过以下参照附图对示例性实施例的描述,本发明的其他特征将变得清楚。
附图说明
图1A和图1B是作为本发明的示例性实施例的数字相机的外观图。
图2是示出作为本发明的示例性实施例的数字相机的构造的框图。
图3是示出根据本发明的第一示例性实施例的基于视线输入来控制自动聚焦(AF)框的处理的流程图。
图4A至图4H示出了根据本发明的第一示例性实施例的操作示例以及基于视线输入的AF框的显示位置的显示示例。
图5是示出根据本发明的第二示例性实施例的基于视线输入来控制AF框的处理的流程图。
图6A至图6H示出了根据本发明的第二示例性实施例的操作示例以及基于视线输入的AF框的显示位置的显示示例。
图7示出了根据本发明的第一示例性实施例的与摄像有关的设置菜单画面的显示示例。
图8是示出在没有取景器的情况下的本发明的示例性实施例的图。
具体实施方式
下面将参照附图描述本发明的示例性实施例。
注意,以下示例性实施例仅是用于实现本发明的一个示例,并且可以取决于本发明适用的装置的个体构造和各种条件而进行适当地变型或改变。因此,本发明绝不限于以下示例性实施例。
图1A和图1B示出了本发明的示例性实施例适用的数字相机100的外观图。图1A是数字相机100的正面立体图。图1B是数字相机100的背面立体图。在图1A和图1B中,显示单元28位于数字相机100的背面,并且显示图像和各种类型的信息。触摸面板70a是触摸操作构件,并且可以检测对显示单元28的显示面(操作面)的触摸操作。取景器外显示单元43是位于数字相机100的顶面的显示单元,并且显示数字相机100的各种设置值,诸如快门速度和光圈值。
快门按钮61是用于提供摄像指令的操作单元。模式改变开关60是用于切换各种模式的操作单元。端子盖40是保护将外部装置的连接线缆连接到数字相机100的连接器(未示出)的盖。主电子拨盘71是包括在操作单元70中的旋转操作构件。可以通过旋转主电子拨盘71来改变诸如快门速度和光圈值的设置值。电源开关72是用于打开/关闭数字相机100的电源的操作构件。副电子拨盘73是包括在操作单元70中的旋转操作构件。通过使用副电子拨盘73,可以移动选择框并且可以快进图像。四向方向键74是包括在操作单元70中的操作构件,并且包括可以在四个方向上按动的按动按钮。可以基于四向方向键74的按压方向进行操作。设置按钮75是包括在操作单元70中的按动按钮。设置按钮75主要用于确定选择项目。运动图像按钮76用于给出开始和停止运动图像拍摄(记录)的指令。自动曝光(AE)锁定按钮77包括在操作单元70中。可以通过在摄像待机状态下按下AE锁定按钮77来锁定曝光状态。变焦按钮78是包括在操作单元70中的操作按钮。变焦按钮78旨在于摄像模式下的实时取景(LV)显示中打开/关闭变焦模式。通过在变焦模式为ON(打开)的情况下操作主电子拨盘71,可以放大或缩小LV图像。在回放模式下,变焦按钮78用作放大回放图像或增大放大率的操作按钮。回放按钮79是包括在操作单元70中并且旨在于摄像模式与回放模式之间切换的操作按钮。如果在摄像模式下按下回放按钮79,则数字相机100进入回放模式,由此可以将记录在记录介质200上的图像当中的最新图像显示在显示单元28上。菜单按钮81包括在操作单元70中。如果按下菜单按钮81,则在显示单元28上显示可以进行各种设置的菜单画面。用户可以通过使用显示在显示单元28上的菜单画面、四向方向键74和设置按钮75直观地进行各种设置。
通信端子10用于数字相机100与下面描述的透镜单元150(可拆卸)进行通信。目镜单元16是目镜取景器(透视取景器)的目镜单元。用户可以通过目镜单元16在视觉上观察显示在内部的电子取景器(EVF)29上的视频图像。眼睛接近检测单元57是检测用户(拍摄者)的眼睛是否接近目镜单元16的眼睛检测传感器。盖子202是用于容纳有记录介质200的槽。握持部90是具有在保持数字相机100时易于用户通过右手握持的形状的保持部。快门按钮61和主电子拨盘71位于当用户通过用右手的小指、无名指和中指抓握握持部90来保持数字相机100时可由右手的食指操作的位置处。副电子拨盘73在相同状态下位于可由右手的拇指操作的位置处。
图2是示出根据本示例性实施例的数字相机100的构造示例的框图。在图2中,透镜单元150包括可互换摄像透镜。透镜103通常包括多个透镜,但是在图2中被简化并描绘为单个透镜。通信端子6允许透镜单元150与数字相机100进行通信。透镜单元150经由通信端子6和前述通信端子10与系统控制单元50进行通信。通过使用内部的透镜系统控制电路4经由光圈驱动电路2来控制光圈1。然后,经由自动聚焦(AF)驱动电路3对透镜103进行移位以聚焦。
快门101是焦平面快门,其可以基于系统控制单元50的控制来自由地控制摄像单元22的曝光时间。
摄像单元22是图像传感器,其包括将光学图像转换为电信号的电荷耦合器件(CCD)传感器或互补金属氧化物半导体(CMOS)传感器。模数(A/D)转换器23用于将从摄像单元22输出的模拟信号转换为数字信号。
图像处理单元24对来自A/D转换器23的数据或来自存储器控制单元15(下面描述)的数据进行预定的尺寸调整处理(诸如像素插值和缩小)和颜色转换处理。图像处理单元24通过使用拍摄的图像数据进行预定的计算处理。系统控制单元50基于图像处理单元24获得的计算结果来进行曝光控制和测距控制。从而进行通过透镜(TTL)AF处理、AE处理和电子闪光(EF)(预备闪光发射)处理。图像处理单元24还通过使用拍摄的图像数据进行预定的计算处理,并且基于获得的计算结果进行TTL自动白平衡(AWB)处理。
存储器控制单元15控制A/D转换器23、图像处理单元24和存储器32之间的数据发送和接收。来自A/D转换器23的输出数据经由图像处理单元24和存储器控制单元15被写入到存储器32中,或直接经由存储器控制单元15被写入到存储器32中。存储器32存储由摄像单元22获得并由A/D转换器23数字转换的图像数据、以及要显示在显示单元28和EVF 29上的图像数据。存储器32具有足够的存储容量以存储预定数量的静止图像以及预定持续时间的运动图像和音频数据。
存储器32还用作图像显示存储器(视频存储器)。经由存储器控制单元15将写入到存储器32中的图像显示数据显示在显示单元28和EVF29上。显示单元28和EVF 29基于来自存储器控制单元15的信号在显示设备(诸如液晶显示器(LCD)和有机电致发光(EL)显示器)上提供显示。可以通过将由A/D转换器23进行A/D转换并存储在存储器32中的数据连续地传送到显示单元28或EVF 29以进行显示,来提供LV显示。通过LV显示来显示的图像在下文中将被称为LV图像。
红外发光二极管166检测在EVF 29内部的画面上用户的眼睛指向的位置。红外发光二极管166利用红外线照射用户的眼球(眼睛)161。从红外发光二极管166发射的红外线被眼球(眼睛)161反射,并且反射的红外线到达二向色镜162。二向色镜162仅反射红外线并且透射可见光。沿着改变的光路的反射的红外线经由成像透镜163在视线检测传感器164的摄像面上形成图像。成像透镜163是构成眼睛跟踪光学系统的光学构件。视线检测传感器164包括诸如CCD图像传感器的摄像设备。
视线检测传感器164将入射的反射红外线光电转换为电信号,并将该电信号输出到视线检测电路165。视线检测电路165包括至少一个处理器。视线检测电路165包括至少一个处理器,基于视线检测传感器164的输出信号,根据用户的眼球(眼睛)161的图像或移动来检测视线位置,并向系统控制单元50输出检测信息。因此,二向色镜162、成像透镜163、视线检测传感器164、红外发光二极管166和视线检测电路165构成眼睛跟踪块160。
在本示例性实施例中,通过使用眼睛跟踪块160的称为角膜反射方法的方法来检测视线。在角膜反射方法中,根据眼球(眼睛)161的瞳孔与从红外线发射二极管166发射并特别是被眼球(眼睛)161的角膜反射的反射红外光之间的位置关系,来检测视线和视线位置。除了角膜反射方法外,还存在用于检测视线和视线位置的各种方法,诸如称为异色边缘反射方法的方法,其中利用了眼睛的黑色部分与白色部分之间的反射率差异。可以使用利用除上述之外的眼睛跟踪单元的方法,只要可以检测视线和视线位置即可。
数字相机100的各种设置值(包括快门速度和光圈值)经由取景器外显示单元驱动电路44显示在取景器外显示单元43上。
非易失性存储器56是电可擦除可记录存储器。示例包括闪存只读存储器(闪存ROM)。非易失性存储器56存储系统控制单元50的操作常数和程序。在此,该程序是指用于执行以下在本示例性实施例中描述的流程图的程序。
系统控制单元50是包括至少一个处理器或电路的控制单元,并且控制整个数字相机100。系统控制单元50通过执行记录在前述非易失性存储器56中的程序来实现根据以下描述的本示例性实施例的各种处理。系统存储器52例如是随机存取存储器(RAM)。系统控制单元50的操作常数、变量和从非易失性存储器56读取的程序被加载到系统存储器52中。系统控制单元50还通过控制存储器32和显示单元28来进行显示控制。
系统计时器53是时钟单元,其测量用于各种控制的时间和内置时钟的时间。
模式改变开关60、第一快门开关62、第二快门开关64和操作单元70包括用于向系统控制单元50输入各种操作指令的操作单元。模式改变开关60将系统控制单元50操作模式切换为静止图像拍摄模式和运动图像拍摄模式中的任一种。静止图像拍摄模式例如包括以下模式:自动摄像模式、自动场景确定模式、手动模式、光圈优先模式(Av模式)、快门速度优先模式(Tv模式)和程序AE模式(P模式)。还包括各种类型的场景模式(包括各个摄像场景特有的摄像设置)和自定义模式。用户可以通过使用模式改变开关60直接切换到任何一种模式。另选地,用户可以通过使用模式改变开关60一次切换到摄像模式列表画面,选择显示的多个模式中的一个模式,然后通过使用其他操作构件来切换到所选模式。类似地,运动摄像模式可以包括多个模式。
通过将数字相机100上的快门按钮61按下一半,即半按(摄像准备指令),来接通第一快门开关62,并且第一快门开关62生成第一快门开关信号SW1。基于第一快门开关信号SW1,系统控制单元50开始摄像准备操作,诸如AF处理、AE处理、AWB处理和EF(预备闪光发射)处理。
通过完全按下快门按钮61,即全按(摄像指令),来接通第二快门开关64,并且第二快门开关64生成第二快门开关信号SW2。基于第二快门开关信号SW2,系统控制单元50开始从读取来自摄像单元22的信号到将拍摄的图像作为图像文件写入记录介质200的一系列摄像处理操作。
操作单元70包括用作接收来自用户操作的输入单元的各种操作构件。操作单元70至少包括以下操作构件:快门按钮61、触摸面板70a、主电子拨盘71、电源开关72、副电子拨盘73、四向方向键74、设置按钮75、运动图像按钮76、AE锁定按钮77、变焦按钮78、回放按钮79和菜单按钮81。
电源控制单元80包括电池检测电路、直流-直流(DC-DC)转换器和用于切换要通电的块的开关电路。电源控制单元80检测是否安装了电池、电池的类型以及剩余电池电量。电源控制单元80基于检测结果和来自系统控制单元50的指令来控制DC-DC转换器,并且在预定时段内向包括记录介质200的各种部件提供预定电压。电源单元30包括一次电池(诸如碱性电池和锂电池)、二次电池(诸如镍镉(NiCd)电池、镍金属卤化物(NiMH)电池以及锂离子(Li)电池)和/或交流电(AC)适配器。
记录介质接口(I/F)18是与诸如存储卡和硬盘的记录介质200的I/F。记录介质200用于记录拍摄的图像,并且包括半导体存储器或磁盘。
通信单元54无线地或经由线缆连接到外部装置,并且发送和接收视频信号和音频信号。通信单元54还可以连接到无线局域网(LAN)和因特网。通信单元54可以例如通过(蓝牙)和Low Energy(蓝牙低功耗)与外部装置进行通信。通信单元54可以发送由摄像单元22拍摄的图像(包括LV图像)和记录在记录介质200上的图像,并且可以从外部装置接收图像和各种其他类型的信息。
取向(orientation)检测单元55检测数字相机100相对于重力方向的取向。可以基于由取向检测单元55检测到的取向来确定由摄像单元22拍摄的图像是横向还是纵向。系统控制单元50可以将基于由取向检测单元55检测到的取向的取向信息,添加到由摄像单元22拍摄的图像的图像文件中,或者旋转并记录图像。加速度传感器或陀螺仪传感器例如可以用作取向检测单元55。还可以通过使用作为取向检测单元55的加速度传感器或陀螺仪传感器来检测数字相机100的运动(诸如摇摄、倾斜、抬起以及数字相机100是否静止)。
眼睛接近检测单元57是眼睛检测传感器,其在眼睛接近状态下检测到眼睛(物体)161接近目镜取景器的目镜单元16,而在眼睛分离状态下检测到眼睛(物体)161远离目镜单元16。系统控制单元50基于由眼睛接近检测单元57检测到的状态,在显示单元28和EVF 29的显示(显示状态)与非显示(非显示状态)之间切换。更具体地,如果至少数字相机100处于摄像待机状态,并且由摄像单元22拍摄的实时取景图像的显示目的地的切换设置被设置为自动切换设置,则当眼睛161没有接近目镜单元16时,将显示目的地设置为显示单元28并将显示设置为ON,并且使EVF 29进入非显示状态。而在眼睛接近目镜取景器的同时,系统控制单元50打开作为显示目的地的EVF 29的显示,并且关闭显示单元28的显示。例如,眼睛接近检测单元57可以是红外接近传感器,并且可以检测到存在接近内置有EVF 29的目镜取景器的目镜单元16的物体。如果物体接近目镜单元16,则从眼睛接近检测单元57的光投射单元(未示出)投射的红外线从物体反射并由红外接近传感器的光接收单元(未示出)接收。还可以基于接收到的红外线的量来确定物体接近目镜单元16的程度(眼睛接近距离)。以这种方式,眼睛接近检测单元57进行眼睛接近检测,以检测物体到目镜单元16的接近距离。在本示例性实施例中,眼睛接近检测单元57的光投射单元和光接收单元是与上述红外发光二极管166和视线检测传感器164不同的设备。然而,红外发光二极管166也可以用作眼睛接近检测单元57的光投射单元。视线检测传感器164也可以用作光接收单元。如果检测到物体接近处于非眼睛接近状态(非接近状态)的目镜单元16预定距离以内,则眼睛接近检测单元57检测到眼睛接近目镜单元16(眼睛接近)。如果存在于目镜单元16附近的物体被检测到从目镜单元16移开预定距离或更远,则眼睛接近检测单元57检测到眼睛处于对目镜单元16的眼睛分离状态。例如,可以通过提供滞后来使用于检测眼睛接近状态的阈值与用于检测眼睛分离状态的阈值不同。在检测到眼睛接近状态之后,维持眼睛接近状态直到检测到眼睛分离状态。在检测到眼睛分离状态之后,目镜单元16处于非眼睛接近状态,直到检测到眼睛接近状态。在本实施例中使用的红外接近传感器仅是示例,并且可以检测附近的眼睛或物体的存在的其他传感器也可以用作眼睛接近检测单元57。
基于眼睛跟踪块160的输出,系统控制单元50可以检测以下操作或状态:
·存在眼睛接近目镜单元16的用户的视线的输入的状态;
·眼睛接近目镜单元16的用户正在注视的状态;
·眼睛接近目镜单元16的用户移开视线,或等效地,结束视线输入;和
·眼睛接近目镜单元16的用户未进行视线输入的状态。
如本文所采用的,注视是指用户的眼睛的定向移动在预定时间内没有超过预定移动量的情况。
触摸面板70a和显示单元28可以被一体化构造。例如,触摸面板70a被构造为具有不干扰显示单元28的显示的透光率,并且被附装到显示单元28的显示面的顶层。触摸面板70a的输入坐标与显示单元28的显示画面上的显示坐标相互关联。从而可以提供如下图形用户界面(GUI),该图形用户界面使用户能够进行操作,就好像直接操作显示在显示单元28上的画面一样。系统控制单元50可以检测触摸面板70a上的以下操作或状态:
·尚未触摸触摸面板70a的手指或笔触摸触摸面板70a,即,触摸开始(以下称为触落);
·手指或笔当前正在触摸触摸面板70a的状态(以下称为触开);
·当前正在触摸触摸面板70a的手指或笔正在移动(以下称为触摸移动);
·已经触摸了触摸面板70a的手指或笔从触摸面板释放,即,触摸结束(以下称为触起);和
·什么都没有触摸触摸面板70a的状态(以下称为触关)。
如果检测到触落,则相应地同时检测到触开。在触落之后,除非检测到触起,否则通常会持续检测到触开。在检测到触开的状态下检测触摸移动。如果检测到触开且触摸位置没有移动,则不会检测到触摸移动。在所有触摸的手指和笔都被检测到触起之后,检测到触关。
经由内部总线将这样的操作和状态以及触摸触摸面板70a的手指和笔的位置坐标通知给系统控制单元50。系统控制单元50基于所通知的信息来确定在触摸面板70a上进行了什么操作(触摸操作)。如果进行触摸移动,则可以基于位置坐标的变化,依据触摸面板70a上的各垂直分量和水平分量来确定在触摸面板70a上移动的手指或笔的移动方向。如果检测到预定距离以上的触摸移动,则系统控制单元50确定进行了滑动操作。将使触摸触摸面板70a的手指快速移动一定距离并立即释放手指的操作称为轻弹(flick)。换句话说,轻弹是指使手指在触摸面板70a上快速行进就像轻弹一样的操作。如果检测到以预定速度以上进行了预定距离以上的触摸移动并且立即检测到触起,则可以确定进行轻弹(可以确定在滑动操作之后进行轻弹)。同时触摸多个点(例如,两个点)并使触摸位置彼此接近的触摸操作称为“捏合(pinch-in)”,使触摸位置彼此分离的触摸操作称为“捏放(pinch-out)”。捏放和捏合统称为捏操作(或简称为捏)。触摸面板70a可以使用各种方式(包括电阻方式、电容方式、表面声波方式、红外方式、电磁感应方式、图像识别方式和光学传感器方式)的触摸面板中的任何一种。一些系统基于与触摸面板的接触来检测触摸,并且一些系统基于手指或笔对于触摸面板的接近来检测触摸。可以使用这样的系统中的任何系统。
在本示例性实施例中,将描述通过触摸输入操作对基于数字相机100上的视线输入操作来显示AF框的控制处理。
下面将描述本发明的第一示例性实施例。本示例性实施例提供了对在持续对操作构件(在本示例性实施例中为触摸面板70a)的操作的同时通过视线输入控制为不移动的AF框的描述。图3是控制处理的流程图,其中通过触摸操作来控制基于视线输入的AF框的显示。通过系统控制单元50将存储在非易失性存储器56中的程序加载到系统存储器52中并执行该程序来实现该控制处理。如果在摄像模式下启动数字相机100并且用户在摄像待机状态下看着EVF 29(即,当用户处于用户的眼睛接近目镜单元16的状态并且启动与视线输入有关的设置时),则开始图3的流程图。图7示出了显示在EVF 29或显示单元28上的与摄像有关的设置菜单画面。设置菜单画面显示设置项目701至704。其中,设置项目703是与视线输入有关的项目。视线输入是指与基于用户的视线进行的操作有关的功能。视线输入可以设置为启用或禁用。如果选择了设置项目703a,则启用与视线输入有关的设置。如果选择了设置项目703b,则禁用与视线输入有关的设置。例如,如果启用视线输入,则可以进行用于通过视线选择和移动AF框的位置的操作。例如,如果禁用视线输入,则无法进行通过视线选择和移动AF框的位置的操作。图7示出了视线输入的设置被启用。视线输入的设置存储在非易失性存储器56中。
在步骤S301中,系统控制单元50确定是否存在视线输入。如果存在视线输入,即,眼睛跟踪块160检测到用户的视线(步骤S301为“是”),则处理进入步骤S302。如果未检测到用户的视线(步骤S301中为“否”),则处理返回至步骤S301。如果进行了视线输入,则系统控制单元50测量从开始视线输入时起的时间。例如,眼睛跟踪块160每30毫秒检测视线位置,并且将检测到的视线位置发送到系统控制单元50。系统控制单元50基于视线位置和测量的时间,确定用户是正在大范围地移动视线(不停地转动视线)还是正在密切关注某个点(注视)。注视将在下面的步骤S302中描述。
在步骤S302中,系统控制单元50确定用户是否在注视。系统控制单元50根据视线位置和测量的时间来确定:如果在预定时间内视线位置的移动量小于或等于预定阈值,则用户正在注视。例如,系统控制单元50确定:如果在120毫秒内视线位置的移动量小于或等于预定阈值,则用户正在注视。如果用户正在注视(步骤S302为“是”),则处理进入步骤S303。如果用户没有注视(步骤S302为“否”),则处理返回到步骤S301。虽然在此将注视描述为用于在通过视线输入来移动焦点检测区域(以下称为AF框)的显示位置时,确定视线位置是用户期望的条件,但是可以使用用户的眨眼或语音指令作为该条件。另选地,即使没有注视也可以基于检测到的视线的位置来移动AF框(即,可以省略步骤S302,使得处理从步骤S301进入步骤S303)。尽管将120毫秒描述为用以确定注视的测量时间的具体示例,但是可以预先设置测量时间,用户可以自由设置测量时间,或者可以基于所显示的AF框的位置与注视的位置(注视位置)之间的位置关系来改变测量时间。
在步骤S303中,系统控制单元50将AF框的显示位置移动到在EVF29中检测到的视线(注视)位置,并且进行AF处理。如果在用户在步骤S304中进行触落之前注视位置(视线位置)移动,则如步骤S302中所述,随着时间检测注视位置并且AF框移动到注视位置。例如,每当确定用户正在注视时(在每个预定时间),系统控制单元50将AF框移动到注视位置。尽管与确定注视的时间一样,将120毫秒设置为基于视线移动和更新AF框的时间段,但是该时间段可以预先设置或者可由用户自由设置。减小更新时间段可以使AF框更准确地移动到视线位置,并且AF框可以更快地跟随视线的移动。增大更新时间段可以减少对用户的烦恼,因为AF框不会以小步长跟随,而是在某种程度上粗略地跟随视线位置的移动。不管前述更新时间如何,基于视线移动的AF框(所选位置)都会平滑地移动以跟随视线的移动轨迹。具体地,即使用户快速大范围地移动视线,AF框(所选位置)也平滑地移动以跟随视线的移动轨迹,而不会从先前的显示位置跳到检测到的视线的位置。换句话说,如果更新时间段短,则AF框会快速移动以跟随视线的移动而不会延迟。如果更新时间段长,则AF框会沿着视线的移动轨迹平滑移动。如果检测到由眼睛跟踪块160检测到的视线位置(注视位置)已经从显示在EVF 29上的AF框的位置移动,则不管视线位置与AF框的位置之间的距离是大还是小,系统控制单元50都会移动AF框以跟随视线位置。
在步骤S304中,系统控制单元50确定是否在触摸面板70a上进行了触落。如果进行了触落(步骤S304中为“是”),则处理进入步骤S305。否则(步骤S304中为“否”),处理返回到步骤S301。
在步骤S305中,系统控制单元50暂时禁止(限制)通过视线输入来移动AF框的显示位置。例如,在检查在EVF 29上显示的图标或数值时,用户可以注视图标或数值的区域。这种注视并不旨在通过视线输入来移动AF框的显示位置。如果AF框响应于旨在检查图标或数值的注视而移动,则AF框可以移动到除了用户期望位置以外的位置,并且可以在该位置进行AF处理。如果已经在用户期望的位置成功地进行了AF处理,则由于用户不得不再次注视期望位置,AF框的意外移动的发生使用户烦恼。如果省略了步骤S302(注视确定步骤),则由于诸如检查EVF 29上显示的整个图像的原因,当用户大范围地移动视线时,跟随视线的移动的AF框会使用户烦恼。如果在确定用户正在注视(或者存在视线输入)之后在触摸面板70a上进行了触落操作,则系统控制单元50暂时禁止或限制在持续进行触摸操作的同时通过视线输入来移动AF框的显示位置。这防止了在触开从触落持续到触起的同时,AF框响应于检测到的视线的位置变化而移动。在前述触开持续的同时,可以暂停由眼睛跟踪块160进行的用于检测视线的处理(眼睛跟踪处理)的至少一部分以节省电力。暂停的眼睛跟踪处理可以在触起后恢复。
在步骤S306中,系统控制单元50基于在触落时(具体地,在进行触落操作之前或在开始触落操作的时间点)时的视线位置,确定AF框的跟踪物体以进行跟踪。
在步骤S307中,系统控制单元50开始跟踪在步骤S306中确定的跟踪物体。在第一示例性实施例中,例如,假设用户基于在步骤S303中的视线输入通过AF框选择移动物体。在这种情况下,由于用户可能希望AF框响应于物体的移动而移动,因此系统控制单元50在步骤S306和S307中跟踪物体。然而,如果用户选择了多个AF框中的一个并进行设置以对该一个点(AF框)进行AF处理,则此方法将不适用。在这种情况下,如果如步骤S306和S307中那样移动AF框以跟踪物体的移动,则AF框可以移动到除了用户期望的位置以外的位置。如果用户进行了上述设置以对一个点进行AF处理并且移动在步骤S303中进行了AF处理的物体,则系统控制单元50可以将AF框固定到用户期望的点,而不是将该物体确定为跟踪物体(而不是跟踪物体)。换句话说,可以省略步骤S306和S307,使得处理从步骤S305进入步骤S308。
在步骤S308中,系统控制单元50确定是否在触摸面板70a上进行了触摸移动操作。如果进行了触摸移动操作(步骤S308为“是”),则处理进入步骤S309。否则(步骤S308为“否”),处理进入步骤S310。
在步骤S309中,系统控制单元50将在步骤S303中显示在EVF 29上的AF框移动与在步骤S308中确定的触摸移动的量相对应的量。用户在触摸面板70a上进行触摸移动表明用户想要在触摸移动的方向上移动通过在EVF 29上的视线输入来移动的AF框。因此,系统控制单元50将显示在EVF 29上的AF框移动与触摸移动的量相对应的量。下面将参照图4E和图4F描述细节。通过将触摸移动的量乘以系数来计算与触摸移动的量相对应的EVF 29上的AF框的移动量。系数越小,EVF 29上的AF框的移动量相对于触摸移动量越小。这样可以对通过视线输入来移动的AF框进行更精细的调整。
可以省略步骤S308和S309的处理,使得处理从步骤S307进入步骤S310。换句话说,即使进行触摸移动,AF框也可以不移动。
在步骤S310中,系统控制单元50确定是否存在从触摸面板70a的触起。如果进行了触起(步骤S310为“是”),则处理进入步骤S311。如果触摸操作持续(步骤S310中为“否”),则处理返回至步骤S305。
在步骤S311中,系统控制单元50参考非易失性存储器56并确定与触摸快门有关的设置是否打开。如果与触摸快门有关的设置为开(步骤S311为“是”),则处理进入步骤S312。如果设置为关(步骤S311为“否”),则处理进入步骤S313。触摸快门是指通过触摸面板70a上的轻击操作来拍摄图像(释放快门)的功能。如果与触摸快门有关的前述设置为开,则用户不仅可以通过按下快门按钮61而且可以通过在触摸面板70a上进行轻击操作来拍摄图像。这使用户能够直观地指定期望的焦点位置并拍摄图像而不会错过拍照机会。在步骤S310中进行的触起表明用户已经完成了对图标、数值和整个图像的检查,并且准备进行摄像。如果与触摸快门有关的设置为开,则在此数字相机100可以基于触摸快门功能响应于触起而进行摄像,而不太可能违背用户意图。如果与触摸快门有关的设置为关,则数字相机100不响应于触起而进行摄像(处理从步骤S310进入步骤S313)。
作为变型,在步骤S311中,系统控制单元50可以在步骤S310中进行触起时基于用户的视线位置,来确定是否通过使用触摸快门来进行摄像。具体地,假设利用图4B所示的AF框212a进行AF处理。如果在从触摸面板70a触起时用户的视线位置在AF框212a的附近,则进行使用触摸快门的摄像。AF框212a的附近是指在AF框212a的内部或距AF框212a预定的范围内。如图4D所示,如果用户在触起时的视线位置不在AF框212a的附近而是在鸟214的位置,则数字相机100不使用触摸快门进行摄像。如图4H中的AF框212a所示,系统控制单元50然后基于视线输入将AF框212a移动到鸟214的位置。
在步骤S312中,系统控制单元50进行摄像。如果在步骤S311中与触摸快门有关的设置为开,则系统控制单元50响应于在步骤S310中从触摸面板70a的触起而进行摄像处理。
在步骤S313中,系统控制单元50允许通过在步骤S305中暂时禁止或限制的、通过视线输入来移动AF框212a的显示位置(解除暂时的禁止或限制)。在步骤S310中进行从触摸面板70a的触起表明用户已经完成了对整个图像的检查,并且现在打算解除对通过视线输入来移动AF框212a的显示位置的限制,并恢复通过视线输入来移动AF框212a的显示位置。因此,系统控制单元50允许暂时限制的、通过视线输入来移动AF框212a的显示位置。处理进入步骤S314。
在步骤S314中,系统控制单元50确定摄像待机状态是否结束。如果摄像待机状态结束(步骤S314为“是”),则本控制流程结束。如果摄像待机状态没有结束(步骤S314为“否”),则处理返回到步骤S301。
如果在图3的控制流程期间接通第一快门开关62,则系统控制单元50在该时间点在AF框212a的位置处进行AF处理。具体地,如果通过视线输入显示AF框212a,则系统控制单元50在通过视线输入显示的AF框212a的位置处进行AF处理。如果未通过视线输入显示AF框212a,则在由系统控制单元50确定的位置处进行AF处理。如果然后接通第二快门开关64,则系统控制单元50进行摄像。
将参照图4A至图4H描述通过图3中描述的处理来移动AF框212a的显示位置。图4A、图4C、图4E和图4G示出了触摸面板70a上的操作示例。图4B、图4D、图4F和图4H示出了EVF 29上的AF框的显示示例以及用户眼睛161的视线位置的示例。信息显示213与LV图像一起显示在EVF 29上。例如,显示关于摄像设置的信息(诸如快门速度、光圈值和国际标准化组织(ISO)速度)以及剩余电池电量信息。
图4A和图4B示出了图3的步骤S302和S303中的操作示例和显示示例。从图4A可以看出,在步骤S302和S303中的时间点未在触摸面板70a上进行触摸操作。如果启用了与视线输入有关的设置并且确定用户正在注视,则图4B中的AF框212a指示在眼睛161的视线位置处显示的AF框212a的位置。在图4B中,对AF框212a所在的花215进行AF处理。无需在触摸面板70a上进行触落,AF框212a就可以跟随眼睛161的移动。更具体地,如果眼睛161的视线位置快速移动到鸟214,则AF框快速移动。如果视线位置从花215向鸟214缓慢移动,则AF框212a也沿着视线位置的移动轨迹移动。AF框212a跟随视线位置的响应时间可以被设置为与步骤S302中用于确定注视的确定时间相同(在前述示例中为120毫秒),被预先设置为不同的时间,或者被用户自由设置。代替基于时间的移动,可以移动AF框212a以跳到由系统控制单元50识别的物体,使得可以对识别出的物体进行AF处理。更具体地,如果在图4B的状态下按下快门按钮61以进行摄像,则聚焦在花215上的图像被拍摄。由于可以在没有AF框212a上的移动操作的情况下拍摄聚焦在用户正在注视之处的图像,因此用户可以以快速直观的方式拍摄图像。
图4C和图4D示出了在图3的步骤S304和S305中在触摸面板70a上的操作示例和在EVF 29上的AF框212a的显示示例、以及用户的视线位置的示例。如图4C所示,在步骤S304中,在触摸面板70a上进行触摸操作(触落)。在图4C中,用户在触摸面板70a的中心附近进行触摸(触摸输入211a)。在第一示例性实施例中,根据触摸面板70a上的触摸操作的有无来对通过视线输入来移动AF框212a进行控制,而与触摸面板70a上的触摸位置无关。由于在步骤S305中暂时禁止或限制了通过视线输入来移动AF框212a,因此即使在触摸面板70a上的触摸操作持续的同时眼睛161的视线位置从AF的位置移动,AF框212a也不跟随视线位置。即使用户正在注视图4D中的眼睛161的视线位置处的鸟214,AF框212a仍保持在进行触落时或触落之前所显示的AF框212a的位置,只要触摸面板70a上的触摸操作如图4C所示持续即可。换句话说,AF框212a不移动到视线位置。更具体地,如果在图4D的状态下按下快门按钮61以进行摄像,则拍摄未聚焦在鸟214上而是聚焦在花215上的图像。如果用户希望在鸟214飞起的定时或瞬间使花215聚焦并拍摄图像,则尽管视线位置位于鸟214上,也希望拍摄聚焦在花215上的图像。换句话说,期望视线位置保持不聚焦(期望AF框212a不移动)。这使得用户能够在用户适当的定时拍摄图像,同时维持由视线输入快速而直观地指定的AF框212a的位置。
图4E和图4F示出了图3的步骤S308和S309中的操作示例和显示示例。参照图4C和图4D所描述的,通过已经在触摸面板70a上进行的触落,暂时限制了通过视线输入来移动AF框212a(步骤S304和S305的处理)。如图4D所示,因此即使眼睛161的视线位置在鸟214处,AF框212a也不会移动到视线位置。现在,如图4E所示,假设进行触摸移动以将触摸输入211a移动到触摸输入221b的位置,而不进行触摸输入211a从触摸面板70a的触起。如图4F所示,当进行触摸输入211a(触落)时在EVF 29上显示的AF框212a由此通过触摸移动被移动到AF框212b的位置。在此,AF框在EVF 29上移动了与触摸面板70a上的触摸移动量相对应的量,或者移动了小于与触摸移动量相对应的量的移动量。其原因是,如果用户通过视线输入来移动AF框,并且存在诸如图4F中的花215和狗216的相邻物体,则AF框可能无法移动到用户期望的位置。通过根据视线输入大致指定AF框,然后进行触摸移动操作,可以将AF框更准确地移动到用户期望的位置。在此暂时限制通过视线输入来移动AF框的原因是为了防止通过触摸移动而微调的AF框由于视线的无意移动而大幅移动。例如,在上述情况下,假设用户想要聚焦狗216的眼睛。在这种情况下,用户通过视线输入将AF框快速设置到狗216的脸部附近(AF框212a的位置),并进行触摸移动操作。可以通过触摸移动操作稍微移动AF框,来将AF框从狗216的脸部附近(AF框212a的位置)移动到狗216的眼睛的位置(AF框212b的位置),AF框212a的位置是通过视线输入设置的AF框的位置。
图4G和图4H示出了图3的步骤S310和S313中的操作示例和显示示例。从图4G可以看出,在步骤S310中进行了从触摸面板70a的触起,并且没有在触摸面板70a上进行任何操作。由于基于从触摸面板70a的触起而允许已经暂时禁止或限制的通过视线输入来移动AF框,因此如图4H所示,AF框212a移动到眼睛161的视线位置(AF框212a跟随视线位置)。
从图3和图4A至图4H的控制处理可以看出,如果启用了用户的视线输入并且用户正在注视,则基于用户的视线输入将AF框显示在或移动到视线位置。在持续进行触摸面板70a上的触摸操作(触落)的同时,即使存在用户的视线输入,AF框也被限制为不跟随视线位置。该限制使得用户能够在用户持续在触摸面板70a上进行触摸操作的同时,在AF框保持显示在期望位置处的情况下,检查整个图像以及与摄像有关的设置值。如果用户想要再次通过视线输入来移动AF框,则用户可以结束触摸操作(进行从触摸面板70a的触起)。因此,用户可以基于是否存在触摸操作而没有烦恼地来切换是否通过视线输入来移动作为AF框的所选位置。由于可以通过包括触落和触起的一系列触摸操作来进行切换,因此,由于可以防止由于用户切换到限制通过视线输入来移动AF框的状态、且忘记恢复到原始的非限制状态而导致的不便。
前述第一示例性实施例已经处理了如下情况:检测用户看着EVF 29的视线,并且根据触摸面板70a上的触摸操作来切换是否通过视线输入来移动所选位置。然而,这不是限制性的。例如,代替根据第一示例性实施例的触摸操作,通过按下设置按钮75也可以应用第一示例性实施例。更具体地,如果基于视线输入(注视)的AF框212a被显示在EVF 29上(步骤S303的处理),然后按下设置按钮75(步骤S304的处理),则暂时禁止或限制通过视线输入来移动AF框212a(步骤S305的处理)。如果然后结束对设置按钮75的按下(步骤S310的处理),则允许通过视线输入来移动AF框212a(步骤S313的处理),并且在视线位置显示AF框212a。
下面将描述本发明的第二示例性实施例。在本示例性实施例中,将描述如下情况:仅在持续对操作构件(在本示例性实施例中为触摸面板70a)的操作的同时,控制使得能够通过视线输入来移动AF框的显示位置。图5是用于根据触摸操作通过视线输入来控制AF框的显示的控制处理的流程图。通过系统控制单元50将存储在非易失性存储器56中的程序加载到系统存储器52中并执行该程序,来实现控制处理。与在第一示例性实施例中一样,当在摄像模式下启动数字相机100,用户在摄像待机状态(即,用户的眼睛接近目镜单元16的状态)下看着EVF 29,并启用与视线输入有关的设置时,开始图5中的流程图的处理。
在步骤S501中,系统控制单元50确定是否存在触摸面板70a上的触落。如果进行了触落(步骤S501中为“是”),则处理进入步骤S502。否则(步骤S501中为“否”),处理返回到步骤S501。
在步骤S502中,与图3的步骤S301相同,系统控制单元50确定是否存在视线输入。
在步骤S503中,与图3的步骤S302相同,系统控制单元50确定用户是否正在注视。
在步骤S504中,与图3的步骤S303相同,系统控制单元50将AF框的显示位置移动到在EVF 29中检测到的视线(注视)位置,并且进行AF处理。如果在步骤S501中进行的触摸操作持续的同时注视位置(视线位置)移动,则如步骤S503中所述随着时间检测注视位置,并且AF框移动到注视位置。如果在步骤S501中开始触摸面板70a上的触落,则只要持续触摸面板70a上的触摸操作,就通过视线输入来移动AF框。换句话说,除了触落之外,还可以通过视线输入来移动AF框,而无需其他操作,诸如下面将描述的触摸移动和触摸按下。因此,用户可以通过使用视线以直观的方式将AF框快速移动到视线位置。这使用户能够在用户期望的定时拍摄图像,并且可以降低错过拍摄机会的可能性。
在步骤S505中,与图3的步骤S310相同,系统控制单元50确定是否存在从触摸面板70a的触起。如果进行了触起(步骤S505为“是”),则处理进入步骤S506。否则(步骤S505中为“否”),处理返回到步骤S502。
在步骤S506中,与图3的步骤S305相同,系统控制单元50暂时禁止(限制)通过视线输入来移动AF框的显示位置。如上所述,如果在触摸面板70a被触摸的同时确定用户正在注视(或者确定进行了视线输入),则在步骤S504中,在视线位置处显示AF框。如果随后进行了从触摸面板70a的触起,则只要在触摸面板70a上没有进行触摸操作,就暂时禁止或限制通过视线输入来移动AF框的位置。例如,用户可以通过视线输入来移动AF框的意图,在触摸面板70a上进行触落。因此,在触开期间移动AF框以跟随视线不太可能使用户烦恼。换句话说,如果用户想要AF框不跟随视线而移动,则他/她可以期望用户进行从触摸面板70a的触起。因此,如果进行了从触摸面板70a的触起,则暂时禁止或限制通过视线输入来移动AF框。这使得用户能够通过触摸操作以直观的方式切换是否通过视线输入来移动AF框。在暂时限制通过视线输入来移动AF框的时段中,可以暂停由眼睛跟踪块160进行的眼睛跟踪处理的至少一部分以节省电力。如果进行了触落,则恢复暂停的眼睛跟踪处理。
在步骤S507中,与图3的步骤S311相同,系统控制单元50参考非易失性存储器56,并且确定与触摸快门有关的设置是否为开。如果与触摸快门有关的设置为开(步骤S507中为“是”),则处理进入步骤S508。如果该设置为关(步骤S507中为“否”),则处理进入步骤S509。在步骤S505中进行触起操作表明用户已经完成了对整个图像的检查并且准备好摄像。如果与触摸快门有关的设置为开,则数字相机100在此可以基于触摸快门功能响应于触起而拍摄图像,而不太可能违背用户意图。另选地,系统控制单元50可以在步骤S505中的触起时,基于用户的视线位置来确定是否使用触摸快门进行摄像,而不管步骤S507中与触摸快门有关的设置如何。更具体地,假设利用图6D中的AF框212a进行AF处理。如果在从触摸面板70a的触起时用户的视线位置在AF框212a的附近,则可以进行使用触摸快门的摄像。如果在触起时用户的视线位置不在AF框212a附近,而是在图6D中的鸟214的位置处,则系统控制单元50可以基于视线输入将AF框212a移动到图6H中的AF框212a的位置,而不基于触摸快门进行摄像。
在步骤S508中,与图3的步骤S312相同,系统控制单元50进行摄像。如果在步骤S507中与触摸快门有关的设置为开,则系统控制单元50响应于在步骤S505中从触摸面板70a的触起而进行摄像处理。
在步骤S509中,与图3的步骤S306相同,系统控制单元50基于在触起时的视线位置(即,在步骤S505中确定为“是”的时间点检测到的视线位置)来确定跟踪物体。
在步骤S510中,与图3的步骤S307相同,系统控制单元50开始跟踪在步骤S509中确定的跟踪物体。如果用户已经做出设置以进行多个AF框中的一个特定AF框的AF处理,则可以省略步骤S509和S510,使得处理从步骤S508进入步骤S511。
在步骤S511中,系统控制单元50确定摄像待机状态是否结束。如果摄像待机状态结束(步骤S511为“是”),则本控制处理结束。如果摄像待机状态没有结束(步骤S511为“否”),则处理返回到步骤S501。
如果在图5的控制处理期间接通第一快门开关62,则系统控制单元50在该时间点在AF框212a的位置处进行AF处理。更具体地,如果通过视线输入来显示AF框212a,则系统控制单元50在通过视线输入显示的AF框212a的位置处进行AF处理。如果未通过视线输入显示AF框212a,则在由系统控制单元50确定的位置处进行AF处理。如果然后接通第二快门开关64,则系统控制单元50进行摄像。
将参照图6A至图6H描述通过图5中描述的处理来移动AF框212a的显示位置。图6A、图6C、图6E和图6G示出了触摸面板70a上的操作示例。图6B、图6D、图6F和图6H示出了EVF 29上的AF框的显示示例以及用户的眼睛161的视线位置的示例。
图6A和图6B示出了图5的步骤S501至S504中的操作示例和显示示例(特别是紧接在触落之后的显示示例)。如图6A所示,在触摸面板70a上进行触摸操作(触开)。由于触摸操作是旨在根据是否存在触摸而通过视线输入来控制AF框的移动的操作,因此触摸位置不紧要。图6B中的AF框212a指示在触摸面板70a上进行触摸、启用与视线输入有关的设置、并且确定用户正在注视的情况下在眼睛161的视线位置处显示的AF框212a的位置。从图6B可以看出,用户正在观看显示在EVF 29上的狗216的尾巴附近。因此,AF框212a显示在作为视线位置的狗216的尾巴附近。
与图6A和图6B中一样,图6C和图6D示出了图5的步骤S501至S504中的操作示例和显示示例。如图6C所示,用户持续触摸面板70a上的触摸操作。因此,基于用户的视线输入的AF框212a移动以跟随视线位置。由于这里的眼睛161正在观看花215,因此AF框212a从狗216的尾巴(与图6B中的视线位置相对应的位置)移动到花215(与图6D中的视线位置相对应的位置)。如在图5的步骤S504中所述,在允许通过视线输入来移动AF框212a的显示位置的同时,AF框212a随着注视位置(视线位置)的移动而随时间移动。例如,如在图3的步骤S302和图5的步骤S503中所述,AF框212a的显示位置每120毫秒(注视确定的时间)移动一次。该时间可以预先设置或者可以由用户自由设置,只要可以跟踪用户的视线的移动轨迹即可。设置较短的时间使得AF框212a能够以更快和更敏捷的方式跟踪用户的视线的移动。设置较长的时间可以减少对用户的烦恼,因为AF框212a不会响应于视线的移动而以小步长移动。在图6B和图6D中,狗216的尾巴和花215彼此相距一定距离。如在图5的步骤S504中所述,AF框212a移动以跟随视线位置,而不管视线位置与AF框212a的位置之间的距离如何。图6A和图6C示出了如下状态:触摸输入211a不从触落位置移动,并且与后述的触摸按下不同,在不改变触摸面板70a上的压力的情况下持续触摸操作。如果在图6B和图6D的状态下按下快门按钮61以进行摄像,则拍摄聚焦在与视线位置相对应的位置(即分别是狗216的尾巴和花215)处的图像。在触开期间,可以在AF框212a上没有移动操作的情况下拍摄聚焦在用户正在观看之处的图像。这样可以实现快速、直观的摄像。
图6E和图6F示出了步骤S505和S506中的操作示例和显示示例。如图6E所示,在步骤S505中,用户已经进行了从触摸面板70a的触起,并且没有在触摸面板70a上进行任何操作。虽然在触摸面板70a上没有进行任何操作,但是暂时禁止或限制通过视线输入来移动AF框(步骤S506)。因此,即使眼睛161的视线位置从AF框212a的位置移动,AF框212a也不跟随视线位置。即使用户正在注视图6F中的眼睛161的视线位置处的鸟214,AF框212a仍保持在进行触落时或触落之前显示的AF框212a的位置,并且如图6E所示,只要不在触摸面板70a上进行触摸操作,就不会跟随视线位置。如果在图6E和图6F的时间点(即,当不在触摸面板70a上进行任何触摸操作的同时)按下快门按钮61,系统控制单元50在AF框212a的位置(而不是在图6F中作为视线位置的鸟214)处进行AF处理,并进行摄像。更具体地,如果在图6F的状态下按下快门按钮61以进行摄像,则拍摄未聚焦在鸟214上而是聚焦在花215上的图像。如果用户期望在鸟214飞起的定时或瞬间使花215聚焦并拍摄图像,则尽管视线位置位于鸟214处,也期望拍摄聚焦在花215上的图像。这使得用户能够通过视线输入来快速且直观地指定AF框212a的位置,并在用户适当的定时拍摄图像。
图6G和图6H示出了从图5的步骤S511返回到步骤S501(步骤S511为“否”)的处理中的操作示例和显示示例。图6A至图6H示出了在不涉及与触摸快门有关的设置的情况下的操作示例和显示示例(省略图5的步骤S507和S508)。图6G示出了在图6E和图6F的状态下在触摸面板70a上进行触落的状态(S501)。由于通过触摸面板70a上的触落而允许暂时禁止或限制的、通过视线输入来移动AF框212a,因此AF框212a移动到如图6H所示的眼睛161的视线输入的位置(鸟214的位置)。例如,假设用户在图6F的时间点想要拍摄在鸟214飞起的瞬间聚焦在花215上的图像。还假设用户随后改变了他/她的主意,并想要拍摄未聚焦在花215上而聚焦在鸟214上的图像。在这种情况下,用户可以再次进行触落以启用视线输入并使视线位置处的鸟214聚焦。如果用户在图6H的状态下按下快门按钮61以拍摄图像,则拍摄在与视线位置相对应的位置处聚焦在鸟214上的图像。因此,用户可以直观地切换是否通过视线输入来移动AF框,并且进行摄像。
从图5和图6A至图6H的控制处理可以看出,如果用户在持续在触摸面板70a上进行触摸操作的同时进行视线输入(注视),则在触摸操作继续的同时,基于用户的视线输入将AF框212a移动到视线位置。在从触摸面板70a的触起之后在触摸面板70a上没有进行任何操作的状态下,即使用户进行视线输入,AF框也被限制为不跟随视线位置。该限制使得用户可以检查整个图像以及与摄像相关的设置值,同时AF框保持显示在期望位置。如果用户想要再次通过视线输入来移动AF框,则用户可以在触摸面板70a上开始触摸操作并持续触摸操作,只要他/她想要通过视线输入来移动AF框即可。因此,用户可以根据是否存在触摸操作来没有烦恼地切换是否通过视线输入来移动作为AF框的选择位置。由于可以通过包括触落和触起的一系列触摸操作来进行切换,因此,由于可以防止由于用户切换到限制通过视线输入来移动AF框的状态、且忘记恢复到原始的非暂时限制状态而导致的不便。
前述第二示例性实施例已经处理了如下情况:检测看着EVF 29的用户的视线,并且根据触摸面板70a上的触摸操作来切换是否通过视线输入来移动所选位置。然而,这不是限制性的。例如,代替根据第二示例性实施例的触摸操作,通过按下设置按钮75也可以应用本示例性实施例。更具体地,如果用户在继续按下设置按钮75的同时进行视线输入(步骤S501的处理),则基于视线(注视)在EVF 29上显示AF框212a(步骤S504的处理)。如果设置按钮75的按下结束(步骤S505的处理),则暂时禁止或限制通过视线输入来移动AF框212a(步骤S506的处理)。在第二示例性实施例中,通过使用与快门按钮61不同的操作构件(诸如触摸面板70a和设置按钮75),来控制是否通过视线输入来移动AF框212a。这使得用户能够通过操作诸如触摸面板70a的前述操作构件,来切换是否通过视线输入来移动AF框212a,同时维持第一快门开关62或第二快门开关64处于接通状态。换句话说,用户可以直观地切换视线输入并快速拍摄图像。
在前述第一示例性实施例和第二示例性实施例中的任一个中,触摸面板70a可以被构造为能够检测压力,并且可以基于触摸面板70a上的压力来进行确定处理。换句话说,可以包括压力传感器(未示出),该压力传感器检测在显示单元28的操作面(触摸面板70a的操作面)上的压力并且旨在检测触摸操作的强度。当通过触摸操作按压显示单元28时,压力传感器可以连续地检测按压力的强度。可以在通过显示单元28的操作面上的按压力可以变形的一个或多个部分处安装一个或多个变形计传感器作为压力传感器。压力传感器基于变形计传感器的输出值检测触摸面板70a的操作面板上的按压力。另选地,可以将电容传感器与触摸面板70a并列安装。可以根据由按压力引起的触摸面板70a的操作面的变形所产生的电容值来计算操作面上的手指与电容传感器之间的距离。然后可以基于该距离来计算压力,或者可以将该距离当作压力来处理。可以使用其他方法的压力传感器,只要可以检测在触摸面板70a的操作面上的按压力即可。例如,如果使用触控笔在操作面上进行操作,则可以使用包括在触控笔中并检测触控笔尖端压力的传感器。可以基于来自传感器的输出来检测触摸操作的强度(按压力)。可以使用检测对操作面上的触摸力或触摸压力的替代(例如,操作面上的手指与电容传感器之间的前述距离)的传感器。可以通过使用各种方法、各种传感器以及多个传感器的组合(例如,通过加权平均)来检测触摸操作的强度(压力)。压力传感器可以与触摸面板70a集成在一起。在下文中,将在显示单元28的操作面上的按压操作称为触摸按压。
具体地,假设数字相机100包括具有这种压力传感器的触摸面板70a。如果在根据第一示例性实施例的图3的步骤S304中的触落之后进行了触摸按压,则数字相机100可以在图3的步骤S305中禁止通过视线输入来移动AF框。更具体地,并非仅基于触开来禁止通过视线输入来移动AF框,而是应用在进行触摸按压的时间点处的AF框的位置。这使得用户能够通过视线输入来更准确地确定AF框的位置。如果在根据第二示例性实施例的图5的步骤S501中的触落之后进行了触摸按压,则数字相机100可以在图5的步骤S504中在视线位置处显示AF框。由于即使在触开期间检测到视线输入也不会显示AF框,但会响应于触摸按压时而将AF框显示在视线位置处,因此不会基于视线连续显示AF框。这可以减少对用户的烦恼。
如上所述,在第一示例性实施例和第二示例性实施例中的任一个中,通过触摸操作来控制通过视线输入进行的AF框的显示。因此,用户可以根据是否存在触摸操作而没有烦恼地切换是否通过视线输入来移动作为AF框的所选位置。由于可以通过包括触落和触起的一系列触摸操作来进行切换,因此可以防止由于用户忘记在切换之后恢复原始状态而引起的不便。换句话说,可以防止用户混淆当前状态是什么(启用还是禁用视线输入)。
在前述第一示例性实施例和第二示例性实施例中,数字相机100被描述为包括EVF29。然而,这不是限制性的。本发明的示例性实施例也可以在没有EVF 29的情况下应用。图8示出了如下示例:通过视线输入来移动显示在包括触摸板的笔记本个人计算机的监视器上的鼠标指针。在图8中,触摸板805对应于根据第一示例性实施例和第二示例性实施例的触摸面板70a。独立的眼睛跟踪设备810连接到笔记本个人计算机,作为笔记本个人计算机的眼睛跟踪块160。通过使用眼睛跟踪设备810中包括的相机811和笔记本个人计算机的内置相机812来确定视线位置。与第一示例性实施例和第二示例性实施例中一样,笔记本个人计算机根据在触摸板805上是否存在触摸操作来切换是否通过视线输入来移动鼠标指针。如果将第一示例性实施例应用于笔记本个人计算机,则在持续触摸板805上的触开的同时,限制通过视线输入来移动鼠标指针。当在触摸板805上没有进行触摸操作的同时,允许通过视线输入来移动鼠标指针。如果应用第二示例性实施例,则在触摸板805上没有进行触摸操作的同时,限制通过视线输入来移动鼠标指针。在持续触开的同时,允许通过视线输入来移动鼠标指针。
一些触摸板能够像点击操作一样被按压。如果触摸板805是能够被按压的触摸板,则与前述设置按钮75一样,根据触摸板805的按压,可以允许或限制视线输入。即使检测到视线输入,在触开期间也可以隐藏鼠标指针,并且与前述触摸按压一样,可以应用在触摸板805被按压的时间点的鼠标指针的位置。
尽管图8示出了作为另一示例性实施例的笔记本个人计算机,但是该示例性实施例还适用于包括能够进行轻击操作或按压的操作构件(诸如鼠标和指示设备)的任何装置。在鼠标的情况下,在持续单击操作的同时允许或限制视线输入。在包括能够进行触摸操作的操作构件的指示设备的情况下,在持续触摸操作的同时允许或限制视线输入。在能够被按压的操作构件的情况下,如上述设置按钮75一样,在按压期间允许或限制视线输入。触摸板、鼠标或指示设备不需要内置在笔记本个人计算机中,并且可以是外部构件。
如上所述,如果用户在不操作操作构件的情况下进行了视线输入,则在不操作操作构件的同时,通过视线输入来移动显示位置。在持续对操作构件进行操作的同时,暂时限制通过视线输入来移动显示位置。如果操作构件上的操作结束,则允许通过视线输入来移动显示位置。如果用户在操作操作构件的同时进行视线输入,则在进行触摸操作(持续触摸操作)的同时,通过视线输入来移动显示位置。在不进行触摸操作的同时,暂时限制通过视线输入来移动显示位置。如果再次进行触摸操作,则允许通过视线输入来移动显示位置。因此,可以根据是否存在触摸操作来更快速地切换是否通过视线输入来移动显示位置。
被描述为由系统控制单元50进行的前述各种控制可以由单个硬件设备来实现。多个硬件设备(例如,多个处理器和电路)可以通过共享处理来控制整个装置。
尽管已经详细描述了本发明的示例性实施例,但是本发明不限于这样的特定示例性实施例。在不脱离本发明的主旨的情况下做出的各种实现方式也包括在本发明中。尽管将触摸面板70a描述为要与视线输入结合使用的位置移动指令构件的示例,但是可以使用其他操作单元,诸如按钮和拨盘。尽管显示位置被描述为参考AF框,但也可以代替使用图标框或参数设置框。可以使用与AF框不同的指示符显示,诸如鼠标指针。虽然将对眼睛跟踪块160的视线输入开始之后经过的时间用作用于确定注视的标准,但是该经过的时间可以预先设置,基于所显示的AF框与视线位置之间的位置关系而改变,或由用户自由设置。在前述示例性实施例中,注视被描述为用于确定视线位置是否是用户期望的位置的标准。然而,可以不基于根据注视的确定标准而是仅基于启用还是禁用视线输入设置(在图7的设置项目703上的视线输入)来确定视线位置是否是用户期望的位置。
已经通过将示例性实施例应用于数字相机的情况作为示例描述了前述第一示例性实施例和第二示例性实施例。然而,这样的示例不是限制性的。本发明的示例性实施例可应用于包括能够接收视线输入的视线接收单元的任何电子装置。另外,示例性实施例可以适当地组合。在第一示例性实施例和第二示例性实施例中,数字相机100被描述为使用EVF29和眼睛跟踪。然而,本发明的示例性实施例还可以应用于使用除了EVF29和眼睛跟踪之外的显示设备的构造。具体地,本发明的示例性实施例可以应用于个人计算机、个人数字助理(PDA)、移动电话终端、便携式图像查看器、包括显示器的打印机装置、数字相框和音乐播放器。游戏机、电子书阅读器以及诸如头戴式显示器的可穿戴设备也是适用的。
根据本发明的示例性实施例,可以根据用户的意图来切换是否通过视线输入来移动所选位置,而不会使用户烦恼。
其他实施例
还可以通过读出并执行记录在存储介质(也可更完整地称为“非暂时性计算机可读存储介质”)上的计算机可执行指令(例如,一个或更多个程序)以执行上述实施例中的一个或更多个的功能、并且/或者包括用于执行上述实施例中的一个或更多个的功能的一个或更多个电路(例如,专用集成电路(ASIC))的系统或装置的计算机,来实现本发明的实施例,并且,可以利用通过由所述系统或装置的所述计算机例如读出并执行来自所述存储介质的所述计算机可执行指令以执行上述实施例中的一个或更多个的功能、并且/或者控制所述一个或更多个电路执行上述实施例中的一个或更多个的功能的方法,来实现本发明的实施例。所述计算机可以包括一个或更多个处理器(例如,中央处理单元(CPU),微处理单元(MPU)),并且可以包括分开的计算机或分开的处理器的网络,以读出并执行所述计算机可执行指令。所述计算机可执行指令可以例如从网络或所述存储介质被提供给计算机。所述存储介质可以包括例如硬盘、随机存取存储器(RAM)、只读存储器(ROM)、分布式计算系统的存储器、光盘(诸如压缩光盘(CD)、数字通用光盘(DVD)或蓝光光盘(BD)TM)、闪存设备以及存储卡等中的一个或更多个。
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
虽然参照示例性实施例对本发明进行了描述,但是应当理解,本发明并不限于所公开的示例性实施例。应当对所附权利要求的范围给予最宽的解释,以使其涵盖所有这些变型例以及等同的结构和功能。
Claims (29)
1.一种电子装置,其包括:
视线接收单元,其被构造为基于眼睛跟踪处理接收所选位置的视线输入;
操作接收单元,其被构造为,接收对特定操作构件的区域的触摸操作,所述操作接收单元接收对所述特定操作构件的、用于移动所述所选位置的移动操作以及不同于所述移动操作的预定操作;以及
控制单元,其被构造为进行控制,使得在正在进行所述预定操作的情况下,不基于所述视线输入而移动所选位置;而在没有正在进行所述预定操作的情况下,基于所述视线输入来移动所选位置。
2.根据权利要求1所述的电子装置,
其中,所述移动操作是在正持续对所述区域的触摸的情况下移动所选位置,并且
其中,所述预定操作是对所述区域的触摸。
3.根据权利要求1所述的电子装置,其中,在持续对所述特定操作构件的所述预定操作的同时进行所述移动操作的情况下,所述控制单元基于所述移动操作来控制所选位置的移动。
4.根据权利要求1所述的电子装置,其中,所述控制单元进行控制,使得在基于所述视线输入来移动所选位置的情况下,以预定间隔移动所选位置以跟随视线位置。
5.根据权利要求1所述的电子装置,其中,所述控制单元响应于对所述特定操作构件的所述触摸操作的结束,来控制摄像处理的执行。
6.根据权利要求1所述的电子装置,其中,所述控制单元进行控制,使得在基于所述视线输入来移动所选位置的情况下,移动所选位置以平滑跟随视线位置。
7.根据权利要求1所述的电子装置,其中,所述控制单元进行控制,使得在基于所述视线输入来移动所选位置的情况下,将所选位置移动到与所述视线输入相对应的位置,而与所选位置与视线位置之间的距离无关。
8.根据权利要求1所述的电子装置,其中,所述控制单元进行控制,使得在显示器上的所选位置处显示指示所选位置的指示符。
9.一种电子装置的控制方法,所述控制方法包括:
基于眼睛跟踪处理接收视线输入作为视线接收,所述视线输入是所选位置的输入;
接收特定操作构件的区域上的触摸操作作为操作接收,所述操作接收包括接收所述特定操作构件上的、用于移动所选位置的移动操作以及不同于所述移动操作的预定操作;以及
进行控制,使得在正在进行所述预定操作的情况下,不基于所述视线输入而移动所选位置;而在没有正在进行所述预定操作的情况下,基于所述视线接收而接收的所述视线输入来移动所选位置。
10.一种计算机可读存储介质,其存储使计算机执行电子装置的控制方法的程序,所述控制方法包括:
基于眼睛跟踪处理接收所选位置的视线输入;
通过操作接收单元接收特定操作构件的区域上的触摸操作,所述操作接收单元被构造为,接收所述特定操作构件上的、用于移动所选位置的移动操作以及不同于所述移动操作的预定操作;以及
进行控制,使得在正在进行所述预定操作的情况下,不基于所述视线输入而移动所选位置;而在没有正在进行所述预定操作的情况下,基于所述视线输入来移动所选位置。
11.一种电子装置,其包括:
特定操作构件,其被构造为接收操作;
视线接收单元,其被构造为基于眼睛跟踪处理接收作为所选位置的输入的视线输入;以及
控制单元,其被构造为进行控制,使得在正在按下所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在没有正在按下所述特定操作构件的情况下,基于由所述视线接收单元接收的所述视线输入来移动所选位置。
12.根据权利要求11所述的电子装置,其中,所述特定操作构件是无需方向指令而按下的按压按钮。
13.根据权利要求11所述的电子装置,其中,所述控制单元进行控制,使得在基于所述视线输入来移动所选位置的情况下,以预定间隔移动所选位置以跟随视线位置。
14.一种电子装置的控制方法,所述电子装置包括被构造为接收操作的特定操作构件,所述控制方法包括:
基于眼睛跟踪处理接收所选位置的视线输入;以及
进行控制,使得在正在按下所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在没有正在按下所述特定操作构件的情况下,基于接收的所述视线输入来移动所选位置。
15.一种计算机可读存储介质,其存储使计算机执行电子装置的控制方法的程序,所述控制方法包括:
接收操作;
基于眼睛跟踪处理接收所选位置的视线输入;以及
进行控制,使得在正在按下所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在没有正在按下所述特定操作构件的情况下,基于接收的所述视线输入来移动所选位置。
16.一种电子装置,其包括:
第一操作构件,其被构造为指示图像传感器拍摄图像;
特定操作构件,其不同于所述第一操作构件;
视线接收单元,其被构造为基于眼睛跟踪处理接收所选位置的视线输入;以及
控制单元,其被构造为进行控制,使得在没有正在操作所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在正在操作所述特定操作构件的情况下,基于由所述视线接收单元接收的所述视线输入来移动所选位置。
17.根据权利要求16所述的电子装置,其中,所述特定操作构件被构造为接收触摸操作。
18.根据权利要求16所述的电子装置,其中,所述控制单元进行控制,使得在基于所述视线输入来移动所选位置的情况下,以预定间隔移动所选位置以跟随视线位置。
19.根据权利要求16所述的电子装置,其中,所述特定操作构件是按压按钮。
20.一种电子装置的控制方法,所述电子装置包括:第一操作构件,其被构造为指示图像传感器拍摄图像;以及特定操作构件,其不同于所述第一操作构件,所述控制方法包括:
基于眼睛跟踪处理接收所选位置的视线输入;以及
进行控制,使得在没有正在操作所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在正在操作所述特定操作构件的情况下,基于接收的所述视线输入来移动所选位置。
21.一种计算机可读存储介质,其存储使计算机用作电子装置的各单元的程序,所述电子装置包括:
第一操作构件,其被构造为指示图像传感器拍摄图像;
特定操作构件,其不同于所述第一操作构件;以及
至少一个存储器和用作如下单元的至少一个处理器:
视线接收单元,其被构造为基于眼睛跟踪处理接收所选位置的视线输入;以及
控制单元,其被构造为进行控制,使得在没有正在操作所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在正在操作所述特定操作构件的情况下,基于由所述视线接收单元接收的所述视线输入来移动所选位置。
22.一种电子装置,其包括:
视线接收单元,其被构造为基于眼睛跟踪处理接收所选位置的视线输入;
操作接收单元,其被构造为接收特定操作构件的区域上的触摸操作;以及
控制单元,其被构造为进行控制,使得在没有正在触摸所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在正在触摸所述特定操作构件的情况下,即使没有用于移动所选位置的触摸操作,也基于由所述视线接收单元接收的所述视线输入来移动所选位置。
23.根据权利要求22所述的电子装置,其中,所述控制单元进行控制,使得在基于所述视线输入来移动所选位置的情况下,以预定间隔移动所选位置以跟随视线位置。
24.根据权利要求22所述的电子装置,其中,所述控制单元响应于所述特定操作构件上的所述触摸操作的结束,来控制摄像处理的执行。
25.根据权利要求22所述的电子装置,其中,在满足如下条件的情况下,将基于所述视线输入的所选位置显示在显示器上,所述条件是在预定时间内检测到所述视线输入的位置的移动量小于或等于预定阈值。
26.根据权利要求22所述的电子装置,其中,所选位置是焦点检测区域的所选位置。
27.根据权利要求22所述的电子装置,所述电子装置还包括:
取景器;以及
所述取景器中的显示单元,
其中,在基于所述视线输入来移动所选位置的情况下,移动在所述取景器中的所述显示单元上显示的所选位置。
28.一种电子装置的控制方法,所述控制方法包括:
基于眼睛跟踪处理接收所选位置的视线输入,作为视线接收;
接收特定操作构件的区域上的触摸操作,作为操作接收;以及
进行控制,使得在没有正在触摸所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在正在触摸所述特定操作构件的情况下,即使没有用于移动所选位置的触摸操作,也基于通过所述视线接收而接收的所述视线输入来移动所选位置。
29.一种计算机可读存储介质,其存储使计算机执行电子装置的控制方法的程序,所述控制方法包括:
基于眼睛跟踪处理接收所选位置的视线输入;
接收特定操作构件的区域上的触摸操作;以及
进行控制,使得在没有正在触摸所述特定操作构件的情况下,不基于所述视线输入而移动所选位置;而在正在触摸所述特定操作构件的情况下,即使没有用于移动所选位置的触摸操作,也基于接收的所述视线输入来移动所选位置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112316A JP7301615B2 (ja) | 2019-06-17 | 2019-06-17 | 電子機器およびその制御方法 |
JP2019-112316 | 2019-06-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112104809A true CN112104809A (zh) | 2020-12-18 |
CN112104809B CN112104809B (zh) | 2023-04-21 |
Family
ID=73745310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010551188.4A Active CN112104809B (zh) | 2019-06-17 | 2020-06-17 | 电子装置、电子装置的控制方法及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11108945B2 (zh) |
JP (1) | JP7301615B2 (zh) |
CN (1) | CN112104809B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7301615B2 (ja) * | 2019-06-17 | 2023-07-03 | キヤノン株式会社 | 電子機器およびその制御方法 |
JP7253988B2 (ja) * | 2019-07-03 | 2023-04-07 | キヤノン株式会社 | 表示制御装置およびその制御方法、表示制御システム、並びにプログラム |
JP7277306B2 (ja) * | 2019-07-31 | 2023-05-18 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、記憶媒体 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103246044A (zh) * | 2012-02-09 | 2013-08-14 | 联想(北京)有限公司 | 一种自动对焦方法、系统及具有该系统的照相机和摄像机 |
CN103516985A (zh) * | 2013-09-18 | 2014-01-15 | 上海鼎为软件技术有限公司 | 移动终端及其获取图像的方法 |
CN106303193A (zh) * | 2015-05-25 | 2017-01-04 | 展讯通信(天津)有限公司 | 图像拍摄方法及装置 |
JP2018205648A (ja) * | 2017-06-09 | 2018-12-27 | キヤノン株式会社 | 撮像装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0846833A (ja) * | 1994-07-29 | 1996-02-16 | Canon Inc | 視線検出機能付カメラ |
JPH08184746A (ja) * | 1994-12-27 | 1996-07-16 | Nikon Corp | 視線検出機能を有するカメラ |
JPH09167049A (ja) * | 1995-12-15 | 1997-06-24 | Nissan Motor Co Ltd | コンソール用視線入力装置 |
JPH10191132A (ja) * | 1996-12-26 | 1998-07-21 | Canon Inc | 画像記録方法及び装置並びに記憶媒体 |
JP2001100903A (ja) | 1999-09-28 | 2001-04-13 | Sanyo Electric Co Ltd | 視線検出機能搭載装置 |
US9596401B2 (en) * | 2006-10-02 | 2017-03-14 | Sony Corporation | Focusing an image based on a direction of a face of a user |
JP5272827B2 (ja) | 2009-03-18 | 2013-08-28 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
JP6277673B2 (ja) | 2013-10-30 | 2018-02-14 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
JP6257199B2 (ja) | 2013-07-22 | 2018-01-10 | キヤノン株式会社 | 光学機器、その制御方法、および制御プログラム |
JP6393296B2 (ja) | 2016-08-30 | 2018-09-19 | キヤノン株式会社 | 撮像装置及びその制御方法、撮像制御装置、プログラム、並びに記憶媒体 |
JP6397454B2 (ja) | 2016-08-31 | 2018-09-26 | キヤノン株式会社 | 撮像制御装置及びその制御方法、プログラム、並びに記憶媒体 |
JP7060778B2 (ja) | 2017-02-28 | 2022-04-27 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、情報処理システムの制御方法及びプログラム |
WO2019067902A1 (en) | 2017-09-29 | 2019-04-04 | Apple Inc. | USER INTERACTIONS BASED ON THE LOOK |
JP7341729B2 (ja) * | 2019-05-29 | 2023-09-11 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、記憶媒体 |
JP7321786B2 (ja) * | 2019-06-17 | 2023-08-07 | キヤノン株式会社 | 電子機器およびその制御方法 |
JP7301615B2 (ja) * | 2019-06-17 | 2023-07-03 | キヤノン株式会社 | 電子機器およびその制御方法 |
JP7346135B2 (ja) * | 2019-07-30 | 2023-09-19 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 |
-
2019
- 2019-06-17 JP JP2019112316A patent/JP7301615B2/ja active Active
-
2020
- 2020-06-12 US US16/900,693 patent/US11108945B2/en active Active
- 2020-06-17 CN CN202010551188.4A patent/CN112104809B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103246044A (zh) * | 2012-02-09 | 2013-08-14 | 联想(北京)有限公司 | 一种自动对焦方法、系统及具有该系统的照相机和摄像机 |
CN103516985A (zh) * | 2013-09-18 | 2014-01-15 | 上海鼎为软件技术有限公司 | 移动终端及其获取图像的方法 |
CN106303193A (zh) * | 2015-05-25 | 2017-01-04 | 展讯通信(天津)有限公司 | 图像拍摄方法及装置 |
JP2018205648A (ja) * | 2017-06-09 | 2018-12-27 | キヤノン株式会社 | 撮像装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2020204915A (ja) | 2020-12-24 |
US20200396373A1 (en) | 2020-12-17 |
US11108945B2 (en) | 2021-08-31 |
CN112104809B (zh) | 2023-04-21 |
JP7301615B2 (ja) | 2023-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11500458B2 (en) | Electronic apparatus, method for controlling the electronic apparatus, and storage medium | |
CN112104809B (zh) | 电子装置、电子装置的控制方法及存储介质 | |
US11233941B2 (en) | Electronic device that receives line of sight input, method of controlling electronic device, and non-transitory computer readable medium | |
US11240419B2 (en) | Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium | |
US20220321770A1 (en) | Electronic device, control method for electronic device, and non-transitory computer readable storage medium | |
EP3876517A1 (en) | Electronic device, control method, program, and computer readable medium | |
US11435648B2 (en) | Image capture apparatus and control method | |
WO2020255675A1 (ja) | 電子機器およびその制御方法 | |
US11442244B2 (en) | Imaging device | |
US11175737B2 (en) | Electronic device for receiving line of sight input, method of controlling electronic device, and non-transitory computer readable medium | |
JP7387493B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
US11526264B2 (en) | Electronic apparatus for enlarging or reducing display object, method of controlling electronic apparatus, and non-transitory computer readable medium | |
US11538191B2 (en) | Electronic apparatus using calibration of a line of sight input, control method of electronic apparatus using calibration of a line of sight input, and non-transitory computer readable medium thereof | |
JP7451255B2 (ja) | 電子機器及びその制御方法 | |
US11595567B2 (en) | Imaging apparatus, method for controlling, and recording medium | |
JP7431567B2 (ja) | 電子機器およびその制御方法、プログラム、並びに記憶媒体 | |
JP2021108447A (ja) | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 | |
JP2021018634A (ja) | 電子機器およびその制御方法 | |
JP2022172840A (ja) | 電子機器、電子機器の制御方法、プログラム、及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |