CN112118380A - 相机操控方法、装置、设备及存储介质 - Google Patents

相机操控方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112118380A
CN112118380A CN201910531271.2A CN201910531271A CN112118380A CN 112118380 A CN112118380 A CN 112118380A CN 201910531271 A CN201910531271 A CN 201910531271A CN 112118380 A CN112118380 A CN 112118380A
Authority
CN
China
Prior art keywords
action
dvs
module
event data
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910531271.2A
Other languages
English (en)
Other versions
CN112118380B (zh
Inventor
武隽
吴岳霖
王倩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201910531271.2A priority Critical patent/CN112118380B/zh
Priority to US16/699,462 priority patent/US11336818B2/en
Priority to EP19214097.8A priority patent/EP3754459B1/en
Publication of CN112118380A publication Critical patent/CN112118380A/zh
Application granted granted Critical
Publication of CN112118380B publication Critical patent/CN112118380B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供一种相机操控方法、装置、设备及存储介质,本公开实施例在终端设备利用相机模块进行拍摄的情况下,获取DVS采集模块采集的事件数据,并依据事件数据对DVS采集模块采集范围内控制对象的脸部指定部位的动作进行识别;在识别到目标动作的情况下,控制相机模块执行与目标动作对应的目标操作,从而实现无需手操作也可以控制相机模块,且由于事件数据包括检测到光强发生变化的像素单元的数据,因此,数据量低、且响应速度快。

Description

相机操控方法、装置、设备及存储介质
技术领域
本申请涉及控制技术领域,尤其涉及相机操控方法、装置、设备及存储介质。
背景技术
随着科技的发展,终端设备已成为人们生活、工作与学习中都不可或缺的一部分。而具有拍照功能的终端设备也逐渐的替代了除少数专业单反之外的绝大部分拍照设备,拍照体验在用户使用终端设备的过程中变得越来越重要。目前的终端设备,相机在操作上还是由用户对屏幕进行触控操作,从而实现对焦、拍照以及缩放等操作。这种触控式的操作方式在很多时候都不方便。比如,为了选取合适的拍摄角度,有时握持手机的姿势可能导致不方便去触控屏幕,如伸长胳膊自拍的场景;又如,湿手的时候不方便控制屏幕等,因此现有技术中的终端设备在进行拍照时,不仅控制方式单一,而且智能性也满足不了用户的需求。
发明内容
为克服相关技术中存在的问题,本公开提供了相机操控方法、装置、设备及存储介质。
根据本公开实施例的第一方面,提供所述方法应用于终端设备,终端设备包括DVS采集模块,所述方法包括:
在终端设备利用相机模块进行拍摄的情况下,获取所述DVS采集模块采集的事件数据;
依据所述事件数据对DVS采集模块采集范围内控制对象的脸部指定部位的动作进行识别;
在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作。
在一个可选的实施例中,所述脸部指定部位为眼部;和/或,所述目标动作包括以下一种或多种:至少一次双眨眼、睁一只眼闭一只眼、眼球向指定方位移动后复位、表征指定情绪的眼部表情动作。
在一个可选的实施例中,所述依据所述事件数据对DVS采集模块采集范围内脸部指定部位的动作进行识别之前,所述方法还包括:
依据所述DVS采集模块采集的事件数据确定控制对象的视觉焦点的位置信息;
利用所述位置信息判定视觉焦点位于预定的可控区域内,所述可控区域依据终端设备的可操控区域进行配置。
在一个可选的实施例中,所述依据所述DVS采集模块采集的事件数据确定控制对象的视觉焦点的位置信息,包括:
确定DVS采集模块采集的事件数据中控制对象的眼部位置,并结合眼部与DVS采集模块的距离以及DVS采集模块在终端设备上的位置信息,获得眼部相对于终端设备的空间位置信息;
利用所述事件数据进行视线方向识别,获得所述眼部的视线方向;
依据所述空间位置信息和所确定的视线方向,获得控制对象的视觉焦点的位置信息。
在一个可选的实施例中,所述目标动作是在识别到指定唤醒动作后预设时间段内识别到的动作。
在一个可选的实施例中,所述依据所述事件数据对脸部指定部位的动作进行识别之前,所述方法还包括:
识别到至少两个人脸时,输出选择控制对象的提示信息;
基于由用户触发的选择指令将选中对象作为控制对象,所述脸部指定部位为控制对象的脸部指定部位。
在一个可选的实施例中,所述目标操作包括聚焦调整/缩放调整,所述在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作,包括:
在识别到与聚焦调整/缩放调整对应的目标动作的情况下,控制所述相机模块执行聚焦操作/缩放操作,所执行的聚焦操作/缩放操作与点触屏幕上视觉焦点所在区域而触发的聚焦操作/缩放操作相同,所述视觉焦点是控制对象所注视的点。
在一个可选的实施例中,所述在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作,包括:
在识别到目标动作后,进行倒计时提醒;
在倒计时结束后,控制所述相机模块执行与所述目标动作对应的目标操作。
在一个可选的实施例中,所述方法还包括:
在识别出的眼部动作为用于指示控制方式的指定动作、且控制对象注视终端设备同一位置的时间超过预设时间阈值的情况下,控制所述相机模块执行与指定控制指令对应的操作,所述指定控制指令与以所确定的控制方式操控终端设备上被控制对象注视的位置而触发的指令相同;所述控制方式包括:单击、双击、长按中的任一种方式。
根据本公开实施例的第二方面,提供一种相机操控装置,所述装置应用于终端设备,终端设备包括DVS采集模块,所述装置包括:
数据获取模块,被配置为在终端设备利用相机模块进行拍摄的情况下,获取所述DVS采集模块采集的事件数据;
动作识别模块,被配置为依据所述事件数据对DVS采集模块采集范围内控制对象的脸部指定部位的动作进行识别;
操作控制模块,被配置为在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作。
在一个可选的实施例中,所述脸部指定部位为眼部;和/或,所述目标动作包括以下一种或多种:至少一次双眨眼、睁一只眼闭一只眼、眼球向指定方位移动后复位、表征指定情绪的眼部表情动作。
在一个可选的实施例中,所述装置还包括区域检测模块,被配置为:
在依据所述事件数据对脸部指定部位的动作进行识别之前,依据所述DVS采集模块采集的事件数据确定控制对象的视觉焦点的位置信息;
利用所述位置信息判定视觉焦点位于预定的可控区域内,所述可控区域依据终端设备的可操控区域进行配置。
在一个可选的实施例中,所述区域检测模块,具体配置为:
确定DVS采集模块采集的事件数据中控制对象的眼部位置,并结合眼部与DVS采集模块的距离以及DVS采集模块在终端设备上的位置信息,获得眼部相对于终端设备的空间位置信息;
利用所述事件数据进行视线方向识别,获得所述眼部的视线方向;
依据所述空间位置信息和所确定的视线方向,获得控制对象的视觉焦点的位置信息。
在一个可选的实施例中,所述目标动作是在识别到指定唤醒动作后预设时间段内识别到的动作。
在一个可选的实施例中,所述装置还包括对象选择模块,被配置为:
在依据所述事件数据对脸部指定部位的动作进行识别之前,识别到至少两个人脸时,输出选择控制对象的提示信息;
基于由用户触发的选择指令将选中对象作为控制对象,所述脸部指定部位为控制对象的脸部指定部位。
在一个可选的实施例中,所述目标操作包括聚焦调整/缩放调整,所述操作控制模块具体被配置为:
在识别到与聚焦调整/缩放调整对应的目标动作的情况下,控制所述相机模块执行聚焦操作/缩放操作,所执行的聚焦操作/缩放操作与点触屏幕上视觉焦点所在区域而触发的聚焦操作/缩放操作相同,所述视觉焦点是控制对象所注视的点。
在一个可选的实施例中,所述操作控制模块具体被配置为:
在识别到目标动作后,进行倒计时提醒;
在倒计时结束后,控制所述相机模块执行与所述目标动作对应的目标操作。
在一个可选的实施例中,所述操作控制模块还用于:
在识别出的眼部动作为用于指示控制方式的指定动作、且控制对象注视终端设备同一位置的时间超过预设时间阈值的情况下,控制所述相机模块执行与指定控制指令对应的操作,所述指定控制指令与以所确定的控制方式操控终端设备上被控制对象注视的位置而触发的指令相同;所述控制方式包括:单击、双击、长按中的任一种方式。
根据本公开实施例的第三方面,提供一种终端设备,包括DVS采集模块、存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现如上任一项所述方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一项所述方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开实施例在终端设备利用相机模块进行拍摄的情况下,获取DVS采集模块采集的事件数据,并依据事件数据对DVS采集模块采集范围内控制对象的脸部指定部位的动作进行识别;在识别到目标动作的情况下,控制相机模块执行与目标动作对应的目标操作,从而实现无需手操作设备也可以控制相机模块,且由于事件数据包括检测到光强发生变化的像素单元的数据,因此,数据量低、且响应速度快。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是本公开根据一示例性实施例示出的一种相机操控方法的流程图。
图2是本公开根据一示例性实施例示出的一种摄像模块位置示意图。
图3A是本公开根据一示例性实施例示出的另一种相机操控方法的流程图。
图3B是本公开根据一示例性实施例示出的一种相机操控方法的应用场景图。
图4是本公开根据一示例性实施例示出的一种相机操控装置的框图。
图5是本公开根据一示例性实施例示出的另一种相机操控装置的框图。
图6是本公开根据一示例性实施例示出的另一种相机操控装置的框图。
图7是本公开根据一示例性实施例示出的一种用于相机操控的装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
随着智能终端的广泛使用,越来越多的人离不开手机、平板等终端设备。终端设备和使用者之间的交互成为各大终端厂商的研发重点,出现了多种多样的在终端设备上实现与使用者操作交互的技术方案。特别是针对具有拍照功能的终端设备,在某些特殊场景或由于屏幕过大的缘故,可能出现不方便操控屏幕的情况。例如,为了选取合适的拍摄角度,有时握持手机的姿势可能导致不方便去触控屏幕,如伸长胳膊自拍的场景;又如,拍照需要保持终端设备的稳定性,用手触控屏幕难免会导致机身轻微抖动,从而影响成像效果;再如,湿手、脏手等情况不方便控制屏幕等。
鉴于此,本公开实施例提供一种相机操控方案,在终端设备利用相机模块进行拍摄的情况下,获取DVS采集模块采集的事件数据,并依据事件数据对DVS采集模块采集范围内脸部指定部位的动作进行识别;在识别到目标动作的情况下,控制相机模块执行与目标动作对应的目标操作,从而实现无需手部操作也可以控制相机模块,且由于事件数据包括检测到光强发生变化的像素单元的数据,因此,数据量低、且响应速度快。
本实施例提供的相机操控方法可以通过软件执行,也可以通过软件和硬件相结合或者硬件执行的方式实现,所涉及的硬件可以由两个或多个物理实体构成,也可以由一个物理实体构成。本实施例方法可以应用于具有DVS采集模块的电子设备。其中,电子设备可以是具有拍照功能的智能手机、智能学习机、平板电脑、笔记本电脑、PDA(PersonalDigital Assistant,个人数字助理)等便携式设备,也可以是台式电脑等固定设备,还可以是以拍摄作为主要功能的摄像设备。
以智能手机为例进行示例说明。本发明实施例的执行主体可以是智能手机,也可以是安装在智能手机中的相机应用等。需要说明的是,所述智能手机只是本公开实施例所提供的其中一种应用示例,不应理解为本公开实施例所提供的技术方案只能应用于智能手机的场景下。
动态视觉传感器(Dynamic Vision Sensor,DVS),也可以称为动态事件传感器,是一种模拟基于脉冲触发式神经元的人类视网膜的生物拟态视觉传感器。传感器内部具有由多个像素单元构成的像素单元阵列,其中每个像素单元只有在感应到光强变化时,才会响应并记录光强快速变化的区域。关于动态视觉传感器的具体组成此处不做过多阐述。DVS可以采用事件触发的处理机制,输出异步的事件数据流。事件数据流可以是连续时刻的事件数据。事件数据可以包括光强变化信息(如,光强变化的时间戳和光强值)以及被触发像素单元的坐标位置等。DVS的响应速度不再受传统的曝光时间和帧率限制,可以侦测到高达万帧/秒速率运动的高速物体;DVS具有更大的动态范围,在低光照或者高曝光环境下都能准确感应并输出场景变化;DVS功耗更低;由于DVS每个像素单元都能独立响应光强变化,因此DVS不会受运动模糊的影响。
接下来结合附图对本公开实施例进行示例说明。
如图1所示,图1是本公开根据一示例性实施例示出的一种相机操控方法的流程图,该方法可以用于终端设备中,终端设备包括DVS采集模块,DVS采集模块可以是基于动态视觉传感器DVS的摄像模块,所述方法可以包括以下步骤:
在步骤102中,在终端设备利用相机模块进行拍摄的情况下,获取所述DVS采集模块采集的事件数据;
在步骤104中,依据所述事件数据对DVS采集模块采集范围内控制对象的脸部指定部位的动作进行识别;
在步骤106中,在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作。
本实施例方法可以用于终端设备中,终端设备设置有基于动态视觉传感器(DVS)的采集模块,简称DVS采集模块。所述DVS采集模块可以设置在终端设备的外表部,以采集终端设备所处环境的事件数据。如设置在终端设备的正面或背面。某些场景中,由于控制对象(操控者)往往依据屏幕上显示的取景内容来进行相机控制,因此,在一个实施例中,所述DVS摄像模组设置在终端设备屏幕所在面。例如,DVS采集模块可以设置在前置摄像头的周围区域,当然,DVS采集模块也可以设置在其他位置。如图2所示,图2是本公开根据一示例性实施例示出的一种摄像模块位置示意图。该图以终端设备为智能手机为例,在智能手机前置摄像头的右侧设置有DVS采集模块。本实施例可以应用于自拍的场景,也可以用于对他人或景物拍摄的场景。
DVS采集模块采集场景中的事件数据,在场景发生变化时可以输出事件。例如,当场景中没有物体相对于终端设备运动时,DVS采集模块中像素单元检测到的光强不会发生变化,当检测到场景中的某个物体相对于终端设备发生运动,会导致光线发生变化,因而触发像素事件,输出检测到光强发生变化的像素单元的事件数据流,该事件数据流中每个事件数据可以包括检测到亮度发生变化的像素单元的坐标位置、被触发时刻的时间戳信息、光强值等。由于在DVS采集模块中,对于单个像素点,只有接受光强度发生改变时,才会有事件(脉冲)信号输出。比如说亮度增加超过一个阈值,那么将增加一个该像素点亮度增加的事件。同一时间戳信息对应的事件数据可以以图像的形式展现出来,因此可以称为DVS图像数据,DVS图像数据可以认为是部分图像数据,针对没有检测到光强度发生变化的像素单元没有事件数据。
终端设备以相机模块进行拍摄,终端设备屏幕取景框显示的内容可以是相机模块捕捉的图像。相机模块可以是用户用于进行拍摄的拍摄模块。所述相机模块可以为所述DVS采集模块或终端设备上的其他摄像模块。在利用DVS采集模块进行拍摄的场景中,相机模块可以是DVS采集模块。在利用终端设备DVS采集模块作为辅助摄像模块,而其他摄像模块作为主要拍摄模块进行拍摄的场景中,如普通前置摄像头/普通后置摄像头作为主要拍摄模块,相机模块可以是终端设备上的其他摄像模块。
作为一种获取条件,可以是检测到相机模块处于运行状态。在相机模块运行的情况下,可以获取所述DVS采集模块采集的事件数据。而获取事件数据的起始时机,可以是检测到相机模块启动,或者接收到启动本公开控制服务的启动指令等。
相关技术中可以采用触摸操控的方式对相机模块进行操控,而本公开又提供一种脸部指定部位操控的方式,为此,在一个实施例中,可以构建一种新的相机操控模式,用于指示脸部指定部位操控相机。例如,可以将新的相机操控模式称为动作操控相机模式。而步骤102中获取所述DVS采集模块采集的事件数据的前提条件,不仅需要终端设备以相机模块进行拍摄,还需要动作操控相机模式启动。相应的,步骤102可以是,在终端设备以相机模块进行拍摄、且动作操控相机模式开启的情况下,获取所述DVS采集模块采集的事件数据。当用户不需要利用脸部指定部位操控相机时,可以关闭动作操控相机模式,从而避免DVS拍摄模块实时采集事件数据导致的资源浪费。
事件数据可以是DVS采集模块采集的同一时刻的事件数据,也可以是连续时刻(多个时刻)采集事件数据。在获得DVS采集模块采集的事件数据后,可以依据事件数据对DVS采集模块采集范围内脸部指定部位的动作进行识别。
关于脸部指定部位,可以脸部中一个部位,也可以是多个部位。在一个实施例中,以多个部位为例,脸部指定部位的动作可以是面部动作,如表情类动作或其他非表情类动作等。表情类动作可以是用来表现各种情绪状态时眼部肌肉、颜面肌肉和口部肌肉等的变化动作。例如,可以是用于表示兴奋、喜欢、惊讶、痛苦、恐惧、羞辱、厌恶、愤怒等情绪的面部动作。非表情类动作可以是张嘴、闭嘴等动作。
在该实施例中,以面部动作控制相机模块,由于面部动作的种类较多,因此可以控制相机模块执行多种目标操作。
考虑到眼睛的灵活性,在另一个实施例中,脸部指定部位可以是眼部。眼部的动作,可以是瞳孔的动作、眼球的动作、眼睑的动作中的一种或多种,甚至作为一种广义的理解,眼部的动作还可以包括眉动作。例如,瞳孔可以进行放大和缩小,眼球可以进行不同方位的移动、转动等,眼睑可以进行睁开和闭合,结合眼睑、眼球、眉等还可以完成表征指定情绪的眼部表情动作。示例的,所述目标动作可以包括以下一种或多种:至少一次双眨眼、睁一只眼闭一只眼、眼球向指定方位移动后复位、表征指定情绪的眼部表情动作。关于眼球向指定方位移动后复位,例如,向上移动后复位,向左移动后复位等。关于眼部表情动作,可以是皱眉+瞪眼等表情。
在该实施例中,以眼部动作控制相机模块,可以减少识别内容,同时于控制对象而言眼部动作容易完成,提高用户操控体验。
在脸部指定部位发生变化时,可以获得脸部指定部位的事件数据,因此,可以依据事件数据对DVS采集模块采集范围内脸部指定部位的动作进行识别。示例的,可以依据相同时间戳信息对应的事件数据对DVS采集模块采集范围内脸部指定部位的动作进行识别。以脸部指定部位为眼部为例,可以依据相同时间戳信息对应的事件数据先识别出眼部区域,再从眼部区域中识别出眼部动作。可以理解的是,在识别过程中,可能需要一个时间戳或多个时间戳下的事件数据,在此不做限制。
在一个实施例中,可以利用预训练的动作识别模型识别事件数据中脸部指定部位的动作。动作识别模型可以是利用带标签的训练样本训练获得的模型。训练样本可以包括通用样本和专用样本。通用样本是不区分对象的脸部指定部位执行动作时的图像,专用样本可以是本机控制对象的脸部指定部位执行动作时的事件数据。例如,提供专用样本采集服务。如,以目标动作包括眨眼为例,提示用户眨眼,则利用DVS采集模块采集控制对象眨眼时的事件数据,并记录。示例的,考虑到每个人的脸部指定部位可能存在差异,可以先用通用样本训练获得一个通用动作识别模型,针对每个设备,还可以利用控制对象的专用样本对通用动作识别模型进行加强训练,获得专用的动作识别模型,从而提高识别准确率。
可以理解的是,还可以采用其他手段对DVS采集模块采集范围内脸部指定部位的动作进行识别,在此不一一赘述。
关于识别动作的执行时机,在一个实施例中,可以是在获取到DVS采集模块采集的事件数据后,依据事件数据对DVS采集模块采集范围内脸部指定部位的动作进行识别。某些应用场景中,在开启动作控制相机模式起,距离实际操控相机可能会有一段间隔时间,而该期间不断的进行动作识别会造成资源浪费,鉴于此,在另一个实施例中,还可以先判定用户有操控相机的意愿后,再触发进行动作识别。在一个例子中,可以通过视觉焦点是否位于预定的可控区域,来判断用户是否有操控相机的意愿。示例的,所述依据所述事件数据对DVS采集模块采集范围内脸部指定部位的动作进行识别之前,所述方法还包括:
依据所述DVS采集模块采集的事件数据确定控制对象的视觉焦点的位置信息;
利用所述位置信息判定视觉焦点位于预定的可控区域内,所述可控区域依据终端设备的可操控区域进行配置。
其中,事件数据可以是DVS采集模块采集的同一时刻的事件数据,也可以是连续时刻(多个时刻)采集事件数据。视觉焦点在可控区域内可以用于表征控制对象有操控相机的意愿。若按等级划分,该意愿可以理解为初级意愿。视觉焦点可以是控制对象视线的焦点,也可以称为注视点。在一个例子中,视觉焦点的位置信息可以依据眼部相对于终端设备的空间位置信息以及眼部的视线方向获得。示例的,所述依据所述DVS采集模块采集的事件数据确定视觉焦点的位置信息,可以包括:
确定DVS采集模块采集的事件数据中控制对象的眼部位置,并结合眼部与DVS采集模块的距离以及DVS采集模块在终端设备上的位置信息,获得眼部相对于终端设备的空间位置信息;
利用所述事件数据进行视线方向识别,获得所述眼部的视线方向;
依据所述空间位置信息和所确定的视线方向,获得控制对象的视觉焦点的位置信息。
其中,事件数据可以包括检测到亮度发生变化的像素单元的坐标位置等信息,因此,可以依据表示眼部的像素单元的坐标位置确定眼部位置。
眼部与DVS采集模块的距离,可以依据指示眼部的像素单元的深度信息获得。在一个示例中,如果只有单目摄像模块,可以采用DFF(Depth From Focus,对焦测距)方法确定眼部与DVS采集模块的距离。在另一个示例中,如果终端设备存在多个摄像模块的情况,可以采用双目摄像头确定眼部与DVS采集模块的距离。以DVS采集模块设置在屏幕所在面为例,可以由DVS采集模块和前置摄像头构成双目摄像模组,从而利用双目摄像模组确定眼部与DVS采集模块的距离。可以理解的是,具体确定方式与用普通双目摄像头测距相似,在此不再赘述,另外,也可以采用其他方法确定眼部与DVS采集模块的距离,在此不一一赘述。
DVS采集模块在终端设备上的位置信息是固定的,可以预先存储。
在获得眼部的位置、眼部与DVS采集模块的距离以及DVS采集模块在终端设备上的位置信息后,可以获得眼部相对于终端设备的空间位置信息。例如,可以建立一个三维空间坐标系,从而可以获得眼部和终端设备的空间坐标。
视线方向,又称为注视方向,可以是基于瞳孔确定的方向。事件数据中有表征眼部的数据,因此,可以利用所述事件数据进行视线方向识别,获得所述眼部的视线方向。在一个示例中,可以采用被动确定视线方向的方式,利用DVS采集模块采集眼部的事件数据,利用获取到的事件数据进行眼球立体建模,从而获得瞳孔的位置,并依据瞳孔的位置确定注视方向。在另一个示例中,可以采用主动确定视线方向的方式。如,提供一个光源主动发射装置,通过光源主动发射装置向眼部发射点光源,点光源会在眼睛里有反射,通过DVS采集该场景下的眼部的事件数据,并根据点光源的反射点在眼部的位置确定注视方向。
应当理解的是,还可以采用其他方式确定眼部的视线方向,在此不一一赘述。
在该实施例中,通过眼部相对于终端设备的空间位置信息,以及眼部的视线方向,可以确定视觉焦点的位置信息。
在获得视觉焦点的位置信息后,可以判断视觉焦点是否位于预定的可控区域内,当判定视觉焦点位于可控区域内时,可以执行步骤104,否则,返回继续执行依据所述DVS采集模块采集的事件数据确定视觉焦点的位置信息的步骤。
关于预定的可控区域,可以依据视觉焦点落在可控区域内时能否反应控制对象有操控相机的意愿来确定。在一个实施例中,当控制对象面向终端设备的可操控区域时,可以认为控制对象有操控相机的意愿,为此,可控区域可以依据终端设备的可操控区域进行配置。终端设备的可操控区域可以包括可触摸操控区域和/或按键操控区域等。而如何依据终端设备的可操控区域配置可控区域,可以根据需求设置。示例的,可控区域可以是期望控制对象用脸部指定部位对相机进行操控的区域。如,可控区域可以是全屏区域,也可以是部分屏区域,甚至可以是终端设备的边界区域等。例如,在拍摄场景中,为了避免误以为要对拍摄界面上下菜单栏中触摸控件进行操作,可控区域可以是取景框区域,排除屏幕上菜单栏所在区域。在取景框区域内,可以依据脸部指定部位执行图像放大、图像缩小、聚焦等操作。而在某些期望利用脸部指定部位对菜单栏中触摸控件进行控制的场景中,可控区域可以是全屏所在区域。
在该实施例中,在判定视觉焦点位于预定的可控区域内,才触发执行动作识别,可以避免一直进行动作识别导致的资源浪费。
在一个实施例中,为了进一步避免由脸部指定部位的动作误操控相机,还可以通过是否检测到指定唤醒动作来判断后续识别到的动作是否有效,在动作有效的情况下,才控制相机模块执行与目标动作对应的目标操作。目标动作为有效动作的条件是:识别到目标动作之前,识别到指定唤醒动作。相应的,所述目标动作为有效动作,所述方法还包括:
在依据所述DVS采集模块采集的事件数据识别到指定唤醒动作后,从所述DVS采集模块采集的事件数据识别到的脸部指定部位的动作才判定为有效动作,所述指定唤醒动作是预先指定的、用于表征控制对象有利用脸部指定部位的动作操控相机的意愿的动作。
识别到指定唤醒动作,可以用来表征控制对象有利用脸部指定部位的动作操控相机的意愿。如果按等级划分,识别到指定唤醒动作所表征的意愿,比以视觉焦点在可控区域内所表征的意愿强,可以将指定唤醒动作表征的意愿划分为深度意愿。指定唤醒动作可以是预先指定的一个动作,可以是默认动作,也可以是由控制对象预先配置的动作。例如,可以是连续眨眼两次等动作。在检测到指定唤醒动作后,可以对从DVS采集模块新获取的事件数据进行动作识别,以判断是否识别到目标动作。
在该实施例中,通过是否识别到指定唤醒动作来判断后续识别到的动作是否有效,可以避免由于不小心执行了某个目标动作而导致误控制相机。
进一步的,还可以设置指定唤醒动作的有效期,所述目标动作是在识别到指定唤醒动作后预设时间段内识别到的动作。在识别到指定唤醒动作后预设时间段内识别到目标动作,才判定目标动作有效。预设时间段可以根据需求设置,例如,可以设置为3s,10s等。在每次识别目标动作前都必须识别到指定唤醒动作的场景下,预设时间段的值可以设置为较小。在识别到指定唤醒动作后,后续多个动作都判定为有效动作的场景中,预设时间段的值可以设置为较大。
控制对象可以是操控终端设备的对象。例如,可以是指定对象(可以称为具有权限的对象),也可以是非指定对象(不约定对象是否有权限,只要是当前操控终端的对象即可)。在实际应用中,在DVS采集模块采集范围内可能存在多个对象的情况,在一个实施例中,控制对象可以是具有权限的对象,可以从采集的人脸图像中识别出具有权限的对象,并获取具有权限对象的人眼的事件数据。例如,可以约定只有机主才具有利用动作控制相机的权限。在另一个实施例中,为了实现控制对象的可控性,所述依据所述事件数据对脸部指定部位的动作进行识别之前,所述方法还包括:
识别到至少两个人脸时,输出选择控制对象的提示信息;
基于由用户触发的选择指令将选中对象作为控制对象,所述脸部指定部位为控制对象的脸部指定部位。
关于识别人脸,可以是利用相机模块采集的图像进行人脸识别,也可以是利用DVS采集模块采集的事件数据进行人脸识别。选中对象可以是用户基于提示信息选择的人物对象。
该实施例通过输出选择控制对象的提示信息供用户选择,可以提高控制对象的可选择性。
在识别到目标动作的情况下,可以控制相机模块执行与目标动作对应的目标操作。
在本公开实施例中,可以预先建立目标动作与目标操作的映射关系,不同目标动作可以触发执行不同目标操作。示例的,可以预先构建目标动作与控制指令的映射关系,目标动作用于指示终端设备执行目标操作。在识别到目标动作的情况下,依据由识别出的目标动作获得的控制指令,控制相机模块执行相应的目标操作。
目标操作是相机模块可以执行的操作,例如,可以包括聚焦、图像缩放、确认拍摄(按快门)、开启闪光灯、关闭闪光灯、开启HDR、关闭HDR等操作。例如,连续眨眼两次,可以表示按快门,即确认拍摄。眼球向左移动后复位,可以表示开启闪光灯。眼球向右移动后复位,可以表示关闭闪光灯。
在某些目标操作中,还依赖于对屏幕上某个点执行相应调整操作,鉴于此,控制相机模块针对屏幕上视觉焦点所在区域执行与目标动作对应的目标操作。以聚焦调整/缩放调整为例,所述在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作,可以包括:
在识别到与聚焦调整/缩放调整对应的目标动作的情况下,控制所述相机模块执行聚焦操作/缩放操作,所执行的聚焦操作/缩放操作与点触屏幕上视觉焦点所在区域而触发的聚焦操作/缩放操作相同,视觉焦点是控制对象所注视的点。
在该实施例中,可以通过视觉焦点和脸部指定部位的动作控制相机模块执行聚焦操作/缩放操作,从而实现可以执行更多类型的目标操作。
在另一个实施例中,可能存在控制对象有对视觉焦点所对应的屏幕位置进行触控的意愿的情况,为此,可以利用一类专用的动作指示用户存在这样的需求。所述方法还包括:在识别出的眼部动作为用于指示控制方式的指定动作、且控制对象注视终端设备同一位置的时间超过预设时间阈值的情况下,控制所述相机模块执行与指定控制指令对应的操作,所述指定控制指令与以所确定的控制方式操控终端设备上被控制对象注视的位置而触发的指令相同;所述控制方式包括:单击、双击、长按等中的任一种。
被控制对象注视的位置可以依据控制对象的视觉焦点的位置信息获得。被控制对象注视的位置可以是相机界面中的按钮。例如,终端设备当前界面可以包括滤镜、美颜等控件,指定动作可以是预先约定的动作,例如,可以是张嘴、睁一只眼闭一只眼、或转动眼睛等动作。当控制对象注视当前界面的目标控件的时间超过时间阈值、且识别到表示单击的指定动作时,可以控制相机模块执行与点触目标控件而触发的操作相同的操作。
该实施例还可以通过将脸部指定部位的动作与视觉焦点结合,从而实现替代点触屏幕控件。
在实际应用中,在被拍摄对象包括控制对象的情况下,如果识别到目标动作后,立即控制相机模块执行与目标动作对应的目标操作,可能会由于控制对象没有准备好,导致成像结果不是控制对象期望的结果,鉴于此,还配置延迟调整机制。相应的,所述在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作,可以包括:
在识别到目标动作后,进行倒计时提醒;
在倒计时结束后,控制所述相机模块执行与所述目标动作对应的目标操作。
在该实施例中,倒计时提醒可以是声音提醒,也可以是显示提醒,具体根据需求配置。例如,可以在画面中显示倒计时数字或倒计时进度条等,以提醒用户倒计时结束后会执行与目标动作对应的目标操作。
以上实施方式中的各种技术特征可以任意进行组合,只要特征之间的组合不存在冲突或矛盾,但是限于篇幅,未进行一一描述,因此上述实施方式中的各种技术特征的任意进行组合也属于本说明书公开的范围。
以下以其中一种组合进行示例说明。
如图3A所示,图3A是本公开根据一示例性实施例示出的另一种相机操控方法的流程图,所述方法应用于终端设备,终端设备包括DVS采集模块,所述方法包括:
在步骤300中,在终端设备利用相机模块进行拍摄的情况下,获取所述DVS采集模块采集的事件数据。
在步骤302中,依据DVS采集模块采集的事件数据确定视觉焦点的位置信息。
相机模块启动后,DVS开始对人眼进行检测,并对图像进行分析,以获取眼球的方位和姿态信息,进而获得视觉焦点的位置信息。DVS是一种基于事件动态的传感器,对于眼球这种运动物体可以很好的进行追踪,而且具有高帧率、高动态的特点。高帧率可以使该传感器更加频繁的获取眼部信息,更加细致的分析眼部的动作,将眼部的细小变化更加及时的进行捕捉。而高动态以及暗光下的良好表现则使得其在强光下、暗光下或逆光下都能很好的完成对眼部的监测。
在步骤304中,利用所述位置信息判断视觉焦点是否位于预定的可控区域内,若是,执行步骤306;若否,返回执行步骤300。
所述可控区域依据终端设备的可操控区域进行配置,视觉焦点在可控区域内可以表示控制对象有控制相机模块的意愿。
在步骤306中,依据事件数据对DVS采集模块采集范围内控制对象的眼部动作进行识别,在识别到目标动作的情况下,执行步骤308;在没有识别到目标动作的情况下,返回执行步骤300。
视觉焦点位于可控区域的情况下,可以进一步获取并分析眼部动作,例如眼球的动作以及眼部的表情等。若识别到目标动作,则按照设定的交互逻辑,根据捕获到的信息生成对应的控制信息,进而控制相机模块执行与目标动作对应的目标操作。
在步骤308中,控制所述相机模块执行与所述目标动作对应的目标操作。
其中,图3A与图1中相关技术相同,为了节约篇幅,在此不一一赘述。
该实施例利用DVS对姿态识别感知和运动物体的动作捕捉上具有先天的优势,对眼睛的方位信息、动作信息等进行识别更加精确高效。DVS还具有高帧率、高动态的特点。高帧率可以使该sensor更加频繁的获取眼部信息,更加细致的分析眼部的动作,将眼部的细小变化更加及时的进行捕捉。并且高动态以及暗光下的良好表现则使得其在强光下、暗光下或逆光下都能很好的完成对眼部的监测,能够更好的适应各种极端光线环境,并直接根据眼部不同的动作来对相机进行相应的目标操作,从而达成无需手部触控,只靠眼部就可实现隔空操作的目的,拓宽了终端设备中相机的使用场景。控制过程更加直接,简洁,且可通过符合人们直觉的直观的操作对应方式降低用户学习成本,提升了终端设备中相机的操作体验。
以下以一个具体应用场景进行示例说明。如图3B所示,图3B是本公开根据一示例性实施例示出的一种相机操控方法的应用场景图。在该场景中,以用户伸长胳膊进行自拍为例,控制对象通过做出单眨眼的眼部动作触发按快门的操作,在识别到单眨眼动作后,进入倒计时,并显示数字倒计时,以供控制对象在倒计时期间调整表情或动作,并在倒计时结束后触发快门,完成拍摄。该实施例通过眼部动作隔空操控相机,拓宽了相机的使用场景。
与前述相机操控方法的实施例相对应,本公开还提供了相机操控装置、装置所应用的设备以及存储介质的实施例。
如图4所示,图4是本公开根据一示例性实施例示出的一种相机操控装置的框图,所述装置应用于终端设备,终端设备包括DVS采集模块,所述装置包括:
数据获取模块42,被配置为在终端设备利用相机模块进行拍摄的情况下,获取所述DVS采集模块采集的事件数据;
动作识别模块44,被配置为依据所述事件数据对DVS采集模块采集范围内控制对象的脸部指定部位的动作进行识别;
操作控制模块46,被配置为在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作。
在另一个可选的实施例中,所述脸部指定部位为眼部。
在另一个可选的实施例中,所述目标动作包括以下一种或多种:至少一次双眨眼、睁一只眼闭一只眼、眼球向指定方位移动后复位、表征指定情绪的眼部表情动作。
在另一个可选的实施例中,如图5所示,图5是本公开根据一示例性实施例示出的另一种相机操控装置的框图,该实施例在前述图4所示实施例的基础上,所述装置还包括区域检测模块48,被配置为:
在依据所述事件数据对脸部指定部位的动作进行识别之前,依据所述DVS采集模块采集的事件数据确定控制对象的视觉焦点的位置信息;
利用所述位置信息判定视觉焦点位于预定的可控区域内,所述可控区域依据终端设备的可操控区域进行配置。
在另一个可选的实施例中,区域检测模块48,具体配置为:
确定DVS采集模块采集的事件数据中控制对象的眼部位置,并结合眼部与DVS采集模块的距离以及DVS采集模块在终端设备上的位置信息,获得眼部相对于终端设备的空间位置信息;
利用所述事件数据进行视线方向识别,获得所述眼部的视线方向;
依据所述空间位置信息和所确定的视线方向,获得控制对象的视觉焦点的位置信息。
在另一个可选的实施例中,所述目标动作是在识别到指定唤醒动作后预设时间段内识别到的动作。
在另一个可选的实施例中,如图6所示,图6是本公开根据一示例性实施例示出的另一种相机操控装置的框图,该实施例在前述图4所示实施例的基础上,所述装置还包括对象选择模块50,被配置为:
在依据所述事件数据对脸部指定部位的动作进行识别之前,识别到至少两个人脸时,输出选择控制对象的提示信息;
基于由用户触发的选择指令将选中对象作为控制对象,所述脸部指定部位为控制对象的脸部指定部位。
在一个可选的实施例中,所述目标操作包括聚焦调整/缩放调整,所述操作控制模块46具体被配置为:
在识别到与聚焦调整/缩放调整对应的目标动作的情况下,控制所述相机模块执行聚焦操作/缩放操作,所执行的聚焦操作/缩放操作与点触屏幕上视觉焦点所在区域而触发的聚焦操作/缩放操作相同,所述视觉焦点是控制对象所注视的点。
在一个可选的实施例中,所述操作控制模块46具体被配置为:
在识别到目标动作后,进行倒计时提醒;
在倒计时结束后,控制所述相机模块执行与所述目标动作对应的目标操作。
在一个可选的实施例中,所述操作控制模块46还用于:
在识别出的眼部动作为用于指示控制方式的指定动作、且控制对象注视终端设备同一位置的时间超过预设时间阈值的情况下,控制所述相机模块执行与指定控制指令对应的操作,所述指定控制指令与以所确定的控制方式操控终端设备上被控制对象注视的位置而触发的指令相同;所述控制方式包括:单击、双击、长按中的任一种。
相应的,本公开还提供一种终端设备,所述设备包括DVS采集模块、存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现上述任一项相机操控方法。
相应的,本公开还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一项所述相机操控方法的步骤。
本公开可采用在一个或多个其中包含有程序代码的存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。计算机可用存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述装置中各个模块的功能和作用的实现过程具体详情见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
如图7所示,图7是本公开根据一示例性实施例示出的一种用于相机操控的装置的框图。该装置700可以是包括DVS采集模块的移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。
参照图7,装置700可以包括以下一个或多个组件:处理组件702,存储器704,电源组件706,多媒体组件708,音频组件710,输入/输出(I/O)的接口712,传感器组件714,以及通信组件716。
处理组件702通常控制装置700的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件702可以包括一个或多个处理器720来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件702可以包括一个或多个模块,便于处理组件702和其他组件之间的交互。例如,处理组件702可以包括多媒体模块,以方便多媒体组件708和处理组件702之间的交互。
存储器704被配置为存储各种类型的数据以支持在装置700的操作。这些数据的示例包括用于在装置700上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器704可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件706为装置700的各种组件提供电力。电源组件706可以包括电源管理系统,一个或多个电源,及其他与为装置700生成、管理和分配电力相关联的组件。
多媒体组件708包括在所述装置700和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件708包括一个前置摄像头和/或后置摄像头。当装置700处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件710被配置为输出和/或输入音频信号。例如,音频组件710包括一个麦克风(MIC),当装置700处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器704或经由通信组件716发送。在一些实施例中,音频组件710还包括一个扬声器,用于输出音频信号。
I/O接口712为处理组件702和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件714包括一个或多个传感器,用于为装置700提供各个方面的状态评估。例如,传感器组件714可以检测到装置700的打开/关闭状态,组件的相对定位,例如所述组件为装置700的显示器和小键盘,传感器组件714还可以检测装置700或装置700中一个组件的位置改变,用户与装置700接触的存在或不存在,装置700方位或加速/减速和装置700的温度变化。传感器组件714可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件714还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件714还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件716被配置为便于装置700和其他设备之间有线或无线方式的通信。装置700可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件716经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件716还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置700可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器704,上述指令可由装置700的处理器720执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
其中,当所述存储介质中的指令由所述处理器执行时,使得装置700能够执行一种相机操控方法,包括:
在终端设备利用相机模块进行拍摄的情况下,获取所述DVS采集模块采集的事件数据;
依据所述事件数据对DVS采集模块采集范围内控制对象的脸部指定部位的动作进行识别;
在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
以上所述仅为本公开的较佳实施例而已,并不用以限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开保护的范围之内。

Claims (20)

1.一种相机操控方法,其特征在于,所述方法应用于终端设备,终端设备包括DVS采集模块,所述方法包括:
在终端设备利用相机模块进行拍摄的情况下,获取所述DVS采集模块采集的事件数据;
依据所述事件数据对DVS采集模块采集范围内控制对象的脸部指定部位的动作进行识别;
在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作。
2.根据权利要求1所述的方法,其特征在于,所述脸部指定部位为眼部;和/或,所述目标动作包括以下一种或多种:至少一次双眨眼、睁一只眼闭一只眼、眼球向指定方位移动后复位、表征指定情绪的眼部表情动作。
3.根据权利要求1所述的方法,其特征在于,所述依据所述事件数据对DVS采集模块采集范围内脸部指定部位的动作进行识别之前,所述方法还包括:
依据所述DVS采集模块采集的事件数据确定控制对象的视觉焦点的位置信息;
利用所述位置信息判定视觉焦点位于预定的可控区域内,所述可控区域依据终端设备的可操控区域进行配置。
4.根据权利要求3所述的方法,其特征在于,所述依据所述DVS采集模块采集的事件数据确定控制对象的视觉焦点的位置信息,包括:
确定DVS采集模块采集的事件数据中控制对象的眼部位置,并结合眼部与DVS采集模块的距离以及DVS采集模块在终端设备上的位置信息,获得眼部相对于终端设备的空间位置信息;
利用所述事件数据进行视线方向识别,获得所述眼部的视线方向;
依据所述空间位置信息和所确定的视线方向,获得控制对象的视觉焦点的位置信息。
5.根据权利要求1所述的方法,其特征在于,所述目标动作是在识别到指定唤醒动作后预设时间段内识别到的动作。
6.根据权利要求1所述的方法,其特征在于,所述依据所述事件数据对脸部指定部位的动作进行识别之前,所述方法还包括:
识别到至少两个人脸时,输出选择控制对象的提示信息;
基于由用户触发的选择指令将选中对象作为控制对象,所述脸部指定部位为控制对象的脸部指定部位。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述目标操作包括聚焦调整/缩放调整,所述在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作,包括:
在识别到与聚焦调整/缩放调整对应的目标动作的情况下,控制所述相机模块执行聚焦操作/缩放操作,所执行的聚焦操作/缩放操作与点触屏幕上视觉焦点所在区域而触发的聚焦操作/缩放操作相同,所述视觉焦点是控制对象所注视的点。
8.根据权利要求1至6任一项所述的方法,其特征在于,所述在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作,包括:
在识别到目标动作后,进行倒计时提醒;
在倒计时结束后,控制所述相机模块执行与所述目标动作对应的目标操作。
9.根据权利要求1至6任一项所述的方法,其特征在于,所述方法还包括:
在识别出的眼部动作为用于指示控制方式的指定动作、且控制对象注视终端设备同一位置的时间超过预设时间阈值的情况下,控制所述相机模块执行与指定控制指令对应的操作,所述指定控制指令与以所确定的控制方式操控终端设备上被控制对象注视的位置而触发的指令相同;所述控制方式包括:单击、双击、长按中的任一种方式。
10.一种相机操控装置,其特征在于,所述装置应用于终端设备,终端设备包括DVS采集模块,所述装置包括:
数据获取模块,被配置为在终端设备利用相机模块进行拍摄的情况下,获取所述DVS采集模块采集的事件数据;
动作识别模块,被配置为依据所述事件数据对DVS采集模块采集范围内控制对象的脸部指定部位的动作进行识别;
操作控制模块,被配置为在识别到目标动作的情况下,控制所述相机模块执行与所述目标动作对应的目标操作。
11.根据权利要求10所述的装置,其特征在于,所述脸部指定部位为眼部;和/或,所述目标动作包括以下一种或多种:至少一次双眨眼、睁一只眼闭一只眼、眼球向指定方位移动后复位、表征指定情绪的眼部表情动作。
12.根据权利要求10所述的装置,其特征在于,所述装置还包括区域检测模块,被配置为:
在依据所述事件数据对脸部指定部位的动作进行识别之前,依据所述DVS采集模块采集的事件数据确定控制对象的视觉焦点的位置信息;
利用所述位置信息判定视觉焦点位于预定的可控区域内,所述可控区域依据终端设备的可操控区域进行配置。
13.根据权利要求12所述的装置,其特征在于,所述区域检测模块,具体配置为:
确定DVS采集模块采集的事件数据中控制对象的眼部位置,并结合眼部与DVS采集模块的距离以及DVS采集模块在终端设备上的位置信息,获得眼部相对于终端设备的空间位置信息;
利用所述事件数据进行视线方向识别,获得所述眼部的视线方向;
依据所述空间位置信息和所确定的视线方向,获得控制对象的视觉焦点的位置信息。
14.根据权利要求10所述的装置,其特征在于,所述目标动作是在识别到指定唤醒动作后预设时间段内识别到的动作。
15.根据权利要求10所述的装置,其特征在于,所述装置还包括对象选择模块,被配置为:
在依据所述事件数据对脸部指定部位的动作进行识别之前,识别到至少两个人脸时,输出选择控制对象的提示信息;
基于由用户触发的选择指令将选中对象作为控制对象,所述脸部指定部位为控制对象的脸部指定部位。
16.根据权利要求10至15任一项所述的装置,其特征在于,所述目标操作包括聚焦调整/缩放调整,所述操作控制模块具体被配置为:
在识别到与聚焦调整/缩放调整对应的目标动作的情况下,控制所述相机模块执行聚焦操作/缩放操作,所执行的聚焦操作/缩放操作与点触屏幕上视觉焦点所在区域而触发的聚焦操作/缩放操作相同,所述视觉焦点是控制对象所注视的点。
17.根据权利要求10至15任一项所述的装置,其特征在于,所述操作控制模块具体被配置为:
在识别到目标动作后,进行倒计时提醒;
在倒计时结束后,控制所述相机模块执行与所述目标动作对应的目标操作。
18.根据权利要求10至15任一项所述的装置,其特征在于,所述操作控制模块还用于:
在识别出的眼部动作为用于指示控制方式的指定动作、且控制对象注视终端设备同一位置的时间超过预设时间阈值的情况下,控制所述相机模块执行与指定控制指令对应的操作,所述指定控制指令与以所确定的控制方式操控终端设备上被控制对象注视的位置而触发的指令相同;所述控制方式包括:单击、双击、长按中的任一种方式。
19.一种终端设备,其特征在于,包括DVS采集模块、存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现如权利要求1至9任一项所述方法。
20.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至9任一项所述方法的步骤。
CN201910531271.2A 2019-06-19 2019-06-19 相机操控方法、装置、设备及存储介质 Active CN112118380B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910531271.2A CN112118380B (zh) 2019-06-19 2019-06-19 相机操控方法、装置、设备及存储介质
US16/699,462 US11336818B2 (en) 2019-06-19 2019-11-29 Method and apparatus for controlling camera, device and storage medium
EP19214097.8A EP3754459B1 (en) 2019-06-19 2019-12-06 Method and apparatus for controlling camera, device and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910531271.2A CN112118380B (zh) 2019-06-19 2019-06-19 相机操控方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112118380A true CN112118380A (zh) 2020-12-22
CN112118380B CN112118380B (zh) 2022-10-25

Family

ID=68808157

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910531271.2A Active CN112118380B (zh) 2019-06-19 2019-06-19 相机操控方法、装置、设备及存储介质

Country Status (3)

Country Link
US (1) US11336818B2 (zh)
EP (1) EP3754459B1 (zh)
CN (1) CN112118380B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112635044A (zh) * 2020-12-30 2021-04-09 上海市第六人民医院 一种术中远程手势影像控制系统
CN112989925A (zh) * 2021-02-02 2021-06-18 豪威芯仑传感器(上海)有限公司 一种识别手部滑动方向的方法及系统
CN114827450A (zh) * 2021-01-18 2022-07-29 原相科技股份有限公司 模拟图像传感器电路、图像传感器装置及方法
CN115209057A (zh) * 2022-08-19 2022-10-18 荣耀终端有限公司 一种拍摄对焦方法及相关电子设备
WO2023160496A1 (zh) * 2022-02-23 2023-08-31 维沃移动通信有限公司 拍摄方法、拍摄装置、电子设备和可读存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11308618B2 (en) 2019-04-14 2022-04-19 Holovisions LLC Healthy-Selfie(TM): a portable phone-moving device for telemedicine imaging using a mobile phone
KR20220159131A (ko) * 2021-05-25 2022-12-02 삼성전자주식회사 이미지 센서 및 동적 비전 센서를 포함하는 전자 장치 및 그 동작 방법
CN113691727B (zh) * 2021-08-25 2022-07-08 广州岸边网络科技有限公司 一种基于动作控制的拍照系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101169573A (zh) * 2006-10-25 2008-04-30 索尼株式会社 成像设备,成像设备控制方法以及计算机程序
US20130194184A1 (en) * 2012-01-31 2013-08-01 Samsung Electronics Co., Ltd. Method and apparatus for controlling mobile terminal using user interaction
US20150350546A1 (en) * 2014-06-03 2015-12-03 Xiaomi Inc. Method and terminal device for shooting control
CN105844128A (zh) * 2015-01-15 2016-08-10 北京三星通信技术研究有限公司 身份识别方法和装置
CN105980976A (zh) * 2014-02-06 2016-09-28 三星电子株式会社 用于控制显示器的电子装置和方法
CN106303193A (zh) * 2015-05-25 2017-01-04 展讯通信(天津)有限公司 图像拍摄方法及装置
CN106716441A (zh) * 2014-09-30 2017-05-24 高通股份有限公司 基于事件的计算机视觉计算
CN106959761A (zh) * 2017-04-18 2017-07-18 广东欧珀移动通信有限公司 一种终端拍照方法、装置及终端
CN106973222A (zh) * 2017-02-28 2017-07-21 维沃移动通信有限公司 一种数码变焦的控制方法和移动终端
CN108513074A (zh) * 2018-04-13 2018-09-07 京东方科技集团股份有限公司 自拍控制方法及装置、电子设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8467672B2 (en) * 2005-10-17 2013-06-18 Jeffrey C. Konicek Voice recognition and gaze-tracking for a camera
US7697827B2 (en) * 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP4513843B2 (ja) * 2007-09-10 2010-07-28 カシオ計算機株式会社 撮像装置及びプログラム
CN101291364B (zh) 2008-05-30 2011-04-27 华为终端有限公司 一种移动通信终端的交互方法、装置及移动通信终端
US8482626B2 (en) * 2009-04-07 2013-07-09 Mediatek Inc. Digital camera and image capturing method
EP3074923A4 (en) * 2013-11-27 2017-07-05 Shenzhen Huiding Technology Co., Ltd. Eye tracking and user reaction detection
KR102224932B1 (ko) * 2014-02-19 2021-03-08 삼성전자주식회사 비전 센서를 이용한 사용자 입력 처리 장치 및 사용자 입력 처리 방법
CN104065880A (zh) * 2014-06-05 2014-09-24 惠州Tcl移动通信有限公司 一种基于眼球跟踪技术进行自动拍照的处理方法及系统
US9946355B2 (en) * 2015-09-01 2018-04-17 Samsung Electronics Co., Ltd. System and method for operating a mobile device using motion gestures
US10970895B1 (en) * 2015-11-02 2021-04-06 Massachusetts Mutual Life Insurance Company Intelligent and context aware reading systems
JP6788518B2 (ja) * 2016-03-22 2020-11-25 キヤノン株式会社 電子機器およびその制御方法、ならびに撮像装置
CN108881724B (zh) 2018-07-17 2021-09-21 北京七鑫易维信息技术有限公司 一种图像获取方法、装置、设备及存储介质
US11119573B2 (en) * 2018-09-28 2021-09-14 Apple Inc. Pupil modulation as a cognitive control signal
US10721394B1 (en) * 2019-05-29 2020-07-21 Facebook, Inc. Gesture activation for an image capture device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101169573A (zh) * 2006-10-25 2008-04-30 索尼株式会社 成像设备,成像设备控制方法以及计算机程序
US20130194184A1 (en) * 2012-01-31 2013-08-01 Samsung Electronics Co., Ltd. Method and apparatus for controlling mobile terminal using user interaction
CN105980976A (zh) * 2014-02-06 2016-09-28 三星电子株式会社 用于控制显示器的电子装置和方法
US20150350546A1 (en) * 2014-06-03 2015-12-03 Xiaomi Inc. Method and terminal device for shooting control
CN106716441A (zh) * 2014-09-30 2017-05-24 高通股份有限公司 基于事件的计算机视觉计算
CN105844128A (zh) * 2015-01-15 2016-08-10 北京三星通信技术研究有限公司 身份识别方法和装置
CN106303193A (zh) * 2015-05-25 2017-01-04 展讯通信(天津)有限公司 图像拍摄方法及装置
CN106973222A (zh) * 2017-02-28 2017-07-21 维沃移动通信有限公司 一种数码变焦的控制方法和移动终端
CN106959761A (zh) * 2017-04-18 2017-07-18 广东欧珀移动通信有限公司 一种终端拍照方法、装置及终端
CN108513074A (zh) * 2018-04-13 2018-09-07 京东方科技集团股份有限公司 自拍控制方法及装置、电子设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112635044A (zh) * 2020-12-30 2021-04-09 上海市第六人民医院 一种术中远程手势影像控制系统
CN114827450A (zh) * 2021-01-18 2022-07-29 原相科技股份有限公司 模拟图像传感器电路、图像传感器装置及方法
CN114827450B (zh) * 2021-01-18 2024-02-20 原相科技股份有限公司 模拟图像传感器电路、图像传感器装置及方法
CN112989925A (zh) * 2021-02-02 2021-06-18 豪威芯仑传感器(上海)有限公司 一种识别手部滑动方向的方法及系统
CN112989925B (zh) * 2021-02-02 2022-06-10 豪威芯仑传感器(上海)有限公司 一种识别手部滑动方向的方法及系统
WO2023160496A1 (zh) * 2022-02-23 2023-08-31 维沃移动通信有限公司 拍摄方法、拍摄装置、电子设备和可读存储介质
CN115209057A (zh) * 2022-08-19 2022-10-18 荣耀终端有限公司 一种拍摄对焦方法及相关电子设备

Also Published As

Publication number Publication date
EP3754459A1 (en) 2020-12-23
US11336818B2 (en) 2022-05-17
EP3754459B1 (en) 2023-09-06
CN112118380B (zh) 2022-10-25
US20200404164A1 (en) 2020-12-24

Similar Documents

Publication Publication Date Title
CN112118380B (zh) 相机操控方法、装置、设备及存储介质
CN108052079B (zh) 设备控制方法、装置、设备控制装置及存储介质
EP3291061A1 (en) Virtual reality control method, apparatus and electronic equipment
CN106600530B (zh) 照片合成方法及装置
CN111988493B (zh) 交互处理方法、装置、设备及存储介质
CN111970456B (zh) 拍摄控制方法、装置、设备及存储介质
CN111984347A (zh) 交互处理方法、装置、设备及存储介质
CN112114653A (zh) 终端设备的操控方法、装置、设备及存储介质
CN110636383A (zh) 一种视频播放方法、装置、电子设备及存储介质
CN111988522B (zh) 拍摄控制方法、装置、电子设备及存储介质
CN105956513A (zh) 执行反应动作的方法及装置
CN108986803A (zh) 场景控制方法及装置、电子设备、可读存储介质
CN111698600A (zh) 一种处理执行方法、装置及可读介质
CN110636377A (zh) 视频处理方法、装置、存储介质、终端及服务器
WO2019044135A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3846447A1 (en) Image acquisition method, image acquisition device, electronic device and storage medium
CN111225269B (zh) 视频播放方法、装置、播放终端及存储介质
KR20210133104A (ko) 이미지 촬영 방법, 이미지 촬영 장치 및 저장 매체
CN115562500B (zh) 一种眼动控制智能手机的方法
EP3945717A1 (en) Take-off capture method and electronic device, and storage medium
CN115766927A (zh) 测谎方法、装置、移动终端及存储介质
CN106919259A (zh) 基于vr设备的形象处理方法和装置
CN117572953A (zh) 一种视线识别方法、装置、电子设备和存储介质
CN114827441A (zh) 拍摄方法、装置、终端设备及存储介质
CN116610205A (zh) 一种电子设备的控制方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant