CN105705993A - 利用面部检测来控制摄像机 - Google Patents
利用面部检测来控制摄像机 Download PDFInfo
- Publication number
- CN105705993A CN105705993A CN201380080580.3A CN201380080580A CN105705993A CN 105705993 A CN105705993 A CN 105705993A CN 201380080580 A CN201380080580 A CN 201380080580A CN 105705993 A CN105705993 A CN 105705993A
- Authority
- CN
- China
- Prior art keywords
- posture
- camera control
- electronic equipment
- video camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title description 8
- 230000008859 change Effects 0.000 claims abstract description 28
- 230000004913 activation Effects 0.000 claims description 7
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000001052 transient effect Effects 0.000 claims description 2
- 230000036544 posture Effects 0.000 description 88
- 210000003128 head Anatomy 0.000 description 24
- 238000005516 engineering process Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 6
- 230000000295 complement effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 241001427932 Bothragonus swanii Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 208000024754 bloodshot eye Diseases 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 201000005111 ocular hyperemia Diseases 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000010415 tropism Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
Abstract
描述了一种电子设备(100),其具有第一摄像机(114)和第二摄像机(116)。该第一摄像机(114)接收第一图像流;并且该第二摄像机(116)接收第二图像流,该第二图像流包括电子设备(100)的用户的面部。电子设备(100)还包括摄像机控制模块(122),该摄像机控制模块(122)基于第二图像流中的改变来识别姿势,基于姿势来识别第一摄像机的摄像机控制特征,以及针对第一摄像机来激活摄像机控制特征。
Description
技术领域
本公开总体上涉及用于控制电子设备的技术。更具体来说,本公开总体上涉及用于使用面部检测来控制摄像机的技术。
背景技术
诸如智能手机和平板计算机之类的许多电子设备都具有允许用户捕获数字照片的集成摄像机。为了捕获照片,用户可以进入相机模式(cameramode),这使得用户能够像相机那样使用该设备。在相机模式期间,设备的显示器被用作为某种取景器,该取景器示出了将被捕获的图像。如果显示器是触摸屏,则显示器还可以充当输入设备。例如,用户能够按压显示器上的虚拟按钮以捕获照片。即使在捕获照片之前,用户也可具有按压屏幕的区域以例如改变聚焦目标、禁用闪光灯、或改变缩放的能力。如果设备的用户正用一只手持有设备底座并使用另一只手按压显示器上的按钮,则可能牺牲设备摄像机的稳定性,导致底座的额外移动以及在所捕获的照片中的额外的模糊。此外,如果设备用户只有一只手是空闲的,则该用户可能不能够进行期望的摄像机调整或捕获图像。
附图说明
图1是使用面部检测来控制摄像机的电子设备的框图。
图2是使用面部检测来控制摄像机的方法的过程流程图。
图3A、图3B、以及图3C例示了使用面部检测来控制摄像机的一个示例。
图4示出了在由前置摄像机114接收到的图像与后置摄像机116的缩放因子之间的关系。
图5A、图5B、以及图5C例示了使用面部检测来控制摄像机的另一个示例。
在本公开通篇中和在附图中使用了相同的号码以引用类似的部件和特征。用100系列的号码指代最初在图1中发现的特征;用200系列的号码指代最初在图2中发现的特征;等等。
具体实施方式
本公开涉及用于使用面部检测来控制在具有前置摄像机和后置摄像机的设备中的摄像机的技术。前置摄像机指向与显示器相同的方向,因此,其可以用于例如捕获用户的面部用于视频会议。后置摄像机指向与前置摄像机和显示器相反的方向。后置摄像机是会被最经常用于捕获将被存储到用户的设备的数字照片或数字视频的摄像机。
前置摄像机可以用于检测摄像机用户的面部。用户的面部的图像的改变可以被用于控制后置摄像机,后置摄像机可能指向用户正尝试捕获的场景。例如,用户可以远离或朝向其面部移动摄像机。前置摄像机可以检测到用户的面部的表观尺寸的改变,并使用该信息来控制后置摄像机的某个特征,例如改变缩放因子。如本文中所使用的,术语“姿势”指代可以引起前置摄像机的图像流的改变的任何用户行为。可以被检测到并被用于控制后置摄像机的姿势包括但不限于:头部移动、眼睛移动、瞬目(blink)、眨眼(wink)、耸肩、伸出舌头、微笑、皱眉,诸如将摄像机远离或朝向用户的面部移动或将摄像机倾斜等引起后置摄像机的图像改变的摄像机移动(其引起由后置摄像机捕获的图像的尺寸或位置改变)。后置摄像机的任何控制特征可以与任何姿势配对。控制特征包括但不限于缩放、聚焦深度、聚焦位置、快门速度、图像捕获、模式改变,以及切换各种特征,例如闪光灯、在照片模式与视频模式之间切换、启用连拍模式、等等。
利用现有技术,在将后置摄像机用来拍摄图像(例如风景或一群人)的同时能够将前置摄像机用来接收用户的面部的图像流。由前置摄像机接收的图形流可以包括图像数据的一个或多个帧。该设备使用来自前置摄像机的图像流以得出用户的姿势,例如面部表情、头部移动、相机移动、等等。基于各种姿势,设备发起了原本不得不在触摸屏上使用手指或按压在计算设备侧上的按钮来完成的动作。
本文中所描述的技术使得用户在将双手都保持在设备的底座上的同时能够控制设备的摄像机,这能够增加稳定性并减少图像模糊。本文中所描述的技术还可以使得用户能够利用单手来完全操作摄像机,这在用户只有一只手空闲时对于携带设备和控制摄像机两者可能都是有用的。当使用一只手携带和控制摄像机时,可以使用任一只手,并且同时仍然能够访问摄像机的控制特征中的所有特征。
图1是使用面部检测来控制摄像机的电子设备的框图。电子设备100可以是包括移动电话、智能手机、平板计算机、台式计算机、或数码相机以及其他的任何适当的电子设备。设备100可以包括被配置为执行所存储的指令的处理器102。处理器102可以是单核处理器、多核处理器、计算集群、或任何数量的其它配置。此外,设备100可以包括多于一个处理器102。处理器102可以通过总线104耦合到设备100的其它部件。
设备100还可以包括存储器106。存储器106可以包括易失性存储器、非易失性存储器、或者它们的任意组合。存储器106可用于存储用户数据,例如图像和视频数据,以及可由处理器执行的指令,例如操作系统、应用、以及其它程序代码。非易失性存储器的示例包括但不限于电可擦除可编程只读存储器(EEPROM)、只读存储器(ROM)、闪存、以及诸如忆阻器存储器之类的其它固态存储器类型。易失性存储器的示例包括但不限于静态随机存取存储器(SRAM)、以及动态随机存取存储器(DRAM)。
在一些实施例中,设备100除了处理器102以外还包括图形处理单元(GPU)108。GPU108可以被配置为在设备100内执行任意数量的图形操作。例如,GPU108可以被配置为对待要向设备100的用户显示的图形图像、图形帧、视频等等进行渲染(render)或操控(manipulate)。在一些实施例中,GPU108包括多个图形引擎(未示出),其中,每个图形引擎都被配置为执行特定的图形任务,或者被配置为执行特定类型的工作负荷。在一些实施例中,设备100不包括GPU108,并且由处理器102来执行图形处理操作。
处理器102可以通过总线104连接到各个输入设备110(其可以包括例如按钮、触摸屏、以及任何其它适当的控制,等等)。输入设备110可用于对设备100进行控制。例如,可以通过输入设备110来访问摄像机控制特征中的许多特征。处理器102还可以通过总线104链接到显示器112。显示器112可以包括显示屏,该显示屏是设备100的内置部件。显示器112可以与触摸屏输入设备集成。
设备100还包括两个或多个摄像机,包括前置摄像机114和后置摄像机116。前置摄像机114是当用户以通常方式使用设备100时指向用户的方向(换句话说,朝向显示器112和输入设备110)的摄像机。后置摄像机116是从设备100的背部(换句话说,与显示器112和输入设备110相对的一侧)指向外部的摄像机。后置摄像机116可以是高分辨率摄像机并且通常会是用于拍照和记录视频的摄像机。摄像机114和116中的每个摄像机可以包括能够捕获图像以便存储到计算机可读存储设备的任何适当类型的图像传感器。例如,摄像机可以包括电荷耦合器件(CCD)图像传感器、互补型金属-氧化物-半导体(CMOS)图像传感器、片上系统(SOC)图像传感器、具有光敏薄膜晶体管的图像传感器、或者它们的任意组合。在一些示例中,后置摄像机包括多于一个的图像传感器以及对应的镜头和镜头组。例如,后置摄像机可以是用于捕获三维图像的3D摄像机。
摄像机114和116中的一个或多个可以包括缩放控制器118,该缩放控制器118控制摄像机的缩放因子。在一些示例中,缩放因子可以通过移动摄像机的镜头来进行调整,并且缩放控制器118可以包括马达或者耦合到马达以便将镜头之一移动。在一些示例中,后置摄像机116包括缩放控制器118,但前置摄像机114并不包括。摄像机114和116中的一个或多个还可以包括曝光控制器120,该曝光控制器120控制摄像机的图像传感器对入射光的曝光或敏感度。例如,如果摄像机包括机械快门,则曝光控制器120可以包括用于控制快门速度和快门光圈的电路。曝光控制器120可以控制所捕获的图像的亮度、所捕获的图像的景深、以及其它效果。设备100还可以包括图1中未示出的其它控制器。
设备100还包括摄像机控制模块122,其包括用于控制前置摄像机和后置摄像机的逻辑单元。摄像机控制模块例如可以通过向缩放控制器和曝光控制器发送命令来控制摄像机。摄像机控制模块122作为硬件或硬件和软件的组合来实施。例如,如图1中示出的,摄像机控制模块122可以被配置为存储的程序指令,其待要由处理器102执行。然而,在一些示例中,摄像机控制模块122作为可以与处理器120进行通信的一个或多个计算机芯片(未示出)来实施。例如,摄像机控制模块122可以被包括在专用集成电路(ASIC)、现场可编程门阵列(FPGA)、或其它一个或多个特定用途集成电路中。
摄像机控制模块122使得用户能够通过由前置摄像机114接收到的各种姿势来控制后置摄像机116。当设备处于相机模式中时,图像数据流可以由后置摄像机116接收,被处理,并在显示器112上被显示,以便由用户观看。同时,前置摄像机114可以接收被处理以识别指示了用户所期望的具体摄像机控制(例如放大或缩小、改变焦点、改变曝光量、或切换诸如闪光灯之类的特定特征)的姿势的图像数据流。下面将进一步描述各个示例。图1中的框图并不旨在表示设备100是要包括图1中示出的所有部件的。此外,设备100可以包括图1中未示出的任何数量的另外的部件,取决于具体实施方式的细节。例如,尽管实施例在本文中被描述为包括前置摄像机和后置摄像机,但其它实施例可以包括摄像机的不同布置。例如,摄像机可以以除了彼此远离180度以外的某个其它角度来布置,包括被安装在电子设备100的相同侧上。
图2是使用面部检测来控制摄像机的方法的过程流程图。在方法200的描述的通篇中可以偶尔参照图1。可以由包括前置摄像机和后置摄像机的任何适当的电子设备来执行方法200。可以例如由图1中示出的电子设备100的摄像机控制模块122来执行方法200。
方法200可以在框202处开始,其中,设备进入相机模式(cameramode)。在相机模式期间,设备接收图像数据并可以从用户接收摄像机控制指令,例如捕获图像的指令。此外在相机模式期间,设备的显示器可以充当取景器并显示来自后置摄像机的图像流。例如,如果设备是平板计算机,则可以由用户通过选择照相应用来激活相机模式。如果设备是数码相机,则当设备启动时可以激活相机模式。在“相机模式”期间,用户将能够捕获图像或视频。此外,“捕获”指代获取图像或视频,以使得图像或视频可以被存储以用于以后的获取和察看。换句话说,与简单地在显示器上察看图像流相反,图像是在用户拍照时捕获的。类似地,视频是在用户指示摄像机进行记录时捕获的。
在框204处,从后置摄像机接收图像流并且将图像流发送到显示器。如上面关于图1所解释的,显示器在设备的与后置摄像机相对的侧上。从后置摄像机发送到显示器的图像流使得用户能够看到如果用户拍照则将捕获到的图像。除了来自后置摄像机的图像以外,还可以在显示器上示出另外的图形。例如,可以在屏幕上显示聚焦目标指示符,以指示图像的将要被用于将摄像机自动聚焦的部分。此外,可以在屏幕上显示曝光目标指示符,以指示图像的将要被用于自动调整图像亮度的部分。聚焦目标和曝光目标可以被用户移动到图像的不同部分。为了移动聚焦目标或曝光目标,用户可以使用各种输入设备。例如,用户可以通过在触摸屏显示器上触摸不同的点来将聚焦目标或曝光目标移动。此外,用户还可以通过可由前置摄像机接收并由摄像机控制模块122识别的姿势来将聚焦目标或曝光目标移动。还可以显示多种其它信息,例如模式指示符,以及摄像机闪光灯是打开还是关闭。在一些实施例中,也可以在显示器上显示控制特征,例如按钮、滑块、等等。例如,显示器可以包括切换闪光灯或使得用户能够捕获图像或开始记录视频的按钮。
在框206处,从前置摄像机接收图像流。如上面关于图1所描述的,前置摄像机是朝向显示器并且是可能指向用户的摄像机。该图像流可以是由图1中示出的摄像机控制模块122来接收的。摄像机控制模块122可以被配置为识别人类面部。为了能够识别姿势,可以建立用户面部的基线图像。基线图像的建立可以由用户手动触发或者自动触发。例如,用户可以通过向摄像机提供输入来手动地触发基线图像的建立,例如通过按压物理按钮或触摸在触摸屏显示器上的虚拟按钮。摄像机控制模块122可以通过确保图像对于特定的时间段并未显著改变来自动建立基线图像。例如,可以指定移动的阈值水平,并且如果移动的阈值水平在指定的时间段上并未被超过,则摄像机控制模块122可以存储当前图像以便用作基线图像。在一些实施例中,可以识别基线图像的特征并且可以映射它们在图像内的位置。例如,可以识别用户的面部的轮廓,并且可以映射各面部特征例如眼睛、耳朵、鼻子、嘴巴等等的位置。也可以映射其它特征,举例来说,例如肩部。在一些实施例中,单个图像帧可用于识别姿势,在这种情形下,基线图像可能不能建立。例如,一旦检测到用户的面部,摄像机控制模块122就可以能够确定在单个图像帧中一只眼睛是睁开的并且另一只眼睛是闭上的。
在框208处,对来自前置摄像机的图像流进行处理以识别姿势。可以基于前置图像流(front-facingimagestream)中的改变来识别姿势。例如,可以通过将当前图像与基线图像进行比较来识别姿势。可以通过比较当前图像和基线图像来检测用户的头部、或肩部、或用户的面部的特定特征的移动。此外,摄像机相对于用户的移动将引起也可检测到的在整个图像范围上(image-wide)的改变。例如,将设备向上倾斜将会引起所有图像特征在图像中向下移位(shift)。将设备远离用户移动将引起用户的面部显得较小。所检测到的改变中的一些将对应于特定姿势,摄像机控制模块被配置为将该特定姿势识别为摄像机控制姿势。摄像机控制模块122可以被配置为识别的姿势包括指示设备的移动的头部移动、面部移动、肩部移动或者在整个图像范围上的移动。可以对应于特定姿势的头部移动的示例包括将头部向上倾斜、向下倾斜、或侧向倾斜,向左或向右转动头部,或者晃动头部、等等。可以被识别为姿势的面部移动的示例包括瞬目(blinking)、眨眼(winking)、张开嘴巴或闭上嘴巴、微笑、皱眉、以及伸出舌头、等等。在整个图像范围上的姿势的示例包括将该设备向上、向下、向左、或向右倾斜,将该设备移动更近或更远,以及晃动该设备,等等。姿势的其它示例包括耸两个肩部或一个肩部。在一些实施例中,可以由除了摄像机以外的设备(例如,运动检测器、传感器、距离测量设备、等等)来识别姿势。
在框210处,在框208处识别的姿势可用于识别适用于后置摄像机的摄像机控制特征。任何摄像机控制特征可以通过对应的姿势来控制。可由姿势控制的可能的摄像机控制特征包括但不限于缩放因子、聚焦距离、景深、聚焦目标、照片亮度、曝光目标、闪光灯打开或关闭、各种相机模式的切换,例如减轻红眼、连拍模式、相机模式(相对于视频模式)、影响快门光圈的模式、以及快门速度、还有其它几个。
特定姿势与它们对应的控制特征之间的相互关系可以在设备中进行预编程。例如,设备可以包括将每个姿势与其对应的控制特征相关联的查找表。例如,如果眨眼被识别为姿势,则该姿势可以被分配特定的标识符并用于从所述查找表检索对应的控制特征。在本示例中,眨眼的姿势可以与用于捕获图像的命令的控制特征相对应。设备还可以包括定制的实用程序(utility),其使得用户能够指定哪些姿势与哪些控制特征配对。以此方式,姿势与摄像机控制特征扫描之间的相互关系随用户而不同。例如,两个人所拥有的摄像机可以具有两组分立的相互关系。对于一个用户,眨眼可能触发一个摄像机控制动作,并且对于另一个用户,眨眼可能触发一个不同的摄像机控制动作。这对于其中一个用户做特定的姿势很困难的情况可能是有用的。
各种姿势将是互补[complimentary]的,意味着它们具有相反的姿势,并且因此适合于与同样是互补的控制特征配对。例如,眨左眼与眨右眼互补。类似地,耸左肩与耸右肩互补。微笑与皱眉互补。这些互补的姿势可以与互补的控制特征配对。例如,微笑的姿势可以与放大的控制特征配对,而皱眉的姿势可以与缩小的控制特征配对。将头部向左倾斜的姿势可以与将聚焦目标向左移动的控制特征配对,并且将头部向右倾斜可以与将聚焦目标向右移动的控制特征配对。
各种姿势可以被认为是方向性姿势并且因此适合于与同样是方向性的控制特征配对。例如,头部的向上、向下、向左、以及向右的倾斜可以与聚焦目标或曝光目标的对应的向上、向下、向左、以及向右移动配对。
某些姿势可以被认为是激活姿势,它们是将特定结果激活的姿势,特定结果例如:图像捕获(即,拍照)、切换特征打开与关闭、或者推进通过可用特征的列表(alistofavailablefeatures)。例如,伸出舌头、眨眼、或瞬目的姿势可以与拍照的控制特征配对。如果瞬目被用作姿势,则该姿势可以通过快速接连的瞬目来识别,以将该姿势与眼睛的正常瞬目区分开。头部的快速从左到右的晃动的姿势可以与激活特定模式或使特定模式无效的控制特征(诸如在相机模式与视频模式之间切换、删除照片、或退出相机模式或视频模式等之类)配对。张开嘴巴或闭上嘴巴的姿势可以与切换摄像机闪光灯打开或关闭的控制特征配对。
任何姿势可以与任何控制特征配对,取决于特定实施方式的设计考虑。本文中描述了可能的配对中的某些配对的各示例。然而,穷举列出每个可能的实施例是不实际的,并且对本领域普通技术人员来说,考虑到本公开的益处,可进行在姿势与控制特征之间的许多另外的配对。
在框212处,针对后置摄像机来激活所识别的控制特征。例如,如果控制特征是用于放大的命令,则摄像机控制模块122可以向缩放控制器118发送命令以进行放大。如果控制特征是用于增大照片亮度的命令,则摄像机控制模块122可以向曝光控制器110发送命令以增大照片亮度。如果控制特征是用于将曝光目标或聚焦目标改变到所显示的照片的另一部分的命令,则摄像机控制模块122可以发送用于改变曝光目标或聚焦目标的位置的命令。只要设备仍然处于相机模式中,就可以重复以上过程。
图3A、图3B、以及图3C例示了使用面部检测来控制摄像机的一个示例。图3A示出了持有电子设备100的用户,在该示例中,该电子设备是平板计算机。设备100包括前置摄像机114和后置摄像机(未示出)。在显示器112上示出的场景是从后置摄像机接收的。图像也由前置摄像机114接收,但这些图像并未显示在设备100上。此外,图3示出了用户建立基线图像,如上面关于图2中的框206所讨论的。在该示例中,基线图像与基线距离300相对应。
图3B示出了在已经建立基线图像之后,用户将设备移动得更近。用虚线示出了在建立基线图像时设备100的原始位置。设备100的原始位置与设备100的当前位置之间的差作为距离改变302而被示出。距离改变302可以作为可用于控制后置摄像机的姿势而被检测到。例如,距离改变302可用于改变后置摄像机的缩放因子。此外,缩放因子的改变可以与距离改变302的幅度成比例。在一些实施例中,将设备100移动得更近,使得后置摄像机的缩放因子成比例地逐渐减小(换句话说,缩小)。
图3C示出了在已经建立基线图像之后,用户将设备移动得更远。用虚线示出了在建立基线图像时的设备100的原始位置。设备100的原始位置与设备100的当前位置之间的差作为距离改变304而被示出。如在图5中示出的,将设备100移动得更远,使得后置摄像机的缩放因子成比例地逐渐增大(换句话说,放大)。此外,将设备移动得更近或更远的姿势还可用于控制后置摄像机的其它特征。例如,如在图3A-图3C中所描述的姿势可用于手动地将聚焦距离调整得更近或更远。尽管基线距离300和距离改变302和304用于解释当前的技术,但在一些实施例中,可以不直接计算基线距离和距离改变。相反,如从前置摄像机114所察看到的用户的面部大小的表观改变可用作为对于实际距离的替代。这在下面关于图4进一步进行了描述。
图4示出了在由前置摄像机114所接收到的图像与后置摄像机116的缩放因子之间的关系。图像600示出了由前置摄像机114所建立的基线图像。在一些实施例中,基线图像600并不向用户显示。基线图像600可以被处理,以识别面部的表观尺寸(如用矩形602所表示的)。图像604表示当前置摄像机116处于基线位置处时由后置摄像机114所接收到的并显示给用户的图像。
当用户将设备100移动得更近时,如图3B中示出的,用户面部的表观尺寸变得更大,如在图像606中示出的。将设备100移动得更近可以作为与用于缩小的命令相对应的姿势被检测到,这反映在图像608中。当用户将设备100移动得更远时(如在图3C中示出的),用户的面部的表观尺寸变得更小(如在图像610中示出的)。将设备100移动得更远可以被检测为与用于放大的命令相对应的姿势,这反映在图像610中。
图5A、图5B、以及图5C例示了使用面部检测来控制摄像机的另一个示例。图5A示出了用户在与基线图像相对应的位置处持有设备100。如在图5A中示出的,基线图像是在当用户直视前方并正对朝向前置摄像机的时刻建立的。因此,在该示例中,用户的面部的基线图像将在前置摄像机中相对对称地出现。
图5B示出了用户将其头部稍微向左转动。摄像机控制模块122可以将此改变识别为与诸如用于将目标点700向左移位的命令之类的方向性命令相对应的方向性姿势。目标点700例如可以是聚焦目标、或者曝光目标。目标点700还可以是选择目标。换句话说,选择目标可以是用户想要通过使用另一个姿势(例如,眨眼、或伸出舌头、等等)来选择的在屏幕上的点。以此方式,用户可以选择在显示器112上示出的虚拟按钮。其它方向性姿势也可用于发出方向性命令。例如,也可以通过将头部向左倾斜而不是转动,来命令目标点700向左移动。
图5C示出了用户将其头部稍微向后倾斜。摄像机控制模块122可以将这种改变识别为与诸如用于使目标点700向上移位的命令之类的方向性命令相对应的方向性姿势。除了在图5B和图5C中示出的特定姿势以外,将头部向下倾斜的姿势可以被解释为将目标点700向下移动的命令,以及将头部向右转动或将头部向右倾斜的姿势可以被解释为将目标点700向右移动的命令。此外,目标点从中心移位的程度可以与用户的面部的基线图像与用户的面部的当前图像之间的改变程度成比例。在一些实施例中,用于移动目标点700的命令是与眼睛移动的姿势而不是与头部移动的姿势相对应的。
在当前的说明书和权利要求书中,可以使用术语“耦合”和“连接”及其它们的派生词。应当理解的是,这些术语并非旨在作为彼此的同义词。相反,在特定实施例中,“连接”可用于指示两个或更多个元件彼此直接物理接触或电接触。“耦合”可以意味着两个或更多个元件直接物理接触或电接触。然而,“耦合”还可以意味着两个或更多个元件并不彼此直接接触,而仍然彼此协作或相互作用。
可以用硬件、固件、和软件的其中之一或组合来实现一些实施例。一些实施例还可以被时限为存储在机器可读的介质上的指令,这些指令可以由计算平台来读取或执行,以执行本文中所描述的操作。机器可读介质可以包括用于存储或传输以可由机器读取的形式的信息的任何机制,例如,计算机。例如,机器可读介质可以包括只读存储器(ROM);随机存取存储器(RAM);磁盘存储介质;光存储介质;闪存设备;或电、光、声或其它形式的传播信号,例如载波、红外信号、数字信号、或者发送和/或接受信号的接口、等等。
实施例是实施方式或示例。在说明书中提及“实施例”、“一个实施例”、“一些实施例”、“各实施例”、或“其它实施例”表示关于实施例所描述的特定特征、结构、或特性包括在本技术的至少一些实施例中,而并非必须是全部实施例。“实施例”、“一个实施例”、或“一些实施例”的各次出现并非必须全都指代同一个实施例。来自实施例的元件或方面可以与另一实施例的元件或方面进行组合。
本文中所描述的和例示的所有部件、特征、结构、特性、等等并非必须被包括在特定的一个或多个实施例中。如果说明书声明例如“能够”、“可能”、“可以”或“可”包括部件、特征、结构、或特性,则并不必须要包括该特定部件、特征、结构、或特性。如果说明书或权利要求书指代“一”或“一个”元件,则并不表示仅存在一个元件。如果说明书或权利要求书指代“另外的”元件,则并不排除存在多于一个的另外的元件。
应当指出,尽管已经参照特定实施方式描述了一些实施例,但根据一些实施例,其它实施方式是可能的。此外,在附图中例示出的和/或在本文中所描述的布置和/或电路元件的顺序或其它特征不需要以所例示的和所描述的特定方式进行布置。根据一些实施例,许多其它布置是可能的。
在附图中示出的每个系统中,在某些情况中的元件可以每个都具有相同的附图标记或不同的附图标记,用以表明所呈现的元件可以是不同的和/或类似的。然而,元件可以是足够灵活的,从而具有不同的实施方式并与本文中所示出的或所描述的系统中的某些系统或全部系统一起工作。在附图中示出的各元件可以是相同的或不同的。哪一个被称为第一元件以及哪一个被称为第二元件是任意的。
应当理解,可以在一个或多个实施例的任何地方使用前面提及的示例中的细节。例如,上面所描述的计算设备中的所有可选的特征也可用关于本文中所描述的方法或计算机可读介质来实现。此外,尽管本文中可能已经使用了流程图和/或状态图来描述实施例,但本技术并不限于这些图或本文中对应的描述。例如,流程不需要移动通过每一个所例示出的框或状态,或者以如本文中所例示的和所描述的完全相同的顺序来移动。
本技术并不限于本文中列出的特定细节。事实上,具有本公开的益处的本领域技术人员将意识到,可以在本技术的范围内作出来自前述说明书和附图的许多其它变型。相应地,所附权利要求包括限定了本技术的范围的对其的任何修改。
示例1
提供了根据本技术的电子设备的示例。电子设备包括第一摄像机、第二摄像机、以及摄像机控制模块。第一摄像机接收第一图像流。第二摄像机接收第二图像流,该第二图像流包括电子设备的用户的面部。摄像机控制模块用于:基于在第二图像流中的改变来识别姿势,基于姿势来识别第一摄像机的摄像机控制特征;以及针对第一摄像机来激活摄像机控制特征。
在一些示例中,摄像机控制模块用于根据第二图像流建立基线图像,并将该基线图像与第二图像流的当前图像进行比较以识别姿势。在一些示例中,姿势是电子设备远离用户的面部的移动,并且摄像机控制特征是用于放大的命令。在一些示例中,姿势是眨眼,并且摄像机控制特征是对图像捕获进行的激活。姿势可以是第二姿势的互补,并且摄像机控制特征可以是由第二姿势控制的第二摄像机控制特征的互补。
姿势还可以是方向性姿势并且摄像机控制特征可以是方向性的摄像机控制特征。例如,姿势可以是头部的倾斜或头部的转动,并且摄像机控制特征可以是用于将聚焦目标移动的命令或用于将曝光目标移动的命令。
示例2
提供了本技术的电子设备的示例。该电子设备包括用于接收第一图像流的逻辑单元,该第一图像流包括电子设备的用户的面部。电子设备包括用于基于第一图像流中的改变来识别姿势的逻辑单元。电子设备还包括用于基于姿势来识别第二摄像机的摄像机控制特征以及针对第二摄像机来激活摄像机控制特征的逻辑单元。
在一些示例中,电子设备包括用于根据第一图像流来建立基线图像并将基线图像与第一图像流的当前图像进行比较以识别姿势的逻辑单元。在一些示例中,姿势是电子设备远离用户的面部的移动,并且摄像机控制特征是用于放大的命令。在一些示例中,姿势是眨眼,并且摄像机控制特征是对图像捕获进行的激活。姿势可以是第二姿势的互补,并且摄像机控制特征可以是由第二姿势控制的第二摄像机控制特征的互补。
姿势还可以是方向性姿势,并且摄像机控制特征可以是方向性的摄像机控制特征。例如,姿势可以是头部的倾斜或头部的转动,并且摄像机控制特征可以是用于将聚焦目标移动的命令或者用于将曝光目标移动的命令。
示例3
根据本技术提供了有形的、非暂态的、计算机可读的介质的示例。计算机可读介质包括用于指导处理器从第一摄像机接收第一图像流的指令。该指令指导处理器从第二摄像机接收第二图像流,其中,第二图像流包括电子设备的用户的面部。该指令还指导处理器基于第二图像流中的改变来识别姿势,基于姿势来识别第一摄像机的摄像机控制特征;以及针对第一摄像机来激活摄像机控制特征。
在一些示例中,指令指导处理器根据第二图像流来建立基线图像并将基线图像与第二图像流的当前图像进行比较以识别姿势。在一些示例中,姿势是第二摄像机远离用户的面部的移动,并且摄像机控制特征是用于放大的命令。在一些示例中,姿势是眨眼,并且摄像机控制特征是对图像捕获进行的激活。姿势可以是第二姿势的互补,并且摄像机控制特征可以是由第二姿势控制的第二摄像机控制特征的互补。
姿势还可以是方向性姿势,并且摄像机控制特征可以是方向性的摄像机控制特征。例如,姿势可以是头部的倾斜或头部的转动,并且摄像机控制特征可以是用于将聚焦目标移动的命令或者用于将曝光目标移动的命令。
Claims (31)
1.一种电子设备,包括:
第一摄像机,用于接收第一图像流;
第二摄像机,用于接收第二图像流,所述第二图像流包括所述电子设备的用户的面部;
摄像机控制模块,用于:
基于在所述第二图像流中的改变来识别姿势;
基于所述姿势来识别所述第一摄像机的摄像机控制特征;以及
针对所述第一摄像机来激活所述摄像机控制特征。
2.根据权利要求1所述的电子设备,所述摄像机控制模块用于根据所述第二图像流建立基线图像,并将所述基线图像与所述第二图像流的当前图像进行比较以识别所述姿势。
3.根据权利要求1所述的电子设备,其中,所述姿势是所述电子设备远离所述用户的面部的移动,并且所述摄像机控制特征是用于放大的命令。
4.根据权利要求1所述的电子设备,其中,所述姿势是眨眼,并且所述摄像机控制特征是对图像捕获进行的激活。
5.根据权利要求1所述的电子设备,其中,所述姿势是第二姿势的互补,并且所述摄像机控制特征是由所述第二姿势控制的第二摄像机控制特征的互补。
6.根据权利要求1所述的电子设备,其中,所述姿势是方向性姿势并且所述摄像机控制特征是方向性的摄像机控制特征。
7.根据权利要求6所述的电子设备,其中,所述姿势是头部的倾斜。
8.根据权利要求6所述的电子设备,其中,所述姿势是头部的转动。
9.根据权利要求6所述的电子设备,其中,所述摄像机控制特征是用于将聚焦目标移动的命令。
10.根据权利要求6所述的电子设备,其中,所述摄像机控制特征是用于将曝光目标移动的命令。
11.根据权利要求1所述的电子设备,其中,所述第一摄像机是后置摄像机并且所述第二摄像机是前置摄像机。
12.一种电子设备,包括:
用于经由第一摄像机接收第一图像流的逻辑单元,其中,所述第一图像流包括所述电子设备的用户的面部;
用于基于所述第一图像流中的改变来识别姿势的逻辑单元;
用于基于所述姿势来识别第二摄像机的摄像机控制特征的逻辑单元;以及
用于针对所述第二摄像机来激活所述摄像机控制特征的逻辑单元。
13.根据权利要求12所述的电子设备,包括:用于根据所述第一图像流来建立基线图像并将所述基线图像与所述第一图像流的当前图像进行比较以识别所述姿势的逻辑单元。
14.根据权利要求12所述的电子设备,其中,所述姿势是所述电子设备远离所述用户的面部的移动,并且所述摄像机控制特征是用于放大的命令。
15.根据权利要求12所述的电子设备,其中,所述姿势是眨眼,并且所述摄像机控制特征是对图像捕获进行的激活。
16.根据权利要求12所述的电子设备,其中,所述姿势是第二姿势的互补,并且所述摄像机控制特征是由所述第二姿势控制的第二摄像机控制特征的互补。
17.根据权利要求12所述的电子设备,其中,所述姿势是方向性姿势,并且所述摄像机控制特征是方向性的摄像机控制特征。
18.根据权利要求17所述的电子设备,其中,所述姿势是头部的倾斜。
19.根据权利要求17所述的电子设备,其中,所述姿势是头部的转动。
20.根据权利要求17所述的电子设备,其中,所述摄像机控制特征是用于将聚焦目标移动的命令。
21.根据权利要求17所述的电子设备,其中,所述摄像机控制特征是用于将曝光目标移动的命令。
22.一种有形的、非暂态的、计算机可读的介质,包括用于指导处理器进行以下操作的指令:
从第一摄像机接收第一图像流;
从第二摄像机接收第二图像流,其中,所述第二图像流包括电子设备的用户的面部;
基于所述第二图像流中的改变来识别姿势;
基于所述姿势来识别所述第一摄像机的摄像机控制特征;以及
针对所述第一摄像机来激活所述摄像机控制特征。
23.根据权利要求22所述的计算机可读介质,包括:用于指导所述处理器根据所述第二图像流来建立基线图像并将所述基线图像与所述第二图像流的当前图像进行比较以识别所述姿势的指令。
24.根据权利要求22所述的计算机可读介质,其中,所述姿势是所述第二摄像机远离所述用户的面部的移动,并且所述摄像机控制特征是用于放大的命令。
25.根据权利要求22所述的计算机可读介质,其中,所述姿势是眨眼,并且所述摄像机控制特征是对图像捕获进行的激活。
26.根据权利要求22所述的计算机可读介质,其中,所述姿势是第二姿势的互补,并且所述摄像机控制特征是由所述第二姿势控制的第二摄像机控制特征的互补。
27.根据权利要求22所述的计算机可读介质,其中,所述姿势是方向性姿势,并且所述摄像机控制特征是方向性的摄像机控制特征。
28.根据权利要求27所述的计算机可读介质,其中,所述姿势是头部的倾斜。
29.根据权利要求27所述的计算机可读介质,其中,所述姿势是头部的转动。
30.根据权利要求27所述的计算机可读介质,其中,所述摄像机控制特征是用于将聚焦目标移动的命令。
31.根据权利要求27所述的计算机可读介质,其中,所述摄像机控制特征是用于将曝光目标移动的命令。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2013/088145 WO2015077978A1 (en) | 2013-11-29 | 2013-11-29 | Controlling a camera with face detection |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105705993A true CN105705993A (zh) | 2016-06-22 |
CN105705993B CN105705993B (zh) | 2019-09-06 |
Family
ID=53198223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380080580.3A Active CN105705993B (zh) | 2013-11-29 | 2013-11-29 | 利用面部检测来控制摄像机 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9628699B2 (zh) |
EP (1) | EP3074817A4 (zh) |
JP (1) | JP2017505553A (zh) |
KR (1) | KR20160065920A (zh) |
CN (1) | CN105705993B (zh) |
RU (1) | RU2649773C2 (zh) |
TW (1) | TWI586167B (zh) |
WO (1) | WO2015077978A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106572304A (zh) * | 2016-11-02 | 2017-04-19 | 西安电子科技大学 | 基于眨眼检测的智能手机拍照系统和方法 |
CN108921972A (zh) * | 2018-05-25 | 2018-11-30 | 惠州市德赛西威汽车电子股份有限公司 | 一种具有眨眼拍照功能和疲劳驾驶提醒功能的行车记录仪 |
WO2021179969A1 (en) * | 2020-03-07 | 2021-09-16 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | System and method for automatically adjusting focus of a camera |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150310767A1 (en) * | 2014-04-24 | 2015-10-29 | Omnivision Technologies, Inc. | Wireless Typoscope |
JP6234333B2 (ja) * | 2014-06-25 | 2017-11-22 | オリンパス株式会社 | 撮像システム及び撮像方法 |
KR20170009087A (ko) * | 2015-07-15 | 2017-01-25 | 삼성전자주식회사 | 영상 표시 장치 및 그 동작 방법 |
CN105450930B (zh) * | 2015-11-09 | 2018-11-13 | 广州多益网络股份有限公司 | 一种自拍方法及装置 |
CN105894533A (zh) * | 2015-12-31 | 2016-08-24 | 乐视移动智能信息技术(北京)有限公司 | 基于智能设备实现体感控制的方法、系统以及智能设备 |
KR20170084558A (ko) * | 2016-01-12 | 2017-07-20 | 삼성전자주식회사 | 전자 장치 및 그의 동작 방법 |
US9832368B1 (en) * | 2016-05-31 | 2017-11-28 | Motorola Mobility Llc | Managing unintended camera clicks |
US10654422B2 (en) | 2016-08-29 | 2020-05-19 | Razmik Karabed | View friendly monitor systems |
US20180063444A1 (en) * | 2016-08-29 | 2018-03-01 | Razmik Karabed | View friendly monitor systems |
US9729820B1 (en) | 2016-09-02 | 2017-08-08 | Russell Holmes | Systems and methods for providing real-time composite video from multiple source devices |
US10089793B2 (en) | 2016-09-02 | 2018-10-02 | Russell Holmes | Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements |
US10740446B2 (en) | 2017-08-24 | 2020-08-11 | International Business Machines Corporation | Methods and systems for remote sensing device control based on facial information |
US11556233B2 (en) * | 2018-02-13 | 2023-01-17 | Lenovo (Singapore) Pte. Ltd. | Content size adjustment |
US10778900B2 (en) * | 2018-03-06 | 2020-09-15 | Eikon Technologies LLC | Method and system for dynamically adjusting camera shots |
US11245840B2 (en) | 2018-03-06 | 2022-02-08 | Eikon Technologies LLC | Method and system for dynamically adjusting camera shots |
KR20190141866A (ko) * | 2018-06-15 | 2019-12-26 | 삼성전자주식회사 | 사용자의 사진 촬영 의도를 식별하기 위한 전자 장치 및 방법 |
CN110377201A (zh) * | 2019-06-05 | 2019-10-25 | 平安科技(深圳)有限公司 | 终端设备控制方法、装置、计算机装置及可读存储介质 |
US11388354B2 (en) | 2019-12-06 | 2022-07-12 | Razmik Karabed | Backup-camera-system-based, on-demand video player |
US11310433B1 (en) | 2020-11-24 | 2022-04-19 | International Business Machines Corporation | User-configurable, gestural zoom facility for an imaging device |
US11800214B2 (en) * | 2022-01-04 | 2023-10-24 | Hamilton Sundstrand Corporation | Real time camera-based visibility improvement in atmospheric suit |
US20230259201A1 (en) * | 2022-02-16 | 2023-08-17 | Htc Corporation | Method for zooming visual content, host, and computer readable medium |
US11889178B2 (en) * | 2022-02-28 | 2024-01-30 | Motorola Mobility Llc | Electronic device with automatic eye gaze tracking and camera adjustment |
US12022182B2 (en) | 2022-05-26 | 2024-06-25 | Motorola Mobility Llc | Visual feature based video effects |
CN114845059B (zh) * | 2022-07-06 | 2022-11-18 | 荣耀终端有限公司 | 一种拍摄方法及相关设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080089587A1 (en) * | 2006-10-11 | 2008-04-17 | Samsung Electronics Co.; Ltd | Hand gesture recognition input system and method for a mobile phone |
US20110076003A1 (en) * | 2009-09-30 | 2011-03-31 | Lg Electronics Inc. | Mobile terminal and method of controlling the operation of the mobile terminal |
US20120281129A1 (en) * | 2011-05-06 | 2012-11-08 | Nokia Corporation | Camera control |
CN203070205U (zh) * | 2012-06-21 | 2013-07-17 | 乾行讯科(北京)科技有限公司 | 一种基于手势识别的输入设备 |
EP2661068A2 (en) * | 2012-04-30 | 2013-11-06 | LG Electronics, Inc. | Mobile terminal and control method thereof |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251235A (ja) * | 2001-02-23 | 2002-09-06 | Fujitsu Ltd | 利用者インタフェースシステム |
JP2004187125A (ja) * | 2002-12-05 | 2004-07-02 | Sumitomo Osaka Cement Co Ltd | 監視装置および監視方法 |
US7860382B2 (en) * | 2006-10-02 | 2010-12-28 | Sony Ericsson Mobile Communications Ab | Selecting autofocus area in an image |
GB2442504B (en) | 2006-11-17 | 2008-10-15 | Internet Web Technology Ltd | Face recognition system, security system comprising same and method for operating same |
US7995794B2 (en) * | 2007-03-02 | 2011-08-09 | Sony Ericsson Mobile Communications Ab | Remote control of an image capturing unit in a portable electronic device |
KR101396326B1 (ko) | 2007-10-12 | 2014-05-16 | 삼성전자주식회사 | 얼굴 검출을 위한 디지털 영상 처리 장치의 제어 방법 및이 방법을 채용한 디지털 영상 처리 장치 |
JP2009294728A (ja) * | 2008-06-02 | 2009-12-17 | Sony Ericsson Mobilecommunications Japan Inc | 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置 |
JP4781440B2 (ja) * | 2009-02-05 | 2011-09-28 | ソニー エリクソン モバイル コミュニケーションズ, エービー | 画像撮影装置、画像撮影装置の制御方法及び制御プログラム |
US8344325B2 (en) * | 2009-05-22 | 2013-01-01 | Motorola Mobility Llc | Electronic device with sensing assembly and method for detecting basic gestures |
KR20110010906A (ko) * | 2009-07-27 | 2011-02-08 | 삼성전자주식회사 | 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치 |
KR101078057B1 (ko) | 2009-09-08 | 2011-10-31 | 주식회사 팬택 | 영상인식기법을 이용한 촬영 제어 기능을 구비한 이동단말 및 영상인식기법을 이용한 촬영 제어 시스템 |
US20120038675A1 (en) * | 2010-08-10 | 2012-02-16 | Jay Wesley Johnson | Assisted zoom |
US20120242793A1 (en) * | 2011-03-21 | 2012-09-27 | Soungmin Im | Display device and method of controlling the same |
RU2455676C2 (ru) * | 2011-07-04 | 2012-07-10 | Общество с ограниченной ответственностью "ТРИДИВИ" | Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления |
US9171198B1 (en) * | 2012-04-02 | 2015-10-27 | Google Inc. | Image capture technique |
WO2013168171A1 (en) * | 2012-05-10 | 2013-11-14 | Umoove Services Ltd. | Method for gesture-based operation control |
-
2013
- 2013-11-29 CN CN201380080580.3A patent/CN105705993B/zh active Active
- 2013-11-29 EP EP13898386.1A patent/EP3074817A4/en not_active Withdrawn
- 2013-11-29 RU RU2016117174A patent/RU2649773C2/ru not_active IP Right Cessation
- 2013-11-29 JP JP2016519946A patent/JP2017505553A/ja active Pending
- 2013-11-29 KR KR1020167011277A patent/KR20160065920A/ko not_active Application Discontinuation
- 2013-11-29 WO PCT/CN2013/088145 patent/WO2015077978A1/en active Application Filing
- 2013-11-29 US US14/387,189 patent/US9628699B2/en active Active
-
2014
- 2014-10-29 TW TW103137444A patent/TWI586167B/zh not_active IP Right Cessation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080089587A1 (en) * | 2006-10-11 | 2008-04-17 | Samsung Electronics Co.; Ltd | Hand gesture recognition input system and method for a mobile phone |
US20110076003A1 (en) * | 2009-09-30 | 2011-03-31 | Lg Electronics Inc. | Mobile terminal and method of controlling the operation of the mobile terminal |
US20120281129A1 (en) * | 2011-05-06 | 2012-11-08 | Nokia Corporation | Camera control |
EP2661068A2 (en) * | 2012-04-30 | 2013-11-06 | LG Electronics, Inc. | Mobile terminal and control method thereof |
CN203070205U (zh) * | 2012-06-21 | 2013-07-17 | 乾行讯科(北京)科技有限公司 | 一种基于手势识别的输入设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106572304A (zh) * | 2016-11-02 | 2017-04-19 | 西安电子科技大学 | 基于眨眼检测的智能手机拍照系统和方法 |
CN108921972A (zh) * | 2018-05-25 | 2018-11-30 | 惠州市德赛西威汽车电子股份有限公司 | 一种具有眨眼拍照功能和疲劳驾驶提醒功能的行车记录仪 |
WO2021179969A1 (en) * | 2020-03-07 | 2021-09-16 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | System and method for automatically adjusting focus of a camera |
Also Published As
Publication number | Publication date |
---|---|
EP3074817A4 (en) | 2017-07-12 |
JP2017505553A (ja) | 2017-02-16 |
US9628699B2 (en) | 2017-04-18 |
TW201532436A (zh) | 2015-08-16 |
WO2015077978A1 (en) | 2015-06-04 |
TWI586167B (zh) | 2017-06-01 |
RU2016117174A (ru) | 2017-11-02 |
CN105705993B (zh) | 2019-09-06 |
US20160156838A1 (en) | 2016-06-02 |
EP3074817A1 (en) | 2016-10-05 |
RU2649773C2 (ru) | 2018-04-04 |
KR20160065920A (ko) | 2016-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105705993A (zh) | 利用面部检测来控制摄像机 | |
CN110581947B (zh) | 在虚拟现实内拍照 | |
US11119577B2 (en) | Method of controlling an operation of a camera apparatus and a camera apparatus | |
US9307153B2 (en) | Method and apparatus for previewing a dual-shot image | |
CN103581544B (zh) | 动态感兴趣区域调整和提供动态感兴趣区域调整的图像捕捉设备 | |
KR102423830B1 (ko) | 웨어러블 장치 및 그 제어 방법 | |
CN107580178B (zh) | 一种图像处理方法及装置 | |
US10649313B2 (en) | Electronic apparatus and method for controlling same | |
KR102146858B1 (ko) | 촬영 장치 및 촬영 장치의 비디오 생성방법 | |
EP2917819B1 (en) | METHOD AND DEVICE FOR SCROLLING PHOTOS BY PASSING OVER IT AND TRANSITION TO THE NEXT | |
KR102661185B1 (ko) | 전자 장치 및 그의 이미지 촬영 방법 | |
US20180240213A1 (en) | Information processing system, information processing method, and program | |
EP2887648B1 (en) | Method of performing previewing and electronic device for implementing the same | |
CN105141942B (zh) | 3d图像合成方法及装置 | |
KR102655625B1 (ko) | 피사체의 근접 여부에 따라 촬영 장치를 제어하는 방법 및 촬영 장치. | |
US10126813B2 (en) | Omni-directional camera | |
TWI691870B (zh) | 虛實影像的互動方法及裝置 | |
KR20160096853A (ko) | 전자 장치 및 사용자 인터페이스 제공 방법 | |
KR20160088719A (ko) | 이미지를 촬영하는 전자 장치 및 방법 | |
KR20100091844A (ko) | 촬상 장치 및 촬상 방법 | |
US20190094960A1 (en) | Gaze detection, identification and control method | |
JP6393296B2 (ja) | 撮像装置及びその制御方法、撮像制御装置、プログラム、並びに記憶媒体 | |
KR102089808B1 (ko) | 디지털 촬영 장치 및 이를 이용한 촬영 방법 | |
JP2021158559A (ja) | 電子機器、その制御方法およびプログラム | |
KR20150070084A (ko) | 단말의 카메라 제어 방법 및 그 단말 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |