CN112860173A - 用于模拟深度效果的用户界面 - Google Patents

用于模拟深度效果的用户界面 Download PDF

Info

Publication number
CN112860173A
CN112860173A CN202110356908.6A CN202110356908A CN112860173A CN 112860173 A CN112860173 A CN 112860173A CN 202110356908 A CN202110356908 A CN 202110356908A CN 112860173 A CN112860173 A CN 112860173A
Authority
CN
China
Prior art keywords
image data
representation
display
depth effect
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110356908.6A
Other languages
English (en)
Inventor
B·J·曼扎里
J·P·艾夫
A·C·戴伊
A·苏扎多斯桑托斯
P·皮沃卡
W·A·索伦帝诺三世
R·D·西里
R·L·巴尔
A·S·贝尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN112860173A publication Critical patent/CN112860173A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping
    • G06F9/4418Suspend and resume; Hibernate and awake
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)

Abstract

本公开涉及用于模拟深度效果的用户界面。本公开整体涉及用于调节模拟图像效果的用户界面。在一些实施方案中,描述了用于调节模拟深度效果的用户界面。在一些实施方案中,描述了用于显示对模拟深度效果的调节的用户界面。在一些实施方案中,描述了用于指示对调节模拟图像效果的干扰的用户界面。

Description

用于模拟深度效果的用户界面
本申请是国际申请日为2019年8月30日、国家申请号为201980056883.9(国际申请号为PCT/US2019/049101)、发明名称为“用于模拟深度效果的用户界面”的发明专利申请的分案申请。
相关申请的交叉引用
本申请要求2018年9月11日提交的名称为“USER INTERFACES FOR SIMULATEDDEPTH EFFECTS”的美国临时专利申请序列号62/729,926和2018年9月27日提交的名称为“USER INTERFACES FOR SIMULATED DEPTH EFFECTS”的美国专利申请序列号16/144,629以及2018年9月24日提交的名称为“USER INTERFACES FOR SIMULATED DEPTH EFFECTS”的丹麦申请序列号PA201870623的优先权,这些专利申请中的每一者的内容据此全文以引用方式并入以用于所有目的。
技术领域
本公开整体涉及计算机用户界面,并且更具体地涉及用于管理用于模拟深度效果的用户界面的技术。
背景技术
目前,用户在没有笨重相机辅助的情况下无法捕获具有精确景深属性的图像或照片。此外,用户无法快速且容易地对所存储的图像或照片的景深属性进行精确调节。
发明内容
然而,一些使用电子设备来模拟深度效果的技术通常是麻烦且低效的。例如,一些现有技术使用复杂且耗时的用户界面,该用户界面可包括多次按键或击键。现有技术需要比所需更多的时间,这导致浪费用户的时间和设备能量。这后一考虑在电池驱动的设备中是特别重要的。
因此,本发明技术为电子设备提供了用于模拟深度效果的更快、更有效的方法和界面。此类方法和界面任选地补充或替换用于模拟深度效果的其他方法。此类方法和界面减少对用户所造成的认知负担,并且产生更有效的人机界面。对于电池驱动的计算设备,此类方法和界面节省功率,并且增大电池充电之间的时间间隔。此类方法和界面还使得能够容易地仅使用电子设备来应用和编辑所应用的深度效果,而无需另一设备的帮助,从而增强用户效率和便利性。
根据一些实施方案,描述了在具有显示器和一个或多个输入设备的电子设备处执行的方法。该方法包括:在显示器上显示图像数据的表示;在显示具有由用于模拟深度效果的多个可选值的第一值修改的模拟深度效果的图像数据的表示时,经由一个或多个输入设备检测第一输入;响应于检测到第一输入,在显示器上显示与操纵图像数据的表示相关联的可调节滑块,其中该可调节滑块包括:对应于用于模拟深度效果的多个可选值的多个选项指示符;以及指示第一值是当前选择的模拟深度效果值的选择指示符;在显示可调节滑块时,经由一个或多个输入设备检测指向可调节滑块的输入;并且响应于检测到指向可调节滑块的输入:移动可调节滑块以指示用于模拟深度效果的多个可选值中的第二值是当前选择的模拟深度效果值;以及根据由第二值修改的模拟深度效果来改变图像数据的表示的外观。
根据一些实施方案,描述了一种非暂态计算机可读存储介质。该非暂态计算机可读存储介质存储被配置为由具有显示器和一个或多个输入设备的电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:在显示器上显示图像数据的表示;在显示具有由用于模拟深度效果的多个可选值的第一值修改的模拟深度效果的图像数据的表示时,经由一个或多个输入设备检测第一输入;响应于检测到第一输入,在显示器上显示与操纵图像数据的表示相关联的可调节滑块,其中该可调节滑块包括:对应于用于模拟深度效果的多个可选值的多个选项指示符;以及指示第一值是当前选择的模拟深度效果值的选择指示符;在显示可调节滑块时,经由一个或多个输入设备检测指向可调节滑块的输入;并且响应于检测到指向可调节滑块的输入:移动可调节滑块以指示用于模拟深度效果的多个可选值中的第二值是当前选择的模拟深度效果值;以及根据由第二值修改的模拟深度效果来改变图像数据的表示的外观。
根据一些实施方案,描述了一种暂态计算机可读存储介质。该暂态计算机可读存储介质存储被配置为由具有显示器和一个或多个输入设备的电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:在显示器上显示图像数据的表示;在显示具有由用于模拟深度效果的多个可选值的第一值修改的模拟深度效果的图像数据的表示时,经由一个或多个输入设备检测第一输入;响应于检测到第一输入,在显示器上显示与操纵图像数据的表示相关联的可调节滑块,其中该可调节滑块包括:对应于用于模拟深度效果的多个可选值的多个选项指示符;以及指示第一值是当前选择的模拟深度效果值的选择指示符;在显示可调节滑块时,经由一个或多个输入设备检测指向可调节滑块的输入;并且响应于检测到指向可调节滑块的输入:移动可调节滑块以指示用于模拟深度效果的多个可选值中的第二值是当前选择的模拟深度效果值;以及根据由第二值修改的模拟深度效果来改变图像数据的表示的外观。
根据一些实施方案,描述了一种电子设备。该电子设备包括显示器、一个或多个输入设备、一个或多个处理器以及存储被配置为由一个或多个处理器执行的一个或多个程序的存储器,该一个或多个程序包括用于执行以下操作的指令:在显示器上显示图像数据的表示;在显示具有由用于模拟深度效果的多个可选值的第一值修改的模拟深度效果的图像数据的表示时,经由一个或多个输入设备检测第一输入;响应于检测到第一输入,在显示器上显示与操纵图像数据的表示相关联的可调节滑块,其中该可调节滑块包括:对应于用于模拟深度效果的多个可选值的多个选项指示符;以及指示第一值是当前选择的模拟深度效果值的选择指示符;在显示可调节滑块时,经由一个或多个输入设备检测指向可调节滑块的输入;并且响应于检测到指向可调节滑块的输入:移动可调节滑块以指示用于模拟深度效果的多个可选值中的第二值是当前选择的模拟深度效果值;以及根据由第二值修改的模拟深度效果来改变图像数据的表示的外观。
根据一些实施方案,描述了一种电子设备。该电子设备包括:显示器;一个或多个输入设备;用于在显示器上显示图像数据的表示的装置;用于在显示具有由用于模拟深度效果的多个可选值的第一值修改的模拟深度效果的图像数据的表示时经由一个或多个输入设备检测第一输入的装置;以及用于响应于检测到第一输入在显示器上显示与操纵图像数据的表示相关联的可调节滑块的装置,其中该可调节滑块包括:对应于用于模拟深度效果的多个可选值的多个选项指示符;以及指示第一值是当前选择的模拟深度效果值的选择指示符;用于在显示可调节滑块时经由一个或多个输入设备检测指向可调节滑块的输入的装置;以及用于响应于检测到指向可调节滑块的输入执行以下操作的装置:移动可调节滑块以指示用于模拟深度效果的多个可选值中的第二值是当前选择的模拟深度效果值;以及根据由第二值修改的模拟深度效果来改变图像数据的表示的外观。
根据一些实施方案,描述了在具有显示器和一个或多个输入设备的电子设备处执行的方法。该方法包括:经由一个或多个输入设备接收将模拟深度效果应用于图像数据的表示的请求,其中用于图像数据的表示内的被摄对象的深度数据可用;以及响应于接收到将模拟深度效果应用于图像数据的表示的请求,在显示器上显示具有模拟深度效果的图像数据的表示,包括:以第一方式使具有第一深度的图像数据的表示的第一部分失真,其中该第一方式基于第一部分距图像数据的表示的预定义部分的距离来确定;以及以与第一方式不同的第二方式使具有第一深度的图像数据的表示的第二部分失真,其中第二方式基于第二部分距图像数据的表示的预定义部分的距离来确定。
根据一些实施方案,描述了一种非暂态计算机可读存储介质。该非暂态计算机可读存储介质存储被配置为由具有显示器和一个或多个输入设备的电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由一个或多个输入设备接收将模拟深度效果应用于图像数据的表示的请求,其中用于图像数据的表示内的被摄对象的深度数据可用;以及响应于接收到将模拟深度效果应用于图像数据的表示的请求,在显示器上显示具有模拟深度效果的图像数据的表示,包括:以第一方式使具有第一深度的图像数据的表示的第一部分失真,其中该第一方式基于第一部分距图像数据的表示的预定义部分的距离来确定;以及以与第一方式不同的第二方式使具有第一深度的图像数据的表示的第二部分失真,其中第二方式基于第二部分距图像数据的表示的预定义部分的距离来确定。
根据一些实施方案,描述了一种暂态计算机可读存储介质。该暂态计算机可读存储介质存储被配置为由具有显示器和一个或多个输入设备的电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由一个或多个输入设备接收将模拟深度效果应用于图像数据的表示的请求,其中用于图像数据的表示内的被摄对象的深度数据可用;以及响应于接收到将模拟深度效果应用于图像数据的表示的请求,在显示器上显示具有模拟深度效果的图像数据的表示,包括:以第一方式使具有第一深度的图像数据的表示的第一部分失真,其中该第一方式基于第一部分距图像数据的表示的预定义部分的距离来确定;以及以与第一方式不同的第二方式使具有第一深度的图像数据的表示的第二部分失真,其中第二方式基于第二部分距图像数据的表示的预定义部分的距离来确定。
根据一些实施方案,描述了一种电子设备。该电子设备包括显示器、一个或多个输入设备、一个或多个处理器、以及存储被配置为由一个或多个处理器执行的一个或多个程序的存储器,该一个或多个程序包括用于执行以下操作的指令:经由一个或多个输入设备接收将模拟深度效果应用于图像数据的表示的请求,其中用于图像数据的表示内的被摄对象的深度数据可用;以及响应于接收到将模拟深度效果应用于图像数据的表示的请求,在显示器上显示具有模拟深度效果的图像数据的表示,包括:以第一方式使具有第一深度的图像数据的表示的第一部分失真,其中该第一方式基于第一部分距图像数据的表示的预定义部分的距离来确定;以及以与第一方式不同的第二方式使具有第一深度的图像数据的表示的第二部分失真,其中第二方式基于第二部分距图像数据的表示的预定义部分的距离来确定。
根据一些实施方案,描述了一种电子设备。该电子设备包括:显示器;一个或多个输入设备;用于经由一个或多个输入设备接收将模拟深度效果应用于图像数据的表示的请求的装置,其中用于图像数据的表示内的被摄对象的深度数据可用;以及用于响应于接收到将模拟深度效果应用于图像数据的表示的请求在显示器上显示具有模拟深度效果的图像数据的表示的装置,包括:以第一方式使具有第一深度的图像数据的表示的第一部分失真,其中该第一方式基于第一部分距图像数据的表示的预定义部分的距离来确定;以及以与第一方式不同的第二方式使具有第一深度的图像数据的表示的第二部分失真,其中第二方式基于第二部分距图像数据的表示的预定义部分的距离来确定。
根据一些实施方案,描述了在具有显示器和包括一个或多个相机的一个或多个传感器的电子设备处执行的方法。该方法包括:在显示器上显示相机应用程序的用户界面时,经由一个或多个传感器检测将损害一个或多个相机的相应功能的操作的外部干扰;以及响应于检测到电子设备外部的干扰:根据确定已满足第一标准,在显示器上显示指示一个或多个相机的操作模式已被改变以减少外部干扰对一个或多个相机的相应功能的影响的通知;并且根据确定尚未满足第一标准,放弃在显示器上显示指示一个或多个相机的操作模式已被改变的通知。
根据一些实施方案,描述了一种非暂态计算机可读存储介质。该非暂态计算机可读存储介质存储被配置为由具有显示器和包括一个或多个相机的一个或多个传感器的电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:在显示器上显示相机应用程序的用户界面时,经由一个或多个传感器检测将损害一个或多个相机的相应功能的操作的外部干扰;以及响应于检测到电子设备外部的干扰:根据确定已满足第一标准,在显示器上显示指示一个或多个相机的操作模式已被改变以减少外部干扰对一个或多个相机的相应功能的影响的通知;并且根据确定尚未满足第一标准,放弃在显示器上显示指示一个或多个相机的操作模式已被改变的通知。
根据一些实施方案,描述了一种暂态计算机可读存储介质。该暂态计算机可读存储介质存储被配置为由具有显示器和包括一个或多个相机的一个或多个传感器的电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:在显示器上显示相机应用程序的用户界面时,经由一个或多个传感器检测将损害一个或多个相机的相应功能的操作的外部干扰;以及响应于检测到电子设备外部的干扰:根据确定已满足第一标准,在显示器上显示指示一个或多个相机的操作模式已被改变以减少外部干扰对一个或多个相机的相应功能的影响的通知;并且根据确定尚未满足第一标准,放弃在显示器上显示指示一个或多个相机的操作模式已被改变的通知。
根据一些实施方案,描述了一种电子设备。该电子设备包括显示器、包括一个或多个相机的一个或多个传感器、一个或多个处理器、以及存储被配置为由一个或多个处理器执行的一个或多个程序的存储器,该一个或多个程序包括用于执行以下操作的指令:在显示器上显示相机应用程序的用户界面时,经由一个或多个传感器检测将损害一个或多个相机的相应功能的操作的外部干扰;以及响应于检测到电子设备外部的干扰:根据确定已满足第一标准,在显示器上显示指示一个或多个相机的操作模式已被改变以减少外部干扰对一个或多个相机的相应功能的影响的通知;并且根据确定尚未满足第一标准,放弃在显示器上显示指示一个或多个相机的操作模式已被改变的通知。
根据一些实施方案,描述了一种电子设备。该电子设备包括:显示器;一个或多个传感器,该一个或多个传感器包括一个或多个相机;用于在显示器上显示相机应用程序的用户界面时经由一个或多个传感器检测将损害一个或多个相机的相应功能的操作的外部干扰的装置;以及用于响应于检测到电子设备外部的干扰执行以下操作的装置:根据确定已满足第一标准,在显示器上显示指示一个或多个相机的操作模式已被改变以减少外部干扰对一个或多个相机的相应功能的影响的通知;并且根据确定尚未满足第一标准,放弃在显示器上显示指示一个或多个相机的操作模式已被改变的通知。
用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的非暂态计算机可读存储介质或其他计算机程序产品中。用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的暂态计算机可读存储介质或其他计算机程序产品中。
因此,为设备提供更快更有效的方法和界面以用于调节图像效果,由此提高此类设备的有效性、效率和用户满意度。此类方法和界面可以补充或替换用于调节图像效果的其他方法。
附图说明
为了更好地理解各种所描述的实施方案,应当结合以下附图来参考以下具体实施方式,在附图中类似的附图标号在所有附图中指示对应的部件。
图1A为示出根据一些实施方案的具有触敏显示器的便携式多功能设备的框图。
图1B为示出根据一些实施方案的用于事件处理的示例性部件的框图。
图2示出了根据一些实施方案的具有触摸屏的便携式多功能设备。
图3为根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。
图4A示出了根据一些实施方案的用于便携式多功能设备上的应用程序的菜单的示例性用户界面。
图4B示出了根据一些实施方案的用于具有与显示器分开的触敏表面的多功能设备的示例性用户界面。
图5A示出了根据一些实施方案的个人电子设备。
图5B为示出根据一些实施方案的个人电子设备的框图。
图6A至图6T示出了根据一些实施方案的用于调节模拟深度效果的示例性用户界面。
图7A至图7B为示出根据一些实施方案的用于管理用于调节模拟深度效果的用户界面的方法的流程图。
图8A至图8R示出了根据一些实施方案的用于显示对模拟深度效果的调节的示例性用户界面。
图9A至图9B为示出根据一些实施方案的用于管理用于显示对模拟深度效果的调节的用户界面的方法的流程图。
图10A至图10F示出了根据一些实施方案的用于指示对调节模拟图像效果的干扰的示例性用户界面。
图11为示出根据一些实施方案的用于管理用于指示对调节模拟图像效果的干扰的用户界面的方法的流程图。
具体实施方式
以下描述阐述了示例性方法、参数等。然而,应当认识到,此类描述并非意在限制本公开的范围,而是作为对示例性实施方案的描述来提供。
需要提供用于模拟深度效果的有效方法和界面的电子设备。例如,需要一种能够捕获实时馈送图像/照片或显示所存储的图像/照片并且使用户能够快速且容易地对图像/照片的景深属性进行精确调节的设备。此类技术可以减轻访问与调节图像效果相关联的所显示内容的用户的认知负担,由此提高生产率。此外,此类技术可减少以其他方式浪费在冗余用户输入上的处理器功率和电池功率。
下面图1A至图1B、图2、图3、图4A至图4B和图5A至图5B提供了对用于执行管理事件通知的技术的示例性设备的描述。图6A至图6T示出了根据一些实施方案的用于调节模拟深度效果的示例性用户界面。图7A至图7B为示出根据一些实施方案的用于管理用于调节模拟深度效果的用户界面的方法的流程图。图6A至图6T中的用户界面用于示出下文所述的过程,包括图7A至图7B中的过程。图8A至图8R示出了根据一些实施方案的用于显示对模拟深度效果的调节的示例性用户界面。图9A至图9B为示出根据一些实施方案的用于管理用于显示对模拟深度效果的调节的用户界面的方法的流程图。图8A至图8R中的用户界面用于示出下文所述的过程,包括图9A至图9B中的过程。图10A至图10F示出了根据一些实施方案的用于指示对调节模拟图像效果的干扰的示例性用户界面。图11为示出根据一些实施方案的用于管理用于指示对调节模拟图像效果的干扰的用户界面的方法的流程图。图10A至图10F中的用户界面用于示出下文所述的过程,包括图11中的过程。
尽管以下描述使用术语“第一”、“第二”等来描述各种元件,但这些元件不应受这些术语的限制。这些术语只是用于将一个元件与另一元件区分开。例如,第一触摸可被命名为第二触摸并且类似地第二触摸可被命名为第一触摸,而不脱离各种所述实施方案的范围。第一触摸和第二触摸两者均为触摸,但是它们不是同一触摸。
在本文中对各种所述实施方案的描述中所使用的术语只是为了描述特定实施方案的目的,而并非旨在进行限制。如在对各种所述实施方案中的描述和所附权利要求书中所使用的那样,单数形式“一个”和“该”旨在也包括复数形式,除非上下文另外明确地指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”(“includes”、“including”、“comprises”和/或“comprising”)在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件和/或其分组。
根据上下文,术语“如果”任选地被解释为意指“当......时”、“在......时”或“响应于确定”或“响应于检测到”。类似地,根据上下文,短语“如果确定……”或“如果检测到[所陈述的条件或事件]”任选地被解释为是指“在确定……时”或“响应于确定……”或“在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
本文描述了电子设备、此类设备的用户界面和使用此类设备的相关过程的实施方案。在一些实施方案中,该设备为还包含其他功能诸如PDA和/或音乐播放器功能的便携式通信设备,诸如移动电话。便携式多功能设备的示例性实施方案包括但不限于来自AppleInc.(Cupertino,California)的
Figure BDA0003003691080000101
设备、iPod
Figure BDA0003003691080000103
设备、和
Figure BDA0003003691080000102
设备。任选地使用其他便携式电子设备,诸如具有触敏表面(例如,触摸屏显示器和/或触控板)的膝上型电脑或平板电脑。还应当理解的是,在一些实施方案中,该设备并非便携式通信设备,而是具有触敏表面(例如,触摸屏显示器和/或触控板)的台式计算机。
在下面的讨论中,描述了一种包括显示器和触敏表面的电子设备。然而,应当理解,该电子设备任选地包括一个或多个其他物理用户界面设备,诸如物理键盘、鼠标和/或操纵杆。
该设备通常支持各种应用程序,诸如以下应用程序中的一个或多个应用程序:绘图应用程序、展示应用程序、文字处理应用程序、网站创建应用程序、盘编辑应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息应用程序、健身支持应用程序、照片管理应用程序、数字相机应用程序、数字摄像机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
在设备上执行的各种应用程序任选地使用至少一个通用的物理用户界面设备,诸如触敏表面。触敏表面的一种或多种功能以及被显示在设备上的对应信息任选地对于不同应用程序被调整和/或变化,和/或在相应应用程序内被调整和/或变化。这样,设备的共用物理架构(诸如触敏表面)任选地利用对于用户而言直观且清楚的用户界面来支持各种应用程序。
现在将注意力转到具有触敏显示器的便携式设备的实施方案。图1A是示出了根据一些实施方案的具有触敏显示器系统112的便携式多功能设备100的框图。触敏显示器112有时为了方便被叫做“触摸屏”,并且有时被称为或被叫做“触敏显示器系统”。设备100包括存储器102(其任选地包括一个或多个计算机可读存储介质)、存储器控制器122、一个或多个处理单元(CPU)120、外围设备接口118、RF电路108、音频电路110、扬声器111、麦克风113、输入/输出(I/O)子系统106、其他输入控制设备116和外部端口124。设备100任选地包括一个或多个光学传感器164。设备100任选地包括用于检测设备100(例如,触敏表面,诸如设备100的触敏显示器系统112)上的接触的强度的一个或多个接触强度传感器165。设备100任选地包括用于在设备100上生成触觉输出的一个或多个触觉输出发生器167(例如,在触敏表面(诸如设备100的触敏显示器系统112或设备300的触控板355)上生成触觉输出)。这些部件任选地通过一个或多个通信总线或信号线103进行通信。
如在本说明书和权利要求书中所使用的那样,触敏表面上的接触的“强度”这一术语是指触敏表面上的接触(例如,手指接触)的力或压力(每单位面积的力),或者是指触敏表面上的接触的力或压力的替代物(代用物)。接触的强度具有值范围,该值范围包括至少四个不同的值并且更典型地包括上百个不同的值(例如,至少256个)。接触的强度任选地使用各种方法和各种传感器或传感器的组合来确定(或测量)。例如,在触敏表面下方或相邻于触敏表面的一个或多个力传感器任选地用于测量触敏表面上的不同点处的力。在一些具体实施中,来自多个力传感器的力测量值被组合(例如,加权平均)以确定所估计的接触力。类似地,触笔的压敏顶端任选地用于确定触笔在触敏表面上的压力。另选地,在触敏表面上检测到的接触区域的大小和/或其变化、接触附近的触敏表面的电容和/或其变化以及/或者接触附近的触敏表面的电阻和/或其变化任选地被用作触敏表面上的接触的力或压力的替代物。在一些具体实施中,接触力或压力的替代物测量直接用于确定是否已经超过强度阈值(例如,强度阈值以对应于替代物测量的单位来描述)。在一些具体实施中,接触力或压力的替代物测量被转换成估计的力或压力,并且估计的力或压力用于确定是否已超过强度阈值(例如,强度阈值是以压力的单位进行测量的压力阈值)。使用接触的强度作为用户输入的属性,从而允许用户访问用户在实地面积有限的尺寸更小的设备上本来不可访问的附加设备功能,该尺寸更小的设备用于(例如,在触敏显示器上)显示示能表示和/或接收用户输入(例如,经由触敏显示器、触敏表面或物理控件/机械控件,诸如旋钮或按钮)。
如本说明书和权利要求书中所使用的那样,术语“触觉输出”是指将由用户通过用户的触摸感检测到的设备相对于设备的先前位置的物理位移、设备的部件(例如,触敏表面)相对于设备的另一个部件(例如,外壳)的物理位移或部件相对于设备的质心的位移。例如,在设备或设备的部件与用户对触摸敏感的表面(例如,手指、手掌或用户手部的其他部分)接触的情况下,通过物理位移生成的触觉输出将由用户解释为触感,该触感对应于设备或设备的部件的物理特征的所感知的变化。例如,触敏表面(例如,触敏显示器或触控板)的移动任选地由用户解释为对物理致动按钮的“按下点击”或“松开点击”。在一些情况下,用户将感觉到触感,诸如“按下点击”或“松开点击”,即使在通过用户的移动而物理地被按压(例如,被移位)的与触敏表面相关联的物理致动按钮没有移动时。又如,即使在触敏表面的光滑度无变化时,触敏表面的移动也会任选地由用户解释或感测为触敏表面的“粗糙度”。虽然用户对触摸的此类解释将受到用户的个体化感官知觉的限制,但是对触摸的许多感官知觉是大多数用户共有的。因此,当触觉输出被描述为对应于用户的特定感官知觉(例如,“按下点击”、“松开点击”、“粗糙度”)时,除非另外陈述,否则所生成的触觉输出对应于设备或其部件的物理位移,该物理位移将会生成典型(或普通)用户的所述感官知觉。
应当理解,设备100仅为便携式多功能设备的一个示例,并且该设备100任选地具有比所示出的更多或更少的部件,任选地组合两个或更多个部件,或者任选地具有部件的不同配置或布置。图1A中所示的各种部件以硬件、软件、或硬件与软件两者的组合来实现,包括一个或多个信号处理和/或专用集成电路。
存储器102任选地包括高速随机存取存储器,并且任选地还包括非易失性存储器,诸如一个或多个磁盘存储设备、闪存存储器设备或其他非易失性固态存储器设备。存储器控制器122任选地控制设备100的其他部件访问存储器102。
外围设备接口118可用于将设备的输入外围设备和输出外围设备耦接到CPU 120和存储器102。一个或多个处理器120运行或执行存储器102中所存储的各种软件程序和/或指令集以执行设备100的各种功能并处理数据。在一些实施方案中,外围设备接口118、CPU120和存储器控制器122任选地被实现在单个芯片诸如芯片104上。在一些其他实施方案中,它们任选地在独立的芯片上实现。
RF(射频)电路108接收和发送RF信号,该RF信号也被称为电磁信号。RF电路108将电信号转换为电磁信号/将电磁信号转换为电信号,并且经由电磁信号与通信网络及其他通信设备进行通信。RF电路108任选地包括用于执行这些功能的熟知的电路,包括但不限于天线系统、RF收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码芯片组、用户身份模块(SIM)卡、存储器等等。RF电路108任选地通过无线通信来与网络和其他设备进行通信,这些网络为诸如互联网(也被称为万维网(WWW))、内联网和/或无线网络(诸如,蜂窝电话网络、无线局域网(LAN)和/或城域网(MAN))。RF电路108任选地包括用于诸如通过近程通信无线电部件来检测近场通信(NFC)场的熟知的电路。无线通信任选地使用多种通信标准、协议和技术中的任一者,包括但不限于全球移动通信系统(GSM)、增强型数据GSM环境(EDGE)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、演进、纯数据(EV-DO)、HSPA、HSPA+、双单元HSPA(DC-HSPDA)、长期演进(LTE)、近场通信(NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、蓝牙低功耗(BTLE)、无线保真(Wi-Fi)(例如,IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE802.11n和/或IEEE 802.11ac)、互联网协议语音(VoIP)、Wi-MAX、电子邮件协议(例如,互联网消息访问协议(IMAP)和/或邮局协议(POP))、即时消息(例如,可扩展消息处理和存在协议(XMPP)、用于即时消息和存在利用扩展的会话发起协议(SIMPLE)、即时消息和存在服务(IMPS))、和/或短消息服务(SMS),或者包括在本文档提交日期时还未开发出的通信协议的任何其他适当的通信协议。
音频电路110、扬声器111和麦克风113提供用户与设备100之间的音频接口。音频电路110从外围设备接口118接收音频数据,将音频数据转换为电信号,并将电信号传输到扬声器111。扬声器111将电信号转换为人类可听到的声波。音频电路110还接收由麦克风113从声波转换的电信号。音频电路110将电信号转换为音频数据,并且将音频数据传输到外围设备接口118以用于处理。音频数据任选地由外围设备接口118检索自和/或传输至存储器102和/或RF电路108。在一些实施方案中,音频电路110还包括耳麦插孔(例如,图2中的212)。耳麦插孔提供音频电路110与可移除音频输入/输出外围设备之间的接口,该外围设备为诸如仅输出的耳机或者具有输出(例如,单耳耳机或双耳耳机)和输入(例如,麦克风)两者的耳麦。
I/O子系统106将设备100上的输入/输出外围设备诸如触摸屏112和其他输入控制设备116耦接到外围设备接口118。I/O子系统106任选地包括显示控制器156、光学传感器控制器158、深度相机控制器169、强度传感器控制器159、触觉反馈控制器161,以及用于其他输入或控制设备的一个或多个输入控制器160。该一个或多个输入控制器160从其他输入控制设备116接收电信号/将电信号发送到该其他输入控制设备。该其他输入控制设备116任选地包括物理按钮(例如,下压按钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、点击式转盘等。在一些另选实施方案中,输入控制器160任选地耦接至以下各项中的任一者(或不耦接至以下各项中的任一者):键盘、红外线端口、USB端口以及指向设备诸如鼠标。一个或多个按钮(例如,图2中的208)任选地包括用于扬声器111和/或麦克风113音量控制的增大/减小按钮。该一个或多个按钮任选地包括下压按钮(例如,图2中的206)。
快速按压下压按钮任选地解除对触摸屏112的锁定或者任选地开始使用触摸屏上的手势对设备进行解锁的过程,如2005年12月23日提交的名称为“Unlocking a Device byPerforming Gestures on an Unlock Image”的美国专利申请11/322,549(即美国专利No.7,657,849)中所述,该美国专利申请据此全文以引用方式并入本文。长按下压按钮(例如206)任选地使设备100开机或关机。一个或多个按钮的功能任选地为用户可定制的。触摸屏112用于实现虚拟按钮或软按钮以及一个或多个软键盘。
触敏显示器112提供设备与用户之间的输入接口和输出接口。显示控制器156从触摸屏112接收电信号和/或将电信号发送到触摸屏112。触摸屏112向用户显示视觉输出。视觉输出任选地包括图形、文本、图标、视频以及它们的任何组合(统称为“图形”)。在一些实施方案中,一些视觉输出或全部的视觉输出任选地与用户界面对象对应。
触摸屏112具有基于触觉和/或触感接触来接受来自用户的输入的触敏表面、传感器、或传感器组。触摸屏112和显示控制器156(与存储器102中的任何相关联的模块和/或指令集一起)检测触摸屏112上的接触(和该接触的任何移动或中断),并且将所检测到的接触转换为与被显示在触摸屏112上的用户界面对象(例如,一个或多个软键、图标、网页或图像)的交互。在示例性实施方案中,触摸屏112与用户之间的接触点对应于用户的手指。
触摸屏112任选地使用LCD(液晶显示器)技术、LPD(发光聚合物显示器)技术或LED(发光二极管)技术,但是在其他实施方案中使用其他显示技术。触摸屏112和显示控制器156任选地使用现在已知的或以后将开发出的多种触摸感测技术中的任何技术以及其他接近传感器阵列或用于确定与触摸屏112接触的一个或多个点的其他元件来检测接触及其任何移动或中断,该多种触摸感测技术包括但不限于电容性的、电阻性的、红外线的、和表面声波技术。在示例性实施方案中,使用投射式互电容感测技术,诸如在来自Apple Inc.(Cupertino,California)的
Figure BDA0003003691080000151
和iPod
Figure BDA0003003691080000152
中使用的技术。
触摸屏112的一些实施方案中的触敏显示器任选地类似于以下美国专利中所述的多点触敏触控板:6,323,846(Westerman等人)、6,570,557(Westerman等人)和/或6,677,932(Westerman等人)和/或美国专利公开2002/0015024A1,这些专利公开中的每个专利公开据此全文以引用方式并入。然而,触摸屏112显示来自设备100的视觉输出,而触敏触控板不提供视觉输出。
在一些实施方案中,触摸屏112的触敏显示器如以下专利申请所述:(1)提交于2006年5月2日的名称为“Multipoint Touch Surface Controller”的美国专利申请No.11/381,313;(2)2004年5月6日提交的名称为“Multipoint Touchscreen”的美国专利申请No.10/840,862;(3)2004年7月30日提交的名称为“Gestures For Touch Sensitive InputDevices”的美国专利申请No.10/903,964;(4)2005年1月31日提交的名称为“Gestures ForTouch Sensitive Input Devices”的美国专利申请No.11/048,264;(5)2005年1月18日提交的名称为“Mode-Based Graphical User Interfaces For Touch Sensitive InputDevices”的美国专利申请No.11/038,590;(6)2005年9月16日提交的名称为“VirtualInput Device Placement On A Touch Screen User Interface”的美国专利申请No.11/228,758;(7)2005年9月16日提交的名称为“Operation Of A Computer With A TouchScreen Interface”的美国专利申请No.11/228,700;(8)2005年9月16日提交的名称为“Activating Virtual Keys Of A Touch-Screen Virtual Keyboard”的美国专利申请No.11/228,737;以及(9)2006年3月3日提交的名称为“Multi-Functional Hand-HeldDevice”的美国专利申请No.11/367,749。所有这些申请全文以引用方式并入本文。
触摸屏112任选地具有超过100dpi的视频分辨率。在一些实施方案中,触摸屏具有约160dpi的视频分辨率。用户任选地使用任何合适的物体或附加物诸如触笔、手指等等来与触摸屏112接触。在一些实施方案中,将用户界面设计为主要通过基于手指的接触和手势来工作,由于手指在触摸屏上的接触区域较大,因此这可能不如基于触笔的输入精确。在一些实施方案中,设备将基于手指的粗略输入转化为精确的指针/光标位置或命令以用于执行用户所期望的动作。
在一些实施方案中,除了触摸屏之外,设备100任选地包括用于激活或去激活特定功能的触控板。在一些实施方案中,触控板是设备的触敏区域,与触摸屏不同,该触敏区域不显示视觉输出。触控板任选地是与触摸屏112分开的触敏表面,或者是由触摸屏形成的触敏表面的延伸部分。
设备100还包括用于为各种部件供电的电力系统162。电力系统162任选地包括电力管理系统、一个或多个电源(例如,电池、交流电(AC))、再充电系统、电力故障检测电路、功率转换器或逆变器、电源状态指示符(例如,发光二极管(LED))以及与便携式设备中的电力的生成、管理和分配相关联的任何其他部件。
设备100任选地还包括一个或多个光学传感器164。图1A示出了耦接到I/O子系统106中的光学传感器控制器158的光学传感器。光学传感器164任选地包括电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)光电晶体管。光学传感器164从环境接收通过一个或多个透镜而投射的光,并且将光转换为表示图像的数据。结合成像模块143(也叫做相机模块),光学传感器164任选地捕获静态图像或视频。在一些实施方案中,光学传感器位于设备100的后部上,与设备前部上的触摸屏显示器112相背对,使得触摸屏显示器能够用作用于静态图像和/或视频图像采集的取景器。在一些实施方案中,光学传感器位于设备的前部上,使得在用户在触摸屏显示器上查看其他视频会议参与者的同时任选地获取该用户的图像以用于视频会议。在一些实施方案中,光学传感器164的位置可由用户改变(例如,通过旋转设备外壳中的透镜和传感器),使得单个光学传感器164与触摸屏显示器一起使用,以用于视频会议和静态图像和/或视频图像采集两者。
设备100任选地还包括一个或多个深度相机传感器175。图1A示出了耦接到I/O子系统106中的深度相机控制器169的深度相机传感器。深度相机传感器175从环境接收数据以从视点(例如,深度相机传感器)创建场景内的对象(例如,面部)的三维模型。在一些实施方案中,结合成像模块143(也称为相机模块),深度相机传感器175可选地用于确定由成像模块143捕获的图像的不同部分的深度图。在一些实施方案中,深度相机传感器位于设备100的前部,使得在用户在触摸屏显示器上查看其他视频会议参与者的同时任选地获取具有深度信息的用户图像以用于视频会议,并且捕捉具有深度图数据的自拍。在一些实施方案中,深度相机传感器175位于设备的后部,或者设备100的后部和前部。在一些实施方案中,深度相机传感器175的位置可由用户改变(例如,通过旋转设备外壳中的透镜和传感器),使得深度相机传感器175与触摸屏显示器一起使用以用于视频会议和静态图像和/或视频图像采集两者。
在一些实施方案中,深度图(例如,深度图图像)包含与场景中的对象与视点(例如,相机、光学传感器、深度相机传感器)的距离相关的信息(例如,值)。在深度图的一个实施方案中,每个深度像素限定视点的z轴中所述深度像素对应的二维像素所位于的位置。在一些实施方案中,深度图由像素组成,其中每个像素由值(例如,0到255)定义。例如,“0”值表示位于“三维”场景中距离视点(例如,相机、光学传感器、深度相机传感器)最远位置处的像素,并且“255”值表示位于最接近“三维”场景中的视点的像素。在其他实施方案中,深度图表示场景中的对象与视点的平面之间的距离。在一些实施方案中,深度图包括关于深度相机的视野中感兴趣对象的各种特征的相对深度的信息(例如,用户面部的眼睛、鼻部、嘴部、耳朵的相对深度)。在一些实施方案中,深度图包括使设备能够确定感兴趣对象在z方向上的轮廓的信息。
设备100任选地还包括一个或多个接触强度传感器165。图1A示出了耦接到I/O子系统106中的强度传感器控制器159的接触强度传感器。接触强度传感器165任选地包括一个或多个压阻应变仪、电容式力传感器、电气力传感器、压电力传感器、光学力传感器、电容式触敏表面或其他强度传感器(例如,用于测量触敏表面上的接触的力(或压力)的传感器)。接触强度传感器165从环境接收接触强度信息(例如,压力信息或压力信息的代用物)。在一些实施方案中,至少一个接触强度传感器与触敏表面(例如,触敏显示器系统112)并置排列或邻近。在一些实施方案中,至少一个接触强度传感器位于设备100的后部上,与位于设备100的前部上的触摸屏显示器112相背对。
设备100任选地还包括一个或多个接近传感器166。图1A示出了耦接到外围设备接口118的接近传感器166。另选地,接近传感器166任选地耦接到I/O子系统106中的输入控制器160。接近传感器166任选地如以下美国专利申请中所述的那样执行:No.11/241,839,名称为“Proximity Detector In Handheld Device”;No.11/240,788,名称为“ProximityDetector In Handheld Device”;No.11/620,702,名称为“Using Ambient Light SensorTo Augment Proximity Sensor Output”;No.11/586,862,名称为“Automated ResponseTo And Sensing Of User Activity In Portable Devices”;以及No.11/638,251,名称为“Methods And Systems For Automatic Configuration Of Peripherals”,这些美国专利申请据此全文以引用方式并入本文。在一些实施方案中,当多功能设备被置于用户的耳朵附近时(例如,当用户正在进行电话呼叫时),接近传感器关闭并且禁用触摸屏112。
设备100任选地还包括一个或多个触觉输出发生器167。图1A示出了耦接到I/O子系统106中的触觉反馈控制器161的触觉输出发生器。触觉输出发生器167任选地包括一个或多个电声设备诸如扬声器或其他音频部件;和/或用于将能量转换成线性运动的机电设备诸如电机、螺线管、电活性聚合物、压电致动器、静电致动器或其他触觉输出生成部件(例如,用于将电信号转换成设备上的触觉输出的部件)。接触强度传感器165从触觉反馈模块133接收触觉反馈生成指令,并且在设备100上生成能够由设备100的用户感觉到的触觉输出。在一些实施方案中,至少一个触觉输出发生器与触敏表面(例如,触敏显示器系统112)并置排列或邻近,并且任选地通过竖直地(例如,向设备100的表面内/外)或侧向地(例如,在与设备100的表面相同的平面中向后和向前)移动触敏表面来生成触觉输出。在一些实施方案中,至少一个触觉输出发生器传感器位于设备100的后部上,与位于设备100的前部上的触摸屏显示器112相背对。
设备100任选地还包括一个或多个加速度计168。图1A示出了耦接到外围设备接口118的加速度计168。另选地,加速度计168任选地耦接到I/O子系统106中的输入控制器160。加速度计168任选地如以下美国专利公开中所述的那样执行:美国专利公开No.20050190059,名称为“Acceleration-based Theft Detection System for PortableElectronic Devices”和美国专利公开No.20060017692,名称为“Methods AndApparatuses For Operating A Portable Device Based On An Accelerometer”,这两个美国专利公开均全文以引用方式并入本文。在一些实施方案中,基于对从一个或多个加速度计接收的数据的分析来在触摸屏显示器上以纵向视图或横向视图显示信息。设备100任选地除了加速度计168之外还包括磁力仪和GPS(或GLONASS或其他全球导航系统)接收器,以用于获取关于设备100的位置和取向(例如,纵向或横向)的信息。
在一些实施方案中,存储在存储器102中的软件组件包括操作系统126、通信模块(或指令集)128、接触/运动模块(或指令集)130、图形模块(或指令集)132、文本输入模块(或指令集)134、全球定位系统(GPS)模块(或指令集)135以及应用程序(或指令集)136。此外,在一些实施方案中,存储器102(图1A)或370(图3)存储设备/全局内部状态157,如图1A和图3中所示。设备/全局内部状态157包括以下中的一者或多者:活动应用程序状态,其指示哪些应用程序(如果有的话)当前是活动的;显示状态,其指示什么应用程序、视图或其他信息占据触摸屏显示器112的各个区域;传感器状态,包括从设备的各个传感器和输入控制设备116获得的信息;以及关于设备的位置和/或姿态的位置信息。
操作系统126(例如,Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS或嵌入式操作系统诸如VxWorks)包括用于控制和管理一般系统任务(例如,存储器管理、存储设备控制、功率管理等)的各种软件组件和/或驱动器,并且有利于各种硬件组件与软件组件之间的通信。
通信模块128促进通过一个或多个外部端口124与其他设备进行通信,并且还包括用于处理由RF电路108和/或外部端口124接收的数据的各种软件组件。外部端口124(例如,通用串行总线(USB)、火线等)适于直接耦接到其他设备,或间接地通过网络(例如,互联网、无线LAN等)进行耦接。在一些实施方案中,外部端口是与
Figure BDA0003003691080000201
(Apple Inc.的商标)设备上所使用的30针连接器相同的或类似的和/或与其兼容的多针(例如,30针)连接器。
接触/运动模块130任选地检测与触摸屏112(结合显示控制器156)和其他触敏设备(例如,触控板或物理点击式转盘)的接触。接触/运动模块130包括各种软件组件以用于执行与接触检测相关的各种操作,诸如确定是否已经发生了接触(例如,检测手指按下事件)、确定接触强度(例如,接触的力或压力,或者接触的力或压力的替代物)、确定是否存在接触的移动并跟踪在触敏表面上的移动(例如,检测一个或多个手指拖动事件),以及确定接触是否已经停止(例如,检测手指抬起事件或者接触断开)。接触/运动模块130从触敏表面接收接触数据。确定接触点的移动任选地包括确定接触点的速率(量值)、速度(量值和方向)和/或加速度(量值和/或方向的改变),所述接触点的移动由一系列接触数据表示。这些操作任选地被应用于单点接触(例如,单指接触)或者多点同时接触(例如,“多点触摸”/多个手指接触)。在一些实施方案中,接触/运动模块130和显示控制器156检测触控板上的接触。
在一些实施方案中,接触/运动模块130使用一组一个或多个强度阈值来确定操作是否已经由用户执行(例如,来确定用户是否已经“点击”图标)。在一些实施方案中,根据软件参数来确定强度阈值的至少一个子集(例如,强度阈值不是由特定物理致动器的激活阈值来确定的,并且可在不改变设备100的物理硬件的情况下被调节)。例如,在不改变触控板或触摸屏显示器硬件的情况下,触控板或触摸屏的鼠标“点击”阈值可被设定成预定义的阈值的大范围中的任一个阈值。另外,在一些具体实施中,向设备的用户提供用于调节一组强度阈值中的一个或多个强度阈值(例如,通过调节各个强度阈值和/或通过利用对“强度”参数的系统级点击来一次调节多个强度阈值)的软件设置。
接触/运动模块130任选地检测由用户进行的手势输入。触敏表面上的不同手势具有不同的接触模式(例如,所检测到的接触的不同运动、计时和/或强度)。因此,任选地通过检测特定接触模式来检测手势。例如,检测手指轻击手势包括检测手指按下事件,然后在与手指按下事件相同的位置(或基本上相同的位置)处(例如,在图标的位置处)检测手指抬起(抬离)事件。作为另一个示例,在触敏表面上检测手指轻扫手势包括检测手指按下事件,然后检测一个或多个手指拖动事件,并且随后检测手指抬起(抬离)事件。
图形模块132包括用于在触摸屏112或其他显示器上呈现和显示图形的各种已知的软件组件,包括用于改变所显示的图形的视觉冲击(例如,亮度、透明度、饱和度、对比度或其他视觉属性)的部件。如本文所用,术语“图形”包括可被显示给用户的任何对象,其非限制性地包括文本、网页、图标(诸如包括软键的用户界面对象)、数字图像、视频、动画等。
在一些实施方案中,图形模块132存储表示待使用的图形的数据。每个图形任选地被分配有对应的代码。图形模块132从应用程序等接收用于指定待显示的图形的一个或多个代码,在必要的情况下还一起接收坐标数据和其他图形属性数据,并且然后生成屏幕图像数据,以输出至显示控制器156。
触觉反馈模块133包括用于生成指令的各种软件组件,这些指令由触觉输出发生器167用于响应于用户与设备100的交互而在设备100上的一个或多个位置处产生触觉输出。
任选地作为图形模块132的部件的文本输入模块134提供用于在各种应用程序(例如,联系人137、电子邮件140、即时消息141、浏览器147和需要文本输入的任何其他应用程序)中输入文本的软键盘。
GPS模块135确定设备的位置,并且提供该信息以供在各种应用程序中使用(例如,提供给电话138以供在基于位置的拨号中使用;提供给相机143作为图片/视频元数据;以及提供给提供基于位置的服务的应用,诸如天气桌面小程序、本地黄页桌面小程序和地图/导航桌面小程序)。
应用程序136任选地包括以下模块(或指令集)或者其子组或超集:
·联系人模块137(有时称为通讯录或联系人列表);
·电话模块138;
·视频会议模块139;
·电子邮件客户端模块140;
·即时消息(IM)模块141;
·健身支持模块142;
·用于静态图像和/或视频图像的相机模块143;
·图像管理模块144;
·视频播放器模块;
·音乐播放器模块;
·浏览器模块147;
·日历模块148;
·桌面小程序模块149,其任选地包括以下各项中的一者或多者:天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4、词典桌面小程序149-5、和由用户获取的其他桌面小程序、以及用户创建的桌面小程序149-6;
·用于形成用户创建的桌面小程序149-6的桌面小程序创建器模块150;
·搜索模块151;
·视频和音乐播放器模块152,其合并视频播放器模块和音乐播放器模块;
·记事本模块153;
·地图模块154;以及/或者
·在线视频模块155。
任选地被存储在存储器102中的其他应用程序136的示例包括其他文字处理应用程序、其他图像编辑应用程序、绘图应用程序、展示应用程序、支持JAVA的应用程序、加密、数字权益管理、语音识别和语音复制。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,联系人模块137任选地用于管理通讯录或联系人列表(例如,存储在存储器102或存储器370中的联系人模块137的应用程序内部状态192中),包括:向通讯录添加姓名;从通讯录删除姓名;将电话号码、电子邮件地址、物理地址或其他信息与姓名关联;将图像与姓名关联;对姓名进行归类和分类;提供电话号码或电子邮件地址来发起和/或促进通过电话138、视频会议模块139、电子邮件140或IM 141进行的通信;等等。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电话模块138任选地用于输入与电话号码对应的字符序列、访问联系人模块137中的一个或多个电话号码、修改已输入的电话号码、拨打相应的电话号码、进行会话,以及当会话完成时断开或挂断。如上所述,无线通信任选地使用多种通信标准、协议和技术中的任一种。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132、文本输入模块134、联系人模块137和电话模块138,视频会议模块139包括根据用户指令来发起、执行和终止用户与一个或多个其他参与方之间的视频会议的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电子邮件客户端模块140包括响应于用户指令来创建、发送、接收和管理电子邮件的可执行指令。结合图像管理模块144,电子邮件客户端模块140使得非常容易创建和发送具有由相机模块143拍摄的静态图像或视频图像的电子邮件。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,即时消息模块141包括用于以下操作的可执行指令:输入与即时消息对应的字符序列、修改先前输入的字符、传输相应的即时消息(例如,使用短消息服务(SMS)或多媒体消息服务(MMS)协议以用于基于电话的即时消息或者使用XMPP、SIMPLE或IMPS以用于基于互联网的即时消息)、接收即时消息以及查看所接收的即时消息。在一些实施方案中,所传输和/或接收的即时消息任选地包括图形、照片、音频文件、视频文件和/或MMS和/或增强消息服务(EMS)中所支持的其他附件。如本文所用,“即时消息”是指基于电话的消息(例如,使用SMS或MMS发送的消息)和基于互联网的消息(例如,使用XMPP、SIMPLE或IMPS发送的消息)两者。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135、地图模块154和音乐播放器模块,健身支持模块142包括创建健身(例如,具有时间、距离和/或卡路里燃烧目标)的可执行指令;与健身传感器(运动设备)进行通信;接收健身传感器数据;校准用于监视健身的传感器;为健身选择和播放音乐;以及显示、存储和传输健身数据。
结合触摸屏112、显示控制器156、光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132和图像管理模块144,相机模块143包括可执行指令以捕获静态图像或视频(包括视频流)并且将其存储在存储器102中;修改静态图像或视频的特性;或从存储器102中删除静态图像或视频。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和相机模块143,图像管理模块144包括用于排列、修改(例如,编辑)、或以其他方式操控、加标签、删除、呈现(例如,在数字幻灯片或相册中)以及存储静态图像和/或视频图像的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,浏览器模块147包括根据用户指令来浏览互联网(包括搜索、链接至、接收和显示网页或其部分,以及链接至网页的附件和其他文件)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、电子邮件客户端模块140和浏览器模块147,日历模块148包括根据用户指令来创建、显示、修改和存储日历以及与日历相关联的数据(例如,日历条目、待办事项等)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序模块149为任选地由用户下载和使用的微型应用程序(例如,天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4和词典桌面小程序149-5)或由用户创建的微型应用程序(例如,用户创建的桌面小程序149-6)。在一些实施方案中,桌面小程序包括HTML(超文本标记语言)文件、CSS(层叠样式表)文件和JavaScript文件。在一些实施方案中,桌面小程序包括XML(可扩展标记语言)文件和JavaScript文件(例如,Yahoo!桌面小程序)。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序创建器模块150任选地被用户用于创建桌面小程序(例如,将网页的用户指定部分转到桌面小程序中)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,搜索模块151包括根据用户指令在存储器102中搜索匹配一个或多个搜索条件(例如,一个或多个用户指定的搜索词)的文本、音乐、声音、图像、视频和/或其他文件的可执行指令。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108和浏览器模块147,视频和音乐播放器模块152包括允许用户下载和回放以一种或多种文件格式(诸如MP3或AAC文件)存储的所记录的音乐和其他声音文件的可执行指令,以及用于显示、呈现或以其他方式回放视频(例如,在触摸屏112上或在经由外部端口124连接的外部显示器上)的可执行指令。在一些实施方案中,设备100任选地包括MP3播放器诸如iPod(Apple Inc.的商标)的功能。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,记事本模块153包括根据用户指令来创建和管理记事本、待办事项等的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135和浏览器模块147,地图模块154任选地用于根据用户指令接收、显示、修改和存储地图以及与地图相关联的数据(例如,驾驶方向、与特定位置处或附近的商店及其他兴趣点有关的数据,以及其他基于位置的数据)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108、文本输入模块134、电子邮件客户端模块140和浏览器模块147,在线视频模块155包括允许用户访问、浏览、接收(例如,流式接收和/或下载)、回放(例如,在触摸屏上或在经由外部端口124连接的外部显示器上)、发送具有到特定在线视频的链接的电子邮件,以及以其他方式管理一种或多种文件格式诸如H.264的在线视频的指令。在一些实施方案中,使用即时消息模块141而不是电子邮件客户端模块140来发送特定在线视频的链接。在线视频应用程序的其他描述可见于2007年6月20日提交的名称为“PortableMultifunction Device,Method,and Graphical User Interface for Playing OnlineVideos”的美国临时专利申请No.60/936,562和2007年12月31日提交的名称为“PortableMultifunction Device,Method,and Graphical User Interface for Playing OnlineVideos”的美国专利申请No.11/968,067,这两个专利申请的内容据此全文以引用方式并入本文。
上述模块和应用程序中的每一者与用于执行上文描述的一种或多种功能以及在本申请中描述的方法(例如,本文所述的计算机实现的方法和其他信息处理方法)的一组可执行指令对应。这些模块(例如,指令集)不必以独立的软件程序、过程或模块实现,因此这些模块的各种子集任选地在各种实施方案中组合或以其他方式重新布置。例如,视频播放器模块任选地与音乐播放器模块组合成单个模块(例如,图1A中的视频和音乐播放器模块152)。在一些实施方案中,存储器102任选地存储上述模块和数据结构的子组。此外,存储器102任选地存储上文未描述的另外的模块和数据结构。
在一些实施方案中,设备100是唯一地通过触摸屏和/或触控板来执行其上预定义的一组功能的操作的设备。通过使用触摸屏和/或触控板作为用于操作设备100的主要输入控制设备,任选地减少设备100上的物理输入控制设备(例如,下压按钮、拨盘等等)的数量。
唯一地通过触摸屏和/或触控板执行的该预定义的一组功能任选地包括用户界面之间的导航。在一些实施方案中,触控板在被用户触摸时将设备100从设备100上显示的任何用户界面导航到主菜单、home菜单或根菜单。在此类实施方案中,使用触控板来实现“菜单按钮”。在一些其他实施方案中,菜单按钮是物理下压按钮或者其他物理输入控制设备,而不是触控板。
图1B为示出根据一些实施方案的用于事件处理的示例性部件的框图。在一些实施方案中,存储器102(图1A)或存储器370(图3)包括事件分类器170(例如,在操作系统126中)以及相应的应用程序136-1(例如,前述应用程序137至151、155、380至390中的任一个应用程序)。
事件分类器170接收事件信息并且确定要将事件信息递送到的应用程序136-1和应用程序136-1的应用程序视图191。事件分类器170包括事件监视器171和事件分配器模块174。在一些实施方案中,应用程序136-1包括应用程序内部状态192,该应用程序内部状态指示当应用程序是活动的或正在执行时被显示在触敏显示器112上的一个或多个当前应用程序视图。在一些实施方案中,设备/全局内部状态157被事件分类器170用来确定哪个(哪些)应用程序当前是活动的,并且应用程序内部状态192被事件分类器170用来确定要将事件信息递送到的应用程序视图191。
在一些实施方案中,应用程序内部状态192包括另外的信息,诸如以下各项中的一者或多者:当应用程序136-1恢复执行时将被使用的恢复信息、指示正被应用程序136-1显示的信息或准备好用于被该应用程序显示的信息的用户界面状态信息、用于使得用户能够返回到应用程序136-1的前一状态或视图的状态队列,以及用户采取的先前动作的重复/撤销队列。
事件监视器171从外围设备接口118接收事件信息。事件信息包括关于子事件(例如,触敏显示器112上的用户触摸,作为多点触摸手势的一部分)的信息。外围设备接口118传输其从I/O子系统106或传感器诸如接近传感器166、一个或多个加速度计168和/或麦克风113(通过音频电路110)接收的信息。外围设备接口118从I/O子系统106接收的信息包括来自触敏显示器112或触敏表面的信息。
在一些实施方案中,事件监视器171以预先确定的间隔将请求发送到外围设备接口118。作为响应,外围设备接口118传输事件信息。在其他实施方案中,外围设备接口118仅当存在显著事件(例如,接收到高于预先确定的噪声阈值和/或接收到超过预先确定的持续时间的输入)时才传输事件信息。
在一些实施方案中,事件分类器170还包括命中视图确定模块172和/或活动事件识别器确定模块173。
当触敏显示器112显示多于一个视图时,命中视图确定模块172提供用于确定子事件已在一个或多个视图内的何处发生的软件过程。视图由用户能够在显示器上看到的控件和其他元素构成。
与应用程序相关联的用户界面的另一方面为一组视图,本文中有时也被称为应用程序视图或用户界面窗口,在其中显示信息并且发生基于触摸的手势。在其中检测到触摸的(相应应用程序的)应用程序视图任选地对应于在应用程序的程序化或视图分级结构内的程序化水平。例如,在其中检测到触摸的最低水平视图任选地被称为命中视图,并且被识别为正确输入的事件集任选地至少部分地基于初始触摸的命中视图来确定,所述初始触摸开始基于触摸的手势。
命中视图确定模块172接收与基于触摸的手势的子事件相关的信息。当应用程序具有以分级结构组织的多个视图时,命中视图确定模块172将命中视图识别为应当对子事件进行处理的分级结构中的最低视图。在大多数情况下,命中视图是发起子事件(例如,形成事件或潜在事件的子事件序列中的第一子事件)在其中发生的最低水平视图。一旦命中视图被命中视图确定模块172识别,命中视图便通常接收与其被识别为命中视图所针对的同一触摸或输入源相关的所有子事件。
活动事件识别器确定模块173确定视图分级结构内的哪个或哪些视图应当接收特定的子事件序列。在一些实施方案中,活动事件识别器确定模块173确定仅命中视图应接收特定子事件序列。在其他实施方案中,活动事件识别器确定模块173确定包括子事件的物理位置的所有视图是活跃参与的视图,并因此确定所有活跃参与的视图都应接收特定子事件序列。在其他实施方案中,即使触摸子事件完全被局限到与一个特定视图相关联的区域,分级结构中的较高视图将仍然保持为活跃参与的视图。
事件分配器模块174将事件信息分配到事件识别器(例如,事件识别器180)。在包括活动事件识别器确定模块173的实施方案中,事件分配器模块174将事件信息递送到由活动事件识别器确定模块173确定的事件识别器。在一些实施方案中,事件分配器模块174在事件队列中存储事件信息,该事件信息由相应事件接收器182进行检索。
在一些实施方案中,操作系统126包括事件分类器170。另选地,应用程序136-1包括事件分类器170。在又一个实施方案中,事件分类器170是独立模块,或者是存储在存储器102中的另一个模块(诸如,接触/运动模块130)的一部分。
在一些实施方案中,应用程序136-1包括多个事件处理程序190和一个或多个应用程序视图191,其中每一者包括用于处理发生在应用程序的用户界面的相应视图内的触摸事件的指令。应用程序136-1的每个应用程序视图191包括一个或多个事件识别器180。通常,相应应用程序视图191包括多个事件识别器180。在其他实施方案中,事件识别器180中的一个或多个事件识别器是独立模块的一部分,该独立模块为诸如用户界面工具包或应用程序136-1从中继承方法和其他属性的更高级别的对象。在一些实施方案中,相应事件处理程序190包括以下各项中的一者或多者:数据更新器176、对象更新器177、GUI更新器178、和/或从事件分类器170接收的事件数据179。事件处理程序190任选地利用或调用数据更新器176、对象更新器177或GUI更新器178来更新应用程序内部状态192。另选地,应用程序视图191中的一个或多个应用程序视图包括一个或多个相应事件处理程序190。另外,在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178中的一者或多者被包括在相应应用程序视图191中。
相应的事件识别器180从事件分类器170接收事件信息(例如,事件数据179),并且根据该事件信息识别事件。事件识别器180包括事件接收器182和事件比较器184。在一些实施方案中,事件识别器180还包括元数据183和事件传递指令188(其任选地包括子事件递送指令)的至少一个子集。
事件接收器182从事件分类器170接收事件信息。事件信息包括关于子事件例如触摸或触摸移动的信息。根据子事件,事件信息还包括附加信息,诸如子事件的位置。当子事件涉及触摸的运动时,事件信息任选地还包括子事件的速率和方向。在一些实施方案中,事件包括设备从一个取向旋转到另一取向(例如,从纵向取向旋转到横向取向,或反之亦然),并且事件信息包括关于设备的当前取向(也被称为设备姿态)的对应信息。
事件比较器184将事件信息与预定义的事件或子事件定义进行比较,并且基于该比较来确定事件或子事件,或者确定或更新事件或子事件的状态。在一些实施方案中,事件比较器184包括事件定义186。事件定义186包含事件的定义(例如,预定义的子事件序列),例如事件1(187-1)、事件2(187-2)以及其他。在一些实施方案中,事件(187)中的子事件例如包括触摸开始、触摸结束、触摸移动、触摸取消和多点触摸。在一个示例中,事件1(187-1)的定义是被显示对象上的双击。例如,双击包括被显示对象上的预先确定时长的第一触摸(触摸开始)、预先确定时长的第一抬离(触摸结束)、被显示对象上的预先确定时长的第二触摸(触摸开始)以及预先确定时长的第二抬离(触摸结束)。在另一个示例中,事件2(187-2)的定义是被显示对象上的拖动。例如,拖动包括被显示对象上的预先确定时长的触摸(或接触)、触摸在触敏显示器112上的移动、以及触摸的抬离(触摸结束)。在一些实施方案中,事件还包括用于一个或多个相关联的事件处理程序190的信息。
在一些实施方案中,事件定义187包括用于相应用户界面对象的事件的定义。在一些实施方案中,事件比较器184执行命中测试以确定哪个用户界面对象与子事件相关联。例如,在触敏显示器112上显示三个用户界面对象的应用程序视图中,当在触敏显示器112上检测到触摸时,事件比较器184执行命中测试以确定这三个用户界面对象中的哪一个用户界面对象与该触摸(子事件)相关联。如果每个所显示对象与相应事件处理程序190相关联,则事件比较器使用该命中测试的结果来确定哪个事件处理程序190应当被激活。例如,事件比较器184选择与子事件和触发该命中测试的对象相关联的事件处理程序。
在一些实施方案中,相应事件(187)的定义还包括延迟动作,该延迟动作延迟事件信息的递送直到已确定子事件序列是对应于还是不对应于事件识别器的事件类型。
当相应事件识别器180确定子事件系列不与事件定义186中的任何事件匹配时,该相应事件识别器180进入事件不可能、事件失败或事件结束状态,在此之后忽略基于触摸的手势的后续子事件。在这种情况下,对于命中视图保持活动的其他事件识别器(如果有的话)继续跟踪并处理持续进行的基于触摸的手势的子事件。
在一些实施方案中,相应事件识别器180包括元数据183,该元数据具有指示事件递送系统应该如何执行对活跃参与的事件识别器的子事件递送的可配置属性、标记和/或列表。在一些实施方案中,元数据183包括指示事件识别器彼此如何交互或如何能够交互的可配置属性、标志和/或列表。在一些实施方案中,元数据183包括指示子事件是否递送到视图或程序化分级结构中的不同层级的可配置属性、标志和/或列表。
在一些实施方案中,当事件的一个或多个特定的子事件被识别时,相应的事件识别器180激活与事件相关联的事件处理程序190。在一些实施方案中,相应事件识别器180将与事件相关联的事件信息递送到事件处理程序190。激活事件处理程序190不同于将子事件发送(和延期发送)到相应命中视图。在一些实施方案中,事件识别器180抛出与所识别的事件相关联的标记,并且与该标记相关联的事件处理程序190获取该标记并执行预定义过程。
在一些实施方案中,事件递送指令188包括递送关于子事件的事件信息而不激活事件处理程序的子事件递送指令。相反,子事件递送指令将事件信息递送到与子事件序列相关联的事件处理程序或者递送到活跃参与的视图。与子事件序列或与活跃参与的视图相关联的事件处理程序接收事件信息并执行预先确定的过程。
在一些实施方案中,数据更新器176创建和更新在应用程序136-1中使用的数据。例如,数据更新器176对联系人模块137中所使用的电话号码进行更新,或者对视频播放器模块中所使用的视频文件进行存储。在一些实施方案中,对象更新器177创建并更新在应用程序136-1中使用的对象。例如,对象更新器177创建新的用户界面对象或更新用户界面对象的位置。GUI更新器178更新GUI。例如,GUI更新器178准备显示信息,并且将显示信息发送到图形模块132用以显示在触敏显示器上。
在一些实施方案中,事件处理程序190包括数据更新器176、对象更新器177和GUI更新器178,或者具有对该数据更新器、对象更新器和GUI更新器的访问权限。在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178被包括在相应应用程序136-1或应用程序视图191的单个模块中。在其他实施方案中,它们被包括在两个或更多个软件模块中。
应当理解,上述关于触敏显示器上的用户触摸的事件处理的论述还适用于用输入设备来操作多功能设备100的其他形式的用户输入,并不是所有用户输入都是在触摸屏上发起的。例如,任选地与单次或多次键盘按下或按住协作的鼠标移动和鼠标按钮按下;触控板上的接触移动,诸如轻击、拖动、滚动等;触笔输入;设备的移动;口头指令;检测到的眼睛移动;生物特征输入;和/或它们的任何组合任选地被用作对应于限定要识别的事件的子事件的输入。
图2示出了根据一些实施方案的具有触摸屏112的便携式多功能设备100。触摸屏任选地在用户界面(UI)200内显示一个或多个图形。在本实施方案以及下文所述的其他实施方案中,用户能够通过例如利用一根或多根手指202(在图中未按比例绘制)或一支或多支触笔203(在图中未按比例绘制)在图形上作出手势来选择这些图形中的一个或多个图形。在一些实施方案中,当用户中断与一个或多个图形的接触时,将发生对一个或多个图形的选择。在一些实施方案中,手势任选地包括一次或多次轻击、一次或多次轻扫(从左向右、从右向左、向上和/或向下)和/或已与设备100发生接触的手指的滚动(从右向左、从左向右、向上和/或向下)。在一些具体实施中或在一些情况下,不经意地与图形接触不会选择图形。例如,当与选择对应的手势是轻击时,在应用程序图标上方扫动的轻扫手势任选地不会选择对应的应用程序。
设备100任选地还包括一个或多个物理按钮,诸如“home”或菜单按钮204。如前所述,菜单按钮204任选地用于导航到任选地在设备100上被执行的一组应用程序中的任何应用程序136。另选地,在一些实施方案中,菜单按钮被实现为被显示在触摸屏112上的GUI中的软键。
在一些实施方案中,设备100包括触摸屏112、菜单按钮204、用于使设备开机/关机和用于锁定设备的下压按钮206、音量调节按钮208、用户身份模块(SIM)卡槽210、耳麦插孔212和对接/充电外部端口124。下压按钮206任选地用于通过压下该按钮并且将该按钮保持在压下状态持续预定义的时间间隔来对设备进行开/关机;通过压下该按钮并在该预定义的时间间隔过去之前释放该按钮来锁定设备;和/或对设备进行解锁或发起解锁过程。在另选的实施方案中,设备100还通过麦克风113接受用于激活或去激活某些功能的语音输入。设备100还任选地包括用于检测触摸屏112上的接触的强度的一个或多个接触强度传感器165,和/或用于为设备100的用户生成触觉输出的一个或多个触觉输出发生器167。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。设备300不必是便携式的。在一些实施方案中,设备300是膝上型电脑、台式计算机、平板电脑、多媒体播放器设备、导航设备、教育设备(诸如儿童学习玩具)、游戏系统或控制设备(例如,家用控制器或工业用控制器)。设备300通常包括一个或多个处理单元(CPU)310、一个或多个网络或其他通信接口360、存储器370和用于使这些部件互连的一条或多条通信总线320。通信总线320任选地包括使系统部件互连并且控制系统部件之间的通信的电路(有时称作芯片组)。设备300包括具有显示器340的输入/输出(I/O)接口330,该显示器通常是触摸屏显示器。I/O接口330还任选地包括键盘和/或鼠标(或其他指向设备)350和触控板355、用于在设备300上生成触觉输出的触觉输出发生器357(例如,类似于上文参考图1A所述的触觉输出发生器167)、传感器359(例如,光学传感器、加速度传感器、接近传感器、触敏传感器和/或接触强度传感器(类似于上文参考图1A所述的接触强度传感器165))。存储器370包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM,或其他随机存取固态存储器设备;并且任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器370任选地包括远离CPU 310定位的一个或多个存储设备。在一些实施方案中,存储器370存储与便携式多功能设备100(图1A)的存储器102中存储的程序、模块和数据结构类似的程序、模块和数据结构或其子集。此外,存储器370任选地存储在便携式多功能设备100的存储器102中不存在的附加程序、模块和数据结构。例如,设备300的存储器370任选地存储绘图模块380、呈现模块382、文字处理模块384、网站创建模块386、盘编辑模块388、和/或电子表格模块390,而便携式多功能设备100(图1A)的存储器102任选地不存储这些模块。
图3中的上述元素中的每个元素任选地存储于先前提到的存储器设备的一个或多个存储器设备中。上述模块中的每个模块对应于用于执行上述功能的指令集。上述模块或程序(例如,指令集)不必被实现为单独的软件程序、过程或模块,并且因此这些模块的各种子集任选地在各种实施方案中被组合或以其他方式重新布置。在一些实施方案中,存储器370任选地存储上述模块和数据结构的子组。此外,存储器370任选地存储上文未描述的附加模块和数据结构。
现在将注意力转到可在例如便携式多功能设备100上实现的用户界面的实施方案。
图4A示出了根据一些实施方案的便携式多功能设备100上的应用程序的菜单的示例性用户界面。类似的用户界面任选地在设备300上实现。在一些实施方案中,用户界面400包括以下元件或者其子集或超集:
·无线通信诸如蜂窝信号和Wi-Fi信号的信号强度指示符402;
·时间404;
·蓝牙指示符405;
·电池状态指示符406;
·具有针对常用应用程序的图标的托盘408,该图标诸如:
ο电话模块138的被标记为“电话”的图标416,该图标416任选地包括未接来电或语音留言的数量的指示符414;
ο电子邮件客户端模块140的被标记为“邮件”的图标418,该图标418任选地包括未读电子邮件的数量的指示符410;
ο浏览器模块147的标记为“浏览器”的图标420;以及
ο视频和音乐播放器模块152(也称为iPod(苹果公司(Apple Inc.)的商标)模块152)的被标记为“iPod”的图标422;以及
·其他应用的图标,诸如:
οIM模块141的被标记为“消息”的图标424;
ο日历模块148的被标记为“日历”的图标426;
ο图像管理模块144的被标记为“照片”的图标428;
ο相机模块143的被标记为“相机”的图标430;
ο在线视频模块155的被标记为“在线视频”的图标432;
ο股市桌面小程序149-2的被标记为“股市”的图标434;
ο地图模块154的被标记为“地图”的图标436;
ο天气桌面小程序149-1的被标记为“天气”的图标438;
ο闹钟桌面小程序149-4的被标记为“时钟”的图标440;
ο健身支持模块142的被标记为“健身支持”的图标442;
ο记事本模块153的标记为“记事本”的图标444;以及
ο设置应用程序或模块的被标记为“设置”的图标446,该图标提供对设备100及其各种应用程序136的设置的访问。
应当指出的是,图4A中示出的图标标签仅是示例性的。例如,视频和音乐播放器模块152的图标422被标记“音乐”或“音乐播放器”。对于各种应用程序图标任选地使用其他标签。在一些实施方案中,相应应用程序图标的标签包括与该相应应用程序图标对应的应用程序的名称。在一些实施方案中,特定应用程序图标的标签不同于与该特定应用程序图标对应的应用程序的名称。
图4B示出了具有与显示器450(例如,触摸屏显示器112)分开的触敏表面451(例如,图3的平板电脑或触控板355)的设备(例如,图3的设备300)上的示例性用户界面。设备300还任选地包括用于检测触敏表面451上的接触的强度的一个或多个接触强度传感器(例如,传感器359中的一个或多个传感器)和/或用于为设备300的用户生成触觉输出的一个或多个触觉输出发生器357。
尽管将参考触摸屏显示器112(其中组合了触敏表面和显示器)上的输入随后给出示例中的一些示例,但是在一些实施方案中,设备检测与显示器分开的触敏表面上的输入,如图4B中所示。在一些实施方案中,触敏表面(例如,图4B中的451)具有与显示器(例如,450)上的主轴(例如,图4B中的453)对应的主轴(例如,图4B中的452)。根据这些实施方案,设备检测在与显示器上的相应位置对应的位置(例如,在图4B中,460对应于468并且462对应于470)处与触敏表面451的接触(例如,图4B中的460和462)。这样,当触敏表面(例如,图4B中的451)与多功能设备的显示器(例如,图4B中的450)分开时,由设备在该触敏表面上检测到的用户输入(例如,接触460和462以及它们的移动)被该设备用于操纵该显示器上的用户界面。应当理解,类似的方法任选地用于本文所述的其他用户界面。
另外,虽然主要参考手指输入(例如,手指接触、手指轻击手势、手指轻扫手势)给出以下示例,但应当理解,在一些实施方案中,这些手指输入中的一个或多个手指输入被来自另一个输入设备的输入(例如,基于鼠标的输入或触笔输入)替换。例如,轻扫手势任选地由鼠标点击(例如,而不是接触),之后是光标沿着轻扫的路径的移动(例如,而不是接触的移动)替代。又如,轻击手势任选地由在光标位于轻击手势的位置上方时的鼠标点击(例如,代替对接触的检测,之后是停止检测接触)替代。类似地,当同时检测到多个用户输入时,应当理解的是,多个计算机鼠标任选地被同时使用,或鼠标和手指接触任选地被同时使用。
图5A示出了示例性个人电子设备500。设备500包括主体502。在一些实施方案中,设备500可包括相对于设备100和300(例如,图1A至图4B)所述的特征中的一些或全部特征。在一些实施方案中,设备500具有在下文中称为触摸屏504的触敏显示屏504。作为触摸屏504的替代或补充,设备500具有显示器和触敏表面。与设备100和300的情况一样,在一些实施方案中,触摸屏504(或触敏表面)任选地包括用于检测所施加的接触(例如,触摸)强度的一个或多个强度传感器。触摸屏504(或触敏表面)的一个或多个强度传感器可提供表示触摸的强度的输出数据。设备500的用户界面可基于触摸的强度来对触摸作出响应,这意味着不同强度的触摸可调用设备500上的不同用户界面操作。
用于检测和处理触摸强度的示例性技术见于例如以下相关专利申请中:2013年5月8日提交的名称为“Device,Method,and Graphical User Interface for DisplayingUser Interface Objects Corresponding to an Application”的国际专利申请序列号PCT/US2013/040061,公布为WIPO专利公开号WO/2013/169849;以及2013年11月11日提交的名称为“Device,Method,and Graphical User Interface for Transitioning BetweenTouch Input to Display Output Relationships”的国际专利申请序列号PCT/US2013/069483,公布为WIPO专利公开号WO/2014/105276,以上国际专利申请中的每一者据此全文以引用方式并入。
在一些实施方案中,设备500具有一个或多个输入机构506和508。输入机构506和508(如果包括的话)可以是物理形式的。物理输入机构的示例包括下压按钮和可旋转机构。在一些实施方案中,设备500具有一个或多个附接机构。此类附接机构(如果包括的话)可允许将设备500与例如帽子、眼镜、耳环、项链、衬衣、夹克、手镯、表带、手链、裤子、皮带、鞋子、钱包、背包等附接。这些附接机构允许用户穿戴设备500。
图5B示出了示例性个人电子设备500。在一些实施方案中,设备500可包括参考图1A、图1B和图3所述的部件中的一些或全部部件。设备500具有总线512,该总线将I/O部分514与一个或多个计算机处理器516和存储器518操作性地耦接。I/O部分514可连接到显示器504,该显示器可具有触敏部件522并且任选地具有强度传感器524(例如,接触强度传感器)。此外,I/O部分514可与通信单元530连接,用于使用Wi-Fi、蓝牙、近场通信(NFC)、蜂窝和/或其他无线通信技术来接收应用程序和操作系统数据。设备500可包括输入机构506和/或508。例如,输入机构506任选地是可旋转输入设备或者可按压输入设备以及可旋转输入设备。在一些示例中,输入机构508任选地是按钮。
在一些示例中,输入机构508任选地为麦克风。个人电子设备500任选地包括各种传感器,诸如GPS传感器532、加速度计534、定向传感器540(例如,罗盘)、陀螺仪536、运动传感器538和/或其组合,所有这些设备均可操作地连接到I/O部分514。
个人电子设备500的存储器518可包括用于存储计算机可执行指令的一个或多个非暂态计算机可读存储介质,当这些计算机可执行指令由一个或多个计算机处理器516执行时,例如可使得计算机处理器执行下文所述的技术,包括过程700、900和1100(图7A至图7B、图9A至图9B和图11)。计算机可读存储介质可以是可有形地包含或存储计算机可执行指令以供指令执行系统、装置和设备使用或与其结合的任何介质。在一些实施例中,存储介质是暂态计算机可读存储介质。在一些实施例中,存储介质是非暂态计算机可读存储介质。非暂态计算机可读存储介质可包括但不限于磁存储装置、光学存储装置、和/或半导体存储装置。此类存储装置的示例包括磁盘、基于CD、DVD或蓝光技术的光盘,以及持久性固态存储器诸如闪存、固态驱动器等。个人电子设备500不限于图5B的部件和配置,而是可包括多种配置中的其他部件或附加部件。
如本文所用,术语“示能表示”是指任选地在设备100、300和/或500(图1A、图3和图5A至图5B)的显示屏上显示的用户交互式图形用户界面对象。例如,图像(例如,图标)、按钮和文本(例如,超链接)任选地各自构成示能表示。
如本文所用,术语“焦点选择器”是指指示用户正在与之进行交互的用户界面的当前部分的输入元件。在包括光标或其他位置标记的一些具体实施中,光标充当“焦点选择器”,使得当光标在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)上方时在触敏表面(例如,图3中的触控板355或图4B中的触敏表面451)上检测到输入(例如,按压输入)的情况下,该特定用户界面元素根据所检测到的输入而被调节。在包括能够实现与触摸屏显示器上的用户界面元素的直接交互的触摸屏显示器(例如,图1A中的触敏显示器系统112或图4A中的触摸屏112)的一些具体实施中,在触摸屏上所检测到的接触充当“焦点选择器”,使得当在触摸屏显示器上在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)的位置处检测到输入(例如,由接触进行的按压输入)时,该特定用户界面元素根据所检测到的输入而被调节。在一些具体实施中,焦点从用户界面的一个区域移动到用户界面的另一个区域,而无需光标的对应移动或触摸屏显示器上的接触的移动(例如,通过使用制表键或箭头键将焦点从一个按钮移动到另一个按钮);在这些具体实施中,焦点选择器根据焦点在用户界面的不同区域之间的移动而移动。不考虑焦点选择器所采取的具体形式,焦点选择器通常是由用户控制的以便递送与用户界面的用户预期的交互(例如,通过向设备指示用户界面的用户期望与其进行交互的元素)的用户界面元素(或触摸屏显示器上的接触)。例如,在触敏表面(例如,触控板或触摸屏)上检测到按压输入时,焦点选择器(例如,光标、接触或选择框)在相应按钮上方的位置将指示用户期望激活相应按钮(而不是设备显示器上示出的其他用户界面元素)。
如说明书和权利要求中所使用的那样,接触的“特征强度”这一术语是指基于接触的一个或多个强度的接触的特征。在一些实施方案中,特征强度基于多个强度样本。特征强度任选地基于相对于预定义事件(例如,在检测到接触之后,在检测到接触抬离之前,在检测到接触开始移动之前或之后,在检测到接触结束之前,在检测到接触的强度增大之前或之后和/或在检测到接触的强度减小之前或之后)而言在预先确定的时间段(例如,0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒)期间采集的预定义数量的强度样本或一组强度样本。接触的特征强度任选地基于以下各项中的一者或多者:接触的强度的最大值、接触的强度的均值、接触的强度的平均值、接触的强度的前10%处的值、接触的强度的半最大值、接触的强度的90%最大值等。在一些实施方案中,在确定特征强度时使用接触的持续时间(例如,在特征强度是接触的强度在时间上的平均值时)。在一些实施方案中,将特征强度与一组一个或多个强度阈值进行比较,以确定用户是否已执行操作。例如,该组一个或多个强度阈值任选地包括第一强度阈值和第二强度阈值。在该示例中,特征强度未超过第一阈值的接触导致第一操作,特征强度超过第一强度阈值但未超过第二强度阈值的接触导致第二操作,而特征强度超过第二阈值的接触导致第三操作。在一些实施方案中,使用特征强度与一个或多个阈值之间的比较来确定是否要执行一个或多个操作(例如,是执行相应操作还是放弃执行相应操作)而不是用于确定执行第一操作还是第二操作。
在一些实施方案中,识别手势的一部分以用于确定特征强度。例如,触敏表面任选地接收连续的轻扫接触,该连续的轻扫接触从起始位置过渡并到达结束位置,在该结束位置处,接触强度增加。在该示例中,接触在结束位置处的特征强度任选地仅基于连续轻扫接触的一部分,而不是整个轻扫接触(例如,仅结束位置处的轻扫接触的部分)。在一些实施方案中,在确定接触的特征强度之前任选地向轻扫接触的强度应用平滑算法。例如,平滑化算法任选地包括以下各项中的一种或多种:不加权滑动平均平滑化算法、三角平滑化算法、中值滤波器平滑化算法和/或指数平滑化算法。在一些情况下,这些平滑化算法消除了轻扫接触的强度中的窄的尖峰或凹陷,以实现确定特征强度的目的。
任选地相对于一个或多个强度阈值诸如接触检测强度阈值、轻按压强度阈值、深按压强度阈值和/或一个或多个其他强度阈值来表征触敏表面上的接触的强度。在一些实施方案中,轻按压强度阈值对应于这样的强度:在该强度下设备将执行通常与点击物理鼠标或触摸板的按钮相关联的操作。在一些实施方案中,深按压强度阈值对应于这样的强度:在该强度下设备将执行与通常与点击物理鼠标或触控板的按钮相关联的操作不同的操作。在一些实施方案中,当检测到特征强度低于轻按压强度阈值(例如,并且高于标称接触检测强度阈值,比标称接触检测强度阈值低的接触不再被检测到)的接触时,设备将根据接触在触敏表面上的移动来移动焦点选择器,而不执行与轻按压强度阈值或深按压强度阈值相关联的操作。一般来讲,除非另有陈述,否则这些强度阈值在不同组的用户界面附图之间是一致的。
接触的特征强度从低于轻按压强度阈值的强度增大到介于轻按压强度阈值与深按压强度阈值之间的强度有时被称为“轻按压”输入。接触特征强度从低于深按压强度阈值的强度增大到高于深按压强度阈值的强度有时被称为“深按压”输入。接触特征强度从低于接触检测强度阈值的强度增大到介于接触检测强度阈值与轻按压强度阈值之间的强度有时被称为检测到触摸表面上的接触。接触特征强度从高于接触检测强度阈值的强度减小到低于接触检测强度阈值的强度有时被称为检测到接触从触摸表面抬离。在一些实施方案中,接触检测强度阈值为零。在一些实施方案中,接触检测强度阈值大于零。
在本文所述的一些实施方案中,响应于检测到包括相应按压输入的手势或响应于检测到利用相应接触(或多个接触)执行的相应按压输入来执行一个或多个操作,其中至少部分地基于检测到该接触(或多个接触)的强度增大到高于按压输入强度阈值而检测到相应按压输入。在一些实施方案中,响应于检测到相应接触的强度增大到高于按压输入强度阈值(例如,相应按压输入的“向下冲程”)来执行相应操作。在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于按压输入强度阈值,并且响应于检测到相应接触的强度随后减小到低于按压输入阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。
在一些实施方案中,设备采用强度滞后以避免有时被称为“抖动”的意外输入,其中设备限定或选择与按压输入强度阈值具有预定义关系的滞后强度阈值(例如,滞后强度阈值比按压输入强度阈值低X个强度单位,或者滞后强度阈值为按压输入强度阈值的75%、90%或某个合理比例)。因此,在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于对应于按压输入强度阈值的滞后强度阈值,并且响应于检测到相应接触的强度随后减小到低于滞后强度阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。类似地,在一些实施方案中,仅在设备检测到接触强度从等于或低于滞后强度阈值的强度增大到等于或高于按压输入强度阈值的强度并且任选地接触强度随后减小到等于或低于滞后强度的强度时才检测到按压输入,并且响应于检测到按压输入(例如,根据环境,接触强度增大或接触强度减小)来执行相应操作。
为了便于解释,任选地,响应于检测到以下各种情况中的任一种情况而触发对响应于与按压输入强度阈值相关联的按压输入或响应于包括按压输入的手势而执行的操作的描述:接触的强度增大到高于按压输入强度阈值、接触的强度从低于滞后强度阈值的强度增大到高于按压输入强度阈值的强度、接触的强度减小到低于按压输入强度阈值和/或接触的强度减小到低于与按压输入强度阈值对应的滞后强度阈值。另外,在将操作描述为响应于检测到接触的强度减小到低于按压输入强度阈值而执行的示例中,任选地响应于检测到接触的强度减小到低于对应于并且小于按压输入强度阈值的滞后强度阈值来执行操作。
现在将注意力转到在电子设备(诸如便携式多功能设备100、设备300或设备500)上实现的用户界面(“UI”)以及相关联的过程的实施方案。
图6A至图6T示出了根据一些实施方案的用于调节模拟深度效果(例如,散景效果)的示例性用户界面。这些附图中的用户界面用于示出下文所述的过程,包括图7A至图7B中的过程。
图6A示出了电子设备600(例如,智能电话)的前视图600A和后视图600B。电子设备600包括显示器602(例如,与触敏表面集成)、输入设备604(例如,机械输入按钮、可按压输入按钮)、前向传感器606(例如,包括一个或多个前向相机)和后向传感器608(例如,包括一个或多个后向相机)。在一些实施方案中,电子设备600还包括一个或多个生物识别传感器(例如,指纹传感器、面部识别传感器、虹膜/视网膜扫描仪)。
电子设备600任选地还包括一个或多个深度相机传感器(例如,类似于参考图1A所述的一个或多个深度相机传感器175)。一个或多个深度相机传感器从环境接收数据以从视点(例如,深度相机传感器)创建场景内的对象(例如,面部)的三维模型。在一些实施方案中,结合成像模块(例如,类似于参考图1A所述的成像模块143,并且也被称为相机模块),一个或多个深度相机传感器任选地用于确定由成像模块捕获的图像的不同部分的深度图。在一些实施方案中,一个或多个深度相机传感器位于设备的前部,使得在用户在触摸屏显示器上查看其他视频会议参与者的同时任选地获取具有深度信息的用户图像用于视频会议,并且捕获具有深度图数据的自拍。在一些实施方案中,一个或多个深度相机传感器位于设备的后部,或者位于设备的后部和前部。在一些实施方案中,一个或多个深度相机传感器的位置可由用户改变(例如,通过旋转设备外壳中的透镜和传感器),使得深度相机传感器与触摸屏显示器一起使用以用于视频会议和静态图像和/或视频图像采集两者。在一些实施方案中,一个或多个深度相机传感器与前向相机606和/或后向相机608集成。
在一些实施方案中,深度图(例如,深度图图像)包含与场景中的对象与视点(例如,相机、光学传感器、深度相机传感器)的距离相关的信息(例如,值)。在深度图的一个实施方案中,每个深度像素限定视点的z轴中所述深度像素对应的二维像素所位于的位置。在一些实施方案中,深度图由像素组成,其中每个像素由值(例如,0到255)定义。例如,“0”值表示位于“三维”场景中距离视点(例如,相机、光学传感器、深度相机传感器)最远位置处的像素,并且“255”值表示位于最接近“三维”场景中的视点的像素。在其他实施方案中,深度图表示场景中的对象与视点的平面之间的距离。在一些实施方案中,深度图包括关于深度相机的视野中感兴趣对象的各种特征的相对深度的信息(例如,用户面部的眼睛、鼻部、嘴部、耳朵的相对深度)。在一些实施方案中,深度图包括使设备能够确定感兴趣对象在z方向上的轮廓的信息。
在图6A中,电子设备600在显示器602上显示用户界面610(例如,锁屏用户界面),该用户界面包括用于启动图像捕获应用程序(例如,相机应用程序、图像/照片捕获和编辑应用程序)的示能表示612。在显示用户界面610时,电子设备600(例如,经由显示器602的触敏表面)检测对示能表示612的激活601(例如,示能表示612上的轻击手势)。
在图6B中,响应于检测到激活601,电子设备600在显示器602上显示图像捕获应用程序的用户界面614。在该示例中,图像捕获应用程序处于照片模式。在显示图像捕获应用程序的用户界面614时,电子设备600经由后向相机608接收对应于后向相机608的视场内的环境的图像数据。在一些示例中,如果图像捕获应用程序处于与后向模式相对的前向模式,则电子设备600经由前向相机606接收对应于前向相机606的视场内的环境的图像数据。
电子设备600在图像捕获应用程序的用户界面614的图像显示区域616中显示经由后向相机608接收的图像数据的图像表示618。在该示例中,图像表示618包括被摄对象620(例如,包括人的面部和人的上身的至少一部分的人的视图)。在该示例中,图像表示618还包括发光对象622A(对应于真实环境中的真实发光对象)、发光对象622B(对应于真实环境中的真实发光对象)和发光对象622C(对应于真实环境中的真实发光对象)。在该示例中,图像表示618还包括非发光对象624(对应于真实环境中的真实非发光对象)。
图像捕获应用程序的用户界面614还包括第一菜单区域628A和第二菜单区域628B。第一菜单区域628A包括与调节图像效果和/或属性相关联的多个示能表示。第二菜单区域628B包括多个图像捕获模式选项(例如,照片模式、视频模式、人像模式、正方形模式、慢动作模式)。在图6B中,电子设备600(例如,经由显示器602的触敏表面)检测对应于人像模式的人像模式示能表示626的激活603。
在图6C中,响应于检测到人像模式示能表示626的激活603,电子设备600将图像捕获应用程序的当前图像捕获模式从照片模式改变为人像模式。在人像模式中,电子设备600在用户界面614的第一菜单区域628A中显示深度效果示能表示630(例如,用于通过调节模拟光圈数(也被称为光圈系数(f-stop)、f比例或焦比)来调节图像表示618的景深)。
此外,在人像模式中,电子设备600将模拟深度效果(例如,散景效果、具有默认的4.5的光圈数的景深效果)应用于在图像显示区域616中显示的图像表示618。在一些实施方案中,将模拟深度效果应用于图像表示618的背景,其中被摄对象620作为焦点。在一些实施方案中,基于被摄对象620内的焦点(例如,被摄对象620的面部的中心区域,诸如被摄对象620的鼻部)在整个图像表示618中应用模拟深度效果。
如图6C所示,在应用模拟深度效果的情况下,基于特定对象的一个或多个特性(例如,对象的类型,诸如对象是对应于发光对象还是对应于非发光对象、对象的形状、对象与焦点的距离)来调节图像表示618内的对象的景深属性。例如,相对于图像表示618中的非发光对象624,对图像表示618中的发光对象622A、622B和622C的景深属性进行更大的调节(例如,使得发光对象看起来比非发光对象更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。下面参考图8A至图8R的用户界面更详细地描述基于对象的一个或多个特性对对象的景深属性的调节。
在图6D中,当处于人像模式时,电子设备600(例如,经由显示器602的触敏表面)检测深度效果示能表示630的激活605(例如,深度效果示能表示630上的轻击手势)。在一些实施方案中,电子设备600在检测到深度效果示能表示的激活时改变该示能表示的视觉特性(例如,改变示能表示的颜色)。另选地,在图6E中,当处于人像模式时,电子设备600在图像显示区域616内(例如,经由显示器602的触敏表面)检测轻扫手势607(例如,竖直轻扫手势、向上轻扫手势)。
在图6F中,响应于检测到图像显示区域616上的深度效果示能表示630或轻扫手势607的激活605,电子设备600在用户界面614内使图像显示区域616向上移位(使得第一菜单区域628A变得在竖直方向上更窄并且第二菜单区域628B变得在竖直方向上更宽)以在第二菜单区域628B中显示深度调节滑块632。
深度调节滑块632包括对应于光圈数的多个刻度线634和指示当前选择的刻度线(以及因此当前选择的光圈数)的针636。深度调节滑块632还包括指示当前选择的光圈数的值的(例如,位于针636上方或与其相邻的)光圈数指示符638。如前所述,在一些实施方案中,默认光圈数为4.5。在一些实施方案中,除了在光圈数指示符638中显示当前光圈数之外,电子设备600还在深度效果示能表示630中显示当前光圈数。
在图6G中,在显示深度调节滑块632时,电子设备600(例如,经由显示器602的触敏表面)检测深度调节滑块632上(例如,在刻度线634上方)的轻扫手势609(例如,水平轻扫手势、向右轻扫手势)。在一些示例中,刻度线634响应于轻扫手势609而(水平地)移位,并且针636保持附连。在一些示例中,响应于深度调节滑块632上的轻扫手势,针636在附连的刻度线634上方移位。
在图6H中,响应于检测到轻扫手势609,电子设备600基于图像表示618(例如,被摄对象620的鼻部)的焦点来调节图像表示618内的对象(例如,发光对象622A、622B和622C,以及非发光对象624)的景深属性。
如光圈数指示符638(并且在一些实施方案中,也由深度效果示能表示630)所示,由于轻扫手势609,当前的光圈数(3.9)从先前的(默认)光圈数(4.5)减小。发光对象622A、622B和622C在图6H(具有3.9的光圈数)中相比在图6G(具有4.5的光圈数)中更模糊、更大、更亮、更饱和并且/或者具有更失真的形状,并且同样,非发光对象624在图6H中相比在图6G中更模糊、更大、更亮、更饱和并且/或者具有更失真的形状。与非发光对象相比,对于发光对象,从先前的光圈数(4.5)到较低的光圈数(3.9)时模糊度、尺寸、亮度程度、饱和度和/或对象的形状失真程度的变化程度更大。
另外,基于每个对象与图像表示618的焦点(例如,被摄对象620的鼻部)的距离,每个对象的形状进一步失真(例如,如果图像表示618被视为x,y-平面,焦点为该平面的中心,则距离被测量为从对象的中心到该平面的中心的直线距离)。例如,对象622B-1的形状失真程度比对象622B-2的形状失真程度更大(例如,使得对象不够圆并且更显椭圆/拉伸)。类似地,对象622C-1的形状失真程度比对象622C-2的形状失真程度更大(例如,使得对象不太圆并且更显椭圆/拉伸)。如所提及的,下面参考图8A至图8R更详细地描述图像表示内对象的景深属性的变化。
在图6H中,电子设备600(例如,经由显示器602的触敏表面)检测深度调节滑块632上的轻扫手势611(例如,轻扫手势609的延续)。
在图6I中,响应于检测到轻扫手势611,电子设备600基于图像表示618的焦点(例如,被摄对象620的鼻部)进一步调节图像表示618内的对象(例如,发光对象622A、622B和622C,以及非发光对象624)的景深属性。
如光圈数指示符638(并且在一些实施方案中,也由深度效果示能表示630)所示,由于轻扫手势611,当前光圈数(1.6)进一步从先前光圈数(3.9)减小。发光对象622A、622B和622C在图6I(具有1.6的光圈数)中相比在图6H(具有3.9的光圈数)中更模糊、更大、更亮、更饱和并且/或者具有更失真的形状,并且同样,非发光对象624在图6I中相比在图6H中更模糊、更大、更亮、更饱和并且/或者具有更失真的形状。与非发光对象相比,对于发光对象,从先前的光圈数(3.9)到较低的光圈数(1.6)时模糊度、尺寸、亮度程度、饱和度和/或对象的形状失真程度的变化程度更大。
在图6J中,当在图像显示区域616中显示对应于经由后向相机608检测到的图像数据的图像表示618时,并且当模拟景深被设定为如先前在图6I中设定的1.6的光圈数(如光圈数指示符1.6所示)时,电子设备600(例如,经由显示器602的触敏表面)检测图像捕获示能表示640的激活613(例如,图像捕获示能表示640上的轻击手势)。
响应于检测到图像捕获示能表示640的激活613,电子设备600(例如,在设备的本地存储器和/或设备可访问的远程服务器中)存储对应于具有所应用的模拟深度效果(具有1.6的光圈数)的图像表示618的图像数据。
在图6K中,电子设备600(例如,经由显示器602的触敏表面)检测所存储的图像示能表示642的激活615(例如,所存储的图像示能表示642上的轻击手势)。
在图6L中,响应于检测到所存储的图像示能表示642的激活615,电子设备在显示器602上显示所存储的图像应用程序的用户界面644。用户界面644包括用于显示所存储的图像的图像显示区域646。在图6L中,电子设备600在图像显示区域646中显示对应于在图6J中捕获的图像表示618的所存储的图像表示648。与图像表示618的情况一样,所存储的图像表示648包括被摄对象650(对应于被摄对象620)、发光对象652A(对应于发光对象622A)、发光对象652B(对应于发光对象622B)、发光对象652C(对应于发光对象622C)和非发光对象654(对应于非发光对象624)。此外,与图像表示618在被捕获时(在图6J中)的情况一样,用1.6的光圈数的模拟景深设置来调节所存储的图像表示648。
在图6L中,在显示所存储的图像表示648时,电子设备600(例如,经由显示器602的触敏表面)检测用户界面644的编辑示能表示656的激活617(例如,编辑示能表示656上的轻击手势)。
在图6M中,响应于检测到编辑示能表示656的激活617,电子设备600(例如,在示出所存储的图像表示的图像显示区域646下方的用户界面644的菜单区域中)显示深度调节滑块632(设定为1.6的光圈数,如光圈数指示符638所示)。在一些示例中,图像显示区域646在用户界面644内向上移位以显示深度调节滑块632(例如,类似于图像显示区域616向上移位,如参考图6F所述)。电子设备600还(例如,在用户界面644的示出所存储的图像表示的图像显示区域646上方的区域中)显示深度效果指示符658,该深度效果指示符指示当前显示的所存储的图像表示(所存储的图像表示648)用模拟深度效果进行调节。
在图6N中,在显示深度调节滑块632时,电子设备600(例如,经由显示器602的触敏表面)检测深度调节滑块632上(例如,在刻度线634上方)的轻扫手势619(例如,水平轻扫手势、向左轻扫手势)。在一些示例中,刻度线634响应于轻扫手势619而(水平地)移位,并且针636保持附连。在一些示例中,响应于深度调节滑块632上的轻扫手势,针636在附连的刻度线634上方移位。
在图6O中,响应于检测到轻扫手势619,电子设备600基于所存储的图像表示648的焦点(例如,被摄对象650的鼻部)来调节所存储的图像表示648内的对象(例如,发光对象652A、652B和652C,以及非发光对象654)的景深属性。
如光圈数指示符638所示,由于轻扫手势619,当前的光圈数(4.9)从先前的(存储的)光圈数(1.6)增加。因此,发光对象652A、652B和652C在图6O(具有4.9的光圈数)中相比在图6N(具有1.6的光圈数)中更不模糊、更小、更不明亮、更不饱和并且/或者具有更少失真的形状(并且“锐度”更高),并且同样,非发光对象654在图6O中相比在图6N中更不模糊、更小、更不明亮、更不饱和并且/或者具有更少失真的形状,并且相反锐度更高。与非发光对象相比,对于发光对象,从先前的光圈数(1.6)到较高的光圈数(4.9)时模糊度、尺寸、亮度程度、饱和度和/或对象的形状失真程度(以及锐度的增加)的变化程度更大。如所提及的,下面参考图8A至图8R更详细地描述图像表示内对象的景深属性的变化。
在图6O中,电子设备600(例如,经由显示器602的触敏表面)检测深度调节滑块632上的轻扫手势621(例如,轻扫手势619的延续)。
在图6P中,响应于检测到轻扫手势621,电子设备600还基于所存储的图像表示648的焦点(例如,被摄对象650的鼻部)来调节所存储的图像表示648内的对象(例如,发光对象652A、652B和652C,以及非发光对象654)的景深属性。
如光圈数指示符638所示,由于轻扫手势621,当前的光圈数(8.7)从先前的光圈数(4.9)增加。因此,发光对象652A、652B和652C在图6P(具有8.7的光圈数)中相比在图6O(具有4.9的光圈数)中更不模糊、更小、更不明亮、更不饱和并且/或者具有更少失真的形状(并且锐度更高,因此更接近其没有任何图像失真的实际形状),并且同样,非发光对象654在图6P中相比在图6O中更不模糊、更小、更不明亮、更不饱和并且/或者具有更少失真的形状(并且锐度更高,并且因此更接近其没有任何图像失真的真实形状)。与非发光对象相比,对于发光对象,从先前的光圈数(5)到较高的光圈数(10)时模糊度、尺寸、亮度程度、饱和度和/或对象的形状失真程度(以及锐度的增加)的变化程度更大。如所提及的,下面参考图8A至图8R更详细地描述图像表示内对象的景深属性的变化。
图6Q示出了在显示器602中显示图像捕获应用程序的设置用户界面660的电子设备600。在图6Q中,在显示设置用户界面660时,电子设备(例如,经由显示器602的触敏表面)检测设置用户界面660的保留设置示能表示662的激活623(例如,保留设置示能表示662上的轻击手势)。
在图6R中,响应于检测到保留设置示能表示662的激活623,电子设备600在显示器602上显示与图像捕获应用程序和所存储的图像应用程序相关联的保留设置用户界面664。保留设置用户界面664包括用于激活或去激活创意控件的(例如,具有对应的来回切换件668的)创意控件选项666。在一些实施方案中,当创意控件活动时,当图像捕获应用程序和/或所存储的图像应用程序关闭并且重新启动时,电子设备600保留先前设定的图像效果设置(例如,包括模拟深度效果设置)(使得先前设定的图像效果设置诸如先前设定的光圈数将自动重新加载并且应用于所显示的图像表示)。在一些实施方案中,当创意控件不活动时,电子设备600不保留先前设定的图像效果设置,并且当图像捕获应用程序和/或所存储的图像应用程序被重新启动时,图像效果设置(包括深度效果设置)被恢复到默认值。
图6S示出了具有显示器672和前向相机674的电子设备670(例如,膝上型计算机)。在一些实施方案中,电子设备670还包括后向相机。
在图6S中,电子设备670在显示器672上显示(例如,对应于图像捕获应用程序或所存储的图像应用程序的)图像应用程序的用户界面676,其中对应于图像表示618的图像表示678在用户界面676中显示。电子设备670还在用户界面676内(例如,在图像表示678下方)显示类似于深度调节滑块632的深度调节滑块680。深度调节滑块680包括对应于光圈数的多个刻度线682和指示当前选择的刻度线(以及因此当前选择的光圈数)的针684。深度调节滑块680还包括指示当前选择的光圈数的值的(例如,位于与滑块相邻位置的)光圈数指示符686。在一些示例中,光标688可用于在刻度线682上方导航针684,从而改变光圈数以调节图像表示678的模拟深度效果。
图6T示出了具有显示器692的电子设备690(例如,平板电脑、具有触敏显示器的膝上型计算机)。在一些实施方案中,电子设备690还包括前向相机和/或后向相机。
在图6T中,电子设备690在显示器692上显示(例如,对应于图像捕获应用程序或所存储的图像应用程序的)图像应用程序的用户界面694,其中对应于图像表示618的图像表示696在用户界面694中显示。电子设备690还在(例如,与图像表示696相邻的)用户界面694内显示类似于深度调节滑块632的(例如,在竖直方向上的)深度调节滑块698。深度调节滑块698包括对应于光圈数的多个刻度线699和指示当前选择的刻度线(以及因此当前选择的光圈数)的针697。深度调节滑块698还包括指示当前选择的光圈数的值的(例如,位于滑块下方或与其相邻的)光圈数指示符695。
在一些示例中,深度调节滑块698可经由垂直轻扫手势调节,使得刻度线699相对于附连的针697移动。在一些示例中,深度调节滑块698可经由垂直轻扫手势进行调节,使得针697相对于附连的刻度线699移动。
在一些示例中,电子设备690还(例如,在用户界面694的与图像表示696相邻的区域中,在用户界面694的与图像表示696相邻并且与深度调节滑块698相对的区域中)显示对应于可应用于图像表示696并且可经由垂直轻扫手势改变的各种照明/滤光选项的多个照明设置693。在一些示例中,深度调节滑块698和照明设置693可同时被调节,并且该同时调节可被同时反映在图像表示696中。
图7A至图7B是示出根据一些实施方案的用于管理用于调节模拟深度效果的用户界面的方法的流程图。方法700在具有显示器和一个或多个输入设备(例如,显示器的触敏表面、机械输入设备)的设备(例如,100、300、500、600)处执行。方法700中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法700提供了用于管理用于模拟深度效果的用户界面的直观方式。该方法减轻了用户管理和导航用于模拟深度效果的用户界面的认知负担,从而创建了更有效的人机界面。对于电池驱动的计算设备,使用户能够通过提供对用于模拟深度效果的用户界面的简单管理更快且更有效地导航用户界面,节省了功率并且增加了电池充电之间的时间间隔。
电子设备(例如,600)在显示器(例如,602)上显示(702)图像数据的表示(例如,618,对应于图像数据的显示图像、人/被摄对象的人像图像)。
在一些实施方案中,图像数据(例如,618)的表示是当前正在由电子设备(例如,600)的一个或多个相机捕获的实时馈送图像。在一些实施方案中,图像数据的表示(例如,648)是存储在(电子设备或外部服务器的)存储器中并且从其中检索的先前拍摄的图像。在一些实施方案中,可以调节/操纵图像的深度数据以将深度效果应用于图像数据的表示。
在一些实施方案中,图像数据包括至少两个分量:编码所捕获图像的视觉特性的RGB分量,以及编码关于所捕获图像内的元素的相对间隔关系的信息的深度数据(例如,深度数据编码用户在前景中,并且背景元素诸如位于用户后面的树在背景中)。
在一些实施方案中,深度数据为深度图。在一些实施方案中,深度图(例如,深度图图像)包含与场景中的对象距视点(例如,相机)的距离相关的信息(例如,值)。在深度图的一个实施方案中,每个深度像素限定视点的z轴中所述深度像素对应的二维像素所位于的位置。在一些示例中,深度图由像素组成,其中每个像素由值(例如,0到255)定义。例如,“0”值表示位于“三维”场景中距离视点(例如,相机)最远位置处的像素,并且“255”值表示位于最接近“三维”场景中的视点的像素。在其他示例中,深度图表示场景中的对象与视点的平面之间的距离。在一些实施方案中,深度图包括关于深度相机的视野中感兴趣对象的各种特征的相对深度的信息(例如,用户面部的眼睛、鼻部、嘴部、耳朵的相对深度)。在一些实施方案中,深度图包括使设备能够确定感兴趣对象在z方向上的轮廓的信息。在一些实施方案中,深度数据具有第二深度分量(例如,编码背景在相机显示区域中的空间位置的深度数据的第二部分;形成深度图的离散部分的多个深度像素,诸如背景),所述第二深度分量与所述第一深度分量分开,所述第二深度方面包括相机显示区域中的背景的表示。在一些实施方案中,第一深度方面和第二深度方面用于确定相机显示区域中的对象与所述相机显示区域中的背景之间的空间关系。此空间关系可用于将对象与背景区分开来。这种区分可被利用以例如应用不同的视觉效果(例如,具有深度分量的视觉效果)至对象和背景。在一些实施方案中,基于不同程度的模糊度/锐度、尺寸、亮度、饱和度和/或形状失真来调节图像数据的不对应于第一深度分量的所有区域(例如,图像数据的超出深度相机范围的区域),以便模拟深度效果,诸如散景效果。
在一些实施方案中,在显示器上显示图像数据的表示还包括根据确定图像数据的表示对应于所存储的图像数据(例如,所存储/保存的图像或先前捕获的图像的表示),显示具有先前由用于模拟深度效果的先前第一值修改的先前模拟深度效果的图像数据的表示。在一些实施方案中,当用于显示图像数据的表示的相机/图像应用程序处于编辑模式(例如,用于编辑现有/先前捕获的图像或照片的模式)时,图像数据的表示(例如,648)对应于所存储的图像数据。在一些实施方案中,如果图像数据的表示对应于具有先前模拟深度效果的存储的图像数据,则电子设备(例如,600)在(例如,在相机/图像应用程序内)显示图像数据的表示时自动显示可调节滑块。因此,在一些实施方案中,可调节滑块(例如,632)在没有第一输入的情况下与图像数据的表示一起显示。在一些实施方案中,在显示图像数据的表示时(如果图像数据已经与先前的模拟深度效果相关联)是否自动显示可调节滑块取决于电子设备的类型(例如,电子设备是智能电话、智能手表、膝上型计算机还是台式计算机)。
在显示具有由用于模拟深度效果的多个可选值中的第一值修改的模拟深度效果(例如,基于对底层数据的操纵而应用于表示以人为地生成效果的深度效果,诸如散景效果)的图像数据的表示(例如,618、648)时,电子设备(例如,600)经由一个或多个输入设备检测(706)第一输入(例如,605、607,显示器上显示的示能表示的激活,经由显示器的触敏表面检测到的手势,诸如图像上的向上滑动手势)。
在一些实施方案中,当在显示器(例如,602)上显示图像数据的表示(例如,618、648)时,电子设备(例如,600)在显示器上(例如,在与可以应用于图像数据的表示的不同类型的效果相对应的示能表示区域(例如,628A)中)显示(704)模拟深度效果调节示能表示(例如,630),其中第一输入是模拟深度效果调节示能表示的激活(例如,605,轻击手势)。在一些实施方案中,模拟深度效果调节示能表示包括指示示能表示与深度效果相关的符号,诸如光圈数符号。在显示图像数据的表示时显示模拟深度效果调节示能表示并且包括指示该示能表示与深度效果相关的符号,通过使用户能够快速且容易地识别可以对图像数据的表示进行景深属性的调节而改善了视觉反馈。为用户提供改进的视觉反馈增强了设备的可操作性,并且使用户设备界面更有效(例如,通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,模拟深度效果是“模拟的”,因为效果是基于对底层图像数据的操纵而(人为地)生成的,以创建效果并且将该效果应用于图像数据的对应表示(例如,618、648)(例如,而不是基于最初经由一个或多个相机捕获的底层数据的“自然”效果)。
在一些实施方案中,在检测到第一输入(例如,605、607)之前,模拟深度效果调节示能表示(例如,630)以第一视觉特性(例如,指示示能表示当前未被选择的特定颜色,诸如默认颜色或白色)显示。在一些实施方案中,在检测到第一输入之后,模拟深度效果调节示能表示以与第一视觉特性不同的第二视觉特性(例如,指示示能表示当前被选择的特定颜色,诸如突出显示颜色或黄色)显示。改变模拟深度效果调节示能表示的视觉特性通过使用户能够快速且容易地识别模拟深度效果特性是活动的来改善视觉反馈。为用户提供改进的视觉反馈增强了设备的可操作性,并且使用户设备界面更有效(例如,通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,显示模拟深度效果调节示能表示(例如,630)包括根据确定当前选择的深度效果值对应于默认深度效果值(例如,由电子设备确定/设定的默认光圈数),放弃在模拟深度效果调节示能表示中显示当前选择的深度效果值。在一些实施方案中,默认深度效果值是4.5的光圈数。在一些实施方案中,显示模拟深度效果调节示能表示包括根据确定当前选择的深度效果值对应于非默认深度效果值(例如,在不对应于默认光圈数的可用光圈数范围内的任何光圈数),在(例如,与光圈数符号相邻的)模拟深度效果调节示能表示中显示当前选择的深度效果值。
在一些实施方案中,在检测到第一输入(例如,605、607)之前,电子设备(例如,600)在显示器(例如,602)上显示一个或多个模式选择器示能表示(例如,具有用于改变电子设备的相机相关的操作模式的一个或多个示能表示的区域,诸如相机模式选择器示能表示),其中显示可调节滑块(例如,632)包括用可调节滑块替换一个或多个模式选择器示能表示的显示。用可调节滑块替换一个或多个模式选择器示能表示的显示改善了视觉反馈,并且使得用户能够快速且容易地识别设备现在处于深度效果调节模式。为用户提供改进的视觉反馈增强了设备的可操作性,并且使用户设备界面更有效(例如,通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在检测到第一输入之前,电子设备(例如,600)在显示器(例如,602)上显示缩放控制元素(例如,具有用于改变相机的缩放水平的一个或多个示能表示的区域),其中显示可调节滑块(例如,632)包括替换缩放控制元素的显示。
在一些实施方案中,第一输入(例如,607)是用户界面的第一部分中在第一方向上的轻扫手势(例如,614,显示器的触敏表面上的向上轻扫手势)。在一些实施方案中,轻扫手势是显示器的与图像数据的表示对应的区域上的向上轻扫手势。在一些实施方案中,轻扫手势是显示器的与表示图像数据(例如,618)的底部边缘对应的区域上的向上轻扫手势。在一些实施方案中,如果轻扫在第二方向上,则不显示可调节滑块,并且任选地,执行不同的操作(例如,切换相机模式或执行缩放操作)。在一些实施方案中,如果轻扫在用户界面的第二部分中,则不显示可调节滑块,并且任选地,执行不同的操作。提供附加控件选项而不使用户界面由于附加的显示控件而杂乱增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速并且更高效地使用设备来减少电力使用并延长设备的电池寿命。
响应于检测到第一输入(例如,605、607),电子设备(例如,600)在显示器(例如,602)上(例如,在图像数据的表示下方,与图像数据的表示相邻)显示(708)与操纵图像数据的表示(例如,操纵图像数据的表示的深度效果、图像数据的表示的景深效果)相关联的可调节滑块(例如,632)(例如,包括多个刻度标记和针的水平滑块或竖直滑块)。可调节滑块包括(710)与用于模拟深度效果(例如,(模拟的)景深,光圈数/光圈系数)的多个可选值对应的多个选项指示符(例如,634,表示为刻度标记、仪表标记)。在一些实施方案中,多个选项指示符在可调节滑块内可(例如,水平地或竖直地)滑动。可调节滑块还包括(712)选择指示符(例如,636,表示为针),该选择指示符指示第一值是当前选择的模拟深度效果值。
在一些实施方案中,选择指示符(例如,636,针)的位置是固定的,并且多个选项指示符(例如,634,刻度线)在滑块(例如,632)内是可调节的,使得多个选项指示符相对于选择指示符移动以调节当前选择的景深值。在一些实施方案中,仅所有可用选项指示符的子集同时显示在滑块内,响应于滑块的调节(例如,在水平或竖直方向上移动选项指示符的用户输入)未显示的选项指示符显示在滑块内。
在一些实施方案中,多个选项指示符(例如,634)是固定的,并且选择指示符(例如,636)的位置在滑块内是可调节的,使得选择指示符相对于多个选项指示符移动以调节当前选择的景深值。
在一些实施方案中,响应于检测到第一输入(例如,605、607),电子设备(例如,600)滑动(714)(例如,竖直地,向上滑动预先确定的量)图像数据的表示(例如,618)以显示(例如,602)(例如,显露)可调节滑块(例如,632)(例如,在对应于轻扫输入的方向的方向上滑动图像数据的表示)。
在显示可调节滑块(例如,632)时,电子设备(例如,600)经由一个或多个输入设备检测(716)指向可调节滑块的输入。
在一些实施方案中,指向可调节滑块(例如,632)的输入(例如,609、611、619、621)是可调节滑块上的(水平)轻扫手势(例如,向左轻扫手势或向右轻扫手势),其中轻扫手势包括在第一方向上的在轻扫手势结束时具有至少(大于阈值速度的)第一速度的(例如,使用手指进行的)用户移动(例如,当接触从触敏表面抬离时或附近,执行轻扫手势的接触的移动速度)。
响应于检测到(718)指向可调节滑块(例如,632)的输入(例如,609、611、619、621)(例如,在对应于可调节滑块的位置处的轻击或轻扫),电子设备(例如,600)移动(720)可调节滑块以指示用于模拟深度效果的多个可选值中的第二值是当前选择的模拟深度效果值。
响应于检测到(718)指向可调节滑块的输入(例如,在对应于可调节滑块的位置处的轻击或轻扫),电子设备(例如,600)根据由第二值修改的模拟深度效果改变(722)图像数据(例如,618、648)的表示的外观。响应于检测到指向可调节滑块的输入而改变图像数据的表示的外观,通过使用户能够快速且容易地查看由用户的输入引起的图像数据的表示的改变改善了视觉反馈。为用户提供改进的视觉反馈增强了设备的可操作性,并且使用户设备界面更有效(例如,通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,移动可调节滑块(例如,632)包括移动多个选项指示符(例如,634,表示为刻度线),同时选择指示符(例如,636,表示为针)保持固定。因此,在一些实施方案中,移动可调节滑块包括滑动对应于光圈值的多个刻度线,同时针保持固定在滑块内的相同位置。在一些实施方案中,移动可调节滑块包括移动选择指示符(例如,表示为针),同时多个选项指示符保持固定(例如,表示为刻度线)。因此,在一些实施方案中,移动可调节滑块包括在对应于光圈值的多个刻度线上来回滑动针,同时刻度线保持固定在滑块内的相同位置。
在一些实施方案中,在(例如,通过相对于固定选择指示符移动多个选项指示符,或者通过相对于固定选项指示符移动选择指示符)移动可调节滑块(例如,632)时,在针对由可调节滑块控制的参数选择不同的值时,电子设备(例如,600)(例如,经由电子设备的一个或多个触觉输出发生器和/或一个或多个扬声器)与可调节滑块的移动同步地生成(724)第一类型的输出(例如,触觉输出、音频输出)。在一些实施方案中,每当选择指示符与多个选项指示符中的选项指示符对准或通过多个选项指示符中的选项指示符时,电子设备生成离散的输出(例如,离散的触觉输出、离散的音频输出)。在针对由可调节滑块控制的参数选择不同的值时与可调节滑块的移动同步地生成第一类型的输出(例如,触觉输出、音频输出),通过提供对用户输入的协调响应来改善反馈。为用户提供改进的视觉反馈增强了设备的可操作性,并且使用户设备界面更有效(例如,通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在移动可调节滑块(例如,632)时,根据确定图像数据的表示(例如,618、648)对应于存储的图像数据(例如,所存储/保存的图像或先前捕获的图像的图像数据),第一类型的输出包括(726)音频输出(例如,经由电子设备的一个或多个扬声器生成以及/或者经由电子设备的一个或多个触觉输出发生器生成)。在一些实施方案中,在移动可调节滑块时,根据确定图像数据的表示对应于正在由一个或多个相机捕获的图像数据的实时预览,第一类型的输出不包括(728)(例如,经由电子设备的一个或多个扬声器生成以及/或者经由电子设备的一个或多个触觉输出发生器生成的)音频输出。在一些实施方案中,当用于显示图像数据的表示的相机/图像应用程序处于编辑模式(例如,用于编辑现有/先前捕获的图像或照片的模式)时,图像数据的表示对应于所存储的图像数据。
需注意,上文参考方法700(例如,图7A至图7B)所述过程的详情也以类似方式适用于下文所述的方法。例如,方法900任选地包括上面参考方法700所述的各种方法的一个或多个特性。例如,可使用方法700中所述的深度调节滑块来调节应用于图像表示的模拟深度效果,如方法900中所述。又如,方法1100任选地包括上文参考方法700所述的各种方法的一个或多个特性。例如,如方法1100中所述,关于检测到的干扰的通知可以与可妨碍用于模拟深度效果的一个或多个深度传感器的检测到的磁干扰相关联。为了简明起见,这些详情在下文中不再重复。
图8A至图8R示出了根据一些实施方案的用于显示对模拟深度效果(例如,散景效果)的调节的示例性用户界面。这些附图中的用户界面用于示出下文所述的过程,包括图9A至图9B中的过程。
图8A示出了上面参考图6A至图6T所述的电子设备600。在图8A中,电子设备600在显示器602上显示图像捕获应用程序的用户界面804,其中图像捕获应用程序处于人像模式。在处于人像模式时,用户界面804(例如,在图像显示区域806上方或与其相邻的位置)显示深度效果示能表示810(例如,对应于深度效果示能表示630)。
电子设备600还在图像显示区域806中显示经由后向相机608捕获的图像数据的图像表示808。在该示例中,图像表示808不包括被摄对象(例如,人),因为被摄对象不在后向相机608的视场内。
在人像模式中,电子设备600在图像表示808中显示被摄对象标记812,该被摄对象标记指示需要将被摄对象放置在由标记占据的图像表示808的总体区域内以正确地启用人像模式。因为当前未检测到被摄对象,所以电子设备600显示(例如,在图像显示区域806的顶部中)消息814,该消息请求将被摄对象放置在与被摄对象标记812占据的图像表示808的区域对应的环境中。
在图8B中,在后向相机608的视场内检测到真实环境中的真实被摄对象。在检测到真实被摄对象时,电子设备600在图像表示808中显示对应于在后向相机608的视场内检测到的真实被摄对象的被摄对象816。
在图8C中,根据确定被摄对象816在由被摄对象标记812指示的图像表示808的一般区域内,电子设备600经由被摄对象标记812提供(例如,通过将标记“锁定”到被摄对象上,通过标记改变视觉特性,诸如改变成不同的颜色)被摄对象在由被摄对象标记812占据的图像表示808的一般区域内以正确地启用人像模式的指示。
在一些实施方案中,如果检测到被摄对象但其与电子设备600相距太远(例如,与设备远离超过预定义的距离,诸如与设备远离超过10英尺)而不能完全启用人像模式,则电子设备600显示指示被摄对象应当被放置成更靠近设备的通知。在一些实施方案中,如果检测到被摄对象但其太靠近电子设备600(例如,与设备远离小于预定义的距离,诸如与设备远离小于1英尺)而不能完全启用人像模式,则电子设备600显示指示被摄对象应当被放置成更远离设备的通知。
在检测到由被摄对象标记812指示的图像表示808的一般区域内的被摄对象816时,电子设备600激活人像模式。在激活人像模式时,电子设备600通过基于图像表示808内的焦点(例如,对象816的鼻部)应用来调节图像表示812,对具有默认光圈数(例如,4.5)的图像表示808内的对象的模拟深度效果(例如,散景效果、上文相对于图像表示6。描述的模拟深度效果)。在该示例中,图像表示808包括发光物体818A、818B、818C和818D以及非发光物体820A和820B。在一些实施方案中,还将模拟深度效果应用于被摄对象816的不对应于焦点的部分(例如,被摄对象816的除被摄对象的鼻部之外的部分)。
在图8D中,在显示具有检测到的被摄对象816的图像表示808时,电子设备600(例如,经由显示器602的触敏表面)检测深度效果示能表示810的激活801。
在图8E中,响应于检测到深度效果示能表示810的激活810,电子设备600(例如,在用户界面804的位于图像显示区域806下方的菜单区域内)显示深度调节滑块822(对应于上文参考图6A至图6R所述的深度调节滑块632)。与深度调节滑块632的情况一样,深度调节滑块822包括对应于光圈数的多个刻度线824、指示当前选择的刻度线(以及因此当前选择的光圈数)的针824、以及(例如,位于滑块下方或与其相邻的)指示当前选择的光圈数的光圈数指示符828。在图8E中,因为当前光圈数是默认光圈数,因此光圈数指示符828指示默认光圈数的值(例如,4.5)。在一些实施方案中,当深度调节滑块822被激活时,除了光圈数指示符828之外,深度效果示能表示810还显示当前光圈数。
在图8E中,在显示深度调节滑块822时,电子设备600(例如,经由显示器602的触敏表面)检测深度调节滑块822上的轻扫手势803(例如,水平轻扫手势、向右轻扫手势),从而使得刻度线824相对于附连的针826水平滑动。
如图8F所示,轻扫手势803使深度调节滑块822滑动成使得较低光圈数(例如,1.6)被设置为当前光圈数,如光圈数指示符828所指示(并且在一些实施方案中,也如深度效果示能表示810所指示)。
在图8F中,电子设备800调节图像表示808以反映新的景深值。(例如,1.6)。具体地讲,由于较小的模拟景深值,发光对象818A在图8F(具有光圈数1.6)中相比在图8E(具有光圈数4.5)中更加失真(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。类似地,由于较小的模拟景深值,发光对象818B在图8F(具有光圈数1.6)中相比在图8E(具有光圈数4.5)中更失真(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。类似地,由于较小的模拟景深值,发光对象818C在图8F(具有光圈数1.6)中相比在图8E(具有光圈数4.5)中更失真(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。类似地,由于较小的模拟景深值,非发光对象820A在图8F(具有光圈数1.6)中相比在图8E(具有光圈数4.5)中更失真(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。类似地,由于较小的模拟景深值,非发光对象820B在图8F(具有光圈数1.6)中相比在图8E(具有光圈数4.5)中更失真(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
此外,对象的失真程度(例如,模糊度、尺寸、亮度程度、饱和度和/或对象相对于焦点的形状的失真程度)基于每个对象到图像表示808的焦点(例如,被摄对象816的鼻部)的距离而不同。具体地讲,如果图像表示808中的每个深度像素(例如,包括特定对象)限定视点的z轴中其对应二维像素所在的位置,并且每个像素都由值(例如,0-255,其中“0”值表示位于“三维”场景中距离视点(例如,相机)最远位置处的像素,并且“255”值表示位于最接近“三维”场景中的视点的像素)定义,则模糊度/锐度、尺寸、亮度程度、饱和度和/或形状失真程度取决于z轴方向上的距离(0到255之间的值)。即,对象中的深度像素在z方向上越远,对象将在图像表示808中看起来越“模糊”,并且对象中的深度像素在z方向上越近,对象将在图像表示808中看起来锐度越高。同时,如果图像表示808被视为以焦点(例如,被摄对象820的鼻部)为该平面的中心(例如,原点)的二维x,y-平面,从构成图像表示808中的对象的像素的(x,y)点到平面中心的直线距离影响对象的形状失真程度,即像素距中心(焦点)的距离越大,形状失真程度越大,并且像素距中心的距离越近,形状失真越小。
例如,在图8F中,对象818B-1的失真程度大于对象818B-2的失真程度的变化(例如,对象818B-1相对更模糊、更大、更亮、相对于焦点比对象818B-2更饱和和/或形状失真程度更大),因为对象818B-1相比对象818B-2离焦点(例如,被摄对象816的鼻部)更远。类似地,在图8F中,对象818C-1的失真程度大于对象818C-2的失真程度(例如,对象818C-1变得相对于焦点比对象818C-2相对“更模糊”并且形状失真程度更大),因为对象818C-1相比对象818C-2离焦点(例如,被摄对象816的鼻部)更远。基于对象到焦点的距离的失真程度的差异也适用于非发光对象(例如,对象820A和对象820B),并且在一些实施方案中,适用于被摄对象816的不对应于焦点的部分(例如,被摄对象的上身、被摄对象的面部和头部的围绕焦点的部分)。
此外,对象的失真程度(例如,模糊度、尺寸差异、亮度程度、饱和度和/或对象相对于焦点的形状失真程度)基于对象的类型(对象是对应于发光对象还是对应于非发光对象)而不同。对于相同的景深调节,发光对象的所得失真变化通常大于非发光对象的所得失真变化。
在一些实施方案中,当深度调节滑块822被导航(例如,从图8E中的4.5到图8F中的1.6)时,连续调节对象的景深特性。
在图8G中,当光圈数被设定为1.6时,电子设备600(例如,经由显示器602的触敏表面)检测深度调节滑块822上的轻扫手势805(例如,水平轻扫手势、向左轻扫手势),从而使刻度线824相对于附连的针826在相反的方向上水平滑动。
如图8H所示,轻扫手势805使深度调节滑块822滑动,使得较高的光圈数(例如,8.7)被设定为当前光圈数,如光圈数指示符828(并且在一些实施方案中,还如由深度效果示能表示810)所指示。
在图8H中,电子设备800调节图像表示808以反映新的景深值。(例如,8.7)。具体地讲,由于较大的模拟景深值,发光对象818A在图8H(具有光圈数8.7)中相比在图8F(具有光圈数1.6)和在图8E(具有光圈数4.5)中失真更少(例如,锐度更大,更接近其真实形式的准确表示)。类似地,由于较大的模拟景深值,发光对象818B在图8H(具有光圈数8.7)中相比在图8F(具有光圈数1.6)和在图8E(具有光圈数4.5)中失真更少(例如,锐度更高,更接近其真实形式的准确表示)。类似地,由于较大的模拟景深值,发光对象818C在图8H(具有光圈数8.7)中相比在图8F(具有光圈数1.6)和在图8E(具有光圈数4.5)中失真更少(例如,锐度更高,更接近其真实形式的准确表示)。类似地,由于较大的模拟景深值,非发光对象820A在图8H(具有光圈数8.7)中相比在图8F(具有光圈数1.6)和在图8E(具有光圈数4.5)中失真更少(例如,锐度更高,更接近其真实形式的准确表示)。类似地,由于较大的模拟景深值,非发光对象820B在图8H(具有光圈数8.7)中相比在图8F(具有光圈数1.6)和在图8E(具有光圈数4.5)中失真更少(例如,锐度更高,更接近其真实形式的准确表示)。
如上文已经讨论的,对象的失真程度(例如,模糊度、尺寸差异、亮度程度、饱和度、对象形状相对于焦点的失真程度)基于每个对象与图像表示808的焦点(例如,被摄对象816的鼻部)的距离而不同。因此,例如,在图8H中,对象818B-1的失真程度仍大于对象818B-2的失真程度(例如,对象818B-1仍然相对更模糊、更大、更亮、相对于焦点相比对象818B-2更饱和并且/或者形状失真程度更大),因为对象818B-1相比对象818B-2离焦点(例如,被摄对象816的鼻部)更远。类似地,在图8H中,对象818C-1的失真程度仍大于对象818C-2(例如,与对象818C-2相比,对象818C-1相对于焦点变得相对更模糊、更大、更亮、更饱和和/或形状失真程度更大)的失真程度,因为对象818C-1相比对象818C-2离焦点(例如,被摄对象816的鼻部)更远。
图8I至图8M示出了按五乘五网格状图案布置的多个圆形对象830(可以是发光对象或非发光对象),焦点位于中心对象832处。图8I至图8M还示出了对应于上文参考图8A至图8H所述的深度调节滑块822的深度调节滑块834。在一个实施方案中,提供图8I至图8M以进一步示出在不同光圈数设置下的对象的失真,其中失真程度基于对象与焦点的距离而不同。
在图8I中,如光圈数指示符836所指示,当前光圈数被设定为4.5(例如,默认光圈数)。图8I示出了相对于作为焦点的对象832以4.5的光圈数调节的圆形对象830。如图8I所示,与焦点上的或较靠近焦点的对象相比,更远离焦点的对象失真更大(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
在图8J中,如光圈数指示符836所指示,当前光圈数被设定为2.8。图8J示出了相对于作为焦点的对象832以2.8的光圈数调节的圆形对象830。图8J中的对象830看起来“更大”,因为在较小的光圈数下,对象比图8I中的对应对象830更模糊、更大、更亮、更饱和并且/或者具有更失真的形状。如图8I所示,在图8J中,与焦点上的或较靠近焦点的对象相比,更远离焦点的对象失真更大(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
在图8K中,如光圈数指示符836所指示,当前光圈数被设定为1.0。图8K示出了相对于作为焦点的对象832以1.0的光圈数调节的圆形对象830。图8K中的对象830看起来甚至“更大”,因为在甚至更小的光圈数下,对象比图8J中的对应对象830更模糊、更大、更亮、更饱和并且/或者具有更失真的形状。如图8I至图8J所示,在图8K中,与焦点上的或较靠近焦点的对象相比,更远离焦点的对象失真更大(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
在图8L中,如光圈数指示符836所指示,当前光圈数被设定为7.6。图8L示出了相对于作为焦点的对象832以7.6的光圈数调节的圆形对象830。图8K中的对象830看起来比图8I中的对应对象830“更小”,因为在更大的光圈数下,对象比图8I中的对应对象830更不模糊、更小、更不明亮、更不饱和并且/或者具有更少失真的形状,并且相反锐度更高。另外,如图8I至图8K所示,在图8L中,与焦点上的或较靠近焦点的对象相比,更远离焦点的对象失真更大(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
在图8M中,如光圈数指示符836所指示,当前光圈数被设定为14。图8M示出了相对于作为焦点的对象832以14的光圈数调节的圆形对象830。图8M中的对象830看起来比图8L中的对应对象830甚至“更小”,因为在甚至更大的光圈数下,对象比图8L中的对应对象830更不模糊、更小、更不明亮、更不饱和并且/或者具有更少失真的形状,并且相反锐度更高。因此,图8M中的对象830比图8I至图8L中的对象830更多地为“真”圆。另外,如图8I至图8L所示,在图8M中,与焦点上的或较靠近焦点的对象相比,更远离焦点的对象失真更大(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
图8N至图8R示出了以五乘五的网格状图案布置的多个圆形对象838(可为发光对象或非发光对象),其焦点在中心对象840处(类似于图8I至图8M)。图8N至图8R还示出了对应于上文参考图8A至图8H所述的深度调节滑块822的深度调节滑块834。在另一个实施方案中,提供图8N至图8R以进一步示出在不同的光圈数设置下的对象失真,其中失真程度基于对象与焦点的距离而不同。
在图8N中,如光圈数指示符836所指示,当前光圈数被设定为4.5(例如,默认光圈数)。图8N示出了相对于作为焦点的对象840以4.5的光圈数调节的圆形对象838。如图8N所示,与焦点上的或较靠近焦点的对象相比,更远离焦点的对象失真更大(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
在图8O中,如光圈数指示符836所指示,当前光圈数被设定为2.8。图8O示出了相对于作为焦点的对象834以2.8的光圈数调节的圆形对象838。图8O中的对象838看起来“更大”,因为在较小的光圈数下,对象比图8N中的对应对象838更模糊、更大、更亮、更饱和并且/或者具有更失真的形状。如图8N所示,在图8O中,与焦点上的或较靠近焦点的对象相比,更远离焦点的对象失真更大(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
在图8P中,如光圈数指示符836所指示,当前光圈数被设定为1.0。图8P示出了相对于作为焦点的对象840以1.0的光圈数调节的圆形对象838。图8P中的对象838看起来甚至“更大”,因为在甚至更小的光圈数下,对象比图8O中的对应对象838更模糊、更大、更亮、更饱和并且/或者具有更失真的形状。如图8N至图8O所示,在图8P中,与焦点上的或较靠近焦点的对象相比,更远离焦点的对象失真更大(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
在图8Q中,如光圈数指示符836所指示,当前光圈数被设定为7.6。图8Q示出了相对于作为焦点的对象840以7.6的光圈数调节的圆形对象838。图8Q中的对象838看起来比图8N中的对应对象838“更小”,因为在较大的光圈数下,对象比图8N中的对应对象838更不模糊、更小、更不明亮、更不饱和并且/或者具有更不失真的形状,并且相反锐度更高。另外,如在图8N至图8P中,在图8Q中,与焦点上的或较靠近焦点的对象相比,更远离焦点的对象失真更大(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
在图8R中,如光圈数指示符836所指示,当前光圈数被设定为14。图8R示出了相对于作为焦点的对象840以14的光圈数调节的圆形对象838。图8R中的对象838看起来比图8Q中的对应对象838甚至“更小”,因为在甚至更大的光圈数下,对象比图8Q中的对应对象838更不模糊、更小、更不明亮、更不饱和并且/或者具有更少失真的形状,并且相反锐度更高。因此,图8R中的对象838比图8N至图8Q中的对象838更多地为“真”圆。另外,如在图8N至图8Q中,在图8R中,与焦点上的或较靠近焦点的对象相比,更远离焦点的对象失真更大(例如,更模糊、更大、更亮、更饱和并且/或者具有更失真的形状)。
图9A至图9B是示出根据一些实施方案的用于管理用于显示对模拟深度效果的调节的用户界面的方法的流程图。方法900在具有显示器和一个或多个输入设备(例如,显示器的触敏表面、机械输入设备)的设备(例如,100、300、500、600)处执行。方法900中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法900提供了用于管理用于模拟深度效果的用户界面的直观方式。该方法减轻了用户管理和导航用于模拟深度效果的用户界面的认知负担,从而创建了更有效的人机界面。对于电池驱动的计算设备,使用户能够通过提供对用于模拟深度效果的用户界面的简单管理更快且更有效地导航用户界面,节省了功率并且增加了电池充电之间的时间间隔。
电子设备(例如,600)经由一个或多个输入设备接收(902)将模拟深度效果应用于图像数据的表示(例如,808,对应于图像数据的显示图像、人/被摄对象的人像图像)的请求,其中用于图像数据的表示内的被摄对象的深度数据可用。
在一些实施方案中,图像数据的表示(例如,808)是当前正在由电子设备的一个或多个相机捕获的实时馈送图像。在一些实施方案中,图像数据的表示是存储在(电子设备或外部服务器的)存储器中并且从其中检索的先前拍摄的图像。在一些实施方案中,可以调节/操纵图像的深度数据以将深度效果应用于图像数据的表示。
在一些实施方案中,图像数据包括至少两个分量:编码所捕获图像的视觉特性的RGB分量,以及编码关于所捕获图像内的各元素的相对间隔关系的信息的深度数据(例如,深度数据编码用户在前景中,并且背景元素如位于用户后面的树在背景中)。
在一些实施方案中,深度数据为深度图。在一些实施方案中,深度图(例如,深度图图像)包含与场景中的对象距视点(例如,相机)的距离相关的信息(例如,值)。在深度图的一个实施方案中,每个深度像素限定视点的z轴中所述深度像素对应的二维像素所位于的位置。在一些示例中,深度图由像素组成,其中每个像素由值(例如,0到255)定义。例如,“0”值表示位于“三维”场景中距离视点(例如,相机)最远位置处的像素,并且“255”值表示位于最接近“三维”场景中的视点的像素。在其他示例中,深度图表示场景中的对象与视点的平面之间的距离。在一些实施方案中,深度图包括关于深度相机的视野中感兴趣对象的各种特征的相对深度的信息(例如,用户面部的眼睛、鼻部、嘴部、耳朵的相对深度)。在一些实施方案中,深度图包括使设备能够确定感兴趣对象在z方向上的轮廓的信息。在一些实施方案中,深度数据具有第二深度分量(例如,编码背景在相机显示区域中的空间位置的深度数据的第二部分;形成深度图的离散部分的多个深度像素,诸如背景),所述第二深度分量与所述第一深度分量分开,所述第二深度方面包括相机显示区域中的背景的表示。在一些实施方案中,第一深度方面和第二深度方面用于确定相机显示区域中的对象与所述相机显示区域中的背景之间的空间关系。此空间关系可用于将对象与背景区分开来。这种区分可被利用以例如应用不同的视觉效果(例如,具有深度分量的视觉效果)至对象和背景。在一些实施方案中,图像数据的不对应于第一深度分量的所有区域(例如,图像数据的超出深度相机范围的区域)基于不同的模糊度/锐度、尺寸、亮度程度、饱和度和/或形状失真程度进行调节,以便模拟深度效果,诸如散景效果。
在一些实施方案中,请求对应于与修改/调节已应用于/正在应用于图像数据的表示(例如,808)的模拟深度效果相关联的可调节滑块(例如,822)的调节(例如,水平或竖直方向上的滑动手势)。使用可调节滑块将模拟深度效果应用于图像数据的表示通过使用户能够快速且容易地查看由用户进行的调节来增强视觉反馈。为用户提供改进的视觉反馈增强了设备的可操作性,并且使用户设备界面更有效(例如,通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,模拟深度效果是“模拟的”,因为效果是基于对底层图像数据的操纵而(人为地)生成的,以创建效果并且将该效果应用于图像数据的对应表示(例如,808)(例如,而不是基于最初经由一个或多个相机捕获的底层数据的“自然”效果)。
在一些实施方案中,经由一个或多个输入设备接收将模拟深度效果应用于图像数据的表示(例如,808)的请求包括经由一个或多个输入设备检测选择图像失真参数的值的一个或多个输入,其中使图像数据的表示失真(的一部分)基于(并且响应于)(例如,经由用于控制参数的可调节滑块的移动)选择图像失真参数的值的一个或多个用户输入。在一些实施方案中,调节可调节滑块以使图像数据的表示失真(例如,向其应用模拟深度效果),如上文参考图6A至图6T所述。提供用于使图像数据的表示失真的可调节滑块通过使用户能够容易且有效地对所显示的图像数据的表示进行调节而增强用户便利性。提供额外控制选项并减少执行操作所需的输入数量增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速并且更高效地使用设备而减少了电力使用并延长了设备的电池寿命。
在一些实施方案中,针对图像失真参数选择不同的值导致图像数据的表示的第一部分的第一变化,并且导致图像数据的表示的第二部分的第二变化,其中第一变化与第二变化不同,并且第一变化和第二变化两者都包括相同类型的变化(例如,模糊度、尺寸、亮度、饱和度和/或形状失真的增大或减小)。
响应于接收到(904)将模拟深度效果应用于图像数据的表示(例如,808)的请求,电子设备(例如,600)在显示器(例如,602)上显示具有模拟深度效果的图像数据的表示。响应于接收到将模拟深度效果应用于图像数据的表示的请求显示具有模拟深度效果的图像数据的表示使得用户能够快速且容易地查看和响应于正在对图像数据的表示进行的调节。提供方便的控制选项并且减少执行操作所需的输入数量增强了设备的可操作性,并且(例如,通过帮助用户提供正确的输入并且减少操作设备/与设备交互时的用户错误)使用户-设备界面更高效,这又通过使用户能够更快速并且更高效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在显示器(例如,602)上显示具有模拟深度效果的图像数据的表示(例如,808)包括以第一方式(例如,第一特定模糊度/锐度、第一特定尺寸、第一特定亮度、第一特定饱和度和/或第一特定形状)使具有第一深度的图像数据的表示的第一部分失真(906),其中第一方式基于第一部分距图像数据的表示的预定义部分(例如,相机的视场的中心或相机的焦点)的距离来确定。使得用户能够调节图像数据的表示以应用准确的模拟深度效果,通过允许用户创建与用户本来仅能够使用更大和/或更昂贵的硬件(例如,专业级别相机)获得的图像/照片类似的图像/照片,增强了用户便利性/效率以及设备的可操作性和灵活性。即,模拟深度效果(软件效果)使得用户能够利用相对较小且较价格低廉的设备来将深度效果应用于图像/照片(例如,与用户正在使用包括在能够经由光学失真产生深度效果的设备中/附接到该设备的相机传感器和透镜的情况相对)。这反过来增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供正确的输入并且减少操作设备/与设备交互时的用户错误),这又通过使用户能够更快速且高效地使用设备减少了电力使用并且延长了设备的电池寿命。
在显示器(例如,602)上显示具有模拟深度效果的图像数据的表示(例如,808)还包括以与第一方式不同的第二方式(例如,第二特定模糊度/锐度、第二特定尺寸、第二特定亮度、第二特定饱和度和/或第二特定形状)使具有第一深度的图像数据的表示的第二部分失真,其中第二方式基于第二部分距图像数据的表示的预定义部分的距离来确定。使得用户能够调节图像数据的表示以应用准确的模拟深度效果,通过允许用户创建与用户本来仅能够使用更大和/或更昂贵的硬件(例如,专业级别相机)获得的图像/照片类似的图像/照片,增强了用户便利性/效率以及设备的可操作性和灵活性。即,模拟深度效果(软件效果)使得用户能够利用相对较小且较价格低廉的设备来将深度效果应用于图像/照片(例如,与用户正在使用包括在能够经由光学失真产生深度效果的设备中/附接到该设备的相机传感器和透镜的情况相对)。这反过来增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供正确的输入并且减少操作设备/与设备交互时的用户错误),这又通过使用户能够更快速且高效地使用设备减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在显示器(例如,602)上显示具有模拟深度效果的图像数据的表示(例如,808)还包括以第一方式以基于第二深度(例如,第三部分的深度)确定的(例如,模糊度/锐度的)量值,使距预定义部分的距离与第一部分距预定义部分的距离相同并且具有与第一深度不同的第二深度的图像数据的表示的第三部分失真(910)。使得用户能够调节图像数据的表示以应用准确的模拟深度效果,通过允许用户创建与用户本来仅能够使用更大和/或更昂贵的硬件(例如,专业级别相机)获得的图像/照片类似的图像/照片,增强了用户便利性/效率以及设备的可操作性和灵活性。即,模拟深度效果(软件效果)使得用户能够利用相对较小且较价格低廉的设备来将深度效果应用于图像/照片(例如,与用户正在使用包括在能够经由光学失真产生深度效果的设备中/附接到该设备的相机传感器和透镜的情况相对)。这反过来增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供正确的输入并且减少操作设备/与设备交互时的用户错误),这又通过使用户能够更快速且高效地使用设备减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在显示器(例如,602)上显示具有模拟深度效果的图像数据的表示(例如,808)还包括以第二方式以基于第二深度(例如,第四部分的深度)确定的(例如,模糊度/锐度的)量值,使距预定义部分的距离与第二部分距预定义部分的距离相同并且具有第二深度的图像数据的表示的第四部分失真(912)。使得用户能够调节图像数据的表示以应用准确的模拟深度效果,通过允许用户创建与用户本来仅能够使用更大和/或更昂贵的硬件(例如,专业级别相机)获得的图像/照片类似的图像/照片,增强了用户便利性/效率以及设备的可操作性和灵活性。即,模拟深度效果(软件效果)使得用户能够利用相对较小且较价格低廉的设备来将深度效果应用于图像/照片(例如,与用户正在使用包括在能够经由光学失真产生深度效果的设备中/附接到该设备的相机传感器和透镜的情况相对)。这反过来增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供正确的输入并且减少操作设备/与设备交互时的用户错误),这又通过使用户能够更快速且高效地使用设备减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在显示器(例如,602)上显示具有模拟深度效果的图像数据的表示(例如,808)还包括以第一方式使距预定义部分(例如,图像数据的表示内的参考点或焦点)的距离与第一部分距预定义部分的距离相同并且具有第一深度的图像数据的表示的一个或多个部分失真(914)。因此,在一些实施方案中,图像数据的表示的具有相同深度并且与图像数据的表示的预定义部分相距相同距离的部分以相同方式失真。使得用户能够调节图像数据的表示以应用准确的模拟深度效果,通过允许用户创建与用户本来仅能够使用更大和/或更昂贵的硬件(例如,专业级别相机)获得的图像/照片类似的图像/照片,增强了用户便利性/效率以及设备的可操作性和灵活性。即,模拟深度效果(软件效果)使得用户能够利用相对较小且较价格低廉的设备来将深度效果应用于图像/照片(例如,与用户正在使用包括在能够经由光学失真产生深度效果的设备中/附接到该设备的相机传感器和透镜的情况相对)。这反过来增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供正确的输入并且减少操作设备/与设备交互时的用户错误),这又通过使用户能够更快速且高效地使用设备减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,以第一方式使图像数据的表示(例如,808)的第一部分失真包括基于(例如,通过应用)第一失真形状(例如,圆形形状或卵圆/椭圆形状)使第一部分失真。在一些实施方案中,以第二方式使图像数据的表示的第二部分失真包括基于(例如,通过应用)与第一失真形状不同的第二失真形状(例如,更圆的形状或更卵圆/椭圆形状)使第二部分失真。在一些实施方案中,如果第二部分相比第一部分距预定义部分的距离更大(更远),则第二部分内的一个或多个对象(例如,发光对象)相比第一部分内的一个或多个对象(例如,发光对象)经过形状失真变得更为卵圆/椭圆形形状。
在一些实施方案中,以第一方式使图像数据的表示(例如,808)的第一部分失真包括使第一部分以第一失真程度(例如,第一部分内的一个或多个对象的形状的失真程度)失真。在一些实施方案中,以第二方式使图像数据的表示的第二部分失真包括使第二部分以大于第一失真程度的第二失真程度(例如,第二部分内的一个或多个对象的形状的失真程度)失真,其中第二部分相比第一部分与预定义部分(例如,图像数据的表示内的参考点或焦点)的距离更大(更远)。在一些实施方案中,图像数据的表示的周边中的对象经过失真形状变得更为卵圆/椭圆形,而较接近预定义部分(例如,中心部分、焦点部分)的对象失真更少。在一些实施方案中,失真程度随着与改变的预定义部分的距离而逐渐改变(例如,增大或减小)。
在一些实施方案中,以第一方式使第一部分失真包括使第一部分以第一量值模糊(例如,不对称地模糊/改变其锐度)。在一些实施方案中,以第二方式使第二部分失真包括使第二部分以第二量值模糊(例如,不对称地模糊/改变其锐度)。在一些实施方案中,根据确定第一部分距预定义部分的距离大于第二部分距预定义部分(例如,图像数据的表示内的参考点或焦点)的距离,第一量值大于第二量值。在一些实施方案中,根据确定第二部分距预定义部分的距离大于第一部分距预定义部分的距离,第二量值大于第一量值。
在一些实施方案中,在接收到将模拟深度效果应用于图像数据的表示(例如,808)的请求之前,电子设备(例如,600)在显示器(例如,602)上显示图像数据的表示。在一些实施方案中,在显示图像数据的表示时,电子设备(例如,600)使用图像数据(例如,经由对图像数据的分析并且/或者基于识别出图像数据表示的区域包括被摄对象的用户输入,诸如相机数据的实时预览中的轻击输入)、图像数据的表示内的被摄对象(例如,人、人的至少一部分,诸如人的面部或人的面部和上身)的存在。
在一些实施方案中,在显示器(例如,602)上显示具有模拟深度效果的图像数据的表示(例如,808)还包括使图像的第一部分和图像的第二部分失真,而不使与被摄对象(的中心部分/区域)对应的图像数据的表示的一部分失真(916)。在一些实施方案中,图像数据的表示的对应于被摄对象的部分的失真程度小于图像的第一部分和图像的第二部分。
在一些实施方案中,使图像数据的表示的第一部分失真包括根据确定第一部分不对应于被摄对象(的中心部分/区域)而使第一部分失真。在一些实施方案中,使图像数据的表示的第二部分失真包括根据确定第二部分不对应于被摄对象(的中心部分/区域)而使第二部分失真。
在一些实施方案中,响应于接收到将模拟深度效果应用于图像数据的表示(例如,808)的请求,电子设备(例如,600)基于图像数据(例如,经由对图像数据的分析)来识别(918)与图像数据的表示内的发光对象(例如,818A、818B、818C、818D)相关联的一个或多个对象(例如,而不是不与发光对象相关联的那些对象)。
在一些实施方案中,在显示器(例如,602)上显示具有模拟深度效果的图像数据的表示(例如,808)还包括相对于不与发光对象(例如,820A、820B)相关联的图像数据的表示的(例如,未被识别为发光对象的)一个或多个部分,以第三方式改变(920)与发光对象(例如,818A、818B、818C、818D)相关联的图像数据的表示的(例如,被识别为发光对象的)一个或多个部分的外观。在一些实施方案中,与第四方式相比,第三方式包括使对象以更大的量值模糊/锐化。在一些实施方案中,与第四方式相比,第三方式包括使对象的形状以更大程度失真。
在一些实施方案中,以第三方式改变与发光对象(例如,818A、818B、818C、818D)相关联的图像数据的表示(例如,808)中的对象的外观包括以下操作中的一种或多种:相对于不与发光对象相关联的图像数据的表示的其他部分,增加(922)与发光对象相关联的图像数据的表示的一个或多个部分的亮度;相对于不与发光对象相关联的图像数据的表示的其他部分,增加(924)与发光对象相关联的图像数据的表示的一个或多个部分的饱和度;并且相对于不与发光对象相关联的图像数据的表示的其他部分(例如,820A、820B),增加(926)与发光对象相关联的图像数据的表示的一个或多个部分的尺寸。
在一些实施方案中,电子设备(例如,600)经由一个或多个输入设备检测(928)改变图像失真参数的值的一个或多个输入,其中使图像数据的表示(例如,808)(的一部分)失真是基于(并且是响应于)(例如,经由用于控制参数的可调节滑块的移动)选择图像失真参数的值的一个或多个用户输入。在一些实施方案中,可调节滑块(例如,822)被调节为使图像数据的表示失真(例如,对其应用模拟深度效果)。在一些实施方案中,提供可调节滑块以使图像数据的表示失真使得用户能够快速且容易地提供一个或多个输入以改变图像失真参数的值以使图像数据的表示失真。提供额外控制选项并减少执行操作所需的输入数量增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速并且更高效地使用设备而减少了电力使用并延长了设备的电池寿命。在一些实施方案中,响应于检测到改变图像失真参数的值的一个或多个输入(例如,803、805),相对于不与发光对象(例如,820A、820B)相关联的图像数据的表示的其他部分,改变(930)与发光对象(例如,818A、818B、818C、818D)相关联的图像数据的表示的一个或多个部分的外观的变化量值(例如,当失真参数逐渐增大时,相对于数据表示的其他部分,逐渐增加与发光源相关联的对象的亮度、尺寸和/或饱和度(并且模拟焦平面之外的时间图像的区域的模糊度逐渐增加),并且当失真参数逐渐减小时,相对于数据表示的其他部分,逐渐减小与发光源相关联的对象的亮度、尺寸和/或饱和度(并且模拟焦平面之外的时间图像的区域的模糊度逐渐降低))。
需注意,上文参考方法900(例如,图9A至图9B)所述的过程的详情也以类似方式适用于上文和下文所述的方法。例如,方法700任选地包括上文参考方法900所述的各种方法的特性中的一个或多个特性。例如,方法700中所述的深度调节滑块可用于将模拟深度效果应用于图像表示内的对象。又如,方法1100任选地包括上文参考方法900所述的各种方法的一个或多个特性。例如,如方法1100中所述,关于检测到的干扰的通知可以与可妨碍用于模拟深度效果的一个或多个深度传感器的检测到的磁干扰相关联。为了简明起见,这些详情在下文中不再重复。
图10A至图10F示出根据一些实施方案的用于指示对调节模拟图像效果(例如,模拟深度效果,诸如散景效果)的干扰的示例性用户界面。这些附图中的用户界面用于示出下文所述的包括图11中的过程的过程。
图10A示出了电子设备600的后视图。在一些实施方案中,电子设备600包括一个或多个后向相机608和一个或多个后向深度相机传感器1002(例如,类似于深度相机传感器175)。在一些实施方案中,一个或多个后向相机608与一个或多个后深度相机传感器1002集成。
图10B示出了具有显示器602的电子设备600的前视图。在一些实施方案中,电子设备600包括一个或多个前向相机606和一个或多个前方深度相机传感器1004。在一些实施方案中,一个或多个前向相机606与一个或多个后深度相机传感器1004集成。
在图10B中,电子设备600在显示器602上显示用于启动图像捕获应用程序的示能表示1006。此外,在图10B中,在显示示能表示1006时,电子设备(例如,经由显示器602的触敏表面)检测示能表示1006的激活1001。
在图10C中,响应于检测到用于启动图像捕获应用程序的示能表示1006的激活1001,电子设备600在显示器602上显示图像捕获应用程序的用户界面1008(例如,对应于用户界面614和用户界面804)。在启动图像捕获应用程序时(或者在启动图像捕获应用程序之前/响应于启动图像捕获应用程序),电子设备600不检测可妨碍或阻碍用于执行图像捕获应用程序的模拟图像效果功能(例如,上面参考图6A至图6T和图8A至图8M所述的模拟深度效果)的一个或多个传感器(例如,设备的一个或多个深度传感器1002和1004)的操作的干扰(例如,磁干扰或诸如来自设备的附件的其他外部干扰)。因此,电子设备600不显示指示干扰的存在的通知。
图10D示出了电子设备600的后视图,其中设备至少部分地被保护壳1010(例如,智能电话壳体)覆盖。保护壳1010包括可由电子设备600的一个或多个传感器检测到的磁性部件1012(例如,用于将壳体和设备固定到保持器,诸如汽车安装座;作为外部电池壳体的一部分的磁性部件)。
图10E示出了至少部分地由保护壳1010覆盖的电子设备600的前视图。在图10E中,电子设备600在显示器602上显示用于启动图像捕获应用程序的示能表示1006。此外,在图10B中,在显示示能表示1006时,电子设备(例如,经由显示器602的触敏表面)检测示能表示1006的激活1003。
在图10F中,响应于检测到用于启动图像捕获应用程序的示能表示1006的激活1003,电子设备600在显示器602上显示图像捕获应用程序的用户界面1008(例如,对应于用户界面614和用户界面804)。在启动图像捕获应用程序时(或者在启动图像捕获应用程序之前/响应于启动图像捕获应用程序),电子设备600检测来自保护壳1010的磁性部件1012的干扰(例如,磁干扰)。
如图10F所示,响应于检测到干扰,电子设备600(例如,通过图像捕获应用程序的用户界面1008)显示指示已检测到干扰的通知1014,并且由于该干扰,一个或多个模拟图像效果特征(例如,包括上文参考图6A至图6T和图8A至图8M所述的模拟深度效果特征)可能受到所检测到的干扰的影响。在一些实施方案中,通知1014还包括用于关闭通知并且尽管存在干扰也继续使用模拟图像效果特征的示能表示1016。
在一些实施方案中,电子设备600在先前已经检测到预先确定数量的实例中存在(例如,来自保护壳1010的磁性部件1012的)干扰之后(例如,在已经启动图像捕获应用程序并且检测到干扰3次、5次或7次之后)显示通知1014。因此,在一些实施方案中,如果没有检测到干扰的先前实例,则电子设备600尽管已经检测到来自保护壳1010的磁性部件1012的干扰,也在启动图像捕获应用程序时放弃显示通知1014。
在一些实施方案中,如果通知1014先前已呈现在设备上,则电子设备600在检测到(例如,来自保护壳1010的磁性部件1012的)与先前显示通知1014时相比干扰在更多数量的实例中存在之后显示新通知1014。例如,如果在图像捕获应用程序的3次先前启动时检测到干扰之后显示先前通知1014,则电子设备600放弃显示新通知1014,直到在图像捕获应用程序的5次先前启动时检测到干扰。
在一些实施方案中,如果通知1014已经在设备上呈现预先确定的次数,则尽管随后的检测到干扰的实例,电子设备600也放弃呈现通知。
在一些实施方案中,响应于检测到示能表示1016的激活,电子设备600改变一个或多个模拟图像效果(例如,包括模拟深度效果)的模式,使得图像效果的一个或多个特征变得不可用或不可使用。
图11是示出根据一些实施方案的用于管理用于指示对调节模拟图像效果的干扰的用户界面的方法的流程图。方法1100在具有显示器和包括一个或多个相机的一个或多个传感器(例如,一个或多个相机、能够检测源自电子设备外部的源的干扰诸如磁干扰的干扰检测器)的设备(例如,100、300、500、600)处执行。方法1100中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法1100提供了用于管理用于模拟深度效果的用户界面的直观方式。该方法减轻了用户管理和导航用于模拟深度效果的用户界面的认知负担,从而创建了更有效的人机界面。对于电池驱动的计算设备,使用户能够通过提供对用于模拟深度效果的用户界面的简单管理更快且更有效地导航用户界面,节省了功率并且增加了电池充电之间的时间间隔。
在显示器(例如,602)上显示相机应用程序(例如,1008)的用户界面时,电子设备(例如,600)经由一个或多个传感器检测(1102)将损害一个或多个相机(例如,606、608)的相应功能的操作的(例如,来自1012的)(例如,来自附接到电子设备、附连到电子设备、覆盖电子设备或放置在电子设备附近的附件,诸如设备的保护壳或设备上的外部附件的)外部干扰(例如,磁干扰;影响电子设备的一个或多个与相机相关的功能(例如,一个或多个与深度效果相关的功能)的干扰)。自动检测将损害一个或多个相机的相应功能的操作的外部干扰通过使用户能够绕过必须手动检查是否存在影响设备的一个或多个功能的外部干扰来减少用户控制设备所需的输入数量。减少执行操作所需的输入数量增强了设备的可操作性,并且使用户设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。此外,自动检测将损害一个或多个相机的相应功能的操作的外部干扰并且向用户通知检测为用户提供了校正问题的选项,同时仍然允许设备继续以降低的操作水平操作。这反过来增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,相应功能是(1104)电子设备(例如,600)的一个或多个相机(例如,606、608)的聚焦功能。
在一些实施方案中,干扰是(1106)(例如,来自1012的)磁干扰。
在一些实施方案中,干扰(1108)来自电子设备(例如,600)的附件(例如,1010)(例如,由附件引起或因附件而被检测到)(例如,用于电子设备的保护性外壳或盖(例如,装有电池的壳体或盖),附连到/附接到电子设备的磁性标贴或附接件)。
在一些实施方案中,检测将损害一个或多个相机(例如,606、608)的相应功能的操作的(例如,来自1012的)外部干扰包括(例如,响应于显示用于相机应用程序的用户界面的用户请求)在电子设备上显示用于相机应用程序的用户界面(例如,1008)时检测外部干扰。在一些实施方案中,电子设备(例如,600)仅在显示用于相机应用程序的用户界面时检测将损害一个或多个相机的相应功能的操作的外部干扰,并且在已经显示用于相机应用程序的用户界面之后或者未在电子设备上显示用于相机应用程序的用户界面时不检测外部干扰。仅在显示用于相机应用程序的用户界面时检测外部干扰并且在已经显示用于相机应用程序的用户界面之后或者当不显示用于相机应用程序的用户界面时不检测外部干扰,通过在设备上使用可受外部干扰影响的功能时检测外部干扰来降低功率消耗。通过改善设备的电池寿命,降低功率消耗增强了设备的可操作性。
响应于检测到(1110)电子设备(例如,600)外部的(例如,来自1012的)干扰,根据确定已满足第一标准(例如,包括已经检测到当前发生的、至少预先确定数量的先前发生的干扰,诸如先前在电子设备上启动相机应用程序时检测到的发生),电子设备在显示器(例如,602)上显示(1112)指示一个或多个相机的操作模式(例如,深度效果模式)已被改变以减少外部干扰对一个或多个相机(例如,606、608)的相应功能的影响的通知(例如,1014)。显示指示一个或多个相机的操作模式(例如,深度效果模式)已被改变以减少外部干扰对一个或多个相机的相应功能的影响的通知,通过使用户能够快速且容易地识别设备已改变一个或多个相机的操作模式(例如,深度效果模式)以减少外部干扰的影响而改善了视觉反馈。为用户提供改进的视觉反馈增强了设备的可操作性,并且使用户设备界面更有效(例如,通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
响应于检测到(1110)电子设备(例如,600)外部的干扰,根据确定尚未满足第一标准(例如,包括已经检测到当前发生的、小于预先确定数量的先前发生的干扰),电子设备(例如,600)放弃在显示器(例如,602)上显示(1120)指示一个或多个相机(例如,606、608)的操作模式(例如,深度效果模式)已被改变的通知(例如,1014)。如果已经检测到少于预先确定的数量的先前发生的干扰则放弃显示通知,通过放弃针对干扰检测(而不是来自例如设备的附件的持续干扰检测)的一次关闭事件提供通知来增强设备功能。放弃提供不必要的通知增强了用户的便利性和设备的可操作性并且使用户设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一标准包括(1114)当电子设备(例如,600)检测到(例如,来自1012的)外部干扰的第一预先确定的发生量(例如,5、7、11)(的离散实例)时满足的要求。因此,在一些实施方案中,需要预先确定数量的外部界面的离散检测来触发通知的显示。在一些实施方案中,当用户尝试以将利用一个或多个相机的相应功能的方式使用相机应用程序时,发生外部干扰的检测的离散发生并且设备检查外部干扰以确定设备是否能够使用一个或多个相机的相应功能并且确定存在外部干扰。在一些实施方案中,设备以预先确定的间隔(例如,每小时一次、每天一次、每天使用相机应用程序的第一次)检查外部干扰。
在一些实施方案中,第一预先确定的数量(1116)取决于通知(例如,1014)先前已在电子设备(例如,600)上显示的次数(例如,基于此改变)。在一些实施方案中,触发通知所需的外部界面的第一预先确定数量的检测基于电子设备已经显示的通知数量而逐渐增加。例如,如果需要特定数量(例如,3个)的外部干扰的离散检测来触发第一通知的显示,则需要更多(例如,5个)外部干扰的离散检测来触发第二通知的显示,并且需要更多数量(例如,7个)的外部干扰的离散检测来触发第三通知的显示。逐渐增加触发通知所需的外部干扰的第一预先确定数量的检测通过即使在用户可能已经(基于先前的通知)意识到干扰但选择忽略干扰时放弃过于频繁地显示通知来增强用户便利性。增强用户便利性增强了设备的可操作性,并且(例如,通过帮助用户提供正确的输入并且减少操作设备/与设备交互时的用户错误)使用户-设备界面更高效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在显示器(例如,602)上显示通知(例如,1014)包括根据确定先前已在电子设备(例如,600)上显示少于第二预先确定的数量的通知来显示通知。在一些实施方案中,如果先前已经在电子设备上显示至少第二预先确定的数量的通知,则电子设备放弃显示通知(无论是否已满足第一标准)。
在一些实施方案中,对一个或多个相机的操作模式进行更改(1118)以减少(例如,来自1012的)外部干扰对一个或多个相机(例如,606、608)的相应功能的影响包括减少(或降低、减弱)一个或多个相机的一个或多个功能(例如,与模拟深度效果相关的功能、光学图像稳定、自动对焦和/或需要可受到机械部件附近的强烈磁场的不利影响的机械部件的精确移动的操作)的响应性(或完全禁用这些功能中的一个或多个功能),其中一个或多个功能对应于当由电子设备正检测到外部干扰时不能由一个或多个相机可靠地执行的功能。
需注意,上文相对于方法1100(例如,图11)所述的过程的详情也以类似方式适用于上文和下文所述的方法。例如,方法700任选地包括上文参考方法1100所述的各种方法的特性中的一个或多个特性。例如,如方法700中所述,使用深度调节滑块调节模拟深度效果可受到磁干扰的影响,磁干扰可妨碍用于模拟深度效果的一个或多个深度传感器。又如,方法900任选地包括上文参考方法1100所述的各种方法的特性中的一个或多个特性。例如,如方法900中所述,将模拟深度效果应用于图像表示内的对象可受磁干扰的影响,磁干扰可妨碍用于模拟深度效果的一个或多个深度传感器。为了简明起见,这些详情在下文中不再重复。
出于解释的目的,前述描述是通过参考具体实施方案来进行描述的。然而,上面的例示性论述并非旨在是穷尽的或将本发明限制为所公开的精确形式。根据以上教导内容,很多修改形式和变型形式都是可能的。选择并描述这些实施方案是为了最好地解释这些技术的原理及其实际应用程序。本领域的其他技术人员由此能够最好地利用这些技术以及具有适合于所预期的特定用途的各种修改的各种实施方案。
尽管参考附图对本公开以及示例进行了全面的描述,但应当注意,各种变化和修改对于本领域内的技术人员而言将变得显而易见。应当理解,此类变化和修改被认为被包括在由权利要求书所限定的本公开和示例的范围内。
如上所述,本发明技术的一个方面在于采集和使用得自各种源的数据,以改善可应用于实时馈送和/或所存储的照片和图像的模拟图像效果特征的功能和灵活性。本公开预期,在一些实例中,这些所采集的数据可包括唯一地识别或可用于联系或定位特定人员的个人信息数据。此类个人信息数据可以包括人口统计数据、基于位置的数据、电话号码、电子邮件地址、推特ID、家庭地址、与用户的健康或健康水平有关的数据或记录(例如,生命体征测量、药物信息、锻炼信息)、出生日期或任何其他识别或个人信息。
本公开认识到在本发明技术中使用此类个人信息数据可用于使用户受益。例如,个人信息数据可用于识别所捕获的图像或照片内的人或被摄对象。因此,使用此类个人信息数据使得用户能够更容易地识别所捕获的图像或照片的内容并且组织此类捕获的图像或照片。此外,本公开还预期个人信息数据有益于用户的其他用途。例如,健康和健身数据可用于向用户的总体健康状况提供见解,或者可用作使用技术来追求健康目标的个人的积极反馈。
本公开设想了负责采集、分析、公开、传输、存储或其他使用此类个人信息数据的实体将遵守既定的隐私政策和/或隐私实践。具体地,此类实体应当实行并坚持使用被公认为满足或超出对维护个人信息数据的隐私性和安全性的行业或政府要求的隐私政策和实践。此类政策应该能被用户方便地访问,并应随着数据的采集和/或使用变化而被更新。来自用户的个人信息应当被收集用于实体的合法且合理的用途,并且不在这些合法使用之外共享或出售。此外,应在收到用户知情同意后进行此类采集/共享。此外,此类实体应考虑采取任何必要步骤,保卫和保障对此类个人信息数据的访问,并确保有权访问个人信息数据的其他人遵守其隐私政策和流程。另外,这种实体可使其本身经受第三方评估以证明其遵守广泛接受的隐私政策和实践。此外,应当调整政策和实践,以便采集和/或访问的特定类型的个人信息数据,并适用于包括管辖范围的具体考虑的适用法律和标准。例如,在美国,对某些健康数据的收集或获取可能受联邦和/或州法律的管辖,诸如健康保险流通和责任法案(HIPAA);而其他国家的健康数据可能受到其他法规和政策的约束并应相应处理。因此,在每个国家应为不同的个人数据类型保持不同的隐私实践。
不管前述情况如何,本公开还设想用户选择性地阻止使用或访问个人信息数据的实施方案。即本公开预期可提供硬件元件和/或软件元件,以防止或阻止对此类个人信息数据的访问。例如,在检测和识别图像或照片中的人或被摄对象的情况下,本发明技术可被配置为在注册服务期间或之后的任何时候允许用户选择“选择加入”或“选择退出”参与对个人信息数据的收集。除了提供“选择加入”和“选择退出”选项外,本公开设想提供与访问或使用个人信息相关的通知。例如,可在下载应用时向用户通知其个人信息数据将被访问,然后就在个人信息数据被应用访问之前再次提醒用户。
此外,本公开的目的是应管理和处理个人信息数据以最小化无意或未经授权的访问或使用的风险。一旦不再需要数据,通过限制数据收集和删除数据可最小化风险。此外,并且当适用时,包括在某些健康相关应用程序中,数据去标识可用于保护用户的隐私。可在适当时通过移除特定标识符(例如,出生日期等)、控制所存储数据的量或特异性(例如,在城市级别而不是在地址级别收集位置数据)、控制数据如何被存储(例如,在用户之间聚合数据)、和/或其他方法来促进去标识。
因此,尽管本公开广泛地覆盖了使用个人信息数据来实现一个或多个各种所公开的实施方案,但本公开还设想各种实施方案也可在无需访问此类个人信息数据的情况下被实现。即,本发明技术的各种实施方案不会由于缺少此类个人信息数据的全部或一部分而无法正常进行。例如,可基于非个人信息数据或绝对最低限度的个人信息或公开可用信息(诸如与图像或照片相关联的日期和时间)来组织图像或照片。

Claims (31)

1.一种方法,包括:
在具有显示器和一个或多个输入设备的电子设备处:
在所述显示器上显示图像数据的表示和模拟深度效果指示符,其中所述模拟深度效果指示符包括模拟深度效果的当前量值的数字指示;
在显示具有由用于所述模拟深度效果的多个可选值中的第一值修改的所述模拟深度效果的所述图像数据的表示时,经由所述一个或多个输入设备检测第一输入;
响应于检测到所述第一输入:
在所述显示器上与所述模拟深度效果指示符同时显示与操纵所述图像数据的表示相关联的可调节滑块,其中显示所述可调节滑块包括在所述显示器上滑动所述图像数据的表示以显示所述可调节滑块,其中在所述显示器上滑动所述图像数据的表示之后,所述滑块显示在先前被显示在所述滑块上方的所述图像数据的表示的一部分占据的位置处,并且其中所述可调节滑块包括:
多个选项指示符,所述多个选项指示符对应于用于所述模拟深度效果的多个所述可选值;和
选择指示符,所述选择指示符指示所述第一值是当前选择的模拟深度效果值;
在显示所述可调节滑块时,经由所述一个或多个输入设备检测指向所述可调节滑块的输入;并且
响应于检测到指向所述可调节滑块的所述输入:
移动所述可调节滑块以指示用于所述模拟深度效果的所述多个可选值中的第二值是所述当前选择的模拟深度效果值;以及
根据由所述第二值修改的所述模拟深度效果来改变所述图像数据的表示的外观;以及
在改变所述图像数据的表示的所述外观之后:
在所述显示器上显示所述模拟深度效果指示符,其中所述模拟深度效果指示符包括所述模拟深度效果的所述当前量值的更新的数字指示,所述更新的数字指示对应于所述第二值。
2.根据权利要求1所述的方法,其中:
在检测到所述第一输入之前,所述模拟深度效果指示符以第一视觉特性显示,并且
在检测到所述第一输入之后,所述模拟深度效果指示符以与所述第一视觉特性不同的第二视觉特性显示。
3.根据权利要求1至2中任一项所述的方法,还包括:
在检测到所述第一输入之前,在所述显示器上显示一个或多个模式选择器示能表示,其中显示所述可调节滑块包括用所述可调节滑块替换所述一个或多个模式选择器示能表示的显示。
4.根据权利要求1至2中任一项所述的方法,还包括:
在检测到所述第一输入之前,在所述显示器上显示缩放控制元素,其中显示所述可调节滑块包括替换所述缩放控制元素的显示。
5.根据权利要求1至2中任一项所述的方法,其中指向所述可调节滑块的所述输入是所述可调节滑块上的轻扫手势,其中所述轻扫手势包括在所述轻扫手势结束时具有至少第一速度的在第一方向上的用户移动。
6.根据权利要求1至2中任一项所述的方法,其中移动所述可调节滑块包括在所述选择指示符保持固定时移动所述多个选项指示符。
7.根据权利要求1至2中任一项所述的方法,其中移动所述可调节滑块包括在所述多个选项指示符保持固定时移动所述选择指示符。
8.根据权利要求1至2中任一项所述的方法,还包括:
在移动所述可调节滑块时,在针对由所述可调节滑块控制的参数选择不同的值时,与所述可调节滑块的移动同步地生成第一类型的输出。
9.根据权利要求8所述的方法,其中在移动所述可调节滑块时:
根据确定所述图像数据的表示对应于所存储的图像数据,所述第一类型的输出包括音频输出;以及
根据确定所述图像数据的表示对应于由一个或多个相机正在捕获的图像数据的实时预览,所述第一类型的输出不包括音频输出。
10.根据权利要求1至2中任一项所述的方法,其中在所述显示器上显示所述图像数据的表示还包括:
根据确定所述图像数据的表示对应于所存储的图像数据,显示具有先前由用于所述模拟深度效果的先前第一值修改的先前模拟深度效果的所述图像数据的表示。
11.一种计算机可读存储介质,所述计算机可读存储介质存储被配置为由具有显示器和一个或多个输入设备的电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于以下操作的指令:
在所述显示器上显示图像数据的表示和模拟深度效果指示符,其中所述模拟深度效果指示符包括模拟深度效果的当前量值的数字指示;
在显示具有由用于所述模拟深度效果的多个可选值的第一值修改的所述模拟深度效果的所述图像数据的表示时,经由所述一个或多个输入设备检测第一输入;
响应于检测到所述第一输入:
在所述显示器上与所述模拟深度效果指示符同时显示与操纵所述图像数据的表示相关联的可调节滑块,其中显示所述可调节滑块包括在所述显示器上滑动所述图像数据的表示以显示所述可调节滑块,其中在所述显示器上滑动所述图像数据的表示之后,所述滑块显示在先前被显示在所述滑块上方的所述图像数据的表示的一部分占据的位置处,并且其中所述可调节滑块包括:
多个选项指示符,所述多个选项指示符对应于用于所述模拟深度效果的多个所述可选值;和
选择指示符,所述选择指示符指示所述第一值是当前选择的模拟深度效果值;
在显示所述可调节滑块时,经由所述一个或多个输入设备检测指向所述可调节滑块的输入;并且
响应于检测到指向所述可调节滑块的所述输入:
移动所述可调节滑块以指示用于所述模拟深度效果的所述多个可选值中的第二值是所述当前选择的模拟深度效果值;以及
根据由所述第二值修改的所述模拟深度效果来改变所述图像数据的表示的外观;以及
在改变所述图像数据的表示的所述外观之后:
在所述显示器上显示所述模拟深度效果指示符,其中所述模拟深度效果指示符包括所述模拟深度效果的所述当前量值的更新的数字指示,所述更新的数字指示对应于所述第二值。
12.根据权利要求11所述的计算机可读存储介质,所述一个或多个程序还包括用于以下操作的指令:
在检测到所述第一输入之前,所述模拟深度效果指示符以第一视觉特性显示,并且
在检测到所述第一输入之后,所述模拟深度效果指示符以与所述第一视觉特性不同的第二视觉特性显示。
13.根据权利要求11至12中任一项所述的计算机可读存储介质,所述一个或多个程序还包括用于以下操作的指令:
在检测到所述第一输入之前,在所述显示器上显示一个或多个模式选择器示能表示,其中显示所述可调节滑块包括用所述可调节滑块替换所述一个或多个模式选择器示能表示的显示。
14.根据权利要求11至12所述的计算机可读存储介质,所述一个或多个程序还包括用于以下操作的指令:
在检测到所述第一输入之前,在所述显示器上显示缩放控制元素,其中显示所述可调节滑块包括替换所述缩放控制元素的显示。
15.根据权利要求11至12中任一项所述的计算机可读存储介质,其中指向所述可调节滑块的所述输入是所述可调节滑块上的轻扫手势,其中所述轻扫手势包括在所述轻扫手势结束时具有至少第一速度的在第一方向上的用户移动。
16.根据权利要求11至12中任一项所述的计算机可读存储介质,其中移动所述可调节滑块包括在所述选择指示符保持固定时移动所述多个选项指示符。
17.根据权利要求11至12中任一项所述的计算机可读存储介质,其中移动所述可调节滑块包括在所述多个选项指示符保持固定时移动所述选择指示符。
18.根据权利要求11至12中任一项所述的计算机可读存储介质,所述一个或多个程序还包括用于以下操作的指令:
在移动所述可调节滑块时,在针对由所述可调节滑块控制的参数选择不同的值时,与所述可调节滑块的移动同步地生成第一类型的输出。
19.根据权利要求18所述的计算机可读存储介质,其中在移动所述可调节滑块时:
根据确定所述图像数据的表示对应于所存储的图像数据,所述第一类型的输出包括音频输出;以及
根据确定所述图像数据的表示对应于由一个或多个相机正在捕获的图像数据的实时预览,所述第一类型的输出不包括音频输出。
20.根据权利要求11至12中任一项所述的计算机可读存储介质,其中在所述显示器上显示所述图像数据的表示还包括:
根据确定所述图像数据的表示对应于所存储的图像数据,显示具有先前由用于所述模拟深度效果的先前第一值修改的先前模拟深度效果的所述图像数据的表示。
21.一种电子设备,包括:
显示器;
一个或多个输入设备;
一个或多个处理器;以及
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于以下操作的指令:
在所述显示器上显示图像数据的表示和模拟深度效果指示符,其中所述模拟深度效果指示符包括模拟深度效果的当前量值的数字指示;
在显示具有由用于所述模拟深度效果的多个可选值的第一值修改的所述模拟深度效果的所述图像数据的表示时,经由所述一个或多个输入设备检测第一输入;
响应于检测到所述第一输入:
在所述显示器上与所述模拟深度效果指示符同时显示与操纵所述图像数据的表示相关联的可调节滑块,其中显示所述可调节滑块包括在所述显示器上滑动所述图像数据的表示以显示所述可调节滑块,其中在所述显示器上滑动所述图像数据的表示之后,所述滑块显示在先前被显示在所述滑块上方的所述图像数据的表示的一部分占据的位置处,并且其中所述可调节滑块包括:
多个选项指示符,所述多个选项指示符对应于用于所述模拟深度效果的多个所述可选值;和
选择指示符,所述选择指示符指示所述第一值是当前选择的模拟深度效果值;
在显示所述可调节滑块时,经由所述一个或多个输入设备检测指向所述可调节滑块的输入;以及
响应于检测到指向所述可调节滑块的所述输入:
移动所述可调节滑块以指示用于所述模拟深度效果的所述多个可选值中的第二值是所述当前选择的模拟深度效果值;以及
根据由所述第二值修改的所述模拟深度效果来改变所述图像数据的表示的外观;以及
在改变所述图像数据的表示的所述外观之后:
在所述显示器上显示所述模拟深度效果指示符,其中所述模拟深度效果指示符包括所述模拟深度效果的所述当前量值的更新的数字指示,所述更新的数字指示对应于所述第二值。
22.根据权利要求21所述的电子设备,所述一个或多个程序还包括用于以下操作的指令:
在检测到所述第一输入之前,所述模拟深度效果指示符以第一视觉特性显示,并且
在检测到所述第一输入之后,所述模拟深度效果指示符以与所述第一视觉特性不同的第二视觉特性显示。
23.根据权利要求21至22所述的电子设备,所述一个或多个程序还包括用于以下操作的指令:
在检测到所述第一输入之前,在所述显示器上显示一个或多个模式选择器示能表示,其中显示所述可调节滑块包括用所述可调节滑块替换所述一个或多个模式选择器示能表示的显示。
24.根据权利要求21至22所述的电子设备,所述一个或多个程序还包括用于以下操作的指令:
在检测到所述第一输入之前,在所述显示器上显示缩放控制元素,其中显示所述可调节滑块包括替换所述缩放控制元素的显示。
25.根据权利要求21至22所述的电子设备,其中指向所述可调节滑块的所述输入是所述可调节滑块上的轻扫手势,其中所述轻扫手势包括在所述轻扫手势结束时具有至少第一速度的在第一方向上的用户移动。
26.根据权利要求21至22所述的电子设备,其中移动所述可调节滑块包括在所述选择指示符保持固定时移动所述多个选项指示符。
27.根据权利要求21至22所述的电子设备,其中移动所述可调节滑块包括在所述多个选项指示符保持固定时移动所述选择指示符。
28.根据权利要求21至22所述的电子设备,所述一个或多个程序还包括用于以下操作的指令:
在移动所述可调节滑块时,在针对由所述可调节滑块控制的参数选择不同的值时,与所述可调节滑块的移动同步地生成第一类型的输出。
29.根据权利要求28所述的电子设备,其中在移动所述可调节滑块时:
根据确定所述图像数据的表示对应于所存储的图像数据,所述第一类型的输出包括音频输出;以及
根据确定所述图像数据的表示对应于由一个或多个相机正在捕获的图像数据的实时预览,所述第一类型的输出不包括音频输出。
30.根据权利要求21至22所述的电子设备,其中在所述显示器上显示所述图像数据的表示还包括:
根据确定所述图像数据的表示对应于所存储的图像数据,显示具有先前由用于所述模拟深度效果的先前第一值修改的先前模拟深度效果的所述图像数据的表示。
31.一种电子设备,包括:
显示器;以及
用于执行根据权利要求1至2任一项所述的方法的装置。
CN202110356908.6A 2018-09-11 2019-08-30 用于模拟深度效果的用户界面 Pending CN112860173A (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201862729926P 2018-09-11 2018-09-11
US62/729,926 2018-09-11
DKPA201870623A DK201870623A1 (en) 2018-09-11 2018-09-24 USER INTERFACES FOR SIMULATED DEPTH EFFECTS
DKPA201870623 2018-09-24
US16/144,629 US11468625B2 (en) 2018-09-11 2018-09-27 User interfaces for simulated depth effects
US16/144,629 2018-09-27
CN201980056883.9A CN112654956A (zh) 2018-09-11 2019-08-30 用于模拟深度效果的用户界面

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201980056883.9A Division CN112654956A (zh) 2018-09-11 2019-08-30 用于模拟深度效果的用户界面

Publications (1)

Publication Number Publication Date
CN112860173A true CN112860173A (zh) 2021-05-28

Family

ID=69719917

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202110356908.6A Pending CN112860173A (zh) 2018-09-11 2019-08-30 用于模拟深度效果的用户界面
CN201980056883.9A Pending CN112654956A (zh) 2018-09-11 2019-08-30 用于模拟深度效果的用户界面

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201980056883.9A Pending CN112654956A (zh) 2018-09-11 2019-08-30 用于模拟深度效果的用户界面

Country Status (7)

Country Link
US (2) US11468625B2 (zh)
EP (1) EP3827334A1 (zh)
JP (2) JP7090210B2 (zh)
KR (2) KR20230071201A (zh)
CN (2) CN112860173A (zh)
AU (2) AU2019338180B2 (zh)
DK (1) DK201870623A1 (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3958557A1 (en) 2015-04-23 2022-02-23 Apple Inc. Digital viewfinder user interface for multiple cameras
US9716825B1 (en) 2016-06-12 2017-07-25 Apple Inc. User interface for camera effects
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
JP7142315B2 (ja) * 2018-09-27 2022-09-27 パナソニックIpマネジメント株式会社 説明支援装置および説明支援方法
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
CN109889630B (zh) * 2019-01-11 2022-03-08 华为技术有限公司 显示方法及相关装置
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
USD940744S1 (en) * 2019-09-18 2022-01-11 Beijing Xiaomi Mobile Software Co., Ltd. Telephone display screen or portion thereof with animated graphical user interface
CN112784621B (zh) * 2019-10-22 2024-06-18 华为技术有限公司 图像显示方法及设备
US11368626B2 (en) * 2020-02-06 2022-06-21 Canon Kabushiki Kaisha Display control apparatus that controls display of information relating to bokeh and method for controlling the same
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
CN111757135B (zh) * 2020-06-24 2022-08-23 北京字节跳动网络技术有限公司 直播互动方法、装置、可读介质及电子设备
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
USD977495S1 (en) * 2020-12-04 2023-02-07 Toyota Motor North America, Inc. Display screen or portion thereof with graphical user interface
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
USD987656S1 (en) 2021-06-04 2023-05-30 Apple Inc. Display screen or portion thereof with graphical user interface
CN113709366B (zh) * 2021-08-24 2022-11-22 联想(北京)有限公司 一种信息处理方法及装置
US20230132156A1 (en) * 2021-10-26 2023-04-27 Qualcomm Incorporated Calibration of a camera according to a characteristic of a physical environment

Family Cites Families (704)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58190931A (ja) 1982-04-30 1983-11-08 Olympus Optical Co Ltd オ−トストロボの露光適否表示装置
JPH0812318B2 (ja) 1988-02-19 1996-02-07 富士写真光機株式会社 カメラの夜景撮影装置
SU1610470A1 (ru) 1988-12-05 1990-11-30 Предприятие П/Я Г-4046 Устройство дл контрол работы видоискател - дальномера фотоаппарата
JPH02179078A (ja) 1988-12-28 1990-07-12 Olympus Optical Co Ltd 電子カメラ
US5557358A (en) 1991-10-11 1996-09-17 Minolta Camera Kabushiki Kaisha Camera having an electronic viewfinder for displaying an object image under different photographic conditions
US5463443A (en) 1992-03-06 1995-10-31 Nikon Corporation Camera for preventing camera shake
JP2813728B2 (ja) 1993-11-01 1998-10-22 インターナショナル・ビジネス・マシーンズ・コーポレイション ズーム/パン機能付パーソナル通信機
US5825353A (en) 1995-04-18 1998-10-20 Will; Craig Alexander Control of miniature personal digital assistant using menu and thumbwheel
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
JP3631838B2 (ja) 1996-02-21 2005-03-23 チノン株式会社 外部記憶装置およびカメラシステム
US6621524B1 (en) 1997-01-10 2003-09-16 Casio Computer Co., Ltd. Image pickup apparatus and method for processing images obtained by means of same
US6262769B1 (en) 1997-07-31 2001-07-17 Flashpoint Technology, Inc. Method and system for auto rotating a graphical user interface for managing portrait and landscape images in an image capture unit
US6535243B1 (en) 1998-01-06 2003-03-18 Hewlett- Packard Company Wireless hand-held digital camera
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6148113A (en) 1998-02-03 2000-11-14 Micrografx, Inc. System for stimulating the depth of field of an image in two dimensional space and method of operation
JPH11355617A (ja) 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
US6268864B1 (en) 1998-06-11 2001-07-31 Presenter.Com, Inc. Linking a video and an animation
US6278466B1 (en) 1998-06-11 2001-08-21 Presenter.Com, Inc. Creating animation from a video
JP2000207549A (ja) 1999-01-11 2000-07-28 Olympus Optical Co Ltd 画像処理装置
JP2000244905A (ja) 1999-02-22 2000-09-08 Nippon Telegr & Teleph Corp <Ntt> 映像観察システム
US6359837B1 (en) 1999-06-30 2002-03-19 Casio Computer Co., Ltd. Camera, camera system, information recording system, timepiece, and link system for camera and timepiece
US20060033831A1 (en) 1999-09-14 2006-02-16 Nikon Corporation Electronic still camera
US6677981B1 (en) 1999-12-31 2004-01-13 Stmicroelectronics, Inc. Motion play-back of still pictures comprising a panoramic view for simulating perspective
US6522347B1 (en) 2000-01-18 2003-02-18 Seiko Epson Corporation Display apparatus, portable information processing apparatus, information recording medium, and electronic apparatus
US6809724B1 (en) 2000-01-18 2004-10-26 Seiko Epson Corporation Display apparatus and portable information processing apparatus
JP3752951B2 (ja) 2000-03-01 2006-03-08 カシオ計算機株式会社 撮像装置および輝度分布表示方法
US6809759B1 (en) 2000-06-19 2004-10-26 Benq Corporation Remote control unit with previewing device for an image-capturing device
US6900840B1 (en) 2000-09-14 2005-05-31 Hewlett-Packard Development Company, L.P. Digital camera and method of using same to view image in live view mode
JP4608766B2 (ja) 2000-11-27 2011-01-12 ソニー株式会社 固体撮像素子の駆動方法、及びカメラ
JP2002175538A (ja) 2000-12-08 2002-06-21 Mitsubishi Electric Corp 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法
US6965394B2 (en) 2001-03-30 2005-11-15 Koninklijke Philips Electronics N.V. Remote camera control device
JP3780178B2 (ja) 2001-05-09 2006-05-31 ファナック株式会社 視覚センサ
CA2448678C (en) 2001-05-30 2008-03-25 Panavision, Inc. Hand-held remote control and display system for film and video cameras and lenses
JP2003018438A (ja) 2001-07-05 2003-01-17 Fuji Photo Film Co Ltd 画像撮像装置
US6930718B2 (en) 2001-07-17 2005-08-16 Eastman Kodak Company Revised recapture camera and method
US6539177B2 (en) 2001-07-17 2003-03-25 Eastman Kodak Company Warning message camera and method
DE10152008B4 (de) 2001-10-22 2011-12-08 Zf Sachs Ag Hydraulische Kupplung mit einem Turbinentorsionsschwingungsdämpfer
JP3788942B2 (ja) * 2002-02-22 2006-06-21 株式会社東芝 情報処理装置およびコンピュータの操作支援方法
JP4006347B2 (ja) 2002-03-15 2007-11-14 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム
US7271838B2 (en) 2002-05-08 2007-09-18 Olympus Corporation Image pickup apparatus with brightness distribution chart display capability
JP2004015595A (ja) 2002-06-10 2004-01-15 Minolta Co Ltd デジタルカメラ
US7035462B2 (en) 2002-08-29 2006-04-25 Eastman Kodak Company Apparatus and method for processing digital images having eye color defects
JP2004128584A (ja) 2002-09-30 2004-04-22 Minolta Co Ltd 撮像装置
JP2004135074A (ja) 2002-10-10 2004-04-30 Calsonic Kansei Corp 撮像装置
KR100826243B1 (ko) 2002-11-20 2008-04-29 삼성전자주식회사 화각 조정이 가능한 촬영장치 및 그의 제어방법
US7039222B2 (en) 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7619686B2 (en) 2003-03-24 2009-11-17 Kantan Inc. Apparatus for a combination camcorder-handset device
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
JP2005031466A (ja) 2003-07-07 2005-02-03 Fujinon Corp 撮像装置および撮像方法
JP3926316B2 (ja) 2003-10-31 2007-06-06 松下電器産業株式会社 撮像装置
EP1684506A4 (en) 2003-11-11 2008-06-04 Seiko Epson Corp IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, PROGRAM THEREFOR AND RECORDING MEDIUM
US20050134695A1 (en) 2003-12-17 2005-06-23 Deshpande Sachin G. Systems and methods for providing remote camera control
JP4342926B2 (ja) 2003-12-24 2009-10-14 三菱電機株式会社 画像入力方法および画像入力装置
JP4387183B2 (ja) 2003-12-26 2009-12-16 京セラ株式会社 デジタルカメラ
JP2005269604A (ja) 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd 撮像装置、撮像方法、及び撮像プログラム
TWI246847B (en) 2004-03-16 2006-01-01 Benq Corp Method and apparatus for improving quality of a scanned image through a preview operation
JP4446787B2 (ja) 2004-04-21 2010-04-07 富士フイルム株式会社 撮像装置、および表示制御方法
JP2005311789A (ja) 2004-04-22 2005-11-04 Fuji Photo Film Co Ltd デジタルカメラ
US7555717B2 (en) 2004-04-30 2009-06-30 Samsung Electronics Co., Ltd. Method for displaying screen image on mobile terminal
US7463304B2 (en) 2004-05-06 2008-12-09 Sony Ericsson Mobile Communications Ab Remote control accessory for a camera-equipped wireless communications device
US8045009B2 (en) 2004-05-10 2011-10-25 Hewlett-Packard Development Company, L.P. Image-exposure systems and methods using detecting motion of a camera to terminate exposure
US20050270397A1 (en) 2004-06-02 2005-12-08 Battles Amy E System and method for indicating settings
KR100595665B1 (ko) 2004-06-03 2006-07-03 엘지전자 주식회사 카메라폰의 원격 제어 시스템 및 방법
JP4707368B2 (ja) 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
KR20070086037A (ko) 2004-11-12 2007-08-27 목3, 인크. 장면 간 전환 방법
US8537224B2 (en) 2005-01-31 2013-09-17 Hewlett-Packard Development Company, L.P. Image capture device having a shake metter
US7796179B2 (en) 2005-02-03 2010-09-14 Nikon Corporation Display device, electronic apparatus and camera
US7206136B2 (en) 2005-02-18 2007-04-17 Eastman Kodak Company Digital camera using multiple lenses and image sensors to provide an extended zoom range
US20060187322A1 (en) 2005-02-18 2006-08-24 Janson Wilbert F Jr Digital camera using multiple fixed focal length lenses and multiple image sensors to provide an extended zoom range
US7427986B2 (en) 2005-03-03 2008-09-23 Pixar Hybrid hardware-accelerated relighting system for computer cinematography
JP2006277497A (ja) 2005-03-30 2006-10-12 Toshiba Corp 表示制御方法および情報処理装置
KR100740189B1 (ko) 2005-05-13 2007-07-16 노키아 코포레이션 그래픽 사용자 인터페이스를 지닌 장치
JP2006345172A (ja) 2005-06-08 2006-12-21 Olympus Imaging Corp ファインダ装置及びカメラ
WO2007007758A1 (ja) 2005-07-11 2007-01-18 Nikon Corporation 電子カメラ
JP2007028211A (ja) 2005-07-15 2007-02-01 Canon Inc 撮像装置及びその制御方法
CA2553473A1 (en) 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US7379664B2 (en) 2005-07-26 2008-05-27 Tinkers & Chance Remote view and controller for a camera
US7424218B2 (en) 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
JP2007043248A (ja) 2005-07-29 2007-02-15 Eastman Kodak Co 撮像装置
US7460730B2 (en) 2005-08-04 2008-12-02 Microsoft Corporation Video registration and image sequence stitching
US20070040810A1 (en) 2005-08-18 2007-02-22 Eastman Kodak Company Touch controlled display device
JP4708479B2 (ja) 2005-09-14 2011-06-22 ノキア コーポレイション 動き主導のマルチショット画像安定化を実現するためのシステム及び方法
US20070228259A1 (en) 2005-10-20 2007-10-04 Hohenberger Roger T System and method for fusing an image
JP4665718B2 (ja) 2005-10-28 2011-04-06 株式会社ニコン 撮影装置
US20070097088A1 (en) 2005-10-31 2007-05-03 Battles Amy E Imaging device scrolling touch pad with tap points
JP4793179B2 (ja) 2005-11-14 2011-10-12 オムロン株式会社 認証装置及び携帯端末
US20070109417A1 (en) 2005-11-16 2007-05-17 Per Hyttfors Methods, devices and computer program products for remote control of an image capturing device
US20100066895A1 (en) 2005-12-06 2010-03-18 Panasonic Corporation Digital camera
CN100581219C (zh) 2005-12-06 2010-01-13 松下电器产业株式会社 数字相机
US20100066890A1 (en) 2005-12-06 2010-03-18 Panasonic Corporation Digital camera
US8223242B2 (en) 2005-12-06 2012-07-17 Panasonic Corporation Digital camera which switches the displays of images with respect to a plurality of display portions
JP4956988B2 (ja) 2005-12-19 2012-06-20 カシオ計算機株式会社 撮像装置
JP2007180730A (ja) 2005-12-27 2007-07-12 Eastman Kodak Co デジタルカメラおよびデータ管理方法
JP2007189503A (ja) 2006-01-13 2007-07-26 Matsushita Electric Ind Co Ltd 端末装置及びプログラム
JP5083855B2 (ja) 2006-01-30 2012-11-28 ソニー株式会社 撮影装置
US7792355B2 (en) 2006-03-30 2010-09-07 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image capturing apparatus
US20070248330A1 (en) 2006-04-06 2007-10-25 Pillman Bruce H Varying camera self-determination based on subject motion
CN101427232B (zh) 2006-04-20 2015-05-13 思科技术公司 用于控制远程呈现系统的系统和方法
US20070254640A1 (en) 2006-04-27 2007-11-01 Bliss Stephen J Remote control and viewfinder for mobile camera phone
JP5007523B2 (ja) 2006-05-02 2012-08-22 カシオ計算機株式会社 撮像装置及びそのプログラム
US8189100B2 (en) 2006-07-25 2012-05-29 Qualcomm Incorporated Mobile device with dual digital camera sensors and methods of using the same
US20080030592A1 (en) 2006-08-01 2008-02-07 Eastman Kodak Company Producing digital image with different resolution portions
KR100999026B1 (ko) 2006-09-01 2010-12-09 리서치 인 모션 리미티드 전자 디바이스에서의 디스플레이를 제어하는 방법 및 장치
JP2008096584A (ja) 2006-10-10 2008-04-24 Nikon Corp カメラ
CN101485193B (zh) 2006-10-19 2012-04-18 松下电器产业株式会社 图像生成装置以及图像生成方法
JP2008116823A (ja) 2006-11-07 2008-05-22 Nikon Corp カメラ
KR100835956B1 (ko) 2006-12-04 2008-06-09 삼성전자주식회사 이동통신 단말기의 이미지 처리 방법
NZ598897A (en) 2006-12-04 2013-09-27 Lynx System Developers Inc Autonomous systems and methods for still and moving picture production
US20080143840A1 (en) 2006-12-19 2008-06-19 Texas Instruments Incorporated Image Stabilization System and Method for a Digital Camera
EP1953663A1 (en) 2007-01-26 2008-08-06 Research In Motion Limited Touch entry of password on a mobile device
KR100785071B1 (ko) 2007-02-08 2007-12-12 삼성전자주식회사 터치스크린을 갖는 휴대 단말기에서 터치 입력에 대한 정보표시 방법
JP4869981B2 (ja) 2007-02-28 2012-02-08 オリンパス株式会社 撮像システム及び撮像機器の認証方法
KR101406289B1 (ko) 2007-03-08 2014-06-12 삼성전자주식회사 스크롤 기반 아이템 제공 장치 및 방법
US7859588B2 (en) 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
JP4760742B2 (ja) 2007-03-22 2011-08-31 カシオ計算機株式会社 デジタルカメラ、及び情報表示方法、情報表示制御プログラム
US9544563B1 (en) 2007-03-23 2017-01-10 Proximex Corporation Multi-video navigation system
EP2326079B1 (en) 2007-04-02 2015-07-15 BlackBerry Limited Camera with multiple viewfinders
US8154578B2 (en) 2007-05-31 2012-04-10 Eastman Kodak Company Multi-camera residential communication system
US8253770B2 (en) 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
JP4954800B2 (ja) 2007-06-06 2012-06-20 オリンパス株式会社 顕微鏡撮像システム
US8185839B2 (en) 2007-06-09 2012-05-22 Apple Inc. Browsing or searching user interfaces and other aspects
KR101373333B1 (ko) 2007-07-11 2014-03-10 엘지전자 주식회사 터치인식을 통한 영상촬영 기능을 구비한 휴대 단말기 및그 촬영방법
US8068693B2 (en) 2007-07-18 2011-11-29 Samsung Electronics Co., Ltd. Method for constructing a composite image
JP2009027298A (ja) 2007-07-18 2009-02-05 Ricoh Co Ltd 撮像装置および撮像装置の制御方法
US8717412B2 (en) 2007-07-18 2014-05-06 Samsung Electronics Co., Ltd. Panoramic image production
CN101772952B (zh) 2007-07-23 2013-04-24 松下电器产业株式会社 摄像装置
JP2009033469A (ja) 2007-07-26 2009-02-12 Olympus Imaging Corp 撮像装置
JP4845832B2 (ja) 2007-08-07 2011-12-28 キヤノン株式会社 撮像装置および制御方法
US20090046097A1 (en) 2007-08-09 2009-02-19 Scott Barrett Franklin Method of making animated video
KR101341095B1 (ko) 2007-08-23 2013-12-13 삼성전기주식회사 야경 환경에서 최적의 화질을 갖는 영상 획득 장치 및 방법
JP4930297B2 (ja) 2007-09-10 2012-05-16 株式会社ニコン 撮像装置
JP4466702B2 (ja) 2007-09-12 2010-05-26 カシオ計算機株式会社 撮像装置、及び撮像制御プログラム
JP4930302B2 (ja) 2007-09-14 2012-05-16 ソニー株式会社 撮像装置、その制御方法およびプログラム
US20090102933A1 (en) 2007-09-24 2009-04-23 Global Device Management Target Acquisition System
US8350945B2 (en) 2007-10-15 2013-01-08 Panasonic Corporation Camera body used in an imaging device with which the state of an optical system is verified by an operation member
US8395661B1 (en) 2009-02-16 2013-03-12 Seektech, Inc. Pipe inspection system with selective image capture
JP2009111844A (ja) 2007-10-31 2009-05-21 Fujifilm Corp 撮影装置
US7391442B1 (en) 2007-11-01 2008-06-24 International Business Machines Corporation Digital camera including a distortion correction system
US8892999B2 (en) 2007-11-30 2014-11-18 Nike, Inc. Interactive avatar for social network services
US8179363B2 (en) 2007-12-26 2012-05-15 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with histogram manipulation
US8207932B2 (en) 2007-12-26 2012-06-26 Sharp Laboratories Of America, Inc. Methods and systems for display source light illumination level selection
KR101411910B1 (ko) 2008-01-04 2014-06-26 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US20130085935A1 (en) 2008-01-18 2013-04-04 Mitek Systems Systems and methods for mobile image capture and remittance processing
JP5036599B2 (ja) 2008-03-05 2012-09-26 株式会社リコー 撮像装置
JP4931845B2 (ja) 2008-03-18 2012-05-16 富士フイルム株式会社 撮像装置及び撮影画像表示制御方法
JP4483962B2 (ja) 2008-03-25 2010-06-16 ソニー株式会社 撮像装置、撮像方法
US20090251484A1 (en) 2008-04-03 2009-10-08 Motorola, Inc. Avatar for a portable device
JP4544332B2 (ja) 2008-04-07 2010-09-15 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4980982B2 (ja) 2008-05-09 2012-07-18 富士フイルム株式会社 撮像装置、撮像方法、合焦制御方法及びプログラム
JP5451593B2 (ja) 2008-06-09 2014-03-26 パナソニック株式会社 撮像装置、撮像方法
US8035728B2 (en) 2008-06-27 2011-10-11 Aptina Imaging Corporation Method and apparatus providing rule-based auto exposure technique preserving scene dynamic range
US8237807B2 (en) 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
JP5153512B2 (ja) 2008-08-08 2013-02-27 キヤノン株式会社 表示処理装置、表示処理方法、プログラム及び記憶媒体
CN101651775B (zh) 2008-08-14 2011-08-24 鸿富锦精密工业(深圳)有限公司 影像撷取装置及其曝光方法
US8400518B2 (en) 2008-09-10 2013-03-19 Panasonic Corporation Imaging apparatus
US9250797B2 (en) 2008-09-30 2016-02-02 Verizon Patent And Licensing Inc. Touch gesture interface apparatuses, systems, and methods
KR101555055B1 (ko) 2008-10-10 2015-09-22 엘지전자 주식회사 이동단말기 및 그 디스플레이방법
US20100097322A1 (en) 2008-10-16 2010-04-22 Motorola, Inc. Apparatus and method for switching touch screen operation
US8624836B1 (en) 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
KR101450580B1 (ko) 2008-11-19 2014-10-14 삼성전자주식회사 이미지 합성 방법 및 장치
US8493408B2 (en) 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
US20100153847A1 (en) 2008-12-17 2010-06-17 Sony Computer Entertainment America Inc. User deformation of movie character images
US8453057B2 (en) 2008-12-22 2013-05-28 Verizon Patent And Licensing Inc. Stage interaction for mobile device
KR20100078295A (ko) 2008-12-30 2010-07-08 삼성전자주식회사 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
JP2010160581A (ja) 2009-01-06 2010-07-22 Olympus Imaging Corp ユーザインタフェース装置、カメラ、ユーザインタフェース方法およびユーザインタフェース用プログラム
JP2010176170A (ja) 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
CN102326133B (zh) 2009-02-20 2015-08-26 皇家飞利浦电子股份有限公司 用于使得设备进入活动模式的系统、方法和装置
US8532346B2 (en) 2009-03-11 2013-09-10 Sony Corporation Device, method and computer program product
JP5259464B2 (ja) 2009-03-13 2013-08-07 オリンパスイメージング株式会社 撮像装置およびそのモード切換え方法
US20100231735A1 (en) 2009-03-13 2010-09-16 Nokia Corporation Methods, Apparatuses, and Computer Program Products for Facilitating Concurrent Video Recording and Still Image Capture
US8542287B2 (en) 2009-03-19 2013-09-24 Digitaloptics Corporation Dual sensor camera
US9113124B2 (en) 2009-04-13 2015-08-18 Linkedin Corporation Method and system for still image capture from video footage
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US20100277470A1 (en) 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US9144714B2 (en) 2009-05-02 2015-09-29 Steven J. Hollinger Ball with camera for reconnaissance or recreation and network for operating the same
JP5775659B2 (ja) 2009-05-07 2015-09-09 オリンパス株式会社 撮像装置および撮像装置におけるモード切換え方法
US8669945B2 (en) 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
JP5478935B2 (ja) 2009-05-12 2014-04-23 キヤノン株式会社 撮像装置
US20100289910A1 (en) 2009-05-15 2010-11-18 Moran Research And Consulting, Inc. Method and apparatus for remote camera control
KR101857564B1 (ko) 2009-05-15 2018-05-15 삼성전자 주식회사 휴대 단말기의 이미지 처리 방법
JP5326802B2 (ja) 2009-05-19 2013-10-30 ソニー株式会社 情報処理装置、画像拡大縮小方法及びそのプログラム
US8340654B2 (en) 2009-05-26 2012-12-25 Lextech Labs Llc Apparatus and method for video display and control for portable device
US8610741B2 (en) 2009-06-02 2013-12-17 Microsoft Corporation Rendering aligned perspective images
US8289400B2 (en) 2009-06-05 2012-10-16 Apple Inc. Image capturing device having continuous image capture
KR101598335B1 (ko) 2009-06-11 2016-02-29 엘지전자 주식회사 휴대 단말기 및 그 동작방법
JP5552769B2 (ja) 2009-07-29 2014-07-16 ソニー株式会社 画像編集装置、画像編集方法及びプログラム
JP5404221B2 (ja) 2009-07-13 2014-01-29 キヤノン株式会社 撮像装置
US8723988B2 (en) 2009-07-17 2014-05-13 Sony Corporation Using a touch sensitive display to control magnification and capture of digital images by an electronic device
JP2011045039A (ja) 2009-07-21 2011-03-03 Fujifilm Corp 複眼撮像装置
JP2011028345A (ja) 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
US8390583B2 (en) 2009-08-31 2013-03-05 Qualcomm Incorporated Pressure sensitive user interface for mobile devices
US8675084B2 (en) 2009-09-04 2014-03-18 Apple Inc. Systems and methods for remote camera control
EP3855297A3 (en) 2009-09-22 2021-10-27 Apple Inc. Device method and graphical user interface for manipulating user interface objects
US20110074830A1 (en) 2009-09-25 2011-03-31 Peter William Rapp Device, Method, and Graphical User Interface Using Mid-Drag Gestures
US8766928B2 (en) 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
NO332170B1 (no) 2009-10-14 2012-07-16 Cisco Systems Int Sarl Anordning og fremgangsmate for kamerakontroll
JP5396231B2 (ja) 2009-10-21 2014-01-22 オリンパスイメージング株式会社 撮像装置
US8957918B2 (en) 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
KR101725888B1 (ko) 2009-11-13 2017-04-13 삼성전자주식회사 카메라 또는 원격 제어 장치에서의 이미지 제공 방법 및 그 장치
JP5343829B2 (ja) 2009-12-03 2013-11-13 株式会社リコー 情報処理装置及び情報処理装置の制御方法
JP5532214B2 (ja) 2009-12-11 2014-06-25 日本電気株式会社 カメラ付き携帯電話機
CN101860668A (zh) 2010-01-15 2010-10-13 英华达(上海)科技有限公司 数码相机及其操作方法
US8638371B2 (en) 2010-02-12 2014-01-28 Honeywell International Inc. Method of manipulating assets shown on a touch-sensitive display
US20110221755A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
JP5306266B2 (ja) 2010-03-15 2013-10-02 キヤノン株式会社 撮像装置及びその制御方法
JP4783465B1 (ja) 2010-03-26 2011-09-28 富士フイルム株式会社 撮像装置及び表示装置
JP4787906B1 (ja) 2010-03-30 2011-10-05 富士フイルム株式会社 撮像装置、方法およびプログラム
JP5719608B2 (ja) 2010-04-02 2015-05-20 オリンパスイメージング株式会社 撮影機器
FR2958487A1 (fr) 2010-04-06 2011-10-07 Alcatel Lucent Une methode de detourage en temps reel d'une entite reelle enregistree dans une sequence video
US8451994B2 (en) 2010-04-07 2013-05-28 Apple Inc. Switching cameras during a video conference of a multi-camera mobile device
US8405680B1 (en) 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
US9245177B2 (en) 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
KR101666919B1 (ko) 2010-08-13 2016-10-24 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
JP5423893B2 (ja) 2010-06-28 2014-02-19 株式会社ニコン 撮像装置、画像処理装置、画像処理プログラム記録媒体
US8699821B2 (en) 2010-07-05 2014-04-15 Apple Inc. Aligning images
JP5464083B2 (ja) 2010-07-07 2014-04-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8421898B2 (en) 2010-07-27 2013-04-16 Arcsoft (Hangzhou) Multimedia Technology Co., Ltd. Method for detecting and showing quality of a preview or stored picture in an electronic imaging device
US8781152B2 (en) 2010-08-05 2014-07-15 Brian Momeyer Identifying visual media content captured by camera-enabled mobile device
KR101700363B1 (ko) 2010-09-08 2017-01-26 삼성전자주식회사 적절한 밝기를 갖는 입체 영상을 생성하는 디지털 영상 촬영 장치 및 이의 제어 방법
US8593558B2 (en) 2010-09-08 2013-11-26 Apple Inc. Camera-based orientation fix from portrait to landscape
TW201215144A (en) 2010-09-16 2012-04-01 Hon Hai Prec Ind Co Ltd Image correcting system for cameras and correcting method using same
US20120069028A1 (en) 2010-09-20 2012-03-22 Yahoo! Inc. Real-time animations of emoticons using facial recognition during a video chat
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
JP5613005B2 (ja) 2010-10-18 2014-10-22 オリンパスイメージング株式会社 カメラ
WO2012051720A2 (en) 2010-10-22 2012-04-26 University Of New Brunswick Camera imaging systems and methods
US9204026B2 (en) 2010-11-01 2015-12-01 Lg Electronics Inc. Mobile terminal and method of controlling an image photographing therein
KR20120048397A (ko) 2010-11-05 2012-05-15 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US20120120277A1 (en) 2010-11-16 2012-05-17 Apple Inc. Multi-point Touch Focus
JP2012109898A (ja) 2010-11-19 2012-06-07 Aof Imaging Technology Ltd 撮影装置、撮影方法、およびプログラム
JP2012119858A (ja) 2010-11-30 2012-06-21 Aof Imaging Technology Ltd 撮影装置、撮影方法、およびプログラム
JP2012124608A (ja) 2010-12-06 2012-06-28 Olympus Imaging Corp カメラ
JP5652652B2 (ja) 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
US20120169776A1 (en) 2010-12-29 2012-07-05 Nokia Corporation Method and apparatus for controlling a zoom function
CN102075727A (zh) 2010-12-30 2011-05-25 中兴通讯股份有限公司 一种可视电话中图像处理方法和装置
KR101692401B1 (ko) 2011-01-21 2017-01-03 삼성전자주식회사 영상 처리 방법 및 장치
KR101836381B1 (ko) 2011-01-28 2018-03-08 삼성전자주식회사 터치스크린 단말기에서 화면 디스플레이 제어 방법 및 장치
US8717464B2 (en) 2011-02-09 2014-05-06 Blackberry Limited Increased low light sensitivity for image sensors by combining quantum dot sensitivity to visible and infrared light
US20130093904A1 (en) 2011-02-11 2013-04-18 Cole & Ashcroft Lp Remote Shutter for a Camera or Other Imaging Device
US9058098B2 (en) 2011-02-14 2015-06-16 Sony Corporation Display control device
TWI433534B (zh) 2011-02-15 2014-04-01 Ability Entpr Co Ltd 感光度校正方法及成像裝置
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
GB201102794D0 (en) 2011-02-17 2011-03-30 Metail Ltd Online retail system
US8896652B2 (en) 2011-02-28 2014-11-25 Soryn Technologies Llc System and method for real-time video communications
JP5250070B2 (ja) 2011-03-15 2013-07-31 富士フイルム株式会社 画像処理装置および画像処理方法、ならびに、画像処理システム
US20120243802A1 (en) 2011-03-25 2012-09-27 William Vernon Fintel Composite image formed from an image sequence
US20120244969A1 (en) 2011-03-25 2012-09-27 May Patents Ltd. System and Method for a Motion Sensing Device
US8736704B2 (en) 2011-03-25 2014-05-27 Apple Inc. Digital camera for capturing an image sequence
US20120249853A1 (en) 2011-03-28 2012-10-04 Marc Krolczyk Digital camera for reviewing related images
US8736716B2 (en) 2011-04-06 2014-05-27 Apple Inc. Digital camera having variable duration burst mode
JP5762115B2 (ja) 2011-04-28 2015-08-12 キヤノン株式会社 撮像装置及びその制御方法
JP5921080B2 (ja) 2011-04-28 2016-05-24 キヤノン株式会社 撮像装置及びその制御方法
KR101756839B1 (ko) 2011-05-17 2017-07-11 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
EP2715674A2 (en) 2011-05-23 2014-04-09 Blu Homes, Inc. Method, apparatus and system for customizing a building via a virtual environment
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8970653B2 (en) 2011-06-16 2015-03-03 Vtel Products Corporation, Inc. Video conference control system and method
US8832284B1 (en) 2011-06-16 2014-09-09 Google Inc. Virtual socializing
JP5909889B2 (ja) 2011-06-17 2016-04-27 ソニー株式会社 撮像制御装置、及び、撮像制御方法
US9153031B2 (en) 2011-06-22 2015-10-06 Microsoft Technology Licensing, Llc Modifying video regions using mobile device input
JP5855862B2 (ja) 2011-07-07 2016-02-09 オリンパス株式会社 撮像装置、撮像方法およびプログラム
DE212011100214U1 (de) 2011-07-08 2014-02-11 Visual Retailing Holding B.V. Abbildungsvorrichtung und Steuereinheit zum Fotografieren von Produkten
US8665212B2 (en) 2011-07-08 2014-03-04 Blackberry Limited Systems and methods for locking an electronic device
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
JP5516532B2 (ja) 2011-08-09 2014-06-11 カシオ計算機株式会社 電子機器、及びプログラム
US20130055119A1 (en) 2011-08-23 2013-02-28 Anh Luong Device, Method, and Graphical User Interface for Variable Speed Navigation
EP2562628A1 (en) 2011-08-26 2013-02-27 Sony Ericsson Mobile Communications AB Image scale alteration arrangement and method
US20130057472A1 (en) 2011-09-07 2013-03-07 Logitech Europe S.A. Method and system for a wireless control device
JP2013070303A (ja) 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
US9001255B2 (en) 2011-09-30 2015-04-07 Olympus Imaging Corp. Imaging apparatus, imaging method, and computer-readable storage medium for trimming and enlarging a portion of a subject image based on touch panel inputs
US20130088413A1 (en) 2011-10-05 2013-04-11 Google Inc. Method to Autofocus on Near-Eye Display
KR101792641B1 (ko) 2011-10-07 2017-11-02 엘지전자 주식회사 이동 단말기 및 그의 아웃 포커싱 이미지 생성방법
JP6098952B2 (ja) 2011-10-10 2017-03-22 マイクロソフト テクノロジー ライセンシング,エルエルシー 通信システム
CN202309894U (zh) 2011-10-11 2012-07-04 东莞市华鸿塑料机械厂 一种具有光学手指导航组件的数码相机
US8830191B2 (en) 2011-10-17 2014-09-09 Facebook, Inc. Soft control user interface with touchpad input device
US9448708B1 (en) 2011-10-19 2016-09-20 Google Inc. Theming for virtual collaboration
JP2013101528A (ja) 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
JP5741395B2 (ja) 2011-11-16 2015-07-01 コニカミノルタ株式会社 撮像装置
CN105653031B (zh) 2011-11-23 2019-10-01 英特尔公司 带有多个视图、显示器以及物理学的姿势输入
EP2600316A1 (en) 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
US8941707B2 (en) 2011-12-01 2015-01-27 Tangome, Inc. Video messaging
US8767034B2 (en) 2011-12-01 2014-07-01 Tangome, Inc. Augmenting a video conference
US9626013B2 (en) 2011-12-05 2017-04-18 Sony Corporation Imaging apparatus
US20130147933A1 (en) 2011-12-09 2013-06-13 Charles J. Kulas User image insertion into a text message
US9207837B2 (en) 2011-12-20 2015-12-08 Nokia Technologies Oy Method, apparatus and computer program product for providing multiple levels of interaction with a program
US20130155308A1 (en) 2011-12-20 2013-06-20 Qualcomm Incorporated Method and apparatus to enhance details in an image
US20130159900A1 (en) 2011-12-20 2013-06-20 Nokia Corporation Method, apparatus and computer program product for graphically enhancing the user interface of a device
KR101873747B1 (ko) 2011-12-27 2018-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9398262B2 (en) 2011-12-29 2016-07-19 Intel Corporation Communication using avatar
JP5854848B2 (ja) 2012-01-10 2016-02-09 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム、記憶媒体
US9204099B2 (en) 2012-02-01 2015-12-01 Magor Communications Corporation Videoconferencing system providing virtual physical context
US8723796B2 (en) 2012-02-02 2014-05-13 Kodak Alaris Inc. Multi-user interactive display system
US10044938B2 (en) 2012-02-08 2018-08-07 Abukai, Inc. Method and apparatus for processing images of receipts
US9148586B2 (en) 2012-02-10 2015-09-29 Sony Corporation Terminal apparatus for combining images from two different cameras based on detected sound
US8675113B2 (en) 2012-02-24 2014-03-18 Research In Motion Limited User interface for a digital camera
JP6041500B2 (ja) 2012-03-01 2016-12-07 キヤノン株式会社 撮像装置、撮像システム、撮像装置の駆動方法、撮像システムの駆動方法
US9131192B2 (en) 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
US9747495B2 (en) 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
EP2640060A1 (en) 2012-03-16 2013-09-18 BlackBerry Limited Methods and devices for producing an enhanced image
US20130246948A1 (en) 2012-03-16 2013-09-19 Lenovo (Beijing) Co., Ltd. Control method and control device
US9264660B1 (en) 2012-03-30 2016-02-16 Google Inc. Presenter control during a video conference
KR101899877B1 (ko) 2012-04-04 2018-09-19 삼성전자주식회사 확대된 영상의 화질을 개선하기 위한 장치 및 방법
JP2013219556A (ja) 2012-04-09 2013-10-24 Olympus Imaging Corp 撮像装置
WO2013152453A1 (en) 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
US9357174B2 (en) 2012-04-09 2016-05-31 Intel Corporation System and method for avatar management and selection
US8872093B2 (en) 2012-04-18 2014-10-28 Apple Inc. Calibrated image-sensor-based ambient light sensor
US9785883B2 (en) 2012-04-27 2017-10-10 Excalibur Ip, Llc Avatars for use with personalized generalized content recommendations
US9041844B2 (en) 2012-04-27 2015-05-26 Blackberry Limited Camera device with a dynamic touch screen shutter and dynamic focal control area
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN107124546B (zh) 2012-05-18 2020-10-16 华为终端有限公司 一种自动切换终端对焦模式的方法及终端
US9774778B2 (en) 2012-05-22 2017-09-26 Nikon Corporation Electronic camera, image display device, and storage medium storing image display program, including filter processing
US10681304B2 (en) 2012-06-08 2020-06-09 Apple, Inc. Capturing a panoramic image using a graphical user interface having a scan guidance indicator
US8957973B2 (en) 2012-06-11 2015-02-17 Omnivision Technologies, Inc. Shutter release using secondary camera
EP2864961A4 (en) 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc AVATAR CONSTRUCTION USING A DEPTH CAMERA
JP2014010777A (ja) 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
KR101937708B1 (ko) 2012-07-09 2019-04-11 삼성전자 주식회사 카메라 제어 시스템과 이를 포함하는 단말기 및 카메라 제어 방법
US20150070362A1 (en) 2012-07-20 2015-03-12 Mitsubishi Electric Corporation Information display device, display switching method, and display switching program
US8780219B2 (en) 2012-07-23 2014-07-15 Wooblue, Inc. Wireless viewing and control interface for imaging devices
JP2014023083A (ja) 2012-07-23 2014-02-03 Nikon Corp 表示装置、撮像装置及び画像編集プログラム
US9019415B2 (en) 2012-07-26 2015-04-28 Qualcomm Incorporated Method and apparatus for dual camera shutter
KR101900097B1 (ko) 2012-07-30 2018-09-20 삼성전자주식회사 이미지 캡처 방법 및 이미지 캡처 장치
KR20140019631A (ko) * 2012-08-06 2014-02-17 삼성전자주식회사 방사선 영상 촬영 장치 및 방법
TWI470598B (zh) 2012-08-07 2015-01-21 Wistron Corp 顯示調整方法及其電腦程式產品
KR20140021821A (ko) 2012-08-09 2014-02-21 삼성전자주식회사 이미지 캡처 장치 및 이미지 캡처 방법
US8910082B2 (en) 2012-08-10 2014-12-09 Modiface Inc. Method and system for modification of digital images through rotational cascading-effect interface
US8957892B2 (en) 2012-08-20 2015-02-17 Disney Enterprises, Inc. Stereo composition based on multiple camera rigs
US8928724B2 (en) * 2012-08-31 2015-01-06 Microsoft Corporation Unified user experience for mobile calls
KR101343591B1 (ko) 2012-09-03 2013-12-19 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US9602559B1 (en) 2012-09-07 2017-03-21 Mindmeld, Inc. Collaborative communication system with real-time anticipatory computing
US20140071061A1 (en) 2012-09-12 2014-03-13 Chih-Ping Lin Method for controlling execution of camera related functions by referring to gesture pattern and related computer-readable medium
JP5999336B2 (ja) 2012-09-13 2016-09-28 カシオ計算機株式会社 撮像装置及び撮像処理方法並びにプログラム
JP6039328B2 (ja) 2012-09-14 2016-12-07 キヤノン株式会社 撮影制御装置および撮像装置の制御方法
KR101487516B1 (ko) 2012-09-28 2015-01-30 주식회사 팬택 연속 자동 초점을 이용한 멀티 초점 이미지 캡처 장치 및 방법
US20140099994A1 (en) 2012-10-04 2014-04-10 Nvidia Corporation Electronic camera embodying a proximity sensor
JP6112819B2 (ja) 2012-10-10 2017-04-12 オリンパス株式会社 電子機器、駆動方法およびプログラム
WO2014058144A1 (ko) * 2012-10-10 2014-04-17 에스케이플래닛 주식회사 고속 스크롤 컨텐츠와 스크롤바 표시 방법 및 시스템
US10552030B2 (en) 2012-10-15 2020-02-04 Kirusa, Inc. Multi-gesture media recording system
WO2014062725A1 (en) 2012-10-17 2014-04-24 N2 Imaging Systems, LLC Imaging adapter head for personal imaging devices
WO2014064640A1 (en) 2012-10-24 2014-05-01 Koninklijke Philips N.V. Assisting a user in selecting a lighting device design
US8762895B2 (en) 2012-10-28 2014-06-24 Google Inc. Camera zoom indicator in mobile devices
US9807263B2 (en) 2012-10-31 2017-10-31 Conduent Business Services, Llc Mobile document capture assistance using augmented reality
WO2014078598A1 (en) 2012-11-14 2014-05-22 invi Labs, Inc. System for and method of embedding rich media into text messages
KR101954192B1 (ko) 2012-11-15 2019-03-05 엘지전자 주식회사 어레이 카메라, 휴대 단말기 및 그 동작 방법
DE112012007137T5 (de) 2012-11-15 2015-08-06 Mitsubishi Electric Corporation Anwenderschnittstellenvorrichtung
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
CN112911252B (zh) 2012-11-28 2023-07-04 核心光电有限公司 多孔径成像系统
US10079968B2 (en) 2012-12-01 2018-09-18 Qualcomm Incorporated Camera having additional functionality based on connectivity with a host device
AU2012258467A1 (en) 2012-12-03 2014-06-19 Canon Kabushiki Kaisha Bokeh amplification
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
CN103856709B (zh) 2012-12-04 2017-08-25 腾讯科技(深圳)有限公司 图像获取方法及装置
US20140160231A1 (en) 2012-12-12 2014-06-12 Daniel C. Middleton Multi-focal image capture and display
WO2014094199A1 (en) 2012-12-17 2014-06-26 Intel Corporation Facial movement based avatar animation
KR101418552B1 (ko) 2012-12-20 2014-07-16 주식회사 팬택 디밍 상태를 위한 사용자 인터페이스 장치 및 그 방법
KR101958582B1 (ko) 2012-12-29 2019-07-04 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US9152304B2 (en) 2012-12-31 2015-10-06 General Electric Company Systems and methods for virtual control of a non-destructive testing system
US9264630B2 (en) 2013-01-04 2016-02-16 Nokia Technologies Oy Method and apparatus for creating exposure effects using an optical image stabilizing device
CN103916582B (zh) 2013-01-07 2017-09-29 华为技术有限公司 一种图像处理方法及装置
US20140310598A1 (en) 2013-01-10 2014-10-16 Okappi, Inc. Multimedia Spiral Timeline
CN103945046A (zh) 2013-01-21 2014-07-23 目酷实验室有限公司 拍照控制方法及控制装置
TWI537813B (zh) 2013-01-25 2016-06-11 宏達國際電子股份有限公司 電子裝置及其照相機切換方法
CN103093490B (zh) 2013-02-02 2015-08-26 浙江大学 基于单个视频摄像机的实时人脸动画方法
JP6057752B2 (ja) 2013-02-07 2017-01-11 オリンパス株式会社 撮像装置、撮像方法及びプログラム
US10477087B2 (en) 2017-11-16 2019-11-12 Duelight Llc System, method, and computer program for capturing a flash image based on ambient and flash metering
JP2014165609A (ja) 2013-02-22 2014-09-08 Olympus Imaging Corp 撮影機器
JP5729407B2 (ja) 2013-02-28 2015-06-03 カシオ計算機株式会社 撮像装置、表示制御方法及びプログラム
KR20140108078A (ko) 2013-02-28 2014-09-05 삼성전자주식회사 논-스테레오스코픽 카메라를 이용하여 스테레오스코픽 이미지를 생성하는 방법과 기기 및 장치
US9094576B1 (en) 2013-03-12 2015-07-28 Amazon Technologies, Inc. Rendered audiovisual communication
US9342230B2 (en) 2013-03-13 2016-05-17 Microsoft Technology Licensing, Llc Natural user interface scrolling and targeting
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
KR102063915B1 (ko) 2013-03-14 2020-01-08 삼성전자주식회사 사용자 기기 및 그 동작 방법
US9886160B2 (en) 2013-03-15 2018-02-06 Google Llc Managing audio at the tab level for user notification and control
US9712688B2 (en) 2013-03-15 2017-07-18 Cam Ranger LLC Wireless adapter and method for communication with digital camera
JP6103999B2 (ja) 2013-03-15 2017-03-29 キヤノン株式会社 画像データ送信装置、画像データ受信装置、画像データ送信方法、画像データ受信方法、及びプログラム
JP2014183425A (ja) 2013-03-19 2014-09-29 Sony Corp 画像処理方法、画像処理装置および画像処理プログラム
JP5851651B2 (ja) 2013-03-21 2016-02-03 株式会社日立国際電気 映像監視システム、映像監視方法、および映像監視装置
US9066017B2 (en) 2013-03-25 2015-06-23 Google Inc. Viewfinder display based on metering images
US20150145950A1 (en) 2013-03-27 2015-05-28 Bae Systems Information And Electronic Systems Integration Inc. Multi field-of-view multi sensor electro-optical fusion-zoom camera
KR102099635B1 (ko) 2013-04-09 2020-04-13 삼성전자 주식회사 카메라의 가이드 제공 방법 및 그 전자 장치
IL226047A (en) 2013-04-29 2017-12-31 Hershkovitz Reshef May A method and system for giving personal expressions
EP2992692B1 (en) 2013-05-04 2018-08-29 DECHARMS, Christopher Mobile security technology
KR20140133363A (ko) 2013-05-10 2014-11-19 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
JP6244655B2 (ja) 2013-05-16 2017-12-13 ソニー株式会社 画像処理装置および画像処理方法
US9602796B2 (en) 2013-05-20 2017-03-21 Intel Corporation Technologies for improving the accuracy of depth cameras
KR20140138424A (ko) 2013-05-23 2014-12-04 삼성전자주식회사 제스쳐를 이용한 사용자 인터페이스 방법 및 장치
US9307112B2 (en) 2013-05-31 2016-04-05 Apple Inc. Identifying dominant and non-dominant images in a burst mode capture
US9452354B2 (en) 2013-06-07 2016-09-27 Sony Interactive Entertainment Inc. Sharing three-dimensional gameplay
US9378576B2 (en) 2013-06-07 2016-06-28 Faceshift Ag Online modeling for real-time facial animation
US10168882B2 (en) 2013-06-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for switching between camera interfaces
CN108769497B (zh) 2013-06-13 2021-01-15 核心光电有限公司 双孔径变焦数字摄影机
US20140372856A1 (en) 2013-06-14 2014-12-18 Microsoft Corporation Natural Quick Functions Gestures
JP6173060B2 (ja) 2013-06-18 2017-08-02 オリンパス株式会社 撮影機器及びその制御方法
US9509913B2 (en) 2013-06-18 2016-11-29 Olympus Corporation Image pickup apparatus, method of controlling image pickup apparatus, image pickup apparatus system, and image pickup control program stored in storage medium of image pickup apparatus
GB2515797A (en) 2013-07-04 2015-01-07 Sony Corp A method, apparatus and system for image processing
KR102133529B1 (ko) 2013-07-16 2020-07-13 삼성전자주식회사 영상 필터 정렬 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 디지털 영상 장치
US20150022674A1 (en) 2013-07-18 2015-01-22 Koss Corporation Wireless video camera
WO2015011703A1 (en) 2013-07-21 2015-01-29 Pointgrab Ltd. Method and system for touchless activation of a device
JP6102602B2 (ja) 2013-07-23 2017-03-29 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US20150033192A1 (en) 2013-07-23 2015-01-29 3M Innovative Properties Company Method for creating effective interactive advertising content
US9299188B2 (en) 2013-08-08 2016-03-29 Adobe Systems Incorporated Automatic geometry and lighting inference for realistic image editing
CN104346080A (zh) 2013-08-09 2015-02-11 昆达电脑科技(昆山)有限公司 屏幕控制系统及其方法
KR102047703B1 (ko) 2013-08-09 2019-11-22 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
KR20150019710A (ko) 2013-08-14 2015-02-25 삼성전자주식회사 촬영 장치 및 이의 제어 방법
US10289265B2 (en) 2013-08-15 2019-05-14 Excalibur Ip, Llc Capture and retrieval of a personalized mood icon
KR102065408B1 (ko) 2013-08-16 2020-01-13 엘지전자 주식회사 이동 단말기
US9881645B2 (en) 2013-08-20 2018-01-30 Google Llc Systems, methods, and media for editing video during playback via gestures
GB2531439B (en) 2013-08-21 2016-10-26 Canon Kk Image capturing apparatus and control method thereof
US9804760B2 (en) 2013-08-22 2017-10-31 Apple Inc. Scrollable in-line camera for capturing and sharing content
KR102124604B1 (ko) 2013-09-02 2020-06-19 삼성전자주식회사 이미지 안정화 방법 그 전자 장치
JP5769768B2 (ja) 2013-09-03 2015-08-26 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP6476658B2 (ja) 2013-09-11 2019-03-06 ソニー株式会社 画像処理装置および方法
KR102077108B1 (ko) 2013-09-13 2020-02-14 한국전자통신연구원 콘텐츠 체험 서비스 제공 장치 및 그 방법
US10944917B2 (en) 2013-09-16 2021-03-09 Kyle L. Baltz Camera and image processing method
JP2016538657A (ja) 2013-09-16 2016-12-08 トムソン ライセンシングThomson Licensing 複数のユーザコメントを検索してコンテンツにオーバーレイすることによるビデオのブラウジング
KR102065046B1 (ko) 2013-09-16 2020-01-10 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9436705B2 (en) 2013-09-17 2016-09-06 Google Technology Holdings LLC Grading images and video clips
US9544574B2 (en) 2013-12-06 2017-01-10 Google Inc. Selecting camera pairs for stereoscopic imaging
US9460125B2 (en) 2013-09-30 2016-10-04 Duelight Llc Systems, methods, and computer program products for digital photography
JP6234151B2 (ja) 2013-10-09 2017-11-22 キヤノン株式会社 撮像装置
KR102063768B1 (ko) 2013-10-16 2020-01-08 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR20160075583A (ko) 2013-10-18 2016-06-29 더 라이트코 인코포레이티드 이미지들을 캡처 및/또는 조합하기 위한 방법들 및 장치
GB2519363A (en) 2013-10-21 2015-04-22 Nokia Technologies Oy Method, apparatus and computer program product for modifying illumination in an image
KR102124014B1 (ko) * 2013-10-29 2020-06-17 삼성전자주식회사 영상 촬상 장치 및 이의 보케 영상 생성 방법
CN108107571B (zh) 2013-10-30 2021-06-01 株式会社摩如富 图像处理装置及方法及非暂时性计算机可读记录介质
US10271010B2 (en) 2013-10-31 2019-04-23 Shindig, Inc. Systems and methods for controlling the display of content
JP6273782B2 (ja) 2013-11-07 2018-02-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9253527B2 (en) 2013-11-14 2016-02-02 Smiletime Inc Social multi-camera interactive live engagement system
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US10157294B2 (en) 2013-11-26 2018-12-18 CaffeiNATION Signings (Series 3 of Caffeinaton Series, LLC) Systems, methods and computer program products for managing remote execution of transaction documents
US9246961B2 (en) 2013-11-27 2016-01-26 Facebook, Inc. Communication user interface systems and methods
US20150149927A1 (en) 2013-11-27 2015-05-28 Facebook, Inc. Communication user interface systems and methods
KR20150061277A (ko) 2013-11-27 2015-06-04 삼성전자주식회사 영상 촬영 장치 및 이의 영상 촬영 방법
JP6432130B2 (ja) * 2013-11-29 2018-12-05 カシオ計算機株式会社 表示システム、表示装置、撮影装置、表示方法及びプログラム
JP6247527B2 (ja) 2013-12-24 2017-12-13 キヤノン株式会社 撮像装置及び制御方法、プログラム、並びに記憶媒体
CN104754203B (zh) 2013-12-31 2018-07-31 华为技术有限公司 拍摄方法、装置及终端
US9462169B2 (en) 2013-12-31 2016-10-04 Huawei Technologies Co., Ltd. Shooting method, apparatus, and terminal
TWI518439B (zh) 2014-01-02 2016-01-21 原相科技股份有限公司 相機裝置
US10931866B2 (en) * 2014-01-05 2021-02-23 Light Labs Inc. Methods and apparatus for receiving and storing in a camera a user controllable setting that is used to control composite image generation performed after image capture
KR102114617B1 (ko) 2014-01-08 2020-05-25 엘지전자 주식회사 이동단말기 및 그 제어방법
EP3097472B1 (en) 2014-01-23 2021-09-29 Apple Inc. Virtual computer keyboard
WO2015115203A1 (ja) 2014-01-28 2015-08-06 ソニー株式会社 撮影装置、撮影方法、及び、プログラム
US9207844B2 (en) 2014-01-31 2015-12-08 EyeGroove, Inc. Methods and devices for touch-based media creation
EP3100135A4 (en) 2014-01-31 2017-08-30 Hewlett-Packard Development Company, L.P. Camera included in display
DE102014202490A1 (de) 2014-02-12 2015-08-13 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe
KR102243653B1 (ko) 2014-02-17 2021-04-23 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9703446B2 (en) 2014-02-28 2017-07-11 Prezi, Inc. Zooming user interface frames embedded image frame sequence
DE102014102689A1 (de) 2014-02-28 2015-09-03 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Laufbildkameraanordnung und Verfahren zum Betreiben einer Laufbildkameraanordnung
US9538078B2 (en) 2014-03-02 2017-01-03 Google Inc. User interface for wide angle photography
JP6490430B2 (ja) 2014-03-03 2019-03-27 株式会社東芝 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US10235587B2 (en) 2014-03-04 2019-03-19 Samsung Electronics Co., Ltd. Method and system for optimizing an image capturing boundary in a proposed image
US9313401B2 (en) 2014-03-04 2016-04-12 Here Global B.V. Frame rate designation region
WO2015148733A2 (en) 2014-03-25 2015-10-01 ScStan, LLC Systems and methods for the real-time modification of videos and images within a social network format
EP3123449B1 (en) 2014-03-25 2020-01-01 Apple Inc. Method and system for representing a virtual object in a view of a real environment
CN105981372A (zh) 2014-03-27 2016-09-28 诺日士精密株式会社 图像处理装置
JP6646936B2 (ja) 2014-03-31 2020-02-14 キヤノン株式会社 画像処理装置、その制御方法、およびプログラム
US9801613B2 (en) 2014-04-18 2017-10-31 Fujifilm Sonosite, Inc. Hand-held medical imaging system with thumb controller and associated systems and methods
GB201407267D0 (en) 2014-04-24 2014-06-11 Cathx Res Ltd Underwater surveys
US9589321B2 (en) 2014-04-24 2017-03-07 Google Inc. Systems and methods for animating a view of a composite image
US10845982B2 (en) 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
EP3139589B1 (en) 2014-04-30 2022-04-06 Sony Group Corporation Image processing apparatus and image processing method
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
US20150332534A1 (en) 2014-05-15 2015-11-19 Narvii Inc. Systems and methods implementing user interface objects
KR102158214B1 (ko) 2014-05-19 2020-09-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US20150341536A1 (en) 2014-05-23 2015-11-26 Mophie, Inc. Systems and methods for orienting an image
US9942464B2 (en) 2014-05-27 2018-04-10 Thomson Licensing Methods and systems for media capture and seamless display of sequential images using a touch sensitive device
US9313397B2 (en) 2014-05-30 2016-04-12 Apple Inc. Realtime capture exposure adjust gestures
US9628416B2 (en) 2014-05-30 2017-04-18 Cisco Technology, Inc. Photo avatars
US9207835B1 (en) 2014-05-31 2015-12-08 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US9485540B2 (en) 2014-06-03 2016-11-01 Disney Enterprises, Inc. System and method for multi-device video image display and modification
US20150350504A1 (en) 2014-06-03 2015-12-03 2P & M Holdings, LLC RAW Camera Peripheral for Handheld Mobile Unit
US9360671B1 (en) 2014-06-09 2016-06-07 Google Inc. Systems and methods for image zoom
KR102182401B1 (ko) 2014-06-11 2020-11-24 엘지전자 주식회사 이동단말기 및 그 제어방법
US10091411B2 (en) 2014-06-17 2018-10-02 Lg Electronics Inc. Mobile terminal and controlling method thereof for continuously tracking object included in video
US9910505B2 (en) 2014-06-17 2018-03-06 Amazon Technologies, Inc. Motion control for managing content
US10579236B2 (en) 2014-06-20 2020-03-03 Ati Technologies Ulc Responding to user input including providing user feedback
US10074158B2 (en) 2014-07-08 2018-09-11 Qualcomm Incorporated Systems and methods for stereo depth estimation using global minimization and depth interpolation
US9641759B2 (en) 2014-07-10 2017-05-02 Lg Electronics Inc. Mobile terminal and controlling method thereof
US9785323B2 (en) 2014-07-23 2017-10-10 Adobe Systems Incorporated Touch-based user interface control tiles
JP2016039613A (ja) 2014-08-11 2016-03-22 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
KR20160019145A (ko) 2014-08-11 2016-02-19 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR102145542B1 (ko) 2014-08-14 2020-08-18 삼성전자주식회사 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법
JP3194297U (ja) 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. 自動車用及び産業用のモーション感知制御装置
US20160048903A1 (en) 2014-08-18 2016-02-18 Fuhu, Inc. System and Method for Providing Curated Content Items
US9230355B1 (en) 2014-08-21 2016-01-05 Glu Mobile Inc. Methods and systems for images with interactive filters
KR102155094B1 (ko) 2014-08-28 2020-09-11 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN107529009B (zh) 2014-09-02 2020-06-30 苹果公司 远程相机用户界面
KR20160029536A (ko) 2014-09-05 2016-03-15 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US10212111B2 (en) 2014-09-12 2019-02-19 Google Llc System and interface that facilitate selecting videos to share in a messaging application
US11472338B2 (en) 2014-09-15 2022-10-18 Magna Electronics Inc. Method for displaying reduced distortion video images via a vehicular vision system
KR102234709B1 (ko) 2014-09-15 2021-04-01 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
JP6252414B2 (ja) * 2014-09-16 2017-12-27 カシオ計算機株式会社 図形表示装置、図形表示方法およびプログラム
TWI531852B (zh) 2014-09-16 2016-05-01 聚晶半導體股份有限公司 影像擷取裝置及數位變焦方法
US10750153B2 (en) 2014-09-22 2020-08-18 Samsung Electronics Company, Ltd. Camera system for three-dimensional video
CN106575444B (zh) 2014-09-24 2020-06-30 英特尔公司 用户姿势驱动的化身装置和方法
JP2016066978A (ja) 2014-09-26 2016-04-28 キヤノンマーケティングジャパン株式会社 撮像装置、その制御方法とプログラム
JP2016072965A (ja) 2014-09-29 2016-05-09 パナソニックIpマネジメント株式会社 撮像装置
US10361986B2 (en) 2014-09-29 2019-07-23 Disney Enterprises, Inc. Gameplay in a chat thread
US20160098094A1 (en) 2014-10-02 2016-04-07 Geegui Corporation User interface enabled by 3d reversals
KR102240302B1 (ko) 2014-10-21 2021-04-14 삼성전자주식회사 가상 피팅 장치 및 이의 가상 피팅 방법
KR102251483B1 (ko) 2014-10-23 2021-05-14 삼성전자주식회사 영상을 처리하는 전자 장치 및 방법
KR102225947B1 (ko) 2014-10-24 2021-03-10 엘지전자 주식회사 이동단말기 및 그 제어방법
WO2016064435A1 (en) 2014-10-24 2016-04-28 Usens, Inc. System and method for immersive and interactive multimedia generation
US9704250B1 (en) 2014-10-30 2017-07-11 Amazon Technologies, Inc. Image optimization techniques using depth planes
WO2016072565A1 (ko) 2014-11-05 2016-05-12 엘지전자 주식회사 화상출력장치, 이동 단말기 및 그것들의 제어 방법
US20160132201A1 (en) 2014-11-06 2016-05-12 Microsoft Technology Licensing, Llc Contextual tabs in mobile ribbons
US9412169B2 (en) 2014-11-21 2016-08-09 iProov Real-time visual feedback for user positioning with respect to a camera and a display
KR101997500B1 (ko) 2014-11-25 2019-07-08 삼성전자주식회사 개인화된 3d 얼굴 모델 생성 방법 및 장치
CN104461288B (zh) 2014-11-28 2017-11-10 广东欧珀移动通信有限公司 使用不同视场角摄像头拍照的方法和终端
US20160173869A1 (en) 2014-12-15 2016-06-16 Nokia Corporation Multi-Camera System Consisting Of Variably Calibrated Cameras
US9712751B2 (en) 2015-01-22 2017-07-18 Apple Inc. Camera field of view effects based on device orientation and scene content
JP6152125B2 (ja) 2015-01-23 2017-06-21 任天堂株式会社 プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法
US9767613B1 (en) 2015-01-23 2017-09-19 Leap Motion, Inc. Systems and method of interacting with a virtual object
GB2534847A (en) 2015-01-28 2016-08-10 Sony Computer Entertainment Europe Ltd Display
CN105847670B (zh) 2015-02-04 2019-06-21 佳能株式会社 电子设备、摄像控制装置及其控制方法
US9979885B2 (en) 2015-02-09 2018-05-22 Steven Christopher Sparks Apparatus and method for capture of 360° panoramic video image and simultaneous assembly of 360° panoramic zoetropic video image
US9800798B2 (en) 2015-02-13 2017-10-24 Qualcomm Incorporated Systems and methods for power optimization for imaging devices with dual cameras
US20160241777A1 (en) 2015-02-16 2016-08-18 Magisto Ltd. Method and system for implementing a user interface for capturing videos and photos on cameras with a touch screen
US10055887B1 (en) 2015-02-19 2018-08-21 Google Llc Virtual/augmented reality transition system and method
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
CA2979218A1 (en) 2015-03-09 2016-09-15 Ventana 3D, Llc Avatar control system
US9959623B2 (en) 2015-03-09 2018-05-01 Here Global B.V. Display of an annotation representation
US9852543B2 (en) 2015-03-27 2017-12-26 Snap Inc. Automated three dimensional model generation
CN107430429B (zh) 2015-04-07 2022-02-18 英特尔公司 化身键盘
US10303973B2 (en) 2015-04-15 2019-05-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
EP3958557A1 (en) 2015-04-23 2022-02-23 Apple Inc. Digital viewfinder user interface for multiple cameras
CN106210550B (zh) 2015-05-06 2019-02-19 小米科技有限责任公司 模式调节方法及装置
KR20160131720A (ko) 2015-05-08 2016-11-16 엘지전자 주식회사 이동단말기 및 그 제어방법
US9967467B2 (en) 2015-05-29 2018-05-08 Oath Inc. Image capture with display context
US10871868B2 (en) 2015-06-05 2020-12-22 Apple Inc. Synchronized content scrubber
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
KR20160146281A (ko) 2015-06-12 2016-12-21 삼성전자주식회사 전자 장치 및 전자 장치에서 이미지 표시 방법
US20160366323A1 (en) 2015-06-15 2016-12-15 Mediatek Inc. Methods and systems for providing virtual lighting
KR101751347B1 (ko) 2015-06-16 2017-07-11 엘지전자 주식회사 이동 단말기 및 이의 제어방법
WO2016203282A1 (en) 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
US9652125B2 (en) 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
US9900518B2 (en) 2015-06-20 2018-02-20 Apple Inc. Multifunction physical button
US20160370974A1 (en) 2015-06-22 2016-12-22 Here Global B.V. Causation of Expansion of a Supplemental Content Overlay
KR20170006559A (ko) 2015-07-08 2017-01-18 엘지전자 주식회사 이동단말기 및 그 제어방법
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
KR102399049B1 (ko) 2015-07-15 2022-05-18 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 처리 방법
US20170018289A1 (en) 2015-07-15 2017-01-19 String Theory, Inc. Emoji as facetracking video masks
KR102429427B1 (ko) 2015-07-20 2022-08-04 삼성전자주식회사 촬영 장치 및 그 동작 방법
US9749543B2 (en) 2015-07-21 2017-08-29 Lg Electronics Inc. Mobile terminal having two cameras and method for storing images taken by two cameras
KR101678861B1 (ko) 2015-07-28 2016-11-23 엘지전자 주식회사 이동단말기 및 그 제어방법
KR20170016215A (ko) 2015-08-03 2017-02-13 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102292985B1 (ko) 2015-08-10 2021-08-24 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR102349428B1 (ko) 2015-08-12 2022-01-10 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자장치
CN106470336A (zh) 2015-08-17 2017-03-01 深圳富泰宏精密工业有限公司 相机色温补偿系统及智能终端
US9639945B2 (en) 2015-08-27 2017-05-02 Lytro, Inc. Depth-based application of image effects
US10334154B2 (en) 2015-08-31 2019-06-25 Snap Inc. Automated adjustment of digital image capture parameters
US10397469B1 (en) 2015-08-31 2019-08-27 Snap Inc. Dynamic image-based adjustment of image capture parameters
KR20170029837A (ko) 2015-09-08 2017-03-16 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20170029978A (ko) 2015-09-08 2017-03-16 엘지전자 주식회사 이동단말기 및 그 제어방법
CN105245774B (zh) 2015-09-15 2018-12-21 努比亚技术有限公司 一种图片处理方法及终端
US9349414B1 (en) 2015-09-18 2016-05-24 Odile Aimee Furment System and method for simultaneous capture of two video streams
KR101667736B1 (ko) 2015-09-25 2016-10-20 엘지전자 주식회사 이동단말기 및 그 제어방법
US20170094019A1 (en) 2015-09-26 2017-03-30 Microsoft Technology Licensing, Llc Providing Access to Non-Obscured Content Items based on Triggering Events
US9769419B2 (en) 2015-09-30 2017-09-19 Cisco Technology, Inc. Camera system for video conference endpoints
US20170109912A1 (en) 2015-10-15 2017-04-20 Motorola Mobility Llc Creating a composite image from multi-frame raw image data
US10044927B2 (en) 2015-10-19 2018-08-07 Stmicroelectronics International N.V. Capturing a stable image using an ambient light sensor-based trigger
US20180288310A1 (en) 2015-10-19 2018-10-04 Corephotonics Ltd. Dual-aperture zoom digital camera user interface
US9686497B1 (en) 2015-10-29 2017-06-20 Crater Group Co. Video annotation and dynamic video call display for multi-camera devices
CN105430295B (zh) 2015-10-30 2019-07-12 努比亚技术有限公司 图像处理装置及方法
CN105338256A (zh) 2015-11-19 2016-02-17 广东欧珀移动通信有限公司 一种拍摄方法及装置
US10742889B2 (en) 2015-11-25 2020-08-11 Huawei Technologies Co., Ltd. Image photographing method, image photographing apparatus, and terminal
US20170178287A1 (en) 2015-12-21 2017-06-22 Glen J. Anderson Identity obfuscation
US10007990B2 (en) 2015-12-24 2018-06-26 Intel Corporation Generating composite images using estimated blur kernel size
KR20230100749A (ko) 2015-12-29 2023-07-05 코어포토닉스 리미티드 자동 조정가능 텔레 시야(fov)를 갖는 듀얼-애퍼처 줌 디지털 카메라
CN105611215A (zh) 2015-12-30 2016-05-25 掌赢信息科技(上海)有限公司 一种视频通话方法及装置
US10194089B2 (en) 2016-02-08 2019-01-29 Qualcomm Incorporated Systems and methods for implementing seamless zoom function using multiple cameras
KR102445699B1 (ko) 2016-02-18 2022-09-21 삼성전자주식회사 전자 장치 및 그의 동작 방법
KR20170098089A (ko) 2016-02-19 2017-08-29 삼성전자주식회사 전자 장치 및 그의 동작 방법
KR20170097860A (ko) 2016-02-19 2017-08-29 삼성전자주식회사 디스플레이를 이용하여 이미지를 촬영하는 전자 장치 및 이미지 촬영 방법
CN107102499A (zh) 2016-02-22 2017-08-29 深圳富泰宏精密工业有限公司 多镜头系统及具有该多镜头系统的便携式电子装置
US20190051032A1 (en) 2016-02-24 2019-02-14 Vivhist Inc. Personal life story simulation system
US9871962B2 (en) 2016-03-04 2018-01-16 RollCall, LLC Movable user interface shutter button for camera
GB2548154A (en) 2016-03-11 2017-09-13 Sony Computer Entertainment Europe Ltd Virtual reality
US10225471B2 (en) 2016-03-18 2019-03-05 Kenneth L. Poindexter, JR. System and method for autonomously recording a visual media
WO2017164011A1 (ja) 2016-03-23 2017-09-28 富士フイルム株式会社 デジタルカメラ及びデジタルカメラの表示方法
US9990775B2 (en) 2016-03-31 2018-06-05 Verizon Patent And Licensing Inc. Methods and systems for point-to-multipoint delivery of independently-controllable interactive media content
KR20170112497A (ko) 2016-03-31 2017-10-12 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10187587B2 (en) 2016-04-13 2019-01-22 Google Llc Live updates for synthetic long exposures
KR102649782B1 (ko) 2016-04-13 2024-03-21 소니그룹주식회사 신호 처리 장치 및 촬상 장치
JP6323729B2 (ja) 2016-04-25 2018-05-16 パナソニックIpマネジメント株式会社 画像処理装置及びこれを備えた撮像システムならびにキャリブレーション方法
US10609093B2 (en) 2016-05-06 2020-03-31 Facebook, Inc. Instantaneous call sessions over a communications application
US9959037B2 (en) 2016-05-18 2018-05-01 Apple Inc. Devices, methods, and graphical user interfaces for messaging
WO2017201326A1 (en) 2016-05-18 2017-11-23 Apple Inc. Applying acknowledgement options in a graphical messaging user interface
KR102440848B1 (ko) 2016-05-20 2022-09-06 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN109155815A (zh) 2016-05-20 2019-01-04 麦克赛尔株式会社 摄像装置及其设定画面
US20190206031A1 (en) 2016-05-26 2019-07-04 Seerslab, Inc. Facial Contour Correcting Method and Device
US9852768B1 (en) 2016-06-03 2017-12-26 Maverick Co., Ltd. Video editing using mobile terminal and remote computer
DK179757B1 (en) 2016-06-12 2019-05-08 Apple Inc. User Interface for Camera Effects
US9716825B1 (en) 2016-06-12 2017-07-25 Apple Inc. User interface for camera effects
DK179635B1 (en) 2016-06-12 2019-03-05 Apple Inc. USER INTERFACE FOR CAMERA EFFECTS
DK179754B1 (en) 2016-06-12 2019-05-08 Apple Inc. USER INTERFACE FOR CAMERA EFFECTS
JP6684158B2 (ja) 2016-06-13 2020-04-22 株式会社キーエンス 画像処理センサ、画像処理方法
US11794108B2 (en) 2016-06-13 2023-10-24 Sony Interactive Entertainment LLC Method and system for saving a snapshot of game play and used to begin later execution of the game play by any user as executed on a game cloud system
US10313605B2 (en) 2016-06-15 2019-06-04 Canon Kabushiki Kaisha Image processing apparatus and control method thereof for generating high dynamic range image data
KR102520225B1 (ko) 2016-06-30 2023-04-11 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 촬영 방법
US10360708B2 (en) 2016-06-30 2019-07-23 Snap Inc. Avatar based ideogram generation
JP6714791B2 (ja) * 2016-07-13 2020-07-01 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
US10179290B2 (en) 2016-07-21 2019-01-15 Sony Interactive Entertainment America Llc Method and system for accessing previously stored game play via video recording as executed on a game cloud system
US20180035031A1 (en) 2016-07-27 2018-02-01 Samsung Electro-Mechanics Co., Ltd. Camera module and portable electronic device including the same
US9955061B2 (en) 2016-08-03 2018-04-24 International Business Machines Corporation Obtaining camera device image data representing an event
WO2018049430A2 (en) 2016-08-11 2018-03-15 Integem Inc. An intelligent interactive and augmented reality based user interface platform
US20180047200A1 (en) 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
KR101926018B1 (ko) 2016-08-12 2018-12-06 라인 가부시키가이샤 동영상 녹화 방법 및 시스템
US10313652B1 (en) 2016-08-18 2019-06-04 Relay Cars LLC Cubic or spherical mapped content for presentation of pre-rendered images viewed from a fixed point of view in HTML, javascript and/or XML for virtual reality applications
KR102593824B1 (ko) 2016-08-31 2023-10-25 삼성전자주식회사 카메라를 제어하기 위한 방법 및 그 전자 장치
US10771697B2 (en) 2016-09-06 2020-09-08 Apple Inc. Still image stabilization/optical image stabilization synchronization in multi-camera image capture
JP2018042198A (ja) 2016-09-09 2018-03-15 オリンパス株式会社 撮像装置及び撮像方法
US10547776B2 (en) 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
AU2017330208B2 (en) 2016-09-23 2019-12-12 Apple Inc. Image data for enhanced user interactions
KR102210150B1 (ko) 2016-09-23 2021-02-02 애플 인크. 아바타 생성 및 편집
WO2018057268A1 (en) 2016-09-23 2018-03-29 Apple Inc. Image data for enhanced user interactions
US10297034B2 (en) 2016-09-30 2019-05-21 Qualcomm Incorporated Systems and methods for fusing images
US20180096506A1 (en) 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
KR102609464B1 (ko) 2016-10-18 2023-12-05 삼성전자주식회사 영상을 촬영하는 전자 장치
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
US10386999B2 (en) 2016-10-26 2019-08-20 Google Llc Timeline-video relationship presentation for alert events
US10180615B2 (en) 2016-10-31 2019-01-15 Google Llc Electrochromic filtering in a camera
US10469764B2 (en) 2016-11-01 2019-11-05 Snap Inc. Systems and methods for determining settings for fast video capture and sensor adjustment
US10623666B2 (en) 2016-11-07 2020-04-14 Snap Inc. Selective identification and order of image modifiers
CN106791357A (zh) 2016-11-15 2017-05-31 维沃移动通信有限公司 一种拍摄方法和移动终端
CN106791377B (zh) 2016-11-29 2019-09-27 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
JP6765956B2 (ja) 2016-12-27 2020-10-07 キヤノン株式会社 撮像制御装置及びその制御方法
JP6873688B2 (ja) 2016-12-27 2021-05-19 キヤノン株式会社 画像処理装置および画像処理方法、撮像装置、プログラム
CN106791420B (zh) 2016-12-30 2019-11-05 深圳先进技术研究院 一种拍摄控制方法及装置
KR102289837B1 (ko) 2017-01-06 2021-08-17 삼성전자주식회사 촬영 방법 및 전자 장치
JP6748582B2 (ja) 2017-01-10 2020-09-02 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記録媒体
US10176622B1 (en) 2017-01-24 2019-01-08 Amazon Technologies, Inc. Filtering of virtual reality images to mitigate playback transformation artifacts
US20180227482A1 (en) 2017-02-07 2018-08-09 Fyusion, Inc. Scene-aware selection of filters and effects for visual digital media content
US10630888B2 (en) 2017-02-09 2020-04-21 Samsung Electronics Co., Ltd. Method and apparatus for selecting capture configuration based on scene analysis
WO2018159864A1 (ko) 2017-02-28 2018-09-07 엘지전자 주식회사 이동 단말기 및 그 이동 단말기의 제어 방법
KR102386398B1 (ko) 2017-03-17 2022-04-14 삼성전자주식회사 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치
JP6456422B2 (ja) * 2017-03-17 2019-01-23 株式会社Pfu サムネイル画像表示装置、サムネイル画像表示装置の制御方法及びコンピュータの制御プログラム
US20180278823A1 (en) 2017-03-23 2018-09-27 Intel Corporation Auto-exposure technologies using odometry
KR102361885B1 (ko) 2017-03-28 2022-02-11 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
KR20180116574A (ko) 2017-04-17 2018-10-25 엘지전자 주식회사 이동 단말기
JP2018179911A (ja) 2017-04-20 2018-11-15 株式会社デンソー 測距装置及び距離情報取得方法
US10467775B1 (en) 2017-05-03 2019-11-05 Amazon Technologies, Inc. Identifying pixel locations using a transformation function
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
CN110490093B (zh) 2017-05-16 2020-10-16 苹果公司 表情符号录制和发送
JP6612442B2 (ja) 2017-05-16 2019-12-11 アップル インコーポレイテッドApple Inc. ユーザインタフェース間をナビゲートし、制御オブジェクトと対話するためのデバイス、方法及びグラフィカルユーザインタフェース
EP3617863B1 (en) 2017-05-16 2021-04-28 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US10521948B2 (en) 2017-05-16 2019-12-31 Apple Inc. Emoji recording and sending
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US10972672B2 (en) 2017-06-05 2021-04-06 Samsung Electronics Co., Ltd. Device having cameras with different focal lengths and a method of implementing cameras with different focal lengths
US10218697B2 (en) 2017-06-09 2019-02-26 Lookout, Inc. Use of device risk evaluation to manage access to services
KR102351542B1 (ko) 2017-06-23 2022-01-17 삼성전자주식회사 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
US20190007589A1 (en) 2017-06-30 2019-01-03 Qualcomm Incorporated Camera initialization for multiple camera devices
US11051691B2 (en) 2017-07-31 2021-07-06 Vye, Llc Ocular analysis
CN108305317B (zh) 2017-08-04 2020-03-17 腾讯科技(深圳)有限公司 一种图像处理方法、装置及存储介质
US11108953B2 (en) 2017-08-18 2021-08-31 Huawei Technologies Co., Ltd. Panoramic photo shooting method and apparatus
EP3672211A4 (en) 2017-09-05 2020-08-12 Guangdong Oppo Mobile Telecommunications Corp., Ltd. PROCESS, DEVICE, AND TERMINAL FOR SHOOTING INTERFACE DISPLAY
CN110456979B (zh) 2017-09-09 2021-11-02 苹果公司 用于在背景上显示示能表示的设备、方法和电子设备
JP2019054461A (ja) 2017-09-15 2019-04-04 オリンパス株式会社 撮像装置および撮像方法
KR102385360B1 (ko) 2017-09-19 2022-04-12 삼성전자주식회사 이미지 보정을 수행하는 전자 장치 및 그 동작 방법
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
US10467729B1 (en) 2017-10-12 2019-11-05 Amazon Technologies, Inc. Neural network-based image processing
US10657695B2 (en) 2017-10-30 2020-05-19 Snap Inc. Animated chat presence
US10498971B2 (en) 2017-11-03 2019-12-03 Qualcomm Incorporated Systems and methods for high-dynamic range imaging
CN107820011A (zh) 2017-11-21 2018-03-20 维沃移动通信有限公司 拍照方法和拍照装置
US10645272B2 (en) 2017-12-04 2020-05-05 Qualcomm Incorporated Camera zoom level and image frame capture control
US20190205861A1 (en) 2018-01-03 2019-07-04 Marjan Bace Customer-directed Digital Reading and Content Sales Platform
US10630903B2 (en) 2018-01-12 2020-04-21 Qualcomm Incorporated Systems and methods for image exposure
JP7071137B2 (ja) 2018-01-26 2022-05-18 キヤノン株式会社 電子機器およびその制御方法
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US20190253619A1 (en) 2018-02-09 2019-08-15 Apple Inc. Media capture lock affordance for graphical user interface
US10374994B1 (en) 2018-02-21 2019-08-06 King.Com Ltd. Messaging system
CN108419030B (zh) 2018-03-01 2021-04-20 思特威(上海)电子科技股份有限公司 具有led闪烁衰减的hdr图像传感器像素结构及成像系统
CN111355886B (zh) 2018-03-27 2023-07-18 华为技术有限公司 拍照方法、拍照装置和移动终端
US10643386B2 (en) 2018-04-11 2020-05-05 Zillow Group, Inc. Presenting image transition sequences between viewing locations
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
KR102597680B1 (ko) 2018-06-07 2023-11-03 삼성전자주식회사 맞춤형 화질 이미지를 제공하는 전자 장치 및 그 제어 방법
KR102598109B1 (ko) 2018-08-08 2023-11-06 삼성전자주식회사 이미지 분석에 기반하여, 디스플레이를 통해 표시된 영상과 메모리에 저장된 영상과 관련하여 알림을 제공하는 전자 장치 및 방법
CN110839129A (zh) 2018-08-17 2020-02-25 Oppo广东移动通信有限公司 图像处理方法、装置以及移动终端
CN109005366B (zh) 2018-08-22 2020-04-28 Oppo广东移动通信有限公司 摄像模组夜景摄像处理方法、装置、电子设备及存储介质
US11120528B1 (en) 2018-09-11 2021-09-14 Apple Inc. Artificial aperture adjustment for synthetic depth of field rendering
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US10902661B1 (en) 2018-11-28 2021-01-26 Snap Inc. Dynamic composite user identifier
US11288880B2 (en) 2019-01-18 2022-03-29 Snap Inc. Template-based generation of personalized videos
US11381739B2 (en) 2019-01-23 2022-07-05 Intel Corporation Panoramic virtual reality framework providing a dynamic user experience
JP7268369B2 (ja) 2019-01-30 2023-05-08 株式会社リコー 撮像システム、現像システム、撮像方法、及びプログラム
US10992619B2 (en) 2019-04-30 2021-04-27 Snap Inc. Messaging system with avatar generation
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
DK201970531A1 (en) 2019-05-06 2021-07-09 Apple Inc Avatar integration with multiple applications
US11074753B2 (en) 2019-06-02 2021-07-27 Apple Inc. Multi-pass object rendering using a three- dimensional geometric constraint
US20200380768A1 (en) 2019-06-02 2020-12-03 Apple Inc. Parameterized generation of two-dimensional images from a three-dimensional model
US20200412975A1 (en) 2019-06-28 2020-12-31 Snap Inc. Content capture with audio input feedback
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
KR102241153B1 (ko) 2019-07-01 2021-04-19 주식회사 시어스랩 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템
US11189104B2 (en) 2019-08-28 2021-11-30 Snap Inc. Generating 3D data in a messaging system
US11488359B2 (en) 2019-08-28 2022-11-01 Snap Inc. Providing 3D data for messages in a messaging system
CN110662083B (zh) 2019-09-30 2022-04-22 北京达佳互联信息技术有限公司 数据处理方法、装置、电子设备及存储介质
US11252274B2 (en) 2019-09-30 2022-02-15 Snap Inc. Messaging application sticker extensions
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11625874B2 (en) 2020-08-04 2023-04-11 Triple Lift, Inc. System and method for intelligently generating digital composites from user-provided graphics
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media

Also Published As

Publication number Publication date
AU2022228121A1 (en) 2022-09-29
KR102534596B1 (ko) 2023-05-26
CN112654956A (zh) 2021-04-13
AU2022228121B2 (en) 2024-01-04
JP2022133303A (ja) 2022-09-13
KR20230071201A (ko) 2023-05-23
AU2019338180B2 (en) 2022-07-07
AU2019338180A1 (en) 2021-03-25
US20220319100A1 (en) 2022-10-06
EP3827334A1 (en) 2021-06-02
US11468625B2 (en) 2022-10-11
KR20210036388A (ko) 2021-04-02
US20200082599A1 (en) 2020-03-12
JP7450664B2 (ja) 2024-03-15
JP2021536059A (ja) 2021-12-23
JP7090210B2 (ja) 2022-06-23
DK201870623A1 (en) 2020-04-15

Similar Documents

Publication Publication Date Title
JP7450664B2 (ja) シミュレートされた深度効果のためのユーザインタフェース
US11895391B2 (en) Capturing and displaying images with multiple focal planes
CN111108740B (zh) 电子设备、计算机可读存储介质及用于显示通信会话中的参与者的视觉指示符的方法
CN110058775B (zh) 显示和更新应用程序视图组
CN116235507A (zh) 用于媒体捕获和管理的用户界面
CN112368674A (zh) 使用注视信息的设备控制
CN112262560B (zh) 用于更新外部设备的网络连接设置的用户界面的方法、电子设备和非暂态计算机可读存储介质
US20210349612A1 (en) Editing features of an avatar
CN113767366A (zh) 用于管理本地网络的用户界面
CN115997186A (zh) 用于指示距离的用户界面
WO2020055613A1 (en) User interfaces for simulated depth effects
CN111684403A (zh) 用于图形用户界面的媒体捕获锁定示能表示
CN115185430B (zh) 用于管理媒体的用户界面
JP7419458B2 (ja) メディアを管理するためのユーザインタフェース
JP2024084751A (ja) シミュレートされた深度効果のためのユーザインタフェース
CN116615904A (zh) 用于广角视频会议的用户界面
CN115529415A (zh) 用于更改视觉媒体的用户界面

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: J - B - Manzhali

Inventor after: J.P. Eve

Inventor after: A.C. Day

Inventor after: A. suzados Santos

Inventor after: P. leather card

Inventor after: W. A. sorenteno III

Inventor after: R. D. Xili

Inventor after: R.L. Barr

Inventor after: A.S. Bell

Inventor before: B.J. Manzali

Inventor before: J.P. Eve

Inventor before: A.C. Day

Inventor before: A. suzados Santos

Inventor before: P. leather card

Inventor before: W. A. sorenteno III

Inventor before: R. D. Xili

Inventor before: R.L. Barr

Inventor before: A.S. Bell