CN114949841A - 用于基于深度的注释的设备、方法和图形用户界面 - Google Patents

用于基于深度的注释的设备、方法和图形用户界面 Download PDF

Info

Publication number
CN114949841A
CN114949841A CN202210540499.XA CN202210540499A CN114949841A CN 114949841 A CN114949841 A CN 114949841A CN 202210540499 A CN202210540499 A CN 202210540499A CN 114949841 A CN114949841 A CN 114949841A
Authority
CN
China
Prior art keywords
video
annotation
input
contact
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210540499.XA
Other languages
English (en)
Inventor
J·A·玛丽亚
M·K·豪恩斯坦
P·沙玛
M·斯陶贝尔
J·K·米西格
J·T·伯恩斯坦
L·R·T·格灵
M·克伦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN114949841A publication Critical patent/CN114949841A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/327Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/603D [Three Dimensional] animation of natural phenomena, e.g. rain, snow, water or plants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本公开提供了用于基于深度的注释的设备、方法和图形用户界面。在视频回放区域中显示视频的第一部分的回放时,设备接收将第一注释添加到视频回放的请求。响应于接收到该请求,设备在视频中的第一位置处暂停视频的回放并且显示与视频的暂停的第一位置对应的静止图像。在显示静止图像时,设备接收在静止图像中捕获的物理环境的第一部分上的第一注释。在接收到第一注释之后,设备在视频回放区域中显示视频的与视频中的第二位置对应的第二部分,第二位置不同于视频中的第一位置,其中物理环境的第一部分是在视频的第二部分中被捕获的,并且第一注释显示在视频的第二部分中。

Description

用于基于深度的注释的设备、方法和图形用户界面
分案声明
本申请是申请日为2019年9月20日、发明名称为“用于基于深度的注释的设备、方法和图形用户界面”、申请号为:201980056942.2的中国发明专利申请的分案申请。
技术领域
整体涉及显示物理环境的图像的电子设备,包括但不限于在图像中的与在图像中捕获的物理环境中的空间位置对应的空间位置处显示注释的电子设备。
背景技术
近年来,用于增强媒体的计算机系统的发展显著增加。增强媒体的示例包括增强现实环境和增强存储媒体,这些增强现实环境包括替换或增强物理世界的至少一些虚拟元素,这些增强存储媒体包括替换或增强存储媒体诸如图像和视频内容的至少一些虚拟元素。用于计算机系统和其他电子计算设备的输入设备诸如触敏表面用于增强媒体。示例触敏表面包括触控板、触敏遥控器和触摸屏显示器。此类表面用于操纵显示器上的用户界面和其中的对象。示例性用户界面对象包括数字图像、视频、文本、图标和控制元件(诸如,按钮)以及其他图形。
但是,用于增强媒体的方法和界面麻烦、低效且受限。例如,当用户的设备的当前相机视图不与物理环境的一部分对应时,增强诸如相对于物理环境的该部分具有固定空间位置的用户输入注释对于用户而言可能难以定位。搜索增强对用户造成显著的认知负担,并且损害使用增强媒体的体验。另外,当必须为存储媒体(例如,先前所捕获的视频)的各个部分单独提供增强输入时,为存储媒体提供增强输入是耗时的。此外,这些方法花费比所需时间更长的时间,从而浪费能量。这后一考虑在电池驱动的设备中是特别重要的。
发明内容
因此,需要具有用于增强媒体数据的改进的方法和界面的计算机系统。此类方法和界面任选地补充或替换了用于增强媒体数据的常规方法。此类方法和界面减少了来自用户的输入的数量、程度、和/或性质,并且产生更有效的人机界面。对于电池驱动设备,此类方法和界面可节省用电并且增加两次电池充电之间的时间。
所公开的计算机系统减少或消除了与用于利用虚拟对象和/或注释输入增强媒体数据的界面相关联的上述缺陷和其他问题。在一些实施方案中,计算机系统包括台式计算机。在一些实施方案中,计算机系统是便携式的(例如,笔记本电脑、平板电脑或手持设备)。在一些实施方案中,计算机系统包括个人电子设备(例如,可穿戴电子设备,诸如手表)。在一些实施方案中,计算机系统具有触控板(和/或与触控板通信)。在一些实施方案中,该计算机系统具有触敏显示器(也称为“触摸屏”或“触摸屏显示器”)(并且/或者与触敏显示器通信)。在一些实施方案中,计算机系统具有图形用户界面(GUI)、一个或多个处理器、存储器和一个或多个模块、存储在存储器中用于执行多个功能的程序或指令集。在一些实施方案中,用户部分地通过触笔和/或手指接触以及触敏表面上的手势来与GUI进行交互。在一些实施方案中,这些功能任选地包括玩游戏、图像编辑、绘图、演示、文字处理、电子表格制作、接打电话、视频会议、收发电子邮件、即时消息通信、健身支持、数字摄影、数字视频录制、网页浏览、数字音乐播放、记笔记和/或数字视频播放。用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的非暂态计算机可读存储介质或其他计算机程序产品中。
根据一些实施方案,在具有显示生成部件、一个或多个输入设备以及一个或多个相机的计算机系统处执行方法。该方法包括经由显示生成部件显示第一用户界面区域,第一用户界面区域包括一个或多个相机的视场的表示,该表示随着该一个或多个相机的视场随时间推移的变化而更新。该方法还包括:在显示包括该一个或多个相机的视场的表示的第一用户界面区域时,经由该一个或多个输入设备接收将注释添加到该一个或多个相机的视场的所显示表示的第一请求。该方法还包括:响应于将注释添加到该一个或多个相机的视场的所显示表示的第一请求:在第一用户界面区域中用该一个或多个相机的视场的静止图像来替换该一个或多个相机的视场的表示的显示,该静止图像是在与接收到添加注释的第一请求对应的时间捕获的。该方法还包括:在第一用户界面区域中显示静止图像时,经由该一个或多个输入设备接收静止图像的第一部分上的第一注释,其中静止图像的第一部分与在静止图像中捕获的物理环境的第一部分对应。该方法还包括:在第一用户界面区域中显示静止图像的第一部分上的第一注释时,经由该一个或多个输入设备接收在第一用户界面区域中重新显示该一个或多个相机的视场的表示的第一请求。该方法还包括:响应于接收到在第一用户界面区域中重新显示该一个或多个相机的视场的表示的请求:在第一用户界面区域中用该一个或多个相机的视场的表示来替换静止图像的显示。该方法还包括:根据确定在静止图像中捕获的物理环境的第一部分当前在该一个或多个相机的视场之外,同时显示对该一个或多个相机相对于在静止图像中捕获的物理环境的第一部分的当前空间关系的指示以及该一个或多个相机的视场的表示;并且根据确定在静止图像中捕获的物理环境的第一部分当前在该一个或多个相机的视场内,放弃显示指示。
根据一些实施方案,在具有显示生成部件和一个或多个输入设备的计算机系统上执行方法。该方法包括经由显示生成部件显示包括视频回放区域的用户界面。该方法还包括:在视频回放区域中显示视频的第一部分的回放时,经由该一个或多个输入设备接收将注释添加到视频回放的请求。该方法还包括:响应于接收到添加注释的请求:在视频中的第一位置处暂停视频的回放;以及显示与视频的第一暂停位置对应的静止图像。该方法还包括:在显示静止图像时,经由该一个或多个输入设备接收在静止图像中捕获的物理环境的第一部分上的注释。该方法还包括:在接收到注释之后,在视频回放区域中显示视频的与该视频中的第二位置对应的第二部分,第二位置不同于该视频中的第一位置,其中物理环境的第一部分被捕获在视频的第二部分中,并且该注释显示在视频的第二部分中。
根据一些实施方案,在具有显示生成部件和一个或多个输入设备的计算机系统上执行方法。该方法还包括:经由显示生成部件显示包括一个或多个第一图像的第一先前所捕获的媒体对象,其中第一先前所捕获的媒体对象和与在该一个或多个第一图像中的每个图像中捕获的第一物理环境对应的第一深度数据被一起记录和存储。该方法还包括:在显示第一先前所捕获的媒体对象时,经由该一个或多个输入设备接收将第一虚拟对象添加到第一先前所捕获的媒体对象的第一用户请求。该方法还包括:响应于将第一虚拟对象添加到第一先前所捕获的媒体对象的第一用户请求,在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象,其中第一虚拟对象被显示为具有至少第一位置或取向,第一位置或取向是使用与第一先前所捕获的媒体对象中的相应图像对应的第一深度数据来确定的。
根据一些实施方案,在具有显示生成部件、第一组一个或多个输入设备以及第一组一个或多个相机的计算机系统处执行方法。该方法包括:向远程设备发送发起与第二设备的共享注释会话的请求,第二设备包括第二显示生成部件、第二组一个或多个输入设备以及第二组一个或多个相机。该方法还包括:响应于发送发起与第二设备的共享注释会话的请求,接收对接受发起共享注释会话的请求的指示。该方法还包括:响应于接收到对接受发起共享注释会话的请求的指示,经由第一显示生成部件显示将第一设备朝向第二设备移动的第一提示。该方法还包括:在显示第一提示之后,根据确定满足第一设备和第二设备的连接标准,在与第二设备的共享注释会话中显示第一组相机的视场的表示,其中:该连接标准要求第一设备的视场的至少一部分和第二设备的视场的一部分与物理环境的围绕第一设备和第二设备的相同部分对应。该方法还包括显示:在共享注释会话期间,与通过第一设备进行的指向物理环境中的相应位置的注释输入对应的一个或多个第一虚拟注释经由第一显示生成部件显示,并且与通过第二设备进行的指向物理环境中的相应位置的注释输入对应的一个或多个第二虚拟注释经由第一显示生成部件显示,前提条件是该相应位置包括在第一组相机的视场中。
根据一些实施方案,电子设备包括显示生成部件、任选地一个或多个输入设备、任选地一个或多个触敏表面、任选地一个或多个相机、用于检测与触敏表面的接触强度的任选地一个或多个传感器、任选地一个或多个音频输出发生器、任选地一个或多个设备取向传感器、任选地一个或多个触觉输出发生器、用于检测姿态变化的任选地一个或多个姿态传感器、一个或多个处理器以及存储一个或多个程序的存储器;一个或多个程序被配置为由一个或多个处理器执行,并且一个或多个程序包括用于执行或引起执行本文所述方法中的任一种方法的操作的指令。根据一些实施方案,计算机可读存储介质具有存储在其中的指令,这些指令在由具有显示生成部件、任选地一个或多个输入设备、任选地一个或多个触敏表面、任选地一个或多个相机、用于检测与触敏表面的接触强度的任选地一个或多个传感器、任选地一个或多个音频输出发生器、任选地一个或多个设备取向传感器、任选地一个或多个触觉输出发生器以及任选地一个或多个姿态传感器的电子设备执行时,使得该设备执行本文所述任何方法的操作或使得本文所述任何方法的操作被执行。根据一些实施方案,具有显示生成部件、任选地一个或多个输入设备、任选地一个或多个触敏表面、任选地一个或多个相机、用于检测与触敏表面的接触强度的任选地一个或多个传感器、任选地一个或多个音频输出发生器、任选地一个或多个设备取向传感器、任选地一个或多个触觉输出发生器以及任选地一个或多个姿态传感器、存储器和用于执行存储在存储器中的一个或多个程序的一个或多个处理器的电子设备上的图形用户界面包括在本文所述任何方法中显示的一个或多个元素,该一个或多个元素响应于输入进行更新,如本文所述的任何方法中所述。根据一些实施方案,电子设备包括:显示生成部件、任选地一个或多个输入设备、任选地一个或多个触敏表面、任选地一个或多个相机、用于检测与触敏表面的接触强度的任选地一个或多个传感器、任选地一个或多个音频输出发生器、任选地一个或多个设备取向传感器、任选地一个或多个触觉输出发生器以及用于检测姿态变化的任选地一个或多个姿态传感器;以及用于执行或导致执行本文所述的方法中的任一种方法的操作的装置。根据一些实施方案,在具有显示生成部件、任选地一个或多个输入设备、任选地一个或多个触敏表面、任选地一个或多个相机、用于检测与触敏表面的接触强度的任选地一个或多个传感器、任选地一个或多个音频输出发生器、任选地一个或多个设备取向传感器、任选地一个或多个触觉输出发生器以及用于检测姿态变化的任选地一个或多个姿态传感器的电子设备中使用的信息处理装置包括用于执行本文所述任何方法的操作或使得本文所述任何方法的操作被执行的装置。
因此,为具有显示生成部件、任选地一个或多个输入设备、任选地一个或多个触敏表面、任选地一个或多个相机、用于检测与触敏表面的接触强度的任选地一个或多个传感器、任选地一个或多个音频输出发生器、任选地一个或多个设备取向传感器、任选地一个或多个触觉输出发生器以及任选地一个或多个姿态传感器的电子设备提供用于在各种情景中显示虚拟对象的改进的方法和界面,从而提高此类设备的有效性、效率和用户满意度。此类方法和界面可补充或替换用于在各种情景中显示虚拟对象的常规方法。
附图说明
为了更好地理解各种所述实施方案,应结合以下附图参考下面的具体实施方式,其中类似的附图标号在所有附图中指示对应的部分。
图1A是示出根据一些实施方案的具有触敏显示器的便携式多功能设备的框图。
图1B是示出根据一些实施方案的用于事件处理的示例部件的框图。
图1C是示出根据一些实施方案的触觉输出模块的框图。
图2示出了根据一些实施方案的具有触摸屏的便携式多功能设备。
图3是根据一些实施方案的具有显示器和触敏表面的示例多功能设备的框图。
图4A示出了根据一些实施方案的便携式多功能设备上的应用程序菜单的示例用户界面。
图4B示出了根据一些实施方案的用于具有与显示器分开的触敏表面的多功能设备的示例用户界面。
图4C至图4E示出了根据一些实施方案的动态强度阈值的示例。
图5A至图5AF示出了根据一些实施方案的用于重新本地化注释的示例性用户界面。
图6A至图6N示出了根据一些实施方案的用于接收在与视频的暂停位置对应的静止图像中捕获的物理环境的一部分上的注释的示例性用户界面。
图7A至图7BF示出了根据一些实施方案的用于将虚拟对象添加到先前所捕获的媒体对象的示例用户界面。
图8A至图8W示出了根据一些实施方案的用于示出发起共享注释会话的示例性用户界面的示例性用户界面。
图9A至图9F是根据一些实施方案的用于重新本地化注释的过程的流程图。
图10A至图10B是根据一些实施方案的用于接收在与视频的暂停位置对应的静止图像中捕获的物理环境的一部分上的注释的过程的流程图。
图11A至图11F是根据一些实施方案的用于将虚拟对象添加到先前所捕获的媒体对象的过程的流程图。
图12A至图12D是根据一些实施方案的用于发起共享注释会话的过程的流程图。
具体实施方式
增强媒体的常规方法通常需要多个单独的输入(例如,多个帧的单独注释和/或相对于媒体中的对象的增强的放置)来实现预期结果(例如,注释存储的视频或实时视频馈送的一部分并且/或者在与存储媒体中的物理对象的表面对应的位置处显示虚拟对象)。本文的实施方案为用户提供了一种直观的方式来增强媒体,诸如存储的内容、静止图像和/或由设备的一个或多个相机捕获的实时视频(例如,通过使用与图像数据一起存储和/或捕获的深度数据来放置增强并且保持增强与相机视场中的物理环境的部分之间的固定空间关系)。
本文所述的系统、方法和GUI以多种方式改进用于增强媒体的用户界面交互。例如,它们使得更容易:重新本地化注释,对视频进行注释,将虚拟对象添加到先前所捕获的媒体,并且发起共享注释会话。
下面,图1A至图1C、图2和图3提供对示例性设备的描述。图4A至图4B、图5A至图5AF、图6A至图6N、图7A至图7BF以及图8A至图8W示出了用于在各种情景中显示虚拟对象的示例性用户界面。图9A至图9F示出了用于重新本地化注释的过程。图10A至图10B示出了用于接收在与视频的暂停位置对应的静止图像中捕获的物理环境的一部分上的注释的过程。图11A至图11F示出了用于将虚拟对象添加到先前所捕获的媒体对象的过程。图12A至图12D示出了用于发起共享注释会话的过程。图5A至图5AF、图6A至图6N、图7A至图7BF以及图8A至图8W中的用户界面用于示出图9A至图9F、图10A至图10B、图11A至图11F以及图12A至图12D中的过程。
示例性设备
现在将详细地参考实施方案,这些实施方案的示例在附图中示出。下面的详细描述中示出许多具体细节,以便提供对各种所描述的实施方案的充分理解。但是,对本领域的普通技术人员将显而易见的是,各种所描述的实施方案可以在没有这些具体细节的情况下被实践。在其他情况下,没有详细地描述众所周知的方法、过程、部件、电路和网络,从而不会不必要地使实施方案的各个方面晦涩难懂。
还将理解的是,虽然在一些情况下,术语“第一”、“第二”等在本文中用于描述各种元件,但是这些元件不应受到这些术语限制。这些术语只是用于将一个元件与另一元件区分开。例如,第一接触可被命名为第二接触,并且类似地,第二接触可被命名为第一接触,而不脱离各种所描述的实施方案的范围。第一接触和第二接触均为接触,但它们不是同一个接触,除非上下文另外明确指示。
在本文中对各种所述实施方案的描述中所使用的术语只是为了描述特定实施方案的目的,而并非旨在进行限制。如在对各种所述实施方案中的描述和所附权利要求书中所使用的那样,单数形式“一个”和“该”旨在也包括复数形式,除非上下文另外明确地指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”(“includes”、“including”、“comprises”和/或“comprising”)在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件和/或其分组。
如本文中所使用,根据上下文,术语“如果”任选地被解释为意思是“当…时”后“在…时”或“响应于确定”或“响应于检测”。类似地,根据上下文,短语“如果确定…”或“如果检测到[所陈述的条件或事件]”任选地被解释为是指“在确定…时”或“响应于确定…”或“在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
本文描述了电子设备、此类设备的用户界面和使用此类设备的相关过程的实施方案。在一些实施方案中,该设备为还包含其他功能诸如PDA和/或音乐播放器功能的便携式通信设备,诸如移动电话。便携式多功能设备的示例性实施方案包括但不限于来自AppleInc.(Cupertino,California)的
Figure BDA0003648007440000091
设备。任选地使用其他便携式电子设备,诸如具有触敏表面(例如,触摸屏显示器和/或触控板)的膝上型计算机或平板计算机。还应当理解的是,在一些实施方案中,该设备并非便携式通信设备,而是具有触敏表面(例如,触摸屏显示器和/或触控板)的台式计算机。
在下面的讨论中,描述了一种包括显示器和触敏表面的电子设备。然而,应当理解,该电子设备任选地包括一个或多个其他物理用户接口设备,诸如物理键盘、鼠标和/或操纵杆。
该设备通常支持各种应用,诸如以下应用中的一个或多个应用:记笔记应用、绘图应用、演示应用、文字处理应用、网站创建应用、盘编辑应用、电子表格应用、游戏应用、电话应用、视频会议应用、电子邮件应用、即时消息应用、健身支持应用、照片管理应用、数字相机应用、数字摄像机应用、Web浏览应用、数字音乐播放器应用序、和/或数字视频播放器应用。
在设备上执行的各种应用程序任选地使用至少一个通用的物理用户界面设备,诸如触敏表面。触敏表面的一种或多种功能以及被显示在设备上的对应信息任选地对于不同应用程序被调整和/或变化,和/或在相应应用程序内被调整和/或变化。这样,设备的共用物理架构(诸如触敏表面)任选地利用对于用户而言直观且清楚的用户界面来支持各种应用程序。
现在将注意力转到具有触敏显示器的便携式设备的实施方案。图1A是示出根据一些实施方案的具有触敏显示器系统112的便携式多功能设备100的框图。触敏显示器系统112有时为了方便而被叫做“触摸屏”,并且有时被简称为触敏显示器。设备100包括存储器102(其任选地包括一个或多个计算机可读存储介质)、存储器控制器122、一个或多个处理单元(CPU)120、外围设备接口118、RF电路108、音频电路110、扬声器111、麦克风113、输入/输出(I/O)子系统106、其他输入、或控制设备116吗、和外部端口124。设备100任选地包括一个或多个光学传感器164。设备100任选地包括用于检测设备100上的接触的强度的一个或多个强度传感器165(例如,触敏表面,诸如设备100的触敏显示系统112)。设备100任选地包括用于在设备100上生成触觉输出的一个或多个触觉输出发生器167(例如,在触敏表面(诸如设备100的触敏显示器系统112或设备300的触摸板355)上生成触觉输出)。这些部件任选地通过一个或多个通信总线或信号线103进行通信。
应当理解,设备100仅仅是便携式多功能设备的一个示例,并且设备100任选地具有比所示出的部件更多或更少的部件,任选地组合两个或更多个部件,或者任选地具有这些部件的不同配置或布置。图1A中所示的各种部件在硬件、软件、固件、或它们的任何组合(包括一个或多个信号处理电路和/或专用集成电路)中实施。
存储器102任选地包括高速随机存取存储器,并且还任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、闪存存储器设备、或其他非易失性固态存储器设备。设备100的其他部件(诸如CPU 120和外围设备接口118)对存储器102的访问任选地由存储器控制器122来控制。
外围设备接口118可用于将设备的输入外围设备和输出外围设备耦接到CPU 120和存储器102。一个或多个处理器120运行或执行存储器102中所存储的各种软件程序和/或指令集以执行设备100的各种功能并处理数据。
在一些实施方案中,外围设备接口118、CPU 120和存储器控制器122任选地被实现在单个芯片诸如芯片104上。在一些其他实施方案中,它们任选地在独立的芯片上实现。
RF(射频)电路108接收和发送也被称作电磁信号的RF信号。RF电路108将电信号转换为电磁信号/将电磁信号转换为电信号,并且经由电磁信号与通信网络及其他通信设备进行通信。RF电路108任选地包括用于执行这些功能的熟知的电路,包括但不限于天线系统、RF收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码芯片组、用户身份模块(SIM)卡、存储器等等。RF电路108任选地通过无线通信来与网络和其他设备进行通信,这些网络为诸如互联网(也被称为万维网(WWW))、内联网和/或无线网络(诸如,蜂窝电话网络、无线局域网(LAN)和/或城域网(MAN))。该无线通信任选地使用多种通信标准、协议和技术中的任一者,包括但不限于全球移动通信系统(GSM)、增强型数据GSM环境(EDGE)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、演进纯数据(EV-DO)、HSPA、HSPA+、双单元HSPA(DC-HSPA)、长期演进(LTE)、近场通信(NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、无线保真(Wi-Fi)(例如,IEEE802.11a、IEEE 802.11ac、IEEE 802.11ax、IEEE 802.11b、IEEE 802.11g和/或IEEE802.11n)、互联网协议语音技术(VoIP)、Wi-MAX、电子邮件协议(例如,互联网消息访问协议(IMAP)和/或邮局协议(POP))、即时消息(例如,可扩展消息处理和存在协议(XMPP)、用于即时消息和存在利用扩展的会话发起协议(SIMPLE)、即时消息和存在服务(IMPS))、和/或短消息服务(SMS)、或者包括在本文档提交日期还未开发出的通信协议的其他任何适当的通信协议。
音频电路110、扬声器111和麦克风113提供用户与设备100之间的音频接口。音频电路110从外围设备接口118接收音频数据,将音频数据转换为电信号,并将电信号传输到扬声器111。扬声器111将电信号转换为人类可听到的声波。音频电路110还接收由麦克风113从声波转换的电信号。音频电路110将电信号转换为音频数据,并且将音频数据传输到外围设备接口118以用于处理。音频数据任选地由外围设备接口118检索自和/或传输至存储器102和/或RF电路108。在一些实施方案中,音频电路110还包括耳麦插孔(例如,图2中的212)。耳麦插孔提供音频电路110与可移除音频输入/输出外围设备之间的接口,该外围设备为诸如仅输出的耳机或者具有输出(例如,单耳耳机或双耳耳机)和输入(例如,麦克风)两者的耳麦。
I/O子系统106将设备100上的输入/输出外围设备诸如触敏显示器系统112和其他输入或控制设备116与外围设备接口118耦接。I/O子系统106任选地包括显示控制器156、光学传感器控制器158、强度传感器控制器159、触觉反馈控制器161、和用于其他输入或控制设备的一个或多个输入控制器160。一个或多个输入控制器160从其他输入或控制设备116接收电信号/将电信号发送到该其他输入或控制设备。其他输入控制设备116任选地包括物理按钮(例如,下压按钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、点击轮等。在一些另选的实施方案中,一个或多个输入控制器160任选地耦接至以下各项中的任一者(或不耦接至以下各项中的任一者):键盘、红外线端口、USB端口、触笔、和/或指针设备诸如鼠标。一个或多个按钮(例如,图2中的208)任选地包括用于扬声器111和/或麦克风113的音量控制的向上/向下按钮。一个或多个按钮任选地包括下压按钮(例如,图2中的206)。
触敏显示器系统112提供设备与用户之间的输入接口和输出接口。显示控制器156从触敏显示器系统112接收电信号和/或将电信号发送至触敏显示器系统112。触敏显示器系统112向用户显示视觉输出。视觉输出任选地包括图形、文本、图标、视频以及它们的任何组合(统称为“图形”)。在一些实施方案中,一些视觉输出或全部的视觉输出对应于用户界面对象。如本文所用,术语“示能表示”是指用户交互式图形用户界面对象(例如,被配置为对被引向图形用户界面对象的输入进行响应的图形用户界面对象)。用户交互式图形用户界面对象的示例包括但不限于按钮、滑块、图标、可选择菜单项、开关、超链接或其他用户界面控件。
触敏显示器系统112具有基于触觉和/或触感接触来接受来自用户的输入的触敏表面、传感器、或传感器组。触敏显示器系统112和显示控制器156(与存储器102中的任何相关联的模块和/或指令集一起)检测触敏显示器系统112上的接触(和该接触的任何移动或中断),并且将检测到的接触转换为与被显示在触敏显示器系统112上的用户界面对象(例如,一个或多个软按键、图标、网页或图像)的交互。在一些实施方案中,在触敏显示器系统112和用户之间的接触点对应于用户的手指或触笔。
触敏显示器系统112任选地使用LCD(液晶显示器)技术、LPD(发光聚合物显示器)技术、或LED(发光二极管)技术,但是在其他实施方案中使用其他显示技术。触敏显示系统112和显示控制器156任选地使用现在已知的或以后将开发出的多种触摸感测技术中的任何技术以及其他接近传感器阵列或用于确定与触敏显示系统112接触的一个或多个点的其他元件来检测接触及其任何移动或中断,该多种触摸感测技术包括但不限于电容性的、电阻性的、红外线的、和表面声波技术。在一些实施方案中,使用投射式互电容感测技术,诸如从Apple Inc.(Cupertino,California)的
Figure BDA0003648007440000123
iPod
Figure BDA0003648007440000122
Figure BDA0003648007440000121
中发现的技术。
触敏显示器系统112任选地具有超过100dpi的视频分辨率。在一些实施方案中,触摸屏视频分辨率超过400dpi(例如,500dpi、800dpi或更大)。用户任选地使用任何合适的物体或附加物诸如触笔、手指等来与触敏显示系统112接触。在一些实施方案中,将用户界面设计成与基于手指的接触和手势一起工作,由于手指在触摸屏上的接触区域较大,因此这可能不如基于触笔的输入精确。在一些实施方案中,设备将基于手指的粗略输入转化为精确的指针/光标位置或命令以用于执行用户所期望的动作。
在一些实施方案中,除了触摸屏之外,设备100任选地包括用于激活或去激活特定功能的触控板(未示出)。在一些实施方案中,触控板是设备的触敏区域,与触摸屏不同,该触敏区域不显示视觉输出。触控板任选地是与触敏显示器系统112分开的触敏表面,或者是由触摸屏形成的触敏表面的延伸部分。
设备100还包括用于为各种部件供电的电力系统162。电力系统162任选地包括电力管理系统、一个或多个电源(例如,电池、交流电(AC))、再充电系统、电力故障检测电路、功率转换器或逆变器、电源状态指示符(例如,发光二极管(LED))以及与便携式设备中的电力的生成、管理和分配相关联的任何其他部件。
设备100任选地还包括一个或多个光学传感器164。图1A示出与I/O子系统106中的光学传感器控制器158耦接的光学传感器。一个或多个光学传感器164任选地包括电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)光电晶体管。一个或多个光学传感器164从环境接收通过一个或多个透镜而投射的光,并且将光转换为表示图像的数据。结合成像模块143(也被叫做相机模块),一个或多个光学传感器164任选地捕获静态图像和/或视频。在一些实施方案中,光学传感器位于设备100的与设备前部上的触敏显示系统112相背对的后部上,使得触摸屏能够用作用于静态图像和/或视频图像采集的取景器。在一些实施方案中,另一光学传感器位于设备的前部上,从而获取该用户的图像(例如,用于自拍、用于当用户在触摸屏上观看其他视频会议参与者时进行视频会议等等)。
设备100任选地还包括一个或多个接触强度传感器165。图1A示出了与I/O子系统106中的强度传感器控制器159耦接的接触强度传感器。一个或多个接触强度传感器165任选地包括一个或多个压阻应变仪、电容式力传感器、电气式力传感器、压电力传感器、光学力传感器、电容式触敏表面、或其他强度传感器(例如,用于测量触敏表面上的接触的力(或压力)的传感器)。一个或多个接触强度传感器165从环境接收接触强度信息(例如,压力信息或压力信息的代用物)。在一些实施方案中,至少一个接触强度传感器与触敏表面(例如,触敏显示器系统112)并置排列或邻近。在一些实施方案中,至少一个接触强度传感器位于设备100的与位于设备100的前部上的触敏显示系统112相背对的后部上。
设备100任选地还包括一个或多个接近传感器166。图1A示出了与外围设备接口118耦接的接近传感器166。另选地,接近传感器166与I/O子系统106中的输入控制器160耦接。在一些实施方案中,当多功能设备被置于用户耳朵附近时(例如,用户正在打电话时),接近传感器关闭并禁用触敏显示器系统112。
设备100任选地还包括一个或多个触觉输出发生器167。图1A示出了与I/O子系统106中的触觉反馈控制器161耦接的触觉输出发生器。在一些实施方案中,触觉输出发生器167包括一个或多个电声设备诸如扬声器或其他音频部件;以及/或者用于将能量转换成线性运动的机电设备诸如马达、螺线管、电活性聚合器、压电致动器、静电致动器,或其他触觉输出生成部件(例如,用于将电信号转换成设备上的触觉输出的部件)。触觉输出发生器167从触觉反馈模块133接收触觉反馈生成指令,并且在设备100上生成能够由设备100的用户感觉到的触觉输出。在一些实施方案中,至少一个触觉输出发生器与触敏表面(例如,触敏显示器系统112)并置排列或邻近,并且任选地通过竖直地(例如,向设备100的表面内/外)或侧向地(例如,在与设备100的表面相同的平面中向后和向前)移动触敏表面来生成触觉输出。在一些实施方案中,至少一个触觉输出发生器传感器位于设备100的与位于设备100的前部上的触敏显示系统112相背对的后部上。
设备100任选地还包括一个或多个加速度计168。图1A示出与外围设备接口118耦接的加速度计168。另选地,加速度计168任选地与I/O子系统106中的输入控制器160耦接。在一些实施方案中,基于对从该一个或多个加速度计所接收的数据的分析来在触摸屏显示器上以纵向视图或横向视图来显示信息。设备100任选地除加速度计168之外还包括磁力仪(未示出)和GPS(或GLONASS或其他全球导航系统)接收器(未示出),以用于获取关于设备100的位置和取向(例如,纵向或横向)的信息。
在一些实施方案中,存储于存储器102中的软件部件包括操作系统126、通信模块(或指令集)128、接触/运动模块(或指令集)130、图形模块(或指令集)132、触觉反馈模块(或指令集)133、文本输入模块(或指令集)134、全球定位系统(GPS)模块(或指令集)135、以及应用程序(或指令集)136。此外,在一些实施方案中,存储器102存储设备/全局内部状态157,如图在1A和图3中所示的。设备/全局内部状态157包括以下中的一者或多者:活动应用程序状态,其指示哪些应用程序(如果有的话)当前是活动的;显示状态,其指示什么应用程序、视图或其他信息占据触敏显示器系统112的各个区域;传感器状态,包括从设备的各个传感器和其他输入或控制设备116获得的信息;以及关于设备的位置和/或姿态的位置和/或方位信息。
操作系统126(例如,iOS、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、或嵌入式操作系统诸如VxWorks)包括用于控制和管理一般系统任务(例如,存储器管理、存储设备控制、电源管理等)的各种软件组件和/或驱动器,并且有利于各种硬件和软件组件之间的通信。
通信模块128有利于通过一个或多个外部端口124来与其他设备进行通信,并且还包括用于处理由RF电路108和/或外部端口124所接收的数据的各种软件部件。外部端口124(例如,通用串行总线(USB)、火线等)适于直接耦接到其他设备,或间接地通过网络(例如,互联网、无线LAN等)进行耦接。在一些实施方案中,外部端口是与Apple Inc.(Cupertino,California)的一些
Figure BDA0003648007440000151
iPod
Figure BDA0003648007440000153
Figure BDA0003648007440000152
设备中所使用的30针连接器相同或类似和/或兼容的多针(例如,30针)连接器。在一些实施方案中,外部端口是与Apple Inc.(Cupertino,California)的一些
Figure BDA0003648007440000154
iPod
Figure BDA0003648007440000156
Figure BDA0003648007440000155
设备中所使用的Lightning连接器相同或类似和/或兼容的Lightning连接器。
接触/运动模块130任选地检测与触敏显示器系统112(结合显示控制器156)和其他触敏设备(例如,触控板或物理点击轮)的接触。接触/运动模块130包括各种软件部件以用于执行与(例如通过手指或触笔)接触检测相关的各种操作,诸如确定是否已发生接触(例如,检测手指按下事件)、确定接触的强度(例如,接触的力或压力,或者接触的力或压力的替代物)、确定是否存在接触的移动并跟踪跨触敏表面的移动(例如,检测一个或多个手指拖动事件),以及确定接触是否已停止(例如,检测手指抬离事件或者接触断开)。接触/运动模块130从触敏表面接收接触数据。确定接触点的移动任选地包括确定接触点的速率(量值)、速度(量值和方向)和/或加速度(量值和/或方向的改变),所述接触点的移动由一系列接触数据表示。这些操作任选地被应用于单点接触(例如,单指接触或触笔接触)或者多点同时接触(例如,“多点触摸”/多指接触)。在一些实施方案中,接触/运动模块130和显示控制器156检测触控板上的接触。
接触/运动模块130任选地检测由用户进行的手势输入。触敏表面上的不同手势具有不同的接触模式(例如,所检测到的接触的不同运动、计时和/或强度)。因此,任选地通过检测特定接触模式来检测手势。例如,检测单指轻击手势包括检测手指按下事件,然后在与手指按下事件相同的位置(或基本上相同的位置)处(例如,在图标位置处)检测手指抬起(抬离)事件。又如,检测触敏表面上的手指轻扫手势包括检测手指按下事件,然后检测一个或多个手指拖动事件,并且随后检测手指抬起(抬离)事件。类似地,通过检测触笔的特定接触图案来任选地检测触笔的轻击、轻扫、拖动和其他手势。
在一些实施方案中,检测手指轻击手势取决于检测手指按下事件与手指抬起事件之间的时间长度,但是与检测手指按下事件与手指抬起事件之间的手指接触强度无关。在一些实施方案中,根据确定手指按下事件与手指抬起事件之间的时间长度小于预先确定的值(例如,小于0.1、0.2、0.3、0.4或0.5秒),检测轻击手势,而不管轻击期间手指接触的强度是否达到给定的强度阈值(大于标称接触检测强度阈值),例如轻按压或深按压强度阈值。因此,手指轻击手势可以满足特定输入标准,该特定输入标准不要求接触的特征强度满足给定强度阈值以满足特定输入标准。为清楚起见,轻击手势中的手指接触通常需要满足标称接触检测强度阈值以检测到手指按下事件,低于该标称接触检测强度阈值时,不会检测到接触。类似的分析适用于通过触笔或其他接触检测轻击手势。在设备能够检测在触敏表面上方悬停的手指或触笔接触的情况下,标称接触检测强度阈值任选地不与手指或触笔与触敏表面之间的物理接触对应。
同样的概念以类似方式适用于其他类型的手势。例如,可基于满足与手势中包括的接触的强度无关或者不要求执行手势的一个或多个接触达到强度阈值以便被识别的标准来任选地检测轻扫手势、捏合手势、展开手势和/或长按压手势。例如,基于一个或多个接触的移动的量来检测轻扫手势;缩放手势基于两个或更多个接触朝彼此的移动来检测;扩放手势基于两个或更多个接触背离彼此的移动来检测;长按压手势基于触敏表面上具有少于阈值移动量的接触的持续时间来检测。因此,关于特定手势识别标准不要求接触强度满足相应的强度阈值以满足特定手势识别标准的陈述意味着特定手势识别标准能够在手势中的接触未达到相应的强度阈值时被满足,并且还能够在手势中的一个或多个接触达到或超过相应的强度阈值的情况下被满足。在一些实施方案中,基于确定在预定义时间段内检测到手指按下事件和手指抬起事件来检测轻击手势,而不考虑在预定义时间段期间接触是高于还是低于相应的强度阈值,并且基于确定接触移动大于预定义量值来检测轻扫手势,即使在接触移动结束时接触高于相应的强度阈值也是如此。即使在对手势的检测受到执行手势的接触的强度的影响的具体实施中(例如,当接触的强度高于强度阈值时,设备更快地检测到长按压,或者当接触的强度更高时,设备会延迟对轻击输入的检测),只要在接触未达到特定强度阈值的情况下可以满足识别手势的标准,则对这些手势的检测也不会要求接触达到特定强度阈值(例如,即使识别手势所需的时间量发生变化)。
在某些情况下,接触强度阈值、持续时间阈值和移动阈值以各种不同组合进行组合,以便创建启发式算法来区分针对相同输入元素或区域的两个或更多个不同手势,使得与相同输入元素的多个不同交互能够提供更丰富的用户交互和响应的集合。关于一组特定手势识别标准不要求一个或多个接触的强度满足相应的强度阈值以便满足特定手势识别标准的陈述不排除对其他强度相关手势识别标准进行同时评估,以识别具有当手势包括具有高于相应强度阈值的强度的接触时被满足的标准的其他手势。例如,在某些情况下,第一手势的第一手势识别标准(其不要求接触的强度满足相应的强度阈值以满足第一手势识别标准)与第二手势的第二手势识别标准(其取决于达到相应强度阈值的接触)竞争。在此类竞争中,如果第二手势的第二手势识别标准首先得到满足,则手势任选地不被识别为满足第一手势的第一手势识别标准。例如,如果在接触移动预定义的移动量之前接触达到相应的强度阈值,则检测到深按压手势而不是轻扫手势。相反,如果在接触达到相应的强度阈值之前接触移动预定义的移动量,则检测到轻扫手势而不是深按压手势。即使在此类情况下,第一手势的第一手势识别标准仍然不要求接触的强度满足相应的强度阈值以满足第一手势识别标准,因为如果接触保持低于相应的强度阈值直到手势结束(例如,具有不会增大到高于相应强度阈值的强度的接触的轻扫手势),手势将被第一手势识别标准识别为轻扫手势。因此,不要求接触的强度满足相应的强度阈值以满足特定手势识别标准的特定手势识别标准将会(A)在某些情况下,忽略相对于强度阈值的接触强度(例如,对于轻击手势而言)和/或(B)在某些情况下,如果在特定手势识别标准识别与输入对应的手势之前,一组竞争的强度相关手势识别标准(例如,对于深按压手势而言)将输入识别为与强度相关手势对应,则不能满足特定手势识别标准(例如,对于长按压手势而言),从这个意义上来讲,仍然取决于相对于强度阈值的接触强度(例如,对于与深按压手势竞争识别的长按压手势而言)。
图形模块132包括用于在触敏显示器系统112或其他显示器上渲染和显示图形的各种已知软件部件,包括用于改变所显示的图形的视觉冲击(例如,亮度、透明度、饱和度、对比度或其他视觉属性)的部件。如本文所用,术语“图形”包括可被显示给用户的任何对象,非限制性地包括文本、网页、图标(诸如包括软键的用户界面对象)、数字图像、视频、动画等。
在一些实施方案中,图形模块132存储表示待使用的图形的数据。每个图形任选地被分配有对应的代码。图形模块132从应用程序等接收用于指定待显示的图形的一个或多个代码,在必要的情况下还一起接收坐标数据和其他图形属性数据,并且然后生成屏幕图像数据,以输出至显示控制器156。
触觉反馈模块133包括用于生成指令(例如,由触感反馈控制器161使用的指令)的各种软件组件,以响应于用户与设备100的交互而使用触觉输出发生器167在设备100上的一个或多个位置处生成触觉输出。
任选地为图形模块132的部件的文本输入模块134提供用于在各种应用程序(例如,联系人137、电子邮件140、IM 141、浏览器147和需要文本输入的任何其他应用程序)中输入文本的软键盘。
GPS模块135确定设备的位置并提供该信息以在各种应用程序中使用(例如,提供至电话138以用于基于位置的拨号;提供至相机143作为图片/视频元数据;以及提供至提供基于位置的服务的应用程序诸如天气桌面小程序、当地黄页桌面小程序和地图/导航桌面小程序)。
应用程序136任选地包括以下模块(或指令集)或者其子集或超集:
·联系人模块137(有时称为通讯录或联系人列表);
·电话模块138;
·视频会议模块139;
·电子邮件客户端模块140;
·即时消息(IM)模块141;
·健身支持模块142;
·用于静态图像和/或视频图像的相机模块143;
·图像管理模块144;
·浏览器模块147;
·日历模块148;
·桌面小程序模块149,其任选地包括以下各项中的一者或多者:天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4、词典桌面小程序149-5、和由用户获取的其他桌面小程序、以及用户创建的桌面小程序149-6;
·用于形成用户创建的桌面小程序149-6的桌面小程序创建器模块150;
·搜索模块151;
·任选地由视频播放器模块和音乐播放器模块构成的视频和音乐播放器模块152;
·备忘录模块153;
·地图模块154;以及/或者
·在线视频模块155。
任选地存储在存储器102中的其他应用程序136的示例包括其他文字处理应用程序、其他图像编辑应用程序、绘图应用程序、呈现应用程序、支持JAVA的应用程序、加密、数字权益管理、语音识别和语音复制。
结合触敏显示器系统112、显示控制器156、接触模块130、图形模块132、和文本输入模块134,联系人模块137包括可执行指令用于管理通讯录或联系人列表(例如,存储在存储器102或存储器370中的联系人模块137的应用程序内部状态192中),包括:添加姓名到通讯录;从通讯录删除姓名;将电话号码、电子邮件地址、物理地址或其他信息与姓名关联;将图像与姓名关联;对姓名进行归类和分类;提供电话号码和/或电子邮件地址来发起和/或促进通过电话138、视频会议139、电子邮件140或即时消息141的通信;等等。
结合RF电路108、音频电路110、扬声器111、麦克风113、触敏显示器系统112、显示控制器156、接触模块130、图形模块132、和文本输入模块134,电话模块138包括用于进行以下操作的可执行指令:输入与电话号码对应的字符序列、访问通讯录137中的一个或多个电话号码、修改已输入的电话号码、拨打相应的电话号码、进行会话、以及当会话完成时断开或挂断。如上所述,无线通信任选地使用多种通信标准、协议和技术中的任一种。
结合RF电路108、音频电路110、扬声器111、麦克风113、触敏显示系统112、显示控制器156、一个或多个光学传感器164、光学传感器控制器158、接触模块130、图形模块132、文本输入模块134、联系人列表137和电话模块138,视频会议模块139包括根据用户指令来发起、进行和终止用户与一个或多个其他参与方之间的视频会议的可执行指令。
结合RF电路108、触敏显示器系统112、显示控制器156、接触模块130、图形模块132和文本输入模块134,电子邮件客户端模块140包括用于响应于用户指令来创建、发送、接收和管理电子邮件的可执行指令。结合图像管理模块144,电子邮件客户端模块140使得非常容易创建和发送具有由相机模块143拍摄的静态图像或视频图像的电子邮件。
结合RF电路108、触敏显示器系统112、显示控制器156、接触模块130、图形模块132和文本输入模块134,即时消息模块141包括用于进行以下操作的可执行指令:输入与即时消息对应的字符序列、修改先前输入的字符、传输相应即时消息(例如,使用针对基于电话的即时消息的短消息服务(SMS)或多媒体消息服务(MMS)协议或者使用针对基于互联网的即时消息的XMPP、SIMPLE、Apple推送通知服务(APNs)或IMPS)、接收即时消息,以及查看所接收的即时消息。在一些实施方案中,所传输和/或接收的即时消息任选地包括图形、相片、音频文件、视频文件、和/或MMS和/或增强消息服务(EMS)中所支持的其他附接件。如本文所用,“即时消息”是指基于电话的消息(例如,使用SMS或MMS发送的消息)和基于互联网的消息(例如,使用XMPP、SIMPLE、APNs或IMPS发送的消息)两者。
结合RF电路108、触敏显示器系统112、显示控制器156、接触模块130、图形模块132、文本输入模块134、GPS模块135、地图模块154以及视频和音乐播放器模块152,健身支持模块142包括可执行指令用于创建健身(例如,具有时间、距离和/或卡路里燃烧目标);与(体育设备和智能手表中的)健身传感器通信;接收健身传感器数据;校准用于监视健身的传感器;为健身选择和播放音乐;以及显示、存储和传输健身数据。
结合触敏显示器系统112、显示控制器156、一个或多个光学传感器164、光学传感器控制器158、接触模块130、图形模块132和图像管理模块144,相机模块143包括用于进行以下操作的可执行指令:捕获静态图像或视频(包括视频流)并且将它们存储到存储器102中、修改静态图像或视频的特征、和/或从存储器102删除静态图像或视频。
结合触敏显示器系统112、显示控制器156、接触模块130、图形模块132、文本输入模块134、和相机模块143,图像管理模块144包括用于排列、修改(例如,编辑)、或以其他方式操控、加标签、删除、展示(例如,在数字幻灯片或相册中)、以及存储静态图像和/或视频图像的可执行指令。
结合RF电路108、触敏显示器系统112、显示系统控制器156、接触模块130、图形模块132和文本输入模块134,浏览器模块147包括根据用户指令来浏览互联网(包括搜索、链接到、接收、和显示网页或其部分、以及链接到网页的附件和其他文件)的可执行指令。
结合RF电路108、触敏显示器系统112、显示系统控制器156、接触模块130、图形模块132、文本输入模块134、电子邮件客户端模块140和浏览器模块147,日历模块148包括用于根据用户指令来创建、显示、修改和存储日历以及与日历相关联的数据(例如,日历条目、待办事项等)的可执行指令。
结合RF电路108、触敏显示器系统112、显示系统控制器156、接触模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序模块149是任选地由用户下载和使用的微型应用程序(例如,天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4和词典桌面小程序149-5)、或由用户创建的微型应用程序(例如,用户创建的桌面小程序149-6)。在一些实施方案中,桌面小程序包括HTML(超文本标记语言)文件、CSS(层叠样式表)文件和JavaScript文件。在一些实施方案中,桌面小程序包括XML(可扩展标记语言)文件和JavaScript文件(例如,Yahoo!桌面小程序)。
结合RF电路108、触敏显示器系统112、显示系统控制器156、接触模块130、图形模块132、文本输入模块134、和浏览器模块147,桌面小程序创建器模块150包括用于创建桌面小程序(例如,将网页的用户指定部分转到桌面小程序中)的可执行指令。
结合触敏显示器系统112、显示系统控制器156、接触模块130、图形模块132和文本输入模块134,搜索模块151包括用于根据用户指令来搜索存储器102中的与一个或多个搜索条件(例如,一个或多个用户指定的搜索词)匹配的文本、音乐、声音、图像、视频和/或其他文件的可执行指令。
结合触敏显示系统112、显示系统控制器156、接触模块130、图形模块132、音频电路110、扬声器111、RF电路108和浏览器模块147,视频和音乐播放器模块152包括允许用户下载和回放以一种或多种文件格式(诸如MP3或AAC文件)存储的所记录的音乐和其他声音文件的可执行指令,以及用于显示、呈现或以其他方式回放视频(例如,在触敏显示系统112上或在经由外部端口124无线连接的外部显示器上)的可执行指令。在一些实施方案中,设备100任选地包括MP3播放器诸如iPod(Apple Inc.的商标)的功能。
结合触敏显示器系统112、显示控制器156、接触模块130、图形模块132和文本输入模块134,记事本模块153包括用于根据用户指令来创建和管理记事本、待办事项等的可执行指令。
结合RF电路108、触敏显示器系统112、显示系统控制器156、接触模块130、图形模块132、文本输入模块134、GPS模块135和浏览器模块147,地图模块154包括用于根据用户指令来接收、显示、修改和存储地图以及与地图相关联的数据(例如,驾车路线;特定位置处或附近的商店和其他兴趣点的数据;和其他基于位置的数据)的可执行指令。
结合触敏显示系统112、显示系统控制器156、接触模块130、图形模块132、音频电路110、扬声器111、RF电路108、文本输入模块134、电子邮件客户端模块140和浏览器模块147,在线视频模块155包括允许用户访问、浏览、接收(例如,通过流式传输和/或下载)、回放(例如在触摸屏112上或在无线连接的或经由外部端口124连接的外部显示器上)、发送具有至特定在线视频的链接的电子邮件、以及以其他方式管理一种或多种文件格式诸如H.264的在线视频的可执行指令。在一些实施方案中,使用即时消息模块141而不是电子邮件客户端模块140来发送特定在线视频的链接。
上述所识别的每个模块和应用对应于用于执行上述一种或多种功能以及在本公开中所描述的方法(例如,本文中所描述的计算机实现的方法和其他信息处理方法)的一组可执行指令。这些模块(即,指令集)不必以独立的软件程序、过程或模块实现,因此这些模块的各种子集任选地在各种实施方案中组合或以其他方式重新布置。在一些实施方案中,存储器102任选地存储上述模块和数据结构的子组。此外,存储器102任选地存储上文未描述的另外的模块和数据结构。
在一些实施方案中,设备100是该设备上的预定义的一组功能的操作唯一地通过触摸屏和/或触摸板来执行的设备。通过使用触摸屏和/或触控板作为用于操作设备100的主要输入控制设备,任选地减少设备100上的物理输入控制设备(例如,下压按钮、拨盘等等)的数量。
唯一地通过触摸屏和/或触控板来执行的预定义的一组功能任选地包括在用户界面之间的导航。在一些实施方案中,触摸板在被用户触摸时将设备100从设备100上显示的任何用户界面导航到主菜单、home菜单或根菜单。在此类实施方案中,使用触控板来实现“菜单按钮”。在一些其他实施方案中,菜单按钮是物理下压按钮或者其他物理输入控制设备,而不是触控板。
图1B是示出根据一些实施方案的用于事件处理的示例性部件的框图。在一些实施方案中,存储器102(图1A中)或存储器370(图3)包括事件分类器170(例如,在操作系统126中)和相应的应用程序136-1(例如,前述应用程序136、137至155、380至390中的任一个应用程序)。
事件分类器170接收事件信息并确定要将事件信息递送到的应用程序136-1和应用程序136-1的应用程序视图191。事件分类器170包括事件监视器171和事件分配器模块174。在一些实施方案中,应用程序136-1包括应用程序内部状态192,该应用程序内部状态指示当应用程序是活动的或正在执行时在触敏显示器系统112上显示的一个或多个当前应用程序视图。在一些实施方案中,设备/全局内部状态157被事件分类器170用来确定哪个(哪些)应用程序当前是活动的,并且应用程序内部状态192被事件分类器170用来确定要将事件信息递送到的应用程序视图191。
在一些实施方案中,应用程序内部状态192包括附加信息,诸如以下各项中的一者或多者:当应用程序136-1恢复执行时将被使用的恢复信息、指示信息正被显示或准备好用于被应用程序136-1显示的用户界面状态信息、用于使得用户能够返回到应用程序136-1的前一状态或视图的状态队列,以及用户采取的先前动作的重复/撤销队列。
事件监视器171从外围设备接口118接收事件信息。事件信息包括关于子事件(例如,作为多点触摸手势的一部分的触敏显示器系统112上的用户触摸)的信息。外围设备接口118传输其从I/O子系统106或传感器诸如接近传感器166、一个或多个加速度计168和/或麦克风113(通过音频电路110)接收的信息。外围设备接口118从I/O子系统106所接收的信息包括来自触敏显示器系统112或触敏表面的信息。
在一些实施方案中,事件监视器171以预先确定的间隔将请求发送至外围设备接口118。作为响应,外围设备接口118传输事件信息。在其他实施方案中,外围设备接口118仅当存在显著事件(例如,接收到高于预先确定的噪声阈值和/或接收到超过预先确定的持续时间的输入)时才传输事件信息。
在一些实施方案中,事件分类器170还包括命中视图确定模块172和/或活动事件识别器确定模块173。
当触敏显示器系统112显示多于一个视图时,命中视图确定模块172提供用于确定子事件已在一个或多个视图内的什么地方发生的软件过程。视图由用户能够在显示器上看到的控件和其他元素构成。
与应用程序相关联的用户界面的另一方面是一组视图,本文中有时也称为应用程序视图或用户界面窗口,在其中显示信息并且发生基于触摸的手势。在其中检测到触摸的(相应应用程序的)应用程序视图任选地对应于在应用程序的程序化或视图分级结构内的程序化水平。例如,在其中检测到触摸的最低水平视图任选地被称为命中视图,并且被识别为正确输入的事件集任选地至少部分地基于初始触摸的命中视图来确定,所述初始触摸开始基于触摸的手势。
命中视图确定模块172接收与基于触摸的手势的子事件相关的信息。当应用程序具有以分级结构组织的多个视图时,命中视图确定模块172将命中视图识别为应当对子事件进行处理的分级结构中的最低视图。在大多数情况下,命中视图是发起子事件(即形成事件或潜在事件的子事件序列中的第一子事件)在其中发生的最低水平视图。一旦命中视图被命中视图确定模块所识别,命中视图便通常接收与其被识别为命中视图所针对的同一触摸或输入源相关的所有子事件。
活动事件识别器确定模块173确定视图分级结构内的哪个或哪些视图应接收特定子事件序列。在一些实施方案中,活动事件识别器确定模块173确定仅命中视图应接收特定子事件序列。在其他实施方案中,活动事件识别器确定模块173确定包括子事件的物理位置的所有视图是活跃参与的视图,并因此确定所有活跃参与的视图都应接收特定子事件序列。在其他实施方案中,即使触摸子事件完全被局限到与一个特定视图相关联的区域,分级结构中的较高视图将仍然保持为活跃参与的视图。
事件分配器模块174将事件信息分配到事件识别器(例如,事件识别器180)。在包括活动事件识别器确定模块173的实施方案中,事件分配器模块174将事件信息递送到由活动事件识别器确定模块173确定的事件识别器。在一些实施方案中,事件分配器模块174在事件队列中存储事件信息,该事件信息由相应事件接收器模块182进行检索。
在一些实施方案中,操作系统126包括事件分类器170。另选地,应用程序136-1包括事件分类器170。在又一个实施方案中,事件分类器170是独立模块,或者是存储在存储器102中的另一个模块(诸如,接触/运动模块130)的一部分。
在一些实施方案中,应用程序136-1包括多个事件处理程序190和一个或多个应用程序视图191,其中的每一个都包括用于处理发生在应用程序的用户界面的相应视图内的触摸事件的指令。应用程序136-1的每个应用程序视图191包括一个或多个事件识别器180。通常,相应应用程序视图191包括多个事件识别器180。在其他实施方案中,事件识别器180中的一个或多个事件识别器是独立模块的一部分,该独立模块为诸如用户界面工具包(未示出)或应用程序136-1从中继承方法和其他属性的较高级别的对象。在一些实施方案中,相应事件处理程序190包括以下各项中的一者或多者:数据更新器176、对象更新器177、GUI更新器178、和/或从事件分类器170接收的事件数据179。事件处理程序190任选地利用或调用数据更新器176、对象更新器177或GUI更新器178来更新应用程序内部状态192。另选地,应用程序视图191中的一个或多个应用程序视图包括一个或多个相应事件处理程序190。另外,在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178中的一者或多者被包括在相应应用程序视图191中。
相应的事件识别器180从事件分类器170接收事件信息(例如,事件数据179),并且从事件信息识别事件。事件识别器180包括事件接收器182和事件比较器184。在一些实施方案中,事件识别器180还包括元数据183和事件传递指令188(其任选地包括子事件递送指令)的至少一个子集。
事件接收器182从事件分类器170接收事件信息。事件信息包括关于子事件例如触摸或触摸移动的信息。根据子事件,事件信息还包括附加信息,诸如子事件的位置。当子事件涉及触摸的运动时,事件信息任选地还包括子事件的速率和方向。在一些实施方案中,事件包括设备从一个取向旋转到另一取向(例如,从纵向取向旋转到横向取向,或反之亦然),并且事件信息包括关于设备的当前取向(也被称为设备姿态)的对应信息。
事件比较器184将事件信息与预定义的事件或子事件定义进行比较,并且基于该比较来确定事件或子事件,或者确定或更新事件或子事件的状态。在一些实施方案中,事件比较器184包括事件定义186。事件定义186包含事件的定义(例如,预定义的子事件序列),例如事件1(187-1)、事件2(187-2)以及其他。在一些实施方案中,事件187中的子事件包括例如触摸开始、触摸结束、触摸移动、触摸取消和多点触摸。在一个示例中,事件1(187-1)的定义是被显示对象上的双击。例如,双击包括被显示对象上的预先确定时长的第一次触摸(触摸开始)、预先确定时长的第一次抬起(触摸结束)、被显示对象上的预先确定时长的第二次触摸(触摸开始)以及预先确定时长的第二次抬起(触摸结束)。在另一个示例中,事件2(187-2)的定义是被显示对象上的拖动。例如,拖动包括被显示对象上的预先确定时长的触摸(或接触)、触摸在触敏显示器系统112上的移动、以及触摸的抬离(触摸结束)。在一些实施方案中,事件还包括用于一个或多个相关联的事件处理程序190的信息。
在一些实施方案中,事件定义187包括对用于相应用户界面对象的事件的定义。在一些实施方案中,事件比较器184执行命中测试以确定哪个用户界面对象与子事件相关联。例如,在触敏显示器系统112上显示三个用户界面对象的应用程序视图中,当在触敏显示器系统112上检测到触摸时,事件比较器184执行命中测试以确定这三个用户界面对象中的哪一个用户界面对象与该触摸(子事件)相关联。如果每个所显示对象与相应事件处理程序190相关联,则事件比较器使用该命中测试的结果来确定哪个事件处理程序190应当被激活。例如,事件比较器184选择与子事件和触发该命中测试的对象相关联的事件处理程序。
在一些实施方案中,相应事件187的定义还包括延迟动作,这些延迟动作延迟事件信息的递送,直到已确定子事件序列确实对应于或不对应于事件识别器的事件类型。
当相应事件识别器180确定子事件序列不与事件定义186中的任何事件匹配时,该相应事件识别器180进入事件不可能、事件失败或事件结束状态,在此之后忽略基于触摸的手势的后续子事件。在这种情况下,对于命中视图保持活动的其他事件识别器(如果有的话)继续跟踪并处理持续进行的基于触摸的手势的子事件。
在一些实施方案中,相应事件识别器180包括具有指示事件递送系统应当如何执行对活跃参与的事件识别器的子事件递送的可配置属性、标记和/或列表的元数据183。在一些实施方案中,元数据183包括指示事件识别器彼此如何交互或如何能够交互的可配置属性、标志和/或列表。在一些实施方案中,元数据183包括指示子事件是否递送到视图或程序化分级结构中的不同层级的可配置属性、标志和/或列表。
在一些实施方案中,当事件的一个或多个特定子事件被识别时,相应事件识别器180激活与事件相关联的事件处理程序190。在一些实施方案中,相应事件识别器180将与事件相关联的事件信息递送到事件处理程序190。激活事件处理程序190不同于将子事件发送(和延期发送)到相应命中视图。在一些实施方案中,事件识别器180抛出与所识别的事件相关联的标记,并且与该标记相关联的事件处理程序190获取该标记并执行预定义过程。
在一些实施方案中,事件递送指令188包括递送关于子事件的事件信息而不激活事件处理程序的子事件递送指令。相反,子事件递送指令将事件信息递送到与子事件序列相关联的事件处理程序或者递送到活跃参与的视图。与子事件序列或与活跃参与的视图相关联的事件处理程序接收事件信息并执行预先确定的过程。
在一些实施方案中,数据更新器176创建并更新在应用程序136-1中使用的数据。例如,数据更新器176对联系人模块137中所使用的电话号码进行更新,或者对视频或音乐播放器模块152中所使用的视频文件进行存储。在一些实施方案中,对象更新器177创建并更新在应用程序136-1中使用的对象。例如,对象更新器177创建新的用户界面对象或更新用户界面对象的位置。GUI更新器178更新GUI。例如,GUI更新器178准备显示信息,并且将显示信息发送到图形模块132用以显示在触敏显示器上。
在一些实施方案中,事件处理程序190包括数据更新器176、对象更新器177和GUI更新器178,或具有对该数据更新器、该对象更新器和该GUI更新器的访问权限。在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178被包括在相应应用程序136-1或应用程序视图191的单个模块中。在其他实施方案中,它们被包括在两个或更多个软件模块中。
应当理解,关于触敏显示器上的用户触摸的事件处理的上述论述还适用于利用输入设备来操作多功能设备100的其他形式的用户输入,并不是所有用户输入都是在触摸屏上发起的。例如,任选地与单次或多次键盘按下或按住协作的鼠标移动和鼠标按钮按下;触控板上的接触移动,诸如轻击、拖动、滚动等;触笔输入;设备的移动;口头指令;检测到的眼睛移动;生物特征输入;和/或它们的任何组合任选地被用作对应于限定要识别的事件的子事件的输入。
图1C是示出了根据一些实施方案的触觉输出模块的框图。在一些实施方案中,I/O子系统106(例如触感反馈控制器161(图1A)和/或一个或多个其他输入控制器160(图1A))包括图1C所示的示例部件中的至少一些。在一些实施方案中,外围设备接口118包括图1C所示的示例部件中的至少一些。
在一些实施方案中,触觉输出模块包括触感反馈模块133。在一些实施方案中,触感反馈模块133聚合并组合来自电子设备上软件应用的针对用户界面反馈(例如,对与所显示用户界面对应的用户输入以及指示电子设备的用户界面中操作的执行或事件的发生的提示和其他通知进行响应的反馈)的触觉输出。触感反馈模块133包括波形模块123(用于提供用于生成触觉输出的波形)、混合器125(用于混合波形,诸如不同通道中的波形)、压缩器127(用于缩减或压缩波形的动态范围)、低通滤波器129(用于滤出波形中的高频信号分量)和热控制器131(用于根据热条件调节波形)中的一者或多者。在一些实施方案中,触感反馈模块133被包括在触感反馈控制器161(图1A)中。在一些实施方案中,触感反馈模块133的单独单元(或触感反馈模块133的单独具体实施)也被包括在音频控制器(例如音频电路110,图1A)中并用于生成音频信号。在一些实施方案中,单个触感反馈模块133被用于生成音频信号以及生成触觉输出的波形。
在一些实施方案中,触感反馈模块133还包括触发器模块121(例如,确定要生成触觉输出并引发用于生成对应触觉输出的过程的软件应用、操作系统、或其他软件模块)。在一些实施方案中,触发器模块121生成用于引发(例如由波形模块123)生成波形的触发器信号。例如,触发器模块121基于预先设置的定时标准来生成触发器信号。在一些实施方案中,触发器模块121从触感反馈模块133之外接收触发器信号(例如,在一些实施方案中,触感反馈模块133从位于触感反馈模块133之外的硬件输入处理模块146接收触发器信号)并将触发器信号中继给触感反馈模块133内的其他部件(例如波形模块123)或基于用户界面元素(例如,应用之内的应用图标或示能表示)或硬件输入设备(例如主按钮或强度敏感输入界面,诸如强度敏感触摸屏)的激活而触发操作(例如,利用触发器模块121)的软件应用。在一些实施方案中,触发器模块121还(例如从触感反馈模块133,图1A和图3)接收触觉反馈生成指令。在一些实施方案中,触发器模块121响应于触感反馈模块133(或触感反馈模块133中的触发器模块121)(例如从触感反馈模块133,图1A和图3)接收触觉反馈指令而生成触发器信号。
波形模块123(例如从触发器模块121)接收触发器信号作为输入,并响应于接收到触发器信号而提供用于生成一个或多个触觉输出的波形(例如,从预定义的一组被指派用于供波形模块123使用的波形中选择的波形)。
混合器125(例如从波形模块123)接收波形作为输入,并将这些波形混合在一起。例如,当混合器125接收两个或更多个波形(例如,第一通道中的第一波形和第二通道中的至少部分地与第一波形重叠的第二波形)时,混合器125输出对应于这两个或更多个波形之和的组合波形。在一些实施方案中,混合器125还修改这两个或更多个波形中的一个或多个波形以相对于这两个或更多个波形中的其余波形而强调特定波形(例如通过提高该特定波形的规模和/或减小这些波形中的其他波形的规模)。在一些情况下,混合器125选择一个或多个波形来从组合波形中移除(例如,当有来自不止三个来源的波形已经被请求由触觉输出发生器167同时输出时,来自最老旧来源的波形被丢弃)。
混合器127接收波形(例如来自混合器125的组合波形)作为输入,并修改这些波形。在一些实施方案中,压缩器127缩减这些波形(例如,根据触觉输出发生器167(图1A)或357(图3)的物理规范),使得对应于这些波形的触觉输出被缩减。在一些实施方案中,压缩器127诸如通过为波形强加预定义的最大幅值来对波形进行限制。例如,压缩器127减小超过预定义幅值阈值的波形部分的幅值,而保持不超过预定义幅值阈值的波形部分的幅值。在一些实施方案中,压缩器127缩减波形的动态范围。在一些实施方案中,压缩器127动态地缩减波形的动态范围,使得组合波形保持在触觉输出发生器167的性能规范(例如力和/或可移动质块位移限制)内。
低通滤波器129接收波形(例如来自压缩器127的经压缩波形)作为输入,并对波形进行滤波(例如平滑处理)(例如移除或减少波形中的高频信号分量)。例如在某些情况下,压缩器127在经压缩的波形中包括妨碍触觉输出生成和/或在根据经压缩波形生成触觉输出时超过触觉输出发生器167的性能规范的无关信号(例如高频信号分量)。低通滤波器129减少或移除波形中的此类无关信号。
热控制器131接收波形(例如来自低通滤波器129的经滤波波形)作为输入,并根据设备100的热条件(例如基于在设备100内检测到的内部温度,诸如触感反馈控制器161的温度,和/或设备100检测到的外部温度)调节波形。例如在一些情况下,触感反馈控制器161的输出根据温度而变化(例如,响应于接收到相同波形,触感反馈控制器161在触感反馈控制器161处于第一温度时生成第一触觉输出,而在触感反馈控制器161处于与第一温度不同的第二温度时生成第二触觉输出)。例如,触觉输出的量值(或幅值)可根据温度而变化。为了降低温度变化的效应,波形被修改(例如,波形的幅值基于温度而被增大或减小)。
在一些实施方案中,触觉反馈模块133(例如触发器模块121)耦接到硬件输入处理模块146。在一些实施方案中,图1A中的一个或多个其他输入控制器160包括硬件输入处理模块146。在一些实施方案中,硬件输入处理模块146接收来自硬件输入设备145(例如图1A中的其他输入或控制设备116,诸如主按钮或强度敏感输入界面,诸如强度敏感触摸屏)的输入。在一些实施方案中,硬件输入设备145是本文中所述的任何输入设备,诸如触敏显示器系统112(图1A)、键盘/鼠标350(图3)、触控板355(图3)、其他输入或控制设备116之一(图1A)或强度敏感主按钮。在一些实施方案中,硬件输入设备145由强度敏感主按钮构成,而不是由触敏显示器系统112(图1A)、键盘/鼠标350(图3)或触控板355(图3)构成。在一些实施方案中,响应于来自硬件输入设备145(例如,强度敏感主按钮或触摸屏)的输入,硬件输入处理模块146提供一个或多个触发器信号给触感反馈模块133以指示已检测到满足预定义输入标准的用户输入,诸如对应于主按钮“点击”(例如“按下点击”或“松开点击”)的输入。在一些实施方案中,触感反馈模块133响应于对应于home按钮“点击”的输入而提供对应于home按钮“点击”的波形,从而模拟按压物理home按钮的触感反馈。
在一些实施方案中,触觉输出模块包括触感反馈控制器161(例如图1A中的触感反馈控制器161),其控制触觉输出的生成。在一些实施方案中,触感反馈控制器161耦接到多个触觉输出发生器,并且选择多个触觉输出发生器中的一个或多个触觉输出发生器并将波形发送到所选择的一个或多个触觉输出发生器以用于生成触觉输出。在一些实施方案中,触感反馈控制器161协调对应于激活硬件输入设备145的触觉输出请求和对应于软件事件的触觉输出请求(例如来自触感反馈模块133的触觉输出请求),并修改两个或更多个波形中的一个或多个波形以相对于两个或更多个波形中的其余波形强调特定波形(例如通过提高特定波形的规模和/或减小这些波形中其余波形的规模,以相比于对应于软件事件的触觉输出优先处理对应于激活硬件输入设备145的触觉输出)。
在一些实施方案中,如图1C所示,触感反馈控制器161的输出耦接到设备100的音频电路(例如音频电路110,图1A),并将音频信号提供给设备100的音频电路。在一些实施方案中,触感反馈控制器161提供用于生成触觉输出的波形和用于与生成触觉输出一起提供音频输出的音频信号这二者。在一些实施方案中,触感反馈控制器161修改音频信号和/或(用于生成触觉输出的)波形使得音频输出和触觉输出同步(例如通过延迟音频信号和/或波形)在一些实施方案中,触感反馈控制器161包括用于将数字波形转换成模拟信号的数模转换器,模拟信号被放大器163和/或触觉输出发生器167接收。
在一些实施方案中,触觉输出模块包括放大器163。在一些实施方案中,放大器163接收(例如来自触感反馈控制器161的)波形,并放大波形然后将经放大的波形发送给触觉输出发生器167(例如,触觉输出发生器167(图1A)或357(图3)中任一者)。例如,放大器163将所接收的波形放大到符合触觉输出发生器167的物理规范的信号电平(例如放大到触觉输出发生器167为了生成触觉输出而需要的电压和/或电流使得发送给触觉输出发生器167的信号生成对应于从触感反馈控制器161接收的波形的触觉输出)并将经放大的波形发送给触觉输出发生器167。作为响应,触觉输出发生器167生成触觉输出(例如通过将可移动质块在一个或多个维度中相对于可移动质块的中性位置前后移位)。
在一些实施方案中,触觉输出模块包括传感器169,其耦接到触觉输出发生器167。传感器169检测触觉输出发生器167或触觉输出发生器167的一个或多个部件(例如用于生成触觉输出的一个或多个运动部件,诸如膜)的状态或状态变化(例如机械位置、物理位移、和/或移动)。在一些实施方案中,传感器169是磁场传感器(例如霍尔效应传感器)或其他位移和/或运动传感器。在一些实施方案中,传感器169将信息(例如触觉输出发生器167中一个或多个部件的位置、位移和/或移动)提供给触感反馈控制器161,以及根据传感器169提供的关于触觉输出发生器167的状态的信息,触感反馈控制器161调节从触感反馈控制器161输出的波形(例如,任选地经由放大器163发送给触觉输出发生器167的波形)。
图2示出了根据一些实施方案的具有触摸屏(例如,图1A的触敏显示器系统112)的便携式多功能设备100。触摸屏任选地在用户界面(UI)200内显示一个或多个图形。在这些实施方案中以及在下文中描述的其他实施方案中,用户能够通过例如利用一个或多个手指202(在图中未按比例绘制)或一个或多个触笔203(在图中未按比例绘制)在图形上作出手势来选择这些图形中的一个或多个图形。在一些实施方案中,当用户中断与一个或多个图形的接触时,将发生对一个或多个图形的选择。在一些实施方案中,手势任选地包括一次或多次轻击、一次或多次轻扫(从左向右、从右向左、向上和/或向下)和/或已与设备100发生接触的手指的滚动(从右向左、从左向右、向上和/或向下)。在一些具体实施中或在一些情况下,不经意地与图形接触不会选择图形。例如,当与选择对应的手势是轻击时,在应用程序图标上方扫动的轻扫手势任选地不会选择对应的应用程序。
设备100任选地还包括一个或多个物理按钮,诸如“主按钮”或菜单按钮204。如前所述,菜单按钮204任选地用于导航到任选地在设备100上被执行的一组应用程序中的任何应用程序136。作为另外一种选择,在一些实施方案中,菜单按钮被实现为被显示在触摸屏显示器上的GUI中的软键。
在一些实施方案中,设备100包括触摸屏显示器、菜单按钮204(有时称为主屏幕按钮204)、用于使设备通电/断电和用于锁定设备的下压按钮206、音量调节按钮208、用户身份模块(SIM)卡槽210、耳麦插孔212和对接/充电外部端口124。下压按钮206任选地用于通过压下该按钮并且将该按钮保持在压下状态持续预定义的时间间隔来对设备进行开/关机;通过压下该按钮并在该预定义的时间间隔过去之前释放该按钮来锁定设备;和/或对设备进行解锁或发起解锁过程。在一些实施方案中,设备100还通过麦克风113来接受用于激活或停用某些功能的语音输入。设备100还任选地包括用于检测触敏显示器系统112上的接触的强度的一个或多个接触强度传感器165,和/或用于为设备100的用户生成触觉输出的一个或多个触觉输出发生器167。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。设备300不必是便携式的。在一些实施方案中,设备300是膝上型电脑、台式计算机、平板电脑、多媒体播放器设备、导航设备、教育设备(诸如儿童学习玩具)、游戏系统或控制设备(例如,家用控制器或工业用控制器)。设备300通常包括一个或多个处理单元(CPU)310、一个或多个网络或其他通信接口360、存储器370和用于将这些部件互联的一根或多根通信总线320。通信总线320任选地包括使系统部件互连并且控制系统部件之间的通信的电路(有时称作芯片组)。设备300包括具有显示器340的输入/输出(I/O)接口330,该显示器通常是触摸屏显示器。I/O接口330还任选地包括键盘和/或鼠标(或其他指向设备)350和触控板355、用于在设备300上生成触觉输出的触觉输出发生器357(例如,类似于以上参考图1A所述的一个或多个触觉输出发生器167)、传感器359(例如,光学传感器、加速度传感器、接近传感器、触敏传感器、和/或类似于以上参考图1A所述的一个或多个接触强度传感器165的接触强度传感器)。存储器370包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备;并且任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器370任选地包括远离CPU310定位的一个或多个存储设备。在一些实施方案中,存储器370存储与便携式多功能设备100(图1A)的存储器102中所存储的程序、模块和数据结构类似的程序、模块、和数据结构,或它们的子集。此外,存储器370任选地存储在便携式多功能设备100的存储器102中不存在的附加程序、模块和数据结构。例如,设备300的存储器370任选地存储绘图模块380、呈现模块382、文字处理模块384、网站创建模块386、盘编辑模块388、和/或电子表格模块390,而便携式多功能设备100(图1A)的存储器102任选地不存储这些模块。
图3中上述所识别的元件中的每个元件任选地存储在先前提到的存储器设备中的一个或多个存储器设备中。上述所识别的模块中的每个模块对应于用于执行上述功能的指令集。上述所识别的模块或程序(即,指令集)不必被实现为单独的软件程序、过程或模块,因此这些模块的各种子集任选地在各种实施方案中组合或以其他方式重新布置。在一些实施方案中,存储器370任选地存储上述模块和数据结构的子组。此外,存储器370任选地存储上文未描述的附加模块和数据结构。
现在将注意力转到任选地在便携式多功能设备100上实现的用户界面(“UI”)的实施方案。
图4A示出了根据一些实施方案的便携式多功能设备100上的应用菜单的示例用户界面400。类似的用户界面任选地在设备300上实现。在一些实施方案中,用户界面400包括以下元件或者其子集或超集:
·一种或多种无线通信诸如蜂窝信号和Wi-Fi信号的一个或多个信号强度指示符;
·时间;
·蓝牙指示符;
·电池状态指示符;
·具有针对常用应用程序的图标的托盘408,该图标诸如:
ο电话模块138的被标记为“电话”的图标416,该图标416任选地包括未接来电或语音留言的数量的指示符414;
ο电子邮件客户端模块140的被标记为“邮件”的图标418,该图标418任选地包括未读电子邮件的数量的指示符410;
ο浏览器模块147的标记为“浏览器”的图标420;以及
ο视频和音乐播放器模块152的被标记为“音乐”的图标422;以及
·其他应用的图标,诸如:
οIM模块141的被标记为“消息”的图标424;
ο日历模块148的被标记为“日历”的图标426;
ο图像管理模块144的被标记为“照片”的图标428;
ο相机模块143的被标记为“相机”的图标430;
ο在线视频模块155的被标记为“在线视频”的图标432;
ο股市桌面小程序149-2的被标记为“股市”的图标434;
ο地图模块154的被标记为“地图”的图标436;
ο天气桌面小程序149-1的被标记为“天气”的图标438;
ο闹钟桌面小程序149-4的被标记为“时钟”的图标440;
ο健身支持模块142的被标记为“健身支持”的图标442;
ο记事本模块153的标记为“记事本”的图标444;以及
ο用于设置应用程序或模块的图标446,该图标提供对设备100及其各种应用程序136的设置的访问。
应当注意,图4A中示出的图标标签仅仅是示例性的。例如,其他标签任选地用于各种应用图标。在一些实施方案中,相应应用程序图标的标签包括与该相应应用程序图标对应的应用程序的名称。在一些实施方案中,特定应用程序图标的标签不同于与该特定应用程序图标对应的应用程序的名称。
图4B示出了具有与显示器450分开的触敏表面451(例如,图3中的平板或触控板355)的设备(例如,图3中的设备300)上的示例性用户界面。尽管将参考触摸屏显示器112(其中组合了触敏表面和显示器)上的输入给出随后的许多示例,但是在一些实施方案中,设备检测与显示器分开的触敏表面上的输入,如图4B中所示。在一些实施方案中,触敏表面(例如,图4B中的451)具有与显示器(例如,450)上的主轴线(例如,图4B中的453)对应的主轴线(例如,图4B中的452)。根据这些实施方案,设备检测与显示器上相应位置对应的位置处的与触敏表面451的接触(例如,图4B中的460和462)(例如,在图4B中,460对应于468并且462对应于470)。这样,在触敏表面(例如,图4B中的451)与多功能设备的显示器(例如,图4B中的450)是分开的时侯,由设备在触敏表面上所检测到的用户输入(例如,接触460和462以及它们的移动)被该设备用于操纵显示器上的用户界面。应当理解,类似的方法任选地用于本文所述的其他用户界面。
另外,虽然主要是参考手指输入(例如,手指接触、单指轻击手势、手指轻扫手势等)来给出下面的示例,但是应当理解的是,在一些实施方案中,这些手指输入中的一个或多个手指输入由来自另一输入设备的输入(例如,基于鼠标的输入或触笔输入)替换。例如,轻扫手势任选地由鼠标点击(例如,而不是接触),之后是光标沿着轻扫的路径的移动(例如,而不是接触的移动)替代。又如,轻击手势任选地由在光标位于轻击手势的位置上方时的鼠标点击(例如,代替对接触的检测,之后是停止检测接触)替代。类似地,当同时检测到多个用户输入时,应当理解的是,多个计算机鼠标任选地被同时使用,或鼠标和手指接触任选地被同时使用。
如本文所用,术语“焦点选择器”是指用于指示用户正与之进行交互的用户界面的当前部分的输入元件。在包括光标或其他位置标记的一些具体实施中,光标充当“焦点选择器”,使得当光标在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)上方时在触敏表面(例如,图3中的触控板355或图4B中的触敏表面451)上检测到输入(例如,按压输入)的情况下,该特定用户界面元素根据所检测到的输入而被调整。在包括使得能够实现与触摸屏显示器上的用户界面元素的直接交互的触摸屏显示器(例如,图1A中的触敏显示器系统112或图4A中的触摸屏)的一些具体实施中,在触摸屏上检测到的接触充当“焦点选择器”,使得当在触摸屏显示器上在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)的位置处检测到输入(例如,通过接触的按压输入)时,根据所检测到的输入来调整特定用户界面元素。在一些具体实施中,焦点从用户界面的一个区域移动到用户界面的另一个区域,而无需光标的对应移动或触摸屏显示器上的接触的移动(例如,通过使用制表键或箭头键将焦点从一个按钮移动到另一个按钮);在这些具体实施中,焦点选择器根据焦点在用户界面的不同区域之间的移动而移动。不考虑焦点选择器所采取的具体形式,焦点选择器通常是由用户控制以便传送与用户界面的用户期望的交互(例如,通过向设备指示用户界面的用户期望与其进行交互的元素)的用户界面元素(或触摸屏显示器上的接触)。例如,在触敏表面(例如,触控板或触摸屏)上检测到按压输入时,焦点选择器(例如,光标、接触或选择框)在相应按钮上方的位置将指示用户期望激活相应按钮(而不是设备显示器上示出的其他用户界面元素)。
如在本说明书和权利要求书中所使用的,术语触敏表面上的接触的“强度”是指触敏表面上的接触(例如,手指接触或触笔接触)的力或压力(每单位面积的力),或者是指触敏表面上的接触的力或压力的替代物(代用物)。接触的强度具有值范围,该值范围包括至少四个不同的值并且更典型地包括上百个不同的值(例如,至少256个)。接触的强度任选地使用各种方法和各种传感器或传感器的组合来确定(或测量)。例如,在触敏表面下方或相邻于触敏表面的一个或多个力传感器任选地用于测量触敏表面上的不同点处的力。在一些具体实施中,来自多个力传感器的力测量被合并(例如,加权平均或者加和),以确定估计的接触力。类似地,触笔的压敏顶端任选地用于确定触笔在触敏表面上的压力。另选地,在触敏表面上检测到的接触区域的大小和/或其变化、接触附近的触敏表面的电容和/或其变化以及/或者接触附近的触敏表面的电阻和/或其变化任选地被用作触敏表面上的接触的力或压力的替代物。在一些具体实施中,接触力或压力的替代物测量直接用于确定是否已经超过强度阈值(例如,强度阈值以对应于替代物测量的单位来描述)。在一些具体实施中,将接触力或压力的替代测量值转换为预估力或压力,并且使用预估力或压力确定是否已超过强度阈值(例如,强度阈值是以压力单位测量的压力阈值)。使用接触的强度作为用户输入的属性,从而允许用户访问用户在用于(例如,在触敏显示器上)显示示能表示和/或接收用户输入(例如,经由触敏显示器、触敏表面或物理控件/机械控件诸如旋钮或按钮)的实地面积有限的尺寸更小的设备上本来不能容易地访问的附加设备功能。
在一些实施方案中,接触/运动模块130使用一组一个或多个强度阈值来确定操作是否已由用户执行(例如,确定用户是否已“点击”图标)。在一些实施方案中,根据软件参数来确定强度阈值的至少一个子集(例如,强度阈值不由特定物理致动器的激活阈值来确定,并且可在不改变设备100的物理硬件的情况下进行调整)。例如,在不改变触控板或触摸屏显示器硬件的情况下,触控板或触摸屏显示器的鼠标“点击”阈值可被设置为预定义阈值的大范围中的任一个阈值。另外,在一些具体实施中,设备的用户提供有用于调节一组强度阈值中的一个或多个强度阈值(例如,通过调节各个强度阈值和/或通过利用对“强度”参数的系统级点击来一次调节多个强度阈值)的软件设置。
如说明书和权利要求中所使用的,接触的“特征强度”这一术语是指基于接触的一个或多个强度的接触的特征。在一些实施方案中,特征强度基于多个强度样本。特征强度任选地基于相对于预定义事件(例如,在检测到接触之后,在检测到接触抬离之前,在检测到接触开始移动之前或之后,在检测到接触结束之前,在检测到接触的强度增大之前或之后和/或在检测到接触的强度减小之前或之后)而言在预先确定的时间段(例如,0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒)期间采集的预定义数量的强度样本或一组强度样本。接触的特征强度任选地基于以下各项中的一者或多者:接触强度的最大值、接触强度的均值、接触强度的平均值、接触强度的前10%处的值、接触强度的半最大值、接触强度的90%最大值、通过在预定义时间段上或从预定义时间开始低通滤波接触强度而生成的值等。在一些实施方案中,在确定特征强度时使用接触的持续时间(例如,在特征强度是接触的强度在时间上的平均值时)。在一些实施方案中,将特征强度与一组一个或多个强度阈值进行比较,以确定用户是否已执行操作。例如,该组一个或多个强度阈值可包括第一强度阈值和第二强度阈值。在该实施例中,特征强度未超过第一强度阈值的接触导致第一操作,特征强度超过第一强度阈值但未超过第二强度阈值的接触导致第二操作,并且特征强度超过第二强度阈值的接触导致第三操作。在一些实施方案中,使用特征强度和一个或多个强度阈值之间的比较来确定是否要执行一个或多个操作(例如,是否执行相应选项或放弃执行相应操作),而不是用于确定执行第一操作还是第二操作。
在一些实施方案中,识别手势的一部分以用于确定特征强度。例如,触敏表面可接收连续轻扫接触,该连续轻扫接触从起始位置过渡并达到结束位置(例如拖动手势),在该结束位置处,接触的强度增大。在该示例中,接触在结束位置处的特征强度可仅基于连续轻扫接触的一部分,而不是整个轻扫接触(例如,仅结束位置处的轻扫接触的一部分)。在一些实施方案中,可在确定接触的特征强度之前向轻扫手势的强度应用平滑化算法。例如,平滑化算法任选地包括以下各项中的一种或多种:不加权滑动平均平滑化算法、三角平滑化算法、中值滤波器平滑化算法和/或指数平滑化算法。在一些情况下,这些平滑化算法消除了轻扫接触的强度中的窄的尖峰或凹陷,以实现确定特征强度的目的。
本文所述的用户界面图任选地包括各种强度图,这些强度图示出触敏表面上的接触相对于一个或多个强度阈值(例如,接触检测强度阈值IT0、轻按压强度阈值ITL、深按压强度阈值ITD(例如,至少初始高于ITL)和/或一个或多个其他强度阈值(例如,比ITL低的强度阈值ITH))的当前强度。该强度图通常不是所显示的用户界面的一部分,但是被提供以帮助解释所述图。在一些实施方案中,轻按压强度阈值对应于这样的强度:在该强度下设备将执行通常与点击物理鼠标或触摸板的按钮相关联的操作。在一些实施方案中,深按压强度阈值对应于这样的强度:在该强度下设备将执行与通常与点击物理鼠标或触控板的按钮相关联的操作不同的操作。在一些实施方案中,当检测到特征强度低于轻按压强度阈值(例如,并且高于标称接触检测强度阈值IT0,比标称接触检测强度阈值低的接触不再被检测到)的接触时,设备将根据接触在触敏表面上的移动来移动焦点选择器,而不执行与轻按压强度阈值或深按压强度阈值相关联的操作。一般来讲,除非另有陈述,否则这些强度阈值在不同组的用户界面附图之间是一致的。
在一些实施方案中,设备对设备所检测到的输入的响应取决于基于输入期间的接触强度的标准。例如,对于一些“轻按压”输入,在输入期间超过第一强度阈值的接触的强度触发第一响应。在一些实施方案中,设备对由设备所检测到的输入的响应取决于包括输入期间的接触强度和基于时间的标准两者的标准。例如,对于一些“深按压”输入,只要在满足第一强度阈值与满足第二强度阈值之间经过延迟时间,在输入期间超过大于轻按压的第一强度阈值的第二强度阈值的接触的强度便触发第二响应。该延迟时间的持续时间通常小于200ms(毫秒)(例如,40ms、100ms、或120ms,这取决于第二强度阈值的量值,其中该延迟时间随着第二强度阈值增大而增大)。该延迟时间帮助避免意外地识别深按压输入。又如,对于一些“深按压”输入,在达到第一强度阈值之后将出现敏感度降低的时间段。在该敏感度降低的时间段期间,第二强度阈值增大。第二强度阈值的这种暂时增大还有助于避免意外深按压输入。对于其他深按压输入,对检测到深按压输入的响应不取决于基于时间的标准。
在一些实施方案中,输入强度阈值和/或对应输出中的一者或多者基于一个或多个因素(诸如用户设置、接触运动、输入定时、应用运行、施加强度时的速率、同时输入的数量、用户历史、环境因素(例如,环境噪声)、焦点选择器位置等)而变化。示例因素在美国专利申请14/399,606和14/624,296中有所描述,这些美国专利申请全文以引用方式并入本文。
例如,图4C示出了部分地基于触摸输入476随时间的强度而随时间改变的动态强度阈值480。动态强度阈值480是两个分量的总和:在从触摸输入476初始被检测到开始的预定义的延迟时间p1之后随时间衰减的第一分量474和随时间而跟踪触摸输入476的强度的第二分量478。第一分量474的初始高强度阈值减少意外触发“深按压”响应,同时仍然允许在触摸输入476提供足够强度的情况下进行即时“深按压”响应。第二分量478减少通过触摸输入的逐渐的强度波动而无意触发“深按压”响应。在一些实施方案中,在触摸输入476满足动态强度阈值480时(例如,在图4C中的点481处),触发“深按压”响应。
图4D示出了另一个动态强度阈值486(例如,强度阈值ID)。图4D还示出了两个其他强度阈值:第一强度阈值IH和第二强度阈值IL。在图4D中,尽管触摸输入484在时间p2之前满足第一强度阈值IH和第二强度阈值IL,但是直到在时间482处经过延迟时间p2才提供响应。同样在图4D中,动态强度阈值486随时间衰减,其中衰减在从时间482(触发了与第二强度阈值IL相关联的响应的时候)已经过预定义的延迟时间p1之后的时间488开始。这种类型的动态强度阈值减少紧接在触发与较低阈值强度(诸如第一强度阈值IH或第二强度阈值IL)相关联的响应之后或与其同时意外触发与动态强度阈值ID相关联的响应。
图4E示出了另一个动态强度阈值492(例如,强度阈值ID)。在图4E中,在从触摸输入490被初始检测到的时候已经过延迟时间p2之后,触发与强度阈值IL相关联的响应。同时,动态强度阈值492在从触摸输入490被初始检测到的时候已经过预定义的延迟时间p1之后衰减。因此,在触发与强度阈值IL相关联的响应之后降低触摸输入490的强度,接着在不释放触摸输入490的情况下增大触摸输入490的强度可触发与强度阈值ID相关联的响应(例如,在时间494处),即使当触摸输入490的强度低于另一强度阈值(例如,强度阈值IL)时也是如此。
接触特征强度从低于轻按压强度阈值ITL的强度增大到介于轻按压强度阈值ITL与深按压强度阈值ITD之间的强度有时被称为“轻按压”输入。接触的特征强度从低于深按压强度阈值ITD的强度增大到高于深按压强度阈值ITD的强度有时称为“深按压”输入。接触特征强度从低于接触检测强度阈值IT0的强度增大到介于接触检测强度阈值IT0与轻按压强度阈值ITL之间的强度有时被称为检测到触摸表面上的接触。接触的特征强度从高于接触检测强度阈值IT0的强度减小到低于接触检测强度阈值IT0的强度有时被称为检测到接触从触摸表面抬离。在一些实施方案中,IT0为零。在一些实施方案中,IT0大于零在一些例示中,阴影圆或椭圆用于表示触敏表面上的接触的强度。在一些例示中,没有阴影的圆或椭圆用于表示触敏表面上的相应接触而不指定相应接触的强度。
在本文中所述的一些实施方案中,响应于检测到包括相应按压输入的手势或响应于检测到利用相应接触(或多个接触)所执行的相应按压输入来执行一个或多个操作,其中至少部分地基于检测到该接触(或多个接触)的强度增大到高于按压输入强度阈值而检测到该相应按压输入。在一些实施方案中,响应于检测到相应接触的强度增大到高于按压输入强度阈值来执行相应操作(例如,在相应按压输入的“向下冲程”上执行相应操作)。在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于按压输入强度阈值,并且响应于检测到相应接触的强度随后减小到低于按压输入阈值来执行相应操作(例如,在相应按压输入的“向上冲程”上执行相应操作)。
在一些实施方案中,设备采用强度滞后以避免有时被称为“抖动”的意外输入,其中设备限定或选择与按压输入强度阈值具有预定义关系的滞后强度阈值(例如,滞后强度阈值比按压输入强度阈值低X个强度单位,或滞后强度阈值是按压输入强度阈值的75%、90%或某个合理比例)。因此,在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于对应于按压输入强度阈值的滞后强度阈值,并且响应于检测到相应接触的强度随后减小到低于滞后强度阈值来执行相应操作(例如,在相应按压输入的“向上冲程”上执行相应操作)。类似地,在一些实施方案中,仅在设备检测到接触强度从等于或低于滞后强度阈值的强度增大到等于或高于按压输入强度阈值的强度并且任选地接触强度随后减小到等于或低于滞后强度的强度时才检测到按压输入,并且响应于检测到按压输入(例如,根据环境,接触强度增大或接触强度减小)来执行相应操作。
为了容易解释,任选地响应于检测到以下情况而触发对响应于与按压输入强度阈值相关联的按压输入或响应于包括按压输入的手势而执行的操作的描述:接触的强度增大到高于按压输入强度阈值、接触的强度从低于滞后强度阈值的强度增大到高于按压输入强度阈值的强度、接触的强度减小到低于按压输入强度阈值、或接触的强度减小到低于与按压输入强度阈值对应的滞后强度阈值。另外,在将操作描述为响应于检测到接触的强度减小到低于按压输入强度阈值而执行的示例中,任选地响应于检测到接触的强度减小到低于对应于并且小于按压输入强度阈值的滞后强度阈值来执行操作。如上所述,在一些实施方案中,对这些操作的触发还取决于满足基于时间的标准(例如,在满足第一强度阈值和满足第二强度阈值之间已经过延迟时间)。
如本说明书和权利要求书中所使用的,术语“触觉输出”是指将由用户利用用户的触感检测到的设备相对于设备的先前位置的物理位移、设备的部件(例如,触敏表面)相对于设备的另一个部件(例如,外壳)的物理位移、或部件相对于设备的质心的位移。例如,在设备或设备的部件与用户对触摸敏感的表面(例如,手指、手掌或用户手部的其他部分)接触的情况下,通过物理位移生成的触觉输出将由用户解释为触感,该触感对应于设备或设备的部件的物理特征的所感知的变化。例如,触敏表面(例如,触敏显示器或触控板)的移动任选地由用户解释为对物理致动按钮的“按下点击”或“松开点击”。在一些情况下,用户将感觉到触感,诸如“按下点击”或“松开点击”,即使在通过用户的移动而物理地被按压(例如,被移位)的与触敏表面相关联的物理致动按钮没有移动时。又如,即使在触敏表面的光滑度无变化时,触敏表面的移动也会任选地由用户解释或感测为触敏表面的“粗糙度”。虽然用户对触摸的此类解释将受到用户的个体化感官知觉的限制,但是对触摸的许多感官知觉是大多数用户共有的。因此,当触觉输出被描述为对应于用户的特定感官知觉(例如,“按下点击”、“松开点击”、“粗糙度”)时,除非另外陈述,否则所生成的触觉输出对应于设备或其部件的物理位移,该物理位移将会生成典型(或普通)用户的所述感官知觉。使用触觉输出向用户提供触觉反馈增强了设备的可操作性,并且使用户设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。
用户界面和相关联的过程
现在将注意力转向可在具有显示器、触敏表面、(任选地)用于生成触觉输出的一个或多个触觉输出发生器以及(任选地)用于检测与触敏表面的接触的强度的一个或多个传感器的电子设备诸如便携式多功能设备100或设备300上实现的用户界面(“UI”)和相关联的过程的实施方案。
图5A至图5AF示出了根据一些实施方案的用于重新本地化注释的示例性用户界面。这些附图中的用户界面用于示出下文所述的过程,包括图9A至图9F、图10A至图10B、图11A至图11F以及图12A至图12D中的过程。为了便于解释,将参考在具有触敏显示器系统112的设备上执行的操作来论述实施方案中的一些实施方案。在此类实施方案中,焦点选择器为任选地:相应手指或触笔接触、对应于手指或触笔接触的表示点(例如,相应接触的重心或与相应接触相关联的点)、或在触敏显示器系统112上所检测到的两个或更多个接触的重心。然而,响应于当在显示器450上显示附图中示出的用户界面连同焦点选择器时检测到触敏表面451上的接触,任选地在具有显示器450和独立的触敏表面451的设备上执行类似的操作。
图5A示出了在设备100的触摸屏显示器112上显示的注释用户界面5003。用户界面在设备100的相机捕获设备100的物理环境5000时显示该相机的视场。桌子5001a和马克杯5002a位于物理环境5000中。用户界面5003中显示的相机视图包括物理桌子5001a的视觉表示5001b。用户界面5003包括用于在静止图像模式和视频模式之间切换的控件5004、用于控制相机闪光设置的控件5006、用于访问相机设置的控件5008以及指示当前模式的模式指示符5010。
从图5A至图5B,设备100已相对于物理环境移动,使得在相机的视场中可见的桌子5001b的部分已改变,并且使得物理马克杯5002a的视觉表示5002b现在在相机的视场中可见。
在图5C中,触笔5012已在注释用户界面5003中由接触5014指示的点处触摸按下触摸屏显示器112。响应于检测到接触5014,相机的视场的静止图像被捕获并显示在用户界面5003中。模式控件5004和模式指示符5010的状态已改变以指示用户界面的活动模式已从视频模式改变为静止图像模式。响应于触笔的触摸按下(和/或响应于其他类型的输入,如下文进一步所述)而发生的到静止模式的转变允许相对于由相机143捕获的物理环境的视图来接收注释输入,而不受由设备100的移动引起的设备100和物理环境5000之间的空间关系的变化的影响。
从图5C至图5D,设备100已相对于物理环境5000移动。因为用户界面的活动模式已从视频模式变为静止图像模式,所以触摸屏显示器112所显示的图像从图5C至图5D未改变。
从图5E至图5G,接触5014沿着由箭头5016指示的路径移动,在静止图像的包括物理马克杯5002a的视觉表示5002b的一部分处创建第一注释5018。
在图5H中,触笔5012在与模式控件5004对应的位置处提供输入,如接触5019所指示的。在图5I中,响应于触笔5012的输入,模式控件5004和模式指示符5010的状态已改变以指示注释用户界面5003的活动模式已从静止图像模式改变为视频模式。
从图5I至图5L,图5I中显示的静止图像从静止图像的全尺寸视图(如图5I中的用户界面5003所示)逐渐转变为微型视图5020(如图5J至图5K中的用户界面5003所示)并且转变为指示符点5022(如图5L中的用户界面5003所示)。在图5J中,图5I所示的静止图像的微型视图5020被示出为覆盖相机的当前视场。微型视图5020的尺寸从图5J减小至图5K(例如,以提供对图5I中由设备100显示的静止图像与在图5L中与设备相机的视场对应的视频上显示的指示符点5022之间的对应关系的指示)。
从图5L至图5M,设备100的位置相对于物理环境5000改变。当设备100移动时,设备100的相机的视场改变并且指示符5022在用户界面5003中的位置改变。指示符5022在用户界面5003内的移动提供对注释5018相对于设备100的当前位置的虚拟空间位置的指示。这样,向用户提供视觉反馈,该视觉反馈指示需要设备100在由指示符5022指示的方向上移动以重新显示注释5018。
从图5M至图5N,设备100的位置继续相对于物理环境5000改变。由于设备100的移动,设备100的相机的视场被更新,使得在图5I的带注释的静止图像中捕获的物理环境5000的一部分在相机的视场中可见。注释5018显示在视频中(例如,在包括物理马克杯5002a的视觉表示的每个图像帧中)与静止图像中接收到注释5018的位置对应的位置处(例如,在与物理马克杯5002a的视觉表示5002b的位置对应的位置处(例如,如图5I中的静止图像所示))。在一些实施方案中,当设备100移动更靠近物理马克杯5002a时,物理马克杯5002a的视觉表示5002b在视频图像中将看起来更大,并且注释5018也将根据视觉表示5002b的尺寸改变而看起来更大。在一些实施方案中,当设备100围绕物理马克杯5002a移动时,物理马克杯5002a的视觉表示5002b将被更新以反映物理马克杯5002a的不同视角,并且视频图像中的注释5018的外观也将根据物理马克杯的视角改变而更新(例如,从不同角度观看)。
在图5O中,触笔5012已在注释用户界面5003中由接触5024指示的点处触摸按下触摸屏显示器112。响应于检测到接触5024,相机的视场的第二静止图像被捕获并显示在用户界面5003中。
从图5P至图5R,在显示第二静止图像时,在由接触5026指示的位置处接收到触笔5012的输入。接触5026的移动在静止图像的包括物理马克杯5002a的视觉表示5002b的一部分处创建第二注释5028。在图5S中,触笔5012已抬离触摸屏显示器112。
在图5T中,在触摸屏显示器112上与用于在静止图像模式和视频模式之间切换的控件5004对应的位置处检测到输入,如接触5030所指示的。在图5U中,响应于该输入,模式控件5004和模式指示符5010的状态已改变以指示注释用户界面5003的活动模式已从静止图像模式改变为视频模式。因为在图5T的带注释的静止图像中捕获的物理环境5000的该部分在相机的视场中已可见(如图5U中用户界面5003在视频模式下所显示的),所以注释5018和注释5028显示在视频中与静止图像中接收到注释的相应位置对应的位置处(例如,在与图5G和图5R所示的物理马克杯5002a的视觉表示5002b的相应位置对应的位置处)。
从图5U至图5V,设备100的位置相对于物理环境5000改变,使得设备相机的在用户界面5003中显示的视场不包括物理环境5000的包括马克杯5002a的部分。显示与注释5018对应的指示符点5022和与注释5028对应的指示符点5032(例如,指示符点5022和5032显示在分别指示注释5018和5028的相对于物理环境5000的屏幕外虚拟空间位置(例如,图5G和图5R中所示的物理马克杯5002a的侧面)的位置处)。
从图5V至图5W,设备100的位置相对于物理环境5000继续改变。当设备100向下移动时,设备100的相机的视场改变并且指示符5022和5032在用户界面5003中向上移动(例如,以分别指示注释5018和5028相对于设备100的当前位置的虚拟空间位置)。在图5W中,触笔5012已在注释用户界面5003中由接触5034指示的点处触摸按下触摸屏显示器112。响应于检测到接触5034,相机的视场的第三静止图像被捕获并显示在用户界面5003中。
从图5W至图5X,在显示第三静止图像时,接触5034沿着触摸屏显示器112移动以在第三静止图像的包括物理桌子5001a的视觉表示5001b的右下表面的一部分处创建第三注释5036。
在图5Y中,触笔5012在与模式控件5004对应的位置处提供输入,如接触5038所指示的。在图5Z中,响应于触笔5012的输入,模式控件5004和模式指示符5010的状态已改变以指示注释用户界面5003的活动模式已从静止图像模式改变为视频模式。因为桌子5001a的右下表面在相机的视场中可见(如图5Z中用户界面5003在视频模式下所显示的),所以注释5036显示在视频中(例如,在包括图5X所示的桌面的该部分的图像帧中)与静止图像中接收到注释5036的位置对应的位置处(例如,在与物理桌子5001a的视觉表示5001b的右下表面对应的位置处)。因为物理环境5000的如在用户界面5003的视频模式下显示的并且在相机的视场中可见的部分不包括物理环境的与注释5018和5028的空间位置对应的部分(例如,马克杯5002a在相机的视场中不可见),指示符点5022和5032显示在指示注释5018和5028分别相对于物理环境5000的屏幕外虚拟空间位置的位置处。
从图5Z至图5AA,设备100的位置相对于物理环境5000改变。当设备100向上移动时,设备100的相机的视场改变并且指示符5022和5032在用户界面5003中向下移动。因为桌子5001a的右下表面在相机的视场中不再可见(如用户界面在视频模式下所显示的),所以指示符点5040显示在视频中的与静止图像中接收到注释5036的位置对应的位置处。
从图5AA至图5AB,设备100的位置相对于物理环境5000改变。当设备100继续向上移动时,设备100的相机的视场改变并且指示符5022、5032和5040在用户界面5003中向下移动以分别指示注释5018、5028和5036相对于物理环境5000的屏幕外虚拟空间位置。
从图5AB至图5AC,设备100的位置改变,导致设备100的相机的视场改变,如用户界面5003所显示的。分别基于注释5018、5028和5036的屏幕外虚拟空间位置来更新指示符5022、5032和5040的位置。
从图5AC至图5AD,设备100的位置相对于物理环境5000改变,使得设备相机的在用户界面5003中显示的视场包括物理环境5000的包括马克杯5002a的部分。注释5018和5028显示在用户界面5003中,并且指示符点5022和5032停止显示。
从图5AD至图5AE,设备100的位置相对于物理环境5000改变,使得设备相机的在用户界面5003中显示的视场包括物理环境5000的包括桌子5001a的右下表面的部分。注释5036显示在用户界面5003中,并且指示符点5040停止显示。
从图5AE至图5AF,设备100已围绕周边并且在桌子5001a上方移动,使得注释5018、5028和5036的位置和视角改变。
图6A至图6N示出了根据一些实施方案的用于接收在与视频的暂停位置对应的静止图像中捕获的物理环境的一部分上的注释的示例性用户界面。这些附图中的用户界面用于示出下文所述的过程,包括图9A至图9F、图10A至图10B、图11A至图11F以及图12A至图12D中的过程。为了便于解释,将参考在具有触敏显示器系统112的设备上执行的操作来论述实施方案中的一些实施方案。在此类实施方案中,焦点选择器为任选地:相应手指或触笔接触、对应于手指或触笔接触的表示点(例如,相应接触的重心或与相应接触相关联的点)、或在触敏显示器系统112上所检测到的两个或更多个接触的重心。然而,响应于当在显示器450上显示附图中示出的用户界面连同焦点选择器时检测到触敏表面451上的接触,任选地在具有显示器450和独立的触敏表面451的设备上执行类似的操作。
图6A示出了包括视频回放区域6002的用户界面6000。在一些实施方案中,经由媒体内容对象列表(例如,在图像和/或视频查看应用程序中)访问用户界面6000。在一些实施方案中,用户界面6000还包括时间线6004(例如,与视频的连续片段的一组样本帧6006对应)。时间线6004包括当前位置指示符6008,其指示时间线6004上与在视频回放区域6002中显示的帧对应的位置并且贯穿在视频回放区域6002中显示的视频。在一些实施方案中,用户界面包括标记控件6010(例如,用于启动标记在视频回放区域6002中显示的视频的标记模式)、旋转控件6012(例如,用于旋转在视频回放区域6002中显示的视频)、编辑控件6014(例如,用于编辑在视频回放区域6002中显示的视频)、取消控件6020(例如,用于取消当前操作)、旋转控件6022(例如,用于旋转在视频回放区域6002中显示的视频)以及播放/暂停切换控件6016(例如,用于回放和暂停在视频回放区域6002中显示的视频)。在与播放/暂停切换控件6016对应的位置处检测到与触摸屏显示器112的接触6018(例如,用户手指的输入)。
在图6B中,响应于在与播放/暂停切换控件6016对应的位置处检测到的输入,在视频回放区域6002中发起视频的回放。
在图6C中,当视频继续回放时,在与标记控件6010对应的位置处检测到输入,如接触6024所指示的。响应于在与标记控件6010对应的位置处通过接触6024进行的输入,暂停视频的回放,显示与视频的暂停位置对应的静止图像,启动标记模式,其中在与视频回放区域6002对应的位置处接收到的输入将标记视频,并且改变标记控件6010的状态,使得显示文本“完成”(例如,以指示选择控件6010的输入将终止标记模式)。
在图6D至图6F中,在视频回放区域6002内的位置处检测到注释输入,如接触6026所指示的。当接触沿着如图6D至图6F所示的路径移动时,接收注释6030。在一些实施方案中,在与视频中的对象(例如,风筝6028)对应的位置处接收注释。在图6G中,当标记模式处于活动状态并且显示文本“完成”时,在与标记控件6010对应的位置处检测到通过接触6031进行的输入。响应于通过接触6031进行的以终止标记会话的输入(以及/或者在自接收到上次输入以来过去的时间增加到高于阈值时间量之后),重新显示播放/暂停切换控件6016,如图6H所示。
在图6I中,在与播放/暂停切换控件6016对应的位置处检测到输入,如接触6032所指示的。
在图6I至图6K中,响应于在与播放/暂停切换控件6016对应的位置处检测到的输入,视频恢复在视频回放区域6002中的回放。如图6J所示,时间线6004的样本帧包括在相应图像中与风筝6028对应的位置处的标记。例如,样本帧6006包括在与风筝6036对应的位置处的标记6034。在视频回放区域6002中应用于风筝对象6028的注释6030已应用于时间线6004中的样本帧,包括在视频中接收到注释6030的时间点之前发生的视频帧(例如,时间线6004中的刷动控件6008左侧的帧,诸如样本帧6006)和在视频中接收到注释6030的时间点之后发生的视频帧(例如,时间线6004中的刷动控件6008右侧的帧)。在其中风筝对象6036(与在视频回放区域6002中被应用注释6030的风筝对象6028对应)可见的时间线6004的样本帧中的每个样本帧中,标记(例如,标记6034,与注释6030对应)显示在与样本帧内风筝对象6036的变化位置对应的位置处。该标记被显示为具有与样本帧内的风筝对象6036的改变的尺寸和取向对应地缩放的尺寸和取向。在视频回放区域6002中显示的视频向前播放到视频中的在视频停止播放以接收注释输入的帧之后的帧时,注释6030被显示为具有与风筝对象6026的改变的尺寸和取向对应地缩放的尺寸和取向,如图6K所示。这样,当对象在视频播放的过程中移动并改变尺寸(例如,这是由于其距相机的距离改变)和取向(例如,在三维空间中的任何方向上改变)时,将在视频回放区域6002中接收到的注释应用于对象(例如,使得注释跟踪对象)。
在图6L中,在与时间线6004对应的位置处检测到输入,如接触6038所指示的。当接触6038沿着由箭头6040和6044指示的路径移动时,在视频回放区域6002中显示的视频倒回,如图6L至图6N所示。例如,当接触6038在时间线6004上移动时,与视频回放区域6002中当前显示的帧相关联的时间指示6042减少。在视频回放区域6002中显示的视频倒回到在视频停止播放以接收注释输入的帧之前的帧时,注释6030被显示为具有与风筝对象6026的改变的尺寸和取向对应地缩放的尺寸和取向。
图7A至图7BF示出了根据一些实施方案的用于将虚拟对象添加到先前所捕获的媒体对象的示例用户界面。这些附图中的用户界面用于示出下文所述的过程,包括图9A至图9F、图10A至图10B、图11A至图11F以及图12A至图12D中的过程。为了便于解释,将参考在具有触敏显示器系统112的设备上执行的操作来论述实施方案中的一些实施方案。在此类实施方案中,焦点选择器为任选地:相应手指或触笔接触、对应于手指或触笔接触的表示点(例如,相应接触的重心或与相应接触相关联的点)、或在触敏显示器系统112上所检测到的两个或更多个接触的重心。然而,响应于当在显示器450上显示附图中示出的用户界面连同焦点选择器时检测到触敏表面451上的接触,任选地在具有显示器450和独立的触敏表面451的设备上执行类似的操作。
图7A示出了由设备100的触摸屏显示器112显示的用户界面7000,该用户界面包括媒体对象显示区域7002和导航区域7004。在一些实施方案中,经由媒体内容对象列表(例如,在图像和/或视频查看应用程序中)访问用户界面7000。在媒体对象显示区域中显示先前所捕获的图像。与先前所捕获的图像对应的信息(例如,捕获图像的位置,“Cupertino”)显示在信息区域7003中。导航区域7004包括先前媒体对象控件7006(例如,用于导航到先前媒体对象)、当前媒体对象指示符7008(例如,其指示先前所捕获的图像相对于由设备100存储的其他媒体对象(其由非放大点表示)的位置(其由放大点表示),以及后续媒体对象控件7010(例如,用于导航到后续媒体对象)。用户界面7000包括用于将各种虚拟对象添加到在媒体对象显示区域7002中显示的先前所捕获的图像的控件7012至7024,如下文参照图7B至图7BG进一步所述。如根据本文各种实施方案所述,相对于先前所捕获的图像中的物理对象显示虚拟对象的方式向用户提供了以下指示:存储先前所捕获的图像的深度数据并且虚拟对象能够与各种图像中的各种表面进行交互。虚拟对象与在图像中捕获的物理环境中的物理对象的交互向用户提供了对图像中存在可检测表面的指示。
图7B至图7L示出了虚拟球对象如何与在媒体对象显示区域7002中显示的先前所捕获的图像中描绘的物理对象的表面进行交互。例如,所捕获的图像存储有深度数据,该深度数据用于确定表面(例如,水平平面和/或垂直平面)的与在图像中捕获的物理环境中的物理对象对应的位置。
在图7B中,在与球控件7012对应的位置处接收到通过接触7026进行的输入(例如,轻击输入),以用于将虚拟球添加到在媒体对象显示区域7002中显示的先前所捕获的图像。在图7C中,响应于检测到选择球控件7012的输入,用户界面7000的模式改变为球生成模式,如信息区域7003中的“球”标签和球控件7012的改变的视觉状态所指示的。在由接触7028指示的位置处接收到输入(例如,轻击输入)。响应于检测到该接触,将虚拟球7030添加到在媒体对象显示区域7002中显示的先前所捕获的图像。例如,将虚拟球7030添加到先前所捕获的图像包括以从检测到接触7028的点向上的轨迹并且沿着由虚线7032指示的路径发射虚拟球7030(例如,虚拟球7030在模拟重力的影响下下落,从先前所捕获的图像中的椅子对象7036的表面反弹,从先前所捕获的图像中的桌子对象7038的表面反弹,落到先前所捕获的图像中的地板表面7040,并且沿着地板表面7040滚动)。
在图7D中,在由接触7042指示的位置处接收到输入(例如,轻击输入)。响应于检测到该接触,将虚拟球7044添加到在媒体对象显示区域7002中显示的先前所捕获的图像,并且虚拟球7044沿着路径7046移动(例如,从地板7040反弹并降落在地板7040上)。
在图7E中,已将若干附加虚拟球添加到在媒体对象显示区域7002中显示的先前所捕获的图像,其中一些虚拟球已降落并稳定在椅子对象7036和桌子对象7038的表面上。在触摸屏显示器112上与后续媒体对象控件7010对应的位置处检测到输入(例如,轻击输入),如接触7048所指示的。响应于该输入,将图7E所示的第一先前所捕获的图像的显示替换为图7F所示的第二先前所捕获的图像。添加到在媒体对象显示区域7002中显示的先前所捕获的图像的虚拟球被添加到第二先前所捕获的图像,如图7F所示(例如,以动画方式显示,使得虚拟球看起来在模拟重力的影响下从图7E的第一先前所捕获的图像中的地板表面7040“下落”到第二先前所捕获的图像的物理环境的顶部中,如图7F至图7I所示)。随着虚拟球下落,虚拟球稳定在第二先前所捕获的图像中捕获的物理环境中的表面上,诸如灯7052和桌子7054的表面上以及人7056和7058的臂弯中。在一些实施方案中,虚拟对象具有和与先前所捕获的图像中的物理对象对应的深度数据对等的深度,以确定虚拟对象相对于物理对象的放置(例如,以确定物理对象是否将遮挡虚拟对象或反之亦然)。例如,在图7G中,虚拟球7045被物理桌子7054部分地遮挡。
在图7J中,在触摸屏显示器112上与后续媒体对象控件7010对应的位置处检测到输入(例如,轻击输入),如接触7050所指示的。响应于该输入,将图7J所示的第二先前所捕获的图像的显示替换为图7K所示的第三先前所捕获的图像。添加到在媒体对象显示区域7002中显示的第二先前所捕获的图像的虚拟球被添加到第三先前所捕获的图像,如图7K所示(例如,以动画方式显示,使得虚拟球看起来在模拟重力的影响下从图7J的第二先前所捕获的图像中的表面“下落”到第三先前所捕获的图像的物理环境的顶部中,如图7K至图7L所示)。随着虚拟球下落,虚拟球稳定在第三先前所捕获的图像中捕获的物理环境中的表面上,诸如沙发7060的表面上。
在图7L中,在触摸屏显示器112上与文本插入控件7014对应的位置处检测到输入(例如,轻击输入),如接触7062所指示的。响应于该输入,停止显示虚拟球(例如,球7034和7044),并且将文本对象7064添加到第三先前所捕获的图像,如图7M所示。
图7M至图7T示出了虚拟文本对象7064如何与在媒体对象显示区域7002中显示的先前所捕获的图像中描绘的物理对象的表面进行交互。
在图7M中,在触摸屏显示器112上与文本对象7064对应的位置处检测到通过接触7066进行的输入。从图7M至图7P,接触7066沿着由箭头7068、7070和7072指示的路径移动。当接触7066移动时,文本对象7064被接触7066“拖动”,使得文本对象7064的移动与接触7066的移动对应。当文本对象7064被拖动到与沙发7060对应的位置时,文本对象7064通过在沙发7060的扶手上方“行进”来与沙发7060的检测到的表面进行交互,如图7N至图7O所示。例如,在图7O中,当文本对象7064被拖动到第三先前所捕获的图像的与沙发7060对应的区域时,文本对象7064的第一部分与沙发7060的第一表面(在沙发的扶手上方)相邻,并且文本对象7064的第二部分与沙发7060的第二表面(例如,在沙发7060的座位上方)相邻。
在图7Q中,在触摸屏显示器112上与文本对象7064对应的位置处检测到输入(例如,轻击输入),如接触7062所指示的。响应于该输入,启动文本对象7064的文本编辑模式,如图7R中的光标7080和键盘7078的显示所指示的。在图7S中,经由键盘7078提供的输入已将文本对象7064的文本从字词“文本”改变为字词“寒冷”。
在图7T中,在触摸屏显示器112上与贴花插入控件7016对应的位置处检测到输入(例如,轻击输入),如接触7064所指示的。响应于该输入,停止显示文本对象7064,并且将贴花对象7084添加到第三先前所捕获的图像,如图7U所示。
图7U至图7Y示出了虚拟贴花对象7084如何与在媒体对象显示区域7002中显示的先前所捕获的图像中描绘的物理对象的表面进行交互。
在图7U中,在触摸屏显示器112上与贴花对象7084对应的位置处检测到通过接触7086进行的输入。从图7U至图7X,接触7086沿着由箭头7088、7090和7092指示的路径移动。当接触7086移动时,贴花对象7084被接触7086“拖动”,使得贴花对象7084的移动与接触7086的移动对应。当贴花对象7084被拖动到沙发7060的表面上方时,贴花对象7064适形于沙发7060和地板7094的检测到的水平和垂直表面,如图7U至图7X所示。例如,在图7V中,当贴花对象7084被拖动到沙发7060上方时,贴花对象7084的第一部分与沙发7060的第一表面相邻(平放在沙发的座位上),并且贴花对象7084的第二部分与沙发7060的第二表面相邻(例如,覆盖在沙发7060的前部上方)。在图7X中,当贴花对象7084已被拖动到地板7094上时,贴花对象7084被沙发7060部分地遮挡。
在图7Y中,在触摸屏显示器112上与表情符号插入控件7018对应的位置处检测到输入(例如,轻击输入),如接触7096所指示的。响应于该输入,停止显示贴花对象7084,并且将表情符号对象7098添加到第三先前所捕获的图像,如图7Z所示。
图7Z至图7AE示出了虚拟表情符号对象7098如何与在媒体对象显示区域7002中显示的先前所捕获的图像中描绘的物理对象的表面进行交互。
在图7AA中,在触摸屏显示器112上与表情符号对象7098对应的位置处检测到通过接触7100进行的输入。从图7AA至图7AB,接触7100沿着由箭头7102指示的路径移动。当接触7100移动时,表情符号对象7098被接触7100“拖动”,使得表情符号对象7098的移动与接触7100的移动对应。在图7AC中,当表情符号对象7098悬浮在第三先前所捕获的图像中的(例如,沙发7060和地板7094的)表面上方的空间中时,接触7100已抬离触摸屏显示器112。响应于接触7100的抬离,表情符号对象7098在模拟重力的影响下下落,如图7AC至图7AE所示。在图7AC中,表情符号对象7098遇到物理对象沙发7060,使得表情符号对象7098的取向随着其在沙发7060的扶手上方滚动而改变(如图7AD所示),并且继续其下落直到到达地板7094。
在图7AF中,在触摸屏显示器112上与五彩纸屑插入控件7020对应的位置处检测到输入(例如,轻击输入),如接触7104所指示的。响应于该输入,停止显示表情符号对象7098,并且将五彩纸屑对象(例如,五彩纸屑对象7106)添加到第三先前所捕获的图像,如图7AG所示。
图7AG至图7AT示出了虚拟五彩纸屑对象如何与在媒体对象显示区域7002中显示的先前所捕获的图像和视频中描绘的物理对象的表面进行交互。在图7AG中,
在图7AG至图7AJ中,虚拟五彩纸屑对象被连续添加(例如,如图7AH、图7AI和图7AJ所示)并且在模拟重力的影响下下落,聚集在第三先前所捕获的图像中的检测到的表面(例如,基本上水平的表面,诸如沙发5060的水平表面和地板7094)上。
在图7AJ中,在触摸屏显示器112上与先前媒体对象控件5006对应的位置处检测到输入(例如,轻击输入),如接触7104所指示的。响应于该输入,将图7AJ所示的第三先前所捕获的图像的显示替换为图7AK所示的第二先前所捕获的图像的显示。将添加到在媒体对象显示区域7002中显示的第三先前所捕获的图像的五彩纸屑添加到第二先前所捕获的图像,如图7AK所示(例如,显示在与图7AJ中显示五彩纸屑的位置相同的位置处)。
在图7AK至图7AL中,虚拟五彩纸屑对象被连续添加并且在模拟重力的影响下下落,聚集在第二先前所捕获的图像中的检测到的表面上。
在图7AJ中,在触摸屏显示器112上与先前媒体对象控件5006对应的位置处检测到输入(例如,轻击输入),如接触7104所指示的。响应于该输入,将图7AJ所示的第三先前所捕获的图像的显示替换为图7AK所示的第二先前所捕获的图像的显示。将添加到在媒体对象显示区域7002中显示的第三先前所捕获的图像的五彩纸屑添加到第二先前所捕获的图像,如图7AK所示(例如,显示在与图7AJ中显示五彩纸屑的位置相同的位置处)。
在图7AK至图7AL中,虚拟五彩纸屑对象被连续添加并且在模拟重力的影响下下落,聚集在第二先前所捕获的图像中的检测到的表面上。
在图7AL中,在触摸屏显示器112上与后续媒体对象控件7010对应的位置处检测到输入(例如,轻击输入),如接触7110所指示的(例如,接收多次轻击以推进当前显示的媒体对象两次)。响应于该输入,将图7AL所示的第二先前所捕获的图像的显示替换为图7AM所示的先前所捕获的视频的显示。将添加到在媒体对象显示区域7002中显示的第二先前所捕获的图像的五彩纸屑添加到视频,如图7AM所示(例如,显示在与图7AL中显示五彩纸屑的位置相同的位置处)。
在图7AM至图7AT中,虚拟五彩纸屑对象被连续添加并且在模拟重力的影响下下落,聚集在视频中的检测到的表面(例如,风筝对象7112的边缘)上。例如,当在图7AN、图7AO和图7AP中继续进行视频回放时,虚拟五彩纸屑对象被连续添加并且在模拟重力的影响下下落,聚集在风筝对象7112的边缘和视频帧的下边缘上。
在图7AP中,在触摸屏显示器112上与重放控件7114对应的位置处检测到输入(例如,轻击输入),如接触7116所指示的。响应于该输入,重复回放视频。在图7AQ中当发起重放时,将添加到图7AM至图7AT中的视频的五彩纸屑添加到视频。例如,在图AQ中当发起视频的重放并且在该视频中的不同位置处示出风筝对象7112时,累积在风筝对象7112上的五彩纸屑从图7AP所示的位置下落。
在图7AQ至图7AT中,虚拟五彩纸屑对象被连续添加并且在模拟重力的影响下下落,聚集在视频中的检测到的表面(例如,风筝对象7112的边缘)上。例如,当在图7AR、图7AS和图7AT中继续进行视频回放时,虚拟五彩纸屑对象被连续添加并且在模拟重力的影响下下落,聚集在风筝对象7112的边缘和视频帧的下边缘上。
在一些实施方案中,所显示的虚拟五彩纸屑对象从显示中淡出和/或停止显示(例如,当自显示虚拟五彩纸屑对象以来经过的时间量增加到高于阈值时间时)。
图7AU至图7AX示出了虚拟聚光灯对象7118如何与在媒体对象显示区域7002中显示的先前所捕获的图像中描绘的物理对象进行交互。
在图7AU中,第二先前所捕获的图像显示在媒体对象显示区域7002中,并且聚光灯模式已被激活(例如,响应于在聚光控件7022处接收到的输入)。在聚光灯模式下,聚光灯虚拟对象7118被示出为照明图像的一部分(例如,人7058),并且图像的聚光灯虚拟对象7118之外的区域被示出为变暗的。这样,聚光灯虚拟对象7118允许注意力被吸引到图像的特定部分。在一些实施方案中,自动选择待照明的初始物理对象(例如,基于对最靠近前景的物理对象的确定)。聚光灯虚拟对象7118包括模拟光束7122和模拟照明点7124,该模拟照明点照明先前所捕获的图像中的地板的一部分。在一些实施方案中,光束7122照明先前所捕获的图像中的物理对象的表示的至少一部分。在一些实施方案中,照明点7124照明图像的与在该图像中检测到的水平表面对应的一部分,诸如地板7124。
在图7AV中,在触摸屏显示器112上与聚光灯对象7118对应的位置处检测到通过接触7128进行的输入。从图7AV至图7AW,接触7128沿着由箭头7102指示的路径移动。当接触7128移动时,聚光灯对象7118被接触7128“拖动”,使得聚光灯对象7118的移动与接触7128的移动对应。在图7AW中,聚光灯对象7118的位置已转移,使得人7056被聚光灯对象7118照明。由于聚光灯对象7118已移动,因此照明点7124的尺寸已改变。
在图7AX中,在触摸屏显示器112上与测量控件7020对应的位置处检测到输入(例如,轻击输入),如接触7026所指示的。响应于该输入,停止显示聚光灯对象7118。
在图7AY中,在触摸屏显示器112上由接触7132和7134指示的位置处检测到输入。在7AZ中,响应于检测到接触7132和7134,虚拟测量对象7136显示在跨越接触7132和7134之间的距离(例如,与人7058的高度对应)的位置处。测量值指示符7138指示与在图像中捕获的物理环境中的接触7132和7134对应的点之间的距离为1.8m(例如,使用与先前所捕获的图像一起存储的深度数据来确定)。
从图7AZ至图7BA,接触7132沿着由箭头7140指示的路径移动。当接触7132移动时,调整虚拟测量对象7136的尺寸以跨越接触7132和7134之间的已调整距离,并且更新由测量值指示符7138指示的测量值。
在图7BB中,接触7132和7134已抬离触摸屏显示器112。虚拟测量对象7136和测量值指示符7138保持显示。在触摸屏显示器112上由接触7142指示的位置处检测到输入。从图7BB至图7BC,接触7142沿着由箭头7144和7146指示的路径移动。响应于接触7142的移动(例如,超过阈值量的移动),显示虚拟测量对象7148和测量值指示符7150。从图7BC至图7BD,当接触7142继续移动时,调整虚拟测量对象7148的尺寸,并且更新由测量值指示符7150指示的测量值。虚拟测量对象7148的虚线部分指示虚拟测量对象7148的经过物理对象(例如,人7056)的一部分。
在7BE中,接触7142已抬离触摸屏显示器112。虚拟测量对象7148和测量值指示符7148保持显示。在图7BF中,在触摸屏显示器112上由接触7152指示的位置处检测到输入。响应于该输入,虚拟测量对象7148的端部(例如,最靠近所接收的输入的端部)移动到与接触7152的位置对应的位置。
图8A至图8W示出了根据一些实施方案的用于发起共享注释会话的示例性用户界面。这些附图中的用户界面用于示出下文所述的过程,包括图9A至图9F、图10A至图10B、图11A至图11F以及图12A至图12D中的过程。为了便于解释,将参考在具有触敏显示器系统112的设备上执行的操作来论述实施方案中的一些实施方案。在此类实施方案中,焦点选择器为任选地:相应手指或触笔接触、对应于手指或触笔接触的表示点(例如,相应接触的重心或与相应接触相关联的点)、或在触敏显示器系统112上所检测到的两个或更多个接触的重心。然而,响应于当在显示器450上显示附图中示出的用户界面连同焦点选择器时检测到触敏表面451上的接触,任选地在具有显示器450和独立的触敏表面451的设备上执行类似的操作。
图8A至图8G示出了两个设备之间的共享注释会话的建立。
图8A示出了物理环境8000,其中第一用户操作第一设备100-1(例如,设备100),并且第二用户操作第二设备100-2(例如,设备100)。由设备100-1显示的协作用户界面8002在与设备100-1对应的插图8004中示出。插图8006示出了当前由设备100-2显示的web浏览器用户界面。在协作用户界面8002中显示的提示8008包括用于发起共享注释会话的指令。
在图8B中,在与由设备100-1显示的用于发起共享注释会话的控件8010对应的位置处接收到通过接触8012进行的输入。响应于该输入,从设备100-1向远程设备(例如,设备100-2)发送对发起共享注释会话的请求。在已发送请求并且尚未接收到指示接受该请求的响应时,由设备100-1显示通知8014,如图8C所示。
在图8C中,响应于接收到对发起共享注释会话的请求,设备100-2显示提示8016,该提示包括用于接受对共享注释会话的该请求的指令。在与由设备100-2显示的用于接受对共享注释会话的该请求的控件8018的位置处接收到通过接触8020进行的输入。响应于该输入,从设备100-2向远程设备(例如,设备100-1)发送对该请求的接受。
在图8D中,设备100-1已接收到对发起共享注释会话的请求的接受的指示。设备100-1显示提示8022,该提示包括将设备100-1朝向设备100-2移动的指令。提示8022包括设备100-1的表示8026和设备100-2的表示8028。设备100-2显示提示8024,该提示包括将设备100-2朝向设备100-1移动的指令。提示8024包括设备100-1的表示8030和设备100-2的表示8032。
图8D至图8E示出了在提示8022和8024中显示的动画。在提示8022中,设备100-1的表示8026以动画方式显示,使得其朝向设备100-2的表示8028移动。在提示8024中,设备100-2的表示8032以动画方式显示,使得其朝向设备100-1的表示8030移动。
在图8F中,连接标准已得到满足(例如,第一设备100-1和第二设备100-2已朝向彼此移动,并且/或者在第一设备100-1的一个或多个相机的视场中捕获的物理空间8000的至少一部分与在设备100-2的一个或多个相机的视场中捕获的物理空间8000的至少一部分对应)。由第一设备100-1显示的通知8034和由第二设备100-2显示的通知8036各自包括已发起共享注释会话的指示。第一设备100-1显示第一设备100-1的一个或多个相机的视场的表示(例如,被通知8034覆盖)。物理环境8000中的海报8038a在第一设备100-1的该一个或多个相机的视场中可见,如由第一设备100-1显示的海报8038a的表示8038b所指示的。第二设备100-2显示第二设备100-2的一个或多个相机的视场的表示(例如,被通知8036覆盖)。设备100-1和100-2显示共享视场(例如,在第一设备100-1的该一个或多个相机的视场中捕获的物理空间8000的至少一部分与在设备100-2的该一个或多个相机的视场中捕获的物理空间8000的至少一部分对应)。例如,物理环境8000中的海报8038a在第二设备100-2的该一个或多个相机的视场中可见,如由第二设备100-2显示的海报8038a的表示8038c所指示的。在图8G中,相机的相应视场由第一设备100-1和第二设备100-2在没有通知8034和8036(例如,通知8034和8036已停止显示)的情况下显示。
图8H至图8M示出了在共享注释会话期间接收到的注释输入。图8H至图8J示出了在第二设备100-2处提供的注释输入。图8K至图8M示出了在第一设备100-1处提供的注释输入。
在图8H中,第二设备100-2检测通过接触8044进行的输入(例如,在第二设备100-2的触摸屏显示器处接收到的输入)。在第二设备100-2检测到输入时,第一设备100-1在共享视场中的与在该共享视场中在第二设备100-2处接收到输入的位置对应的位置处显示头像8048。当接触8044沿着由箭头8046指示的路径移动时,如图8H至图8I所示,与接触8044的移动对应的注释由第一设备100-1(作为注释8050-1)和第二设备100-2(作为注释8050-2)显示。在图8J中,已经由接触8044的进一步移动提供了进一步的注释输入。
在图8K中,第一设备100-1检测到通过接触8052进行的输入(例如,在第一设备100-1的触摸屏显示器处接收到的输入)。在第一设备100-1检测到输入时,第二设备100-2在共享视场中的与该共享视场中在第一设备100-1处接收到输入的位置对应的位置处显示头像8054。当接触8052移动时,如图8K至图8M所示,与接触8052的移动对应的注释由第一设备100-1(作为注释8056-1)和第二设备100-2(作为注释8056-2)显示。
在图8M至图8P中,第一设备100-1的移动增大了第一设备100-1和第二设备100-2之间的距离。在图8N中,当第一设备100-1移动远离第二设备100-2时,调整由第一设备100-1显示的第一设备100-1的相机的视场的表示(例如,使得由第一设备100-1显示的物理海报8038a的表示8038b的部分减少)。
在一些实施方案中,一个或多个注释(例如,8050-1、8050-2、8056-1和/或8056-2)相对于物理环境8000的一部分具有固定的空间关系(例如,使得设备相机相对于物理环境8000的移动改变注释的显示位置)。在图8O中,当第一设备100-1继续移动远离第二设备100-2使得第一设备100-1不再显示注释8056-1时,第一设备100-1显示与注释8056-1对应的视觉指示8058(例如,以指示第一设备100-1重新显示注释8056-1所需的移动方向)。
在图8P中,第一设备100-1远离第二设备100-2的移动将第一设备100-1和第二设备100-2之间的距离增大到使得共享注释会话断开的程度(例如,高于阈值距离)。设备100-1显示提示8060,该提示包括将设备100-1朝向设备100-2移动的指令。设备100-2显示提示8062,该提示包括将设备100-2朝向设备100-1移动的指令。在一些实施方案中,提示8060包括动画元素(例如,如参照图8D至图8E所述)。
从图8P至图8Q,第一设备100-1的移动减小了第一设备100-1和第二设备100-2之间的距离。在图8Q中,第一设备100-1和第二设备100-2之间的距离已充分减小以恢复共享注释会话。设备100-1和设备100-2已停止显示相应提示8060和8062,并且重新显示相应设备相机的相应视场。
图8R至图8W示出了使用第一设备100-1和第二设备100-2之间的共享会话的游戏应用程序(例如,如上文参照图8A至图8G所述建立的共享会话)。
图8R示出了物理环境8068,其中第一用户8064a操作第一设备100-1(例如,设备100),并且第二用户8066a操作第二设备100-2(例如,设备100)。由第一设备100-1显示的游戏应用程序用户界面8063-1在与第一设备100-1对应的插图8070中示出。由第二设备100-2显示的游戏应用程序用户界面8063-2在与第二设备100-2对应的插图8072中示出。用户8064a面向用户8066a,使得用户8066a的表示8066b在设备100-1的一个或多个相机(例如,后向相机)的视场中可见,如用户界面8063-1所示。用户8064a的表示8064b同样在设备100-2的一个或多个相机(例如,后向相机)的视场中可见,如用户界面8063-2所示。
游戏应用程序用户界面8063-1和8063-2分别显示篮球框8074和8076。通过在相应的游戏应用程序用户界面中提供输入,用户将虚拟篮球对象发射到相应设备相机的视场的所显示表示中,以试图在相应的篮球框中投篮。在一些实施方案中,相应的篮球框被固定到相应设备的空间位置,使得相应用户可移动设备以试图为对手设置考验。游戏应用程序用户界面8063-1和8063-2还分别显示游戏数据区域8078和8080。在游戏数据区域中显示的游戏数据包括例如成功投篮所得分数的积分以及设备100-1和设备100-2之间的距离(例如,以用作为给定投篮分配得分的基础)。
在图8S中,设备100-2检测通过接触8082进行的以发射虚拟篮球对象的输入(例如,轻击输入)。响应于检测到通过接触8082进行的输入,将虚拟篮球对象8084添加到在游戏应用程序用户界面8063-2中显示的设备100-2的相机的视场,如图8T所示。图8T还示出了设备100-2检测通过接触8086进行的以发射虚拟篮球对象的输入(例如,轻击输入)。响应于检测到通过接触8086进行的输入,将虚拟篮球对象8088添加到在游戏应用程序用户界面8063-1中显示的设备100-1的相机的视场,如图8V所示。在图8V中,设备100-2检测通过接触8090进行的以发射虚拟篮球对象的输入(例如,轻击输入)。响应于检测到通过接触8090进行的输入,将虚拟篮球对象8092添加到在游戏应用程序用户界面8063-2中显示的设备100-2的相机的视场,如图8W所示。从图8V至图8W,用户8064a已降低了设备100-1,使得框8076的显示位置和用户8064的表示8064b已在用户界面8063-2中改变。
图9A至图9F是示出根据一些实施方案的本地化注释的方法900的流程图。方法900在具有显示生成部件(例如,显示器、投影仪、平视显示器等)、一个或多个输入设备(例如,触敏表面诸如触敏遥控器或也用作显示生成部件的触摸屏显示器、鼠标、操纵杆、棒控制器和/或跟踪用户的一个或多个特征诸如用户的手的位置的相机)和一个或多个相机(例如,设备上与显示器和触敏表面相对的一侧上的一个或多个后向相机)的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行。在一些实施方案中,显示器是触摸屏显示器,并且触敏表面在显示器上或与显示器集成。在一些实施方案中,显示器与触敏表面是分开的。方法900中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
设备经由显示生成部件显示(902)第一用户界面区域(例如,用户界面5003),第一用户界面区域包括该一个或多个相机的视场的表示,该表示随着该一个或多个相机的视场随时间推移的变化而更新(例如,根据相机周围的物理环境中发生的变化并且根据相机相对于该物理环境的移动,连续更新(例如,以预设的帧速率诸如24fps、48fps或60fps等连续更新)视场的表示)。例如,如图5A至图5B所示,当设备100移动时,根据设备100的相机的位置变化来更新一个或多个相机的视场中的物理环境5000的视图。
在显示包括该一个或多个相机的视场的表示的第一用户界面区域时,设备经由该一个或多个输入设备接收(904)将注释(例如,通过接触(例如,手指或触笔的接触)在触敏表面上的移动产生和/或定位的文本或数字)添加到该一个或多个相机的视场的所显示表示的第一请求(例如,第一请求是通过在触摸屏显示器上的第一用户界面区域中(例如,在与用于发起注释的控件对应的位置处或在第一用户界面区域中的位置处(例如,要发起注释的位置处))检测到的接触进行的输入)。例如,添加注释的请求是通过触笔5012进行的输入(例如,发起注释的输入,如参照图5C所述,以及/或者在与控件(例如,用于在静止图像模式和视频模式之间切换的控件5004)对应的位置处通过接触进行的输入,如参照图5H所述)。
响应于将注释添加到该一个或多个相机的视场的所显示表示的第一请求(例如,包括响应于检测到手指接触或触笔在触敏表面上与在相机的视场的表示内捕获的物理环境的一部分或用户界面对象(例如,用于激活AR注释模式的按钮)对应的位置处的触摸按下或移动),设备在第一用户界面区域中用该一个或多个相机的视场的静止图像来替换(906)该一个或多个相机的视场的表示的显示(例如,暂停该一个或多个相机的视场的实时馈送(例如,显示当前视场的静止图像,而视场继续随着设备移动而改变),该静止图像是在与接收到添加注释的第一请求对应的时间捕获的;并且在第一用户界面区域中显示与该一个或多个相机的视场的暂停的实时馈送对应的静止图像。例如,响应于通过触笔5012进行的输入(例如,如参照图5C所述),将设备相机的视场的表示(例如,如参照图5A至图5B所述)替换为在与接收到添加注释的第一请求对应的时间捕获的该一个或多个相机的视场的静止图像的显示(例如,如参照图5C至图5D所述)。
在第一用户界面区域中显示静止图像时,设备经由该一个或多个输入设备接收(908)静止图像的第一部分上的第一注释(例如,绘图输入),其中静止图像的第一部分与在静止图像中捕获的物理环境的第一部分对应。例如,接收在静止图像的一部分(例如,包括物理马克杯5002a的表示5002b的部分)上的注释5018,该静止图像的该部分与在该静止图像中捕获的物理环境的一部分(例如,物理环境5000的包括物理马克杯5002a的一部分)对应,如参照图5D至图5G所述。在一些实施方案中,在显示静止图像并接收该静止图像上的注释输入时,设备继续跟踪相机相对于周围物理环境的位置(例如,基于相机视场的变化和来自其他传感器(例如,运动传感器、重力传感器、陀螺仪等)的输入)。在一些实施方案中,设备确定与静止图像中的注释的位置对应的物理位置或对象是否已被移出相机的视场;并且如果是,则设备还确定当前在相机视场中的物理环境的该部分与作为注释的目标的物理位置或对象之间的空间关系。例如,马克杯5002是注释5018的目标。
在第一用户界面区域中显示静止图像的第一部分上的第一注释时(例如,在已接收到静止图像的第一部分上的第一注释之后),设备经由该一个或多个输入设备接收(910)在第一用户界面区域中重新显示该一个或多个相机的视场的表示的第一请求。例如,在第一用户界面区域中重新显示该一个或多个相机的视场的表示的该请求是触笔5012在用于在静止图像模式和视频模式之间切换的控件5004处进行的输入,如参照图5H所述。
响应于接收到在第一用户界面区域中重新显示该一个或多个相机的视场的表示的第一请求(例如,包括响应于在阈值时间量内未在触敏表面上检测到接触(例如,认为绘图会话终止),或者检测到用户界面对象上的轻击(例如,用于停用AR注释模式的按钮),设备在第一用户界面区域中用该一个或多个相机的视场的表示来替换(910)静止图像的显示(例如,根据相机周围的物理环境中发生的变化并且根据相机相对于该物理环境的移动,以预设的帧速率(例如,24fps、48fps或60fps等)连续更新视场的表示)。例如,响应于触笔5012在控件5004处进行的输入,如参照图5H所述,在第一用户界面区域5003中将图5C至图5H中显示的静止图像替换为该一个或多个相机的视场的表示,如参照图5I至图5N所述。根据确定在静止图像中捕获的物理环境的第一部分(例如,物理环境的包括相对于其接收第一注释的对象的一部分)当前在该一个或多个相机的视场之外(例如,这是由于在相机视图的实时馈送暂停之后发生的设备移动),设备同时显示对该一个或多个相机(例如,作为计算系统的一部分)相对于在静止图像中捕获的物理环境的第一部分的当前空间关系的指示以及该一个或多个相机的视场的表示(例如,在所显示的相机视场的边缘上以及在该边缘上最靠近物理环境的在其上作出注释的第一部分的位置处显示视觉指示诸如点或其他形状,或者将物理环境的简化图与相机的视场的表示同时显示,并且在该图上标记物理环境的第一部分相对于设备的位置)。例如,如参照图5L所述,在静止图像中捕获的物理环境的该部分(例如,包括相对于其接收注释5018的马克杯5002)当前在该一个或多个相机的视场之外(例如,在图5J至图5L中,物理马克杯5002a在相机的视场之外,如用户界面5003所显示的),同时显示对该一个或多个相机相对于在静止图像中捕获的物理环境的第一部分的当前空间关系的指示(例如,指示符点5022)以及该一个或多个相机的视场的表示(例如,如图5L所示)。根据确定在静止图像中捕获的物理环境的第一部分(例如,物理环境的包括相对于其接收第一注释的对象的一部分)当前在该一个或多个相机的视场内,设备放弃显示指示。例如,响应于重新显示相机的视场的输入(例如,触笔5012在用于在静止图像模式和视频模式之间切换的控件5004处进行的输入,如参照图5T所述),根据确定在静止图像中捕获的物理环境的该部分(例如,包括相对于其接收注释5018和5028的马克杯5002)当前在该一个或多个相机的视场内(例如,在图5T中,物理马克杯5002a在用户界面5003中显示的相机的视场中可见(作为可见表示5002b),不显示对该一个或多个相机相对于静止图像中捕获的物理环境的第一部分的当前空间关系的指示(例如,如图5T所示)。根据确定在静止图像中捕获的物理环境的一部分当前在该一个或多个相机的视图之外而显示对该一个或多个相机相对于在静止图像中捕获的物理环境的该部分的当前空间关系的指示,向用户提供了视觉反馈(例如,指示需要移动相机来观看在静止图像中捕获的物理环境的该部分)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,显示(912)对该一个或多个相机相对于在静止图像中捕获的物理环境的第一部分的当前空间关系的指示包括:在该一个或多个相机的视场的表示的边缘附近显示指示符,以及根据该一个或多个相机相对于物理环境的移动而沿着该边缘移动该指示符。例如,如参照图5L所述,指示符5022显示在相机的视场的左边缘附近,如在用户界面5003中所显示的,并且如参照图5L至图5M所述,该指示符根据设备100的相机的移动而沿着该边缘移动。在一些实施方案中,对于该一个或多个相机的视场的矩形表示,指示符是沿着视场的该矩形表示的边缘移动的视觉指示诸如点或其他形状,该视觉指示可根据该一个或多个相机的第一移动沿着一个笔直边缘移动,并且该视觉指示也可根据该一个或多个相机的第二移动从一个笔直边缘跳到另一个笔直边缘。沿着相机视图的边缘移动指示符向用户提供了视觉反馈(例如,指示观看在静止图像中捕获的物理环境的该部分所需的相机的移动方向)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在显示对该一个或多个相机相对于在静止图像中捕获的物理环境的第一部分的当前空间关系的指示时,设备检测(914)该一个或多个相机(例如,作为计算系统的一部分)的第一移动。响应于检测到该一个或多个相机的第一移动,设备根据由第一移动引起的该一个或多个相机的视场的变化来更新该一个或多个相机的视场的表示。根据确定在静止图像中捕获的物理环境的第一部分(例如,物理环境的包括相对于其接收第一注释的对象的一部分)当前在该一个或多个相机的视场之外,设备根据该一个或多个相机(例如,作为计算系统的一部分)的第一移动来更新对该一个或多个相机相对于在静止图像中捕获的物理环境的第一部分的当前空间关系的指示(例如,根据相机的第一移动而沿着视场的表示的边缘移动视觉指示诸如点或其他形状)。根据确定在静止图像中捕获的物理环境的第一部分(例如,物理环境的包括相对于其接收第一注释的对象的一部分)当前在该一个或多个相机的视场内,设备停止显示指示。例如,当设备100的相机移动时,当在静止图像中捕获的物理环境的一部分在相机的视场之外时(例如,马克杯5002a在相机的视场之外,如参照图5L至图5M所述),更新指示5022(例如,在用户界面5003中向上移动),并且当在静止图像中捕获的物理环境的该部分在相机的视场内时,不再显示指示5022(例如,如参照图5L至图5N所述)。在一些实施方案中,具有第一注释的静止图像的缩小比例表示(例如,缩小比例表示5020)显示在视场的表示的边缘上的上次显示视觉指示符的位置附近,该静止图像视图缩小并朝向在相机的视场的表示中所示的第一注释的位置移动)。在一些实施方案中,当物理环境的第一部分由于相机相对于该物理环境的附加移动而移出相机的视场时,重新显示指示(例如,如参照图5U至图5V所述)。根据确定在静止图像中捕获的物理环境的第一部分当前在该一个或多个相机的视场内而停止显示对该一个或多个相机相对于物理环境的一部分的当前空间关系的指示,向用户提供了视觉反馈(例如,指示不需要进一步移动来观看在静止图像中捕获的物理环境的该部分)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于接收到在第一用户界面区域中重新显示该一个或多个相机的视场的表示的第一请求(916):根据确定在静止图像中捕获的物理环境的第一部分(例如,物理环境的包括相对于其接收第一注释的对象的一部分)当前在该一个或多个相机的视场内时,设备在该一个或多个相机的视场的表示内捕获的物理环境的第一部分处显示第一注释。例如,如参照图5N所述,根据确定在静止图像中捕获的物理环境的第一部分(例如,物理环境5000的包括物理马克杯5002a的一部分)当前在该一个或多个相机的视场内,设备在该一个或多个相机的视场的表示内捕获的物理环境的一部分处显示注释5018(例如,在与物理马克杯5002a的视觉表示5002b对应的位置处显示注释5018)。显示在带注释的静止图像中捕获的物理环境的一部分的注释向用户提供了视觉反馈(例如,指示在静止图像中捕获的物理环境的该部分当前在一个或多个相机的视场内)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一注释被显示为(918)在该一个或多个相机的视场的表示内捕获的物理环境的第一部分中的第一深度平面上的二维对象(例如,注释5018)。在一些实施方案中,根据在物理环境的第一部分中的第一深度平面处对到物理对象(例如,物理马克杯5002a)或对象特征的检测来检测第一深度平面。在该一个或多个相机的视场中的物理环境的该部分中的深度平面上显示注释向用户提供了改进的视觉反馈(例如,指示注释与物理环境具有固定的空间关系)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户使物理世界中的对象具有注释中包含的附加信息),这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一注释(例如,注释5018)显示(920)在该一个或多个相机的视场的表示内捕获的物理环境的第一部分中的空间中的位置处。在一些实施方案中,第一注释漂浮在与在物理环境的第一部分中检测到的任何物理对象分离的空间中。在静态图像中捕获的物理环境的一部分中的空间中的位置处显示注释向用户提供了改进的视觉反馈(例如,指示注释与物理环境具有固定的空间关系)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户使物理世界中的对象具有注释中包含的附加信息),这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一注释(例如,注释5018)显示(922)在该一个或多个相机的视场的表示内捕获的物理环境的第一部分中检测到的物理对象(例如,物理马克杯5002a)上的位置处。在一些实施方案中,第一注释附着到在物理环境的第一部分中检测到的物理对象(或物理对象的特征)。在静止图像中捕获的物理环境的一部分中检测到的物理对象上的位置处显示物理环境的该部分的注释为用户提供了改进的视觉反馈(例如,指示注释与物理环境具有固定的空间关系)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户使物理世界中的对象具有注释中包含的附加信息),这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于接收到在第一用户界面区域中重新显示该一个或多个相机的视场的表示的第一请求(924):根据确定在静止图像中捕获的物理环境的第一部分(例如,物理环境的包括相对于其接收第一注释的对象的一部分)当前不在该一个或多个相机的视场内,设备在第一用户界面区域中同时显示绘制在静止图像的第一部分上的第一注释(例如,绘图输入)的视觉表示以及该一个或多个相机的视场的表示(例如,具有第一注释的静止图像的缩小比例表示显示在视场的表示的边缘上最靠近当前在相机的视场中表示的物理空间的第一部分的位置附近)。例如,响应于在第一用户界面区域中重新显示该一个或多个相机的视场的表示的请求(例如,触笔5012在用于在静止图像模式和视频模式之间切换的控件5004处进行的输入,如参照图5H所述),根据确定在静止图像中捕获的物理环境的第一部分当前在该一个或多个相机的视场内(在静止图像中捕获的物理环境的该部分(例如,包括相对于其接收注释5018的马克杯5002)当前在该一个或多个相机的视场内),设备在第一用户界面区域中同时显示绘制在静止图像的第一部分上的注释5018以及该一个或多个相机的视场的表示(例如,如参照图5N所述)。在一些实施方案中,响应于接收到在第一用户界面区域中重新显示该一个或多个相机的视场的表示的第一请求:根据确定在静止图像中捕获的物理环境的第一部分(例如,物理环境的包括相对于其接收第一注释的对象的一部分)当前在该一个或多个相机的视场之外时,计算系统放弃显示绘制在静止图像的第一部分上的第一注释的视觉表示(例如,如图5L和图5M所示,不显示注释5018)。根据确定物理环境的第一部分不在相机的视场内而同时显示静止图像的注释的视觉表示以及相机的视场的表示,向用户提供了改进的视觉反馈(例如,指示对当前空间关系的指示(例如,点)与所接收的注释输入对应)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,视场的表示中所示的第一注释具有(926)第一观看视角,第一观看视角基于该一个或多个相机(例如,作为计算系统的一部分)相对于在静止图像中捕获的物理环境的第一部分的当前空间关系,并且不同于静止图像上所示的第一注释的第二观看视角(例如,在静止图像的显示在视场的表示附近的缩小比例表示中所示的第一注释的视角)。在一些实施方案中,显示动画过渡,示出了静止图像的缩小比例表示被转换为当前视场的表示。显示具有与在静止图像中所示的观看视角不同的观看视角的注释向用户提供了改进的视觉反馈(例如,指示注释固定到静止图像中捕获的物理环境的一部分)。图5AE和图5AF提供了在视场的表示中所示的具有不同观看视角的注释5018的示例。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于接收到在第一用户界面区域中重新显示该一个或多个相机的视场的表示的第一请求(928):根据确定在静止图像中捕获的物理环境的第一部分(例如,物理环境的包括相对于其接收第一注释的对象的一部分)当前在该一个或多个相机的视场之外,在第一用户界面区域中同时显示绘制在静止图像的第一部分上的第一注释(例如,绘图输入)的视觉表示以及该一个或多个相机的视场的表示(例如,具有第一注释的静止图像的缩小比例表示显示在视场的表示的边缘上最靠近当前在相机的视场中表示的物理空间的第一部分的位置附近),其中将绘制在静止图像的第一部分上的第一注释的视觉表示(例如,缩小比例表示5020)转换为对该一个或多个相机(例如,作为计算系统的一部分)相对于在静止图像中捕获的物理环境的第一部分的当前空间关系的指示(例如,指示5022)(例如,如参照图5I至图5L所述)。例如,指示是在所显示的相机视场的边缘上以及在该边缘上最靠近物理环境的在其上作出注释的第一部分的位置处显示的视觉指示诸如点或其他形状,并且在显示该视觉指示之前,在该位置处显示具有第一注释的静止图像的微型视图并将其转换为该视觉指示。将注释的视觉表示(例如,静止图像的缩小比例表示)转换为对相机相对于在静止图像中捕获的物理环境的该部分的当前空间关系的指示(例如,点)向用户提供了改进的视觉反馈(例如,指示注释的指示(例如,点)和视觉表示(例如,缩小比例的图像)是相同注释的不同表示)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在显示包括该一个或多个相机的视场的表示的第一用户界面区域时,并且在检测到将注释添加到视场的所显示表示的第一请求之前,设备显示(930)对该一个或多个相机(例如,作为计算系统的一部分)相对于物理环境的先前添加了先前接收到的第二注释的第二部分的当前空间关系的指示(例如,指示5022)(例如,在所显示的相机视场的边缘上以及在该边缘上最靠近物理环境的在其上作出第二注释的第二部分的位置处显示视觉指示诸如点或其他形状,或者同时显示物理环境的简化图以及相机的视场的表示,并且在该图上标记物理环境的第二部分相对于设备的位置)。在一些实施方案中,以与将第一注释添加到在相机的视场的表示中所示的物理环境的第一部分相同的方式,将第二注释添加到在该一个或多个相机的视场的表示中所示的物理环境的第二部分。显示对相机相对于物理环境的添加了先前接收到的注释的第二部分的当前空间关系的指示向用户提供了改进的视觉反馈(例如,指示需要相对于在静止图像中捕获的物理环境的该部分移动相机来观看的先前接收到的注释)。例如,在检测到添加注释5028的请求之前显示指示5022,如参照图5P至图5R所述。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带先前注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在接收到在第一用户界面区域中重新显示该一个或多个相机的视场的表示的第一请求之后:根据确定物理环境的第一部分和物理环境的第二部分两者都在该一个或多个相机的视场之外,设备同时显示(932)对该一个或多个相机相对于物理环境的第一部分的当前空间关系的指示以及对该一个或多个相机相对于物理环境的第二部分的当前空间关系的指示。例如,当多个注释(例如,注释5018和5036)已被添加到物理环境的不同部分时,与不同注释对应的指示符(例如,指示符5018和5040,图5AA)同时显示在相机的视场的表示的在最靠近物理环境的与注释对应的部分的相应位置处的边缘周围。同时显示对相机相对于物理环境的第一部分的当前空间关系的指示以及对相机相对于物理环境的第二部分的当前空间关系的指示,向用户提供了改进的视觉反馈(例如,指示观看多个所接收的注释中的一个或多个注释所需的相机的移动方向)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带先前注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在同时显示对该一个或多个相机相对于物理环境的第一部分的当前空间关系的指示以及对该一个或多个相机相对于物理环境的第二部分的当前空间关系的指示时,设备检测(934)该一个或多个相机相对于物理环境的第二移动;并且响应于检测到该一个或多个相机相对于物理环境的第二移动:根据确定物理环境的第一部分和物理环境的第二部分两者都在该一个或多个相机的视场之外,设备根据该一个或多个相机相对于物理环境的第二移动来分别更新该一个或多个相机相对于物理环境的第一部分和第二部分(例如,在不同方向上并且/或者以不同速度沿着视场的表示的边缘移动视觉指示符)。例如,与指向物理环境的不同部分的不同注释对应的相应视觉指示符显示在相机的视场的表示的边缘上的不同位置处,并且随着设备的移动,这些相应视觉指示符根据其相应注释相对于设备的当前空间关系的变化在不同的方向上并且以不同速度移动(例如,指示符5018和5040根据设备100的移动而移动,如参照5AA至5AD所述)。根据物理环境的用不同注释标记的不同部分之间的实际空间关系,视觉指示符可一起移动或分开移动并且/或者以不同速度移动。根据相机的移动来更新对相机相对于物理环境的第一部分和第二部分的当前空间关系的指示向用户提供了改进的视觉反馈(例如,指示相机的移动是否使相机更靠近或更远离物理环境的与静止图像的带注释部分对应的部分)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带先前注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,根据确定物理环境的第一部分和第二部分在该一个或多个相机的预定义范围内,显示(936)对该一个或多个相机相对于物理环境的第一部分的当前空间关系的指示以及对该一个或多个相机相对于物理环境的第二部分的当前空间关系的指示。在一些实施方案中,用户界面提供了一种用于从已添加到物理环境的各个部分的所有注释中选择注释子集的方法,并且仅与所选择的注释子集对应的指示与相机的视场的表示一起显示。根据确定物理环境的第一部分和第二部分在该一个或多个相机的预定义范围内,显示相对于物理环境的第一部分以及相对于物理环境的第二部分的指示,向用户提供了改进的视觉反馈(例如,通过当第一部分和第二部分在预定义范围之外时减少具有指示符的用户界面的混乱)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地定位物理环境的与静止图像的带先前注释部分对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
应当理解,对图9A至图9F中的操作进行描述的特定次序仅仅是示例性的,并非旨在表明所述顺序是可以执行这些操作的唯一次序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另外,应当注意,本文相对于本文所述的其他方法(例如,方法1000、1100和1200)所述的其他过程的细节同样以类似的方式适用于上文相对于图9A至图9F所述的方法9000。例如,上文参考方法9000所述的接触、输入、注释、物理对象、用户界面区域、视场、移动和/或动画任选地具有本文参考本文所述的其他方法(例如,方法1000、1100和1200)所述的接触、输入、注释、物理对象、用户界面区域、视场、移动和/或动画的特征中的一者或多者。为了简明起见,此处不再重复这些细节。
图10A至图10B是示出根据一些实施方案的接收在与视频的暂停位置对应的静止图像中捕获的物理环境的一部分上的注释的方法1000的流程图。方法1000在具有显示生成部件(例如,显示器、投影仪、平视显示器等)和一个或多个输入设备(例如,也用作显示生成部件的触摸屏显示器)的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行。在一些实施方案中,显示器是触摸屏显示器,并且触敏表面在显示器上或与显示器集成。在一些实施方案中,显示器与触敏表面是分开的。方法1000中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
设备经由显示生成部件显示(1002)包括视频回放区域的用户界面。例如,设备100经由触摸屏显示器112显示包括视频回放区域6002的用户界面6000,如参照图6A所述。
在视频回放区域中显示视频的第一部分的回放时,设备经由该一个或多个输入设备接收(1004)将注释添加到视频回放的请求(例如,该请求是通过在触摸屏显示器上的视频回放用户界面中(例如,在与用于发起注释的控件对应的位置处或在视频回放区域中的位置处(例如,要发起注释的位置处))检测到的接触进行的输入。例如,将注释添加到视频回放的请求是在与标记控件6010对应的位置处检测到的通过接触6024进行的输入。
响应于接收到添加注释的请求,设备(1006):在视频中的第一位置处暂停视频的回放(例如,识别该视频的当前帧(例如,暂停位置)并在该当前帧处停止视频的回放)。
设备显示(1008)与视频的第一暂停位置对应的静止图像(例如,该视频的帧)(例如,显示该视频的在接收到请求时所示的当前帧)。例如,如参照图6C至图6D所述,响应于在与标记控件6010对应的位置处通过接触6024进行的输入,暂停视频的回放并且显示与视频的暂停位置对应的静止图像。
在(例如,在视频回放区域中)显示静止图像时,设备经由该一个或多个输入设备接收(1008)在静止图像中捕获的物理环境的第一部分上的注释(例如,通过接触进行的绘图输入)。例如,如参照图6E至图6F所述,接收在物理环境的与所显示的静止图像中的风筝对象6028对应的一部分上的注释6030。应当理解,在本文提及“物理环境”的情况下,非物理环境(例如,计算机生成的环境)可包括在静止图像中。例如,接收在与视频的暂停位置对应的图像的一部分(例如,作为计算机生成的视频的一部分)上的注释。在一些实施方案中,计算机生成的图像包括深度数据和/或对象,注释和/或虚拟对象相对于这些深度数据和/或对象定位。
在接收到注释之后,设备在视频回放区域中显示(1010)视频的与该视频中的第二位置对应的第二部分(例如,在该视频的继续回放期间或者在(例如,在时间线上)接收到向前或向后刷过视频的输入时),第二位置不同于该视频中的第一位置(例如,在视频中的暂停位置之前或之后),其中物理环境的第一部分被捕获在视频的第二部分中,并且该注释显示在视频的第二部分中。例如,在接收注释6030之后(如参照图6E至图6F所述),注释6030显示在视频的第二部分中(例如,如参照图6J所述)。在一些实施方案中,在显示视频的第二部分时,注释显示在视频回放区域中的第二位置处,第二位置不同于在显示静止图像时接收到的注释的第一位置(例如,注释“附着”到在视频剪辑中捕获的物理环境中的位置(例如,物理对象),使得注释在该位置(例如,物理对象)随着视频进展而移动时移动。在视频的一部分(不同于视频的应用注释的一部分)中显示注释而不需要进一步的输入(例如,以识别要应用注释的表面),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户通过直接对视频进行注释将信息添加到先前所捕获的视频,而不需要重新记录该视频或在该视频的多个部分中提供注释),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在相机和物理环境的相对移动期间,由相机捕获(1012)视频(例如,在视频捕获期间,相机的移动数据和物理环境的深度数据被同时捕获并且与同时捕获的图像数据一起存储),并且在相机和物理环境的相对移动期间,在视频的第一部分和第二部分之间的视频的第三部分被捕获并且不包括物理环境的第一部分。在一些实施方案中,在静止图像上接收到的注释(例如,注释6030)(例如,如图6E至图6F所示)指向位于物理环境的第一部分中的第一对象(例如,风筝6028),并且显示在与视频的第二部分中的第一对象对应的位置处(例如,没有直接在视频的第二部分的任何帧的静止图像上进行注释)。例如,在图6J中,注释6030显示在视频的第二部分中与风筝6028对应的位置处。在一些实施方案中,注释不显示在视频的不包括第一对象的第三部分中(例如,注释不持久显示,并且仅在当前帧包括第一对象时示出)。在一些实施方案中,根据第一对象的距离和观看视角旋转和缩放注释,使得该注释看起来显示在第一对象的位置处。例如,在图6J至图6N中,旋转并缩放注释6030,使得该注释看起来显示在视频中的风筝5026的位置处。在一些实施方案中,视频的第一部分、第三部分和第二部分是视频的连续捕获部分,或者视频的第二部分、第三部分和第一部分是视频的连续捕获部分。由于在相机的视场中(例如,在视频的第三部分的捕获期间)捕获的素材不连续,因此仅基于单独的视频的图像数据(例如,通过帧与帧比较来识别连续帧上的跟踪点)不能将在视频的第一部分中捕获的物理环境的第一部分识别为与在视频的第三部分中捕获的物理环境的第一部分相同。使用相机的移动和/或深度数据(任选地,结合图像数据)来创建在视频中捕获的物理环境的三维或准三维模型,使得不管物理环境中的特定位置在帧中的外观或观看视角如何都可在视频的每个帧中识别该特定位置。在与注释所指向的对象对应的位置处显示注释并且不在视频的不包括对象的一部分中显示注释,向用户提供了改进的视觉反馈(例如,通过提供注释固定在与对象对应的位置处的指示)。在不需要进一步的用户输入的情况下执行操作增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户将信息添加到视频,而不需要重新记录该视频或在该视频的多个部分中提供注释),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,设备显示(1014)视频的时间线(例如,与视频同时显示(例如,在视频的回放期间,以及/或者在暂停视频时))(例如,具有指示当前显示的帧的位置的位置指示符的刷动条,来自具有用于当前显示的帧的静止标记的视频的连续片段的样本帧的缩小比例图像的可滚动序列),其中响应于用户输入刷过视频的时间线到达视频中的第二位置(例如,用户输入沿着刷动条拖动位置指示符,或者用户输入滚动样品帧的缩小比例图像的序列经过当前显示的帧的静止标记),执行显示视频的第二部分。例如,在与时间线6004对应的位置处接收到通过接触6038进行的输入,该时间线包括样本帧的序列(例如,样本帧6006,如参照图6A所述),并且响应于该输入(例如,如参照图6L至图6N所述)倒回在视频回放区域6002中显示的视频。显示用于刷过视频的时间线而不需要进一步的用户输入,增强了设备的可操作性(例如,通过允许用户使用现有的刷动控件访问在视频的第二部分中显示的注释而不需要单独的控件或输入)。在不需要进一步的用户输入的情况下执行操作增强了设备的可操作性并且使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,由于(1016)视频从第一位置倒回到第二位置(例如,在视频的时间线上,第二位置在第一位置之前),因此执行显示视频的第二部分。例如,接收通过接触6038进行的输入以倒回在视频回放区域6002中显示的视频,如参照图6L至图6N所述。响应于倒回输入,在视频的一部分(不同于视频的应用注释的一部分)中显示注释而不需要进一步的用户输入,增强了设备的可操作性(例如,通过允许用户使用现有的刷动控件访问在视频的第二部分中显示的注释而不需要单独的控件或输入)。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,由于(1018)视频从第一位置快进到第二位置(例如,在视频的时间线上,第二部分在第一部分之后,并且回放速度快于正常回放速度),因此执行显示视频的第二部分。响应于快进输入,在视频的一部分(不同于视频的应用注释的一部分)中显示注释而不需要进一步的用户输入,增强了设备的可操作性(例如,通过允许用户使用现有的刷动控件访问在视频的第二部分中显示的注释而不需要单独的控件或输入)。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,由于(1020)视频从第一位置正常回放到第二位置(例如,在视频的时间线上,第二部分在第一部分之后,并且回放速度快于正常回放速度),因此执行显示视频的第二部分。在一些实施方案中,当用户完成在静止图像上提供注释时,用户通过选择与静止图像一起显示的“完成”按钮退出注释模式(例如,如参照图6G所述);并且因此,设备继续从第一位置回放视频,其中即使当与静止图像相比物理环境的第一部分是在不同距离和/或从不同视角捕获的时,注释也显示在包括物理环境的第一部分的每个后续帧中,以及在相同的物理位置处(例如,物理对象)。响应于视频的正常回放,在视频的一部分(不同于视频的应用注释的一部分)中显示注释而不需要进一步的用户输入,增强了设备的可操作性(例如,通过允许用户使用现有的刷动控件访问在视频的第二部分中显示的注释而不需要单独的控件或输入)。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,设备经由显示生成部件显示(1022)包括视频(例如,在媒体库中显示视频的表示)的媒体内容对象列表。设备接收从媒体内容对象列表中选择视频的输入,并且响应于接收到选择视频的输入,在视频回放区域中将用户界面对象(例如,用于添加注释的“标记”按钮)与视频的显示一起显示,其中该用户界面对象被配置为接收在视频的回放期间将注释添加到视频的请求(例如,用于激活按钮以添加注释的轻击输入)。显示被配置为在视频的回放期间接收将注释添加到该视频的请求的用户界面对象提供了改进的反馈(例如,指示在视频的回放期间将注释添加到该视频的一部分的选项)。在一些实施方案中,当在视频回放期间在视频回放区域上检测到触摸输入时,显示标记按钮(例如,与其他回放控件一起显示)提供了改进的反馈,并且当该标记按钮被激活时,当前显示的帧被示出为处于标记启用状态,即准备好直接在该当前显示的帧的图像上接收的绘图注释。提供增强的反馈增强了设备的可操作性(例如,通过允许用户使用现有的刷动控件访问在视频的第二部分中显示的注释而不需要单独的控件或输入)。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
应当理解,对图10A至图10B中的操作进行描述的特定顺序仅仅是示例性的,并非旨在表明所述顺序是可以执行这些操作的唯一顺序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另外,应当注意,本文相对于本文所述的其他方法(例如,方法900、1100和1200)所述的其他过程的细节同样以类似的方式适用于上文相对于图10A至图10B所述的方法1000。例如,上文参考方法1000所述的接触、输入、注释、物理对象、用户界面区域、视场、移动和/或动画任选地具有本文参考本文所述的其他方法(例如,方法900、1100和1200)所述的接触、输入、注释、物理对象、用户界面区域、视场、移动和/或动画的特征中的一者或多者。为了简明起见,此处不再重复这些细节。
图11A至图11F是示出将虚拟对象添加到先前所捕获的媒体对象的方法1100的流程图。方法1100在具有显示生成部件(例如,显示器、投影仪、平视显示器等)和一个或多个输入设备(例如,触敏表面诸如触敏遥控器或也用作显示生成部件的触摸屏显示器、鼠标、操纵杆、棒控制器和/或跟踪用户的一个或多个特征诸如用户的手的位置的相机)的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行。在一些实施方案中,显示器是触摸屏显示器,并且触敏表面在显示器上或与显示器集成。在一些实施方案中,显示器与触敏表面是分开的。方法1100中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
设备经由显示生成部件显示(1102)包括一个或多个第一图像(例如,静止照片、实时照片或包括图像帧序列的视频)的第一先前所捕获的媒体对象,其中第一先前所捕获的媒体对象和与在该一个或多个第一图像中的每个图像中捕获的第一物理环境对应的第一深度数据(例如,由设备的一个或多个深度传感器(例如,发射器/检测器系统诸如红外、声纳和/或激光雷达,以及/或者图像分析系统(例如,视频片段分析和/或立体图像/视频分析))例如在与由一个或多个相机捕获第一媒体对象的时间对应的时间生成的第一深度数据)被一起记录和存储。例如,如参照图7A所述,设备100通过触摸屏显示器112在媒体对象显示区域7002中显示先前所捕获的图像。
在显示第一先前所捕获的媒体对象(例如,显示静止图像,显示实时照片的代表性图像,在视频的回放期间显示视频的帧,或者当视频处于暂停或停止状态时显示视频的帧)时,设备经由该一个或多个输入设备接收(1104)将第一虚拟对象(例如,下落球、五彩纸屑、文本、聚光灯、表情符号、颜料、测量图形)添加到第一先前所捕获的媒体对象的第一用户请求。例如,将虚拟对象添加到先前所捕获的媒体对象的请求是在触摸屏显示器112上接收的用于将虚拟对象添加到先前所捕获的图像的轻击输入,如参照图7C所述。
响应于将第一虚拟对象添加到第一先前所捕获的媒体对象的第一用户请求,设备在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示(1106)第一虚拟对象,其中第一虚拟对象被显示为具有至少第一位置或取向(或移动路径),第一位置或取向是使用与第一先前所捕获的媒体对象中的相应图像对应的第一深度数据来确定的。例如,如参照图7C所述,响应于在触摸屏显示器112上接收的轻击输入,将虚拟对象(例如,虚拟球对象7030)添加到先前所捕获的图像。在不需要用户输入(例如,以指示媒体对象中的平面的位置)的情况下使用来自先前所捕获的媒体对象的深度数据将虚拟对象添加到该先前所捕获的媒体对象,增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象包括(1108):在将第一虚拟对象放置在该一个或多个第一图像中的相应图像上之后,显示第一虚拟对象相对于在第一先前所捕获的媒体对象中捕获的第一物理表面的第一移动,其中第一虚拟对象的第一移动受到与第一物理表面对应并且基于深度数据确定的第一模拟表面和模拟重力方向(例如,该模拟重力方向任选地基于在捕获第一图像时与深度数据一起记录的重力方向来确定,或者与相对于显示相应图像的设备的当前取向的实际重力方向相同)的约束。例如,如参照图7C所述,虚拟球对象7030受到与物理表面(例如,地板表面7040)对应并且基于深度数据确定的模拟表面和模拟重力方向的约束。在一些实施方案中,不同类型的虚拟对象具有以不同方式与模拟表面进行交互的不同模拟物理特征(例如,形状、尺寸、重量、弹性等)。在一个示例中,如果静止图像捕获具有弯曲扶手和平坦座位区域的沙发,则虚拟橡胶球被示出为从该图像的顶部落入,降落在该扶手的弯曲表面上,从该扶手的弯曲表面反弹,降落在平坦座位区域上,然后向下滚到地板上。相比之下,一片五彩纸屑被示出为从该图像的顶部向下飘落,降落在该扶手的弯曲表面上,滑离该扶手的弯曲表面,降落在平坦座位区域上,并且保持在该平坦座位区域上。在另一个示例中,3D字母“A”被用户的手指放置在扶手的弯曲表面的顶部上,当用户的手指抬离触摸屏时,3D字母“A”侧向下落并降落在座位区域的平坦表面上。在一些实施方案中,基于深度数据生成与在静止图像中捕获的物理环境对应的表面网格,并且插入静止图像中的虚拟对象在插入期间和/或在初始放置之后以动画方式显示,以显示符合基本物理(诸如,与重力、力和对象之间的物理交互相关的定律)的移动和最终位置/取向。将虚拟对象移动到先前所捕获的媒体对象的物理表面((例如,根据模拟重力)用于指示媒体对象中的平面的位置)),从而允许该虚拟对象的移动自动发生而不需要进一步的输入(例如,不需要用户提供引导虚拟对象的移动路径的输入),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象包括(1110):在将第一虚拟对象放置在该一个或多个第一图像中的相应图像上之后,显示第一虚拟对象根据在第一先前所捕获的媒体对象中捕获的第一物理表面的形状变化,其中第一虚拟对象的形状变化受到与第一物理表面对应并且基于第一深度数据确定的第一模拟表面的约束。例如,如参照图7U至图7X所述,虚拟贴花对象7084的形状随着对象在沙发7060的表面上方移动并移动到在先前所捕获的图像中描绘的地板7004上而改变。在一些实施方案中,如果静止图像捕获具有弯曲扶手和平坦座位区域的沙发,虚拟颜料球被示出为射入该图像中并且降落在该扶手的弯曲表面上,则该虚拟颜料溅泼在该扶手的弯曲表面上方。相比之下,如果虚拟颜料球被示出为射入该图像中并且降落在座位区域的平坦表面上,则虚拟颜料溅泼在该座位区域的平坦表面上方。在另一个示例中,虚拟长彩带落在扶手的弯曲表面上方时垂挂在该扶手上方,而虚拟长彩带落在平坦座位区域上方时平躺在该座位区域的平坦表面上。显示虚拟对象的根据先前所捕获的媒体对象中的表面的形状变化,从而允许自动发生该虚拟对象的形状变化而不需要进一步的输入(例如,不需要用户提供指示虚拟对象的形状变化的输入),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,当在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象时,设备检测(1112)从显示第一先前所捕获的媒体对象切换为显示第二先前所捕获的媒体对象的第二用户输入(例如,在第一虚拟对象上进行水平轻扫输入以示出在水平布置的媒体对象列表中的前一个或后一个项目,在第一虚拟对象上进行垂直轻扫以示出在垂直布置的媒体对象列表中的前一个或后一个项目,或者在用于切换到前一个或后一个媒体对象的向前或向后按钮上进行轻击),其中第二先前所捕获的媒体对象包括一个或多个第二图像,并且第二先前所捕获的媒体对象和与在该一个或多个第二图像中的每个图像中捕获的第二物理环境对应的第二深度数据(例如,由设备的一个或多个深度传感器(例如,发射器/检测器系统诸如红外、声纳和/或激光雷达,以及/或者图像分析系统(例如,视频片段分析和/或立体图像/视频分析))例如在与由一个或多个相机捕获第二媒体对象的时间对应的时间生成的第二深度数据)被一起记录和存储。例如,如参照图7E至图7F所述,当虚拟球对象显示在第一先前所捕获的图像上方时,如图7E所示,检测从显示第一先前所捕获的图像切换为显示第二先前所捕获的图像的请求(例如,后续媒体对象控件7010处的输入)(如图7F所示)。响应于接收到从显示第一先前所捕获的媒体对象切换为显示第二先前所捕获的媒体对象的第二用户请求:设备用第二先前所捕获的媒体对象的显示来替换第一先前所捕获的媒体对象的显示(例如,在轻扫输入(例如,水平轻扫或垂直轻扫输入)的方向上滑出第一先前所捕获的媒体对象并滑入第二先前所捕获的媒体对象)。例如,响应于接收到输入(如参照图7E所述),设备从在媒体对象显示区域7002中显示第一先前所捕获的媒体对象(如图7E所示)切换为在媒体对象显示区域7002中显示第二先前所捕获的图像(如图7F所示)。设备在第二先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象,其中第一虚拟对象被显示为具有至少第二位置或取向(或移动路径),第二位置或取向基于第一虚拟对象在第一先前所捕获的媒体对象的相应图像中的第一位置或取向(或移动路径)并且基于与第二先前所捕获的媒体对象中的相应图像对应的第二深度数据来确定。例如,添加到图7E中显示的第一先前所捕获的图像的虚拟球对象7034和7044显示在图7F中显示的第二先前所捕获的图像上方。在一些实施方案中,如果第一虚拟对象是已向下落在第一先前所捕获的媒体对象的图像中并降落在该图像中的第一表面(例如,沙发座位区域的平坦表面)上的一片虚拟五彩纸屑或虚拟球,则当用户通过在第一图像上水平地轻扫来切换为显示第二图像时,第二图像水平地滑动,并且虚拟五彩纸屑球或虚拟球开始从其在第一图像中的位置移动(例如,从与沙发座位区域的表面对应的位置向下下落)并降落在第二表面(例如,地板的表面或地板上的垫子的表面等)上。换句话讲,当在媒体对象之间切换时,虚拟对象保持不变,并且该虚拟对象在下一个图像中的位置、取向和移动路径受到其在前一个图像中的虚拟对象的位置、取向和移动路径的影响。从在第一先前所捕获的媒体对象上方显示虚拟对象切换为在第二先前所捕获的媒体对象上方在基于虚拟对象在第一先前所捕获的媒体对象中的位置或取向确定的位置处显示虚拟对象,而在不需要用户输入(例如,以指示虚拟对象在第二先前所捕获的媒体对象中的位置),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一用户请求是(1114)随时间推移将第一类型的虚拟对象(例如,如参照图7C至图7E所述的虚拟球对象7034和7044)的多个实例添加到先前所捕获的媒体对象的请求(例如,随时间推移将下落的虚拟五彩纸屑或虚拟球添加到图像),并且第一虚拟对象是添加到第一先前所捕获的媒体对象的第一类型的虚拟对象的多个实例中的一个实例。响应于接收到从显示第一先前所捕获的媒体对象切换为显示第二先前所捕获的媒体对象的第二用户请求:设备在第二先前所捕获的媒体对象中的相应图像的至少一部分上方显示第二虚拟对象,其中:第二虚拟对象是第一类型的虚拟对象的实例,该实例不同于第一虚拟对象并且未添加到第一先前所捕获的媒体对象,并且第二虚拟对象被显示为具有至少第三位置或取向(或移动路径),第三位置或取向是使用与第二先前所捕获的媒体对象中的相应图像对应的第二深度数据来确定的。例如,在一些实施方案中,第一用户请求是随时间推移(例如,以连续方式)添加相同类型的一系列虚拟对象以在图像上创建效果(诸如,下落的五彩纸屑、雨滴或烟花等)的请求。在将该效果应用于第一图像或视频时(例如,在将虚拟五彩纸屑、雨滴或烟花的多个实例添加到第一图像时),如果用户切换到下一个图像或视频(例如,通过在第一图像或视频上水平地或垂直地轻扫),则该效果还被自动应用于下一个图像或视频(例如,虚拟五彩纸屑、雨滴或烟花的新实例也被添加到下一个图像),而无需用户为下一个图像或视频明确调用该效果(例如,激活该效果的控件)。从在第一先前所捕获的媒体对象上方显示第一虚拟对象切换为在第二先前所捕获的媒体对象上方在基于虚拟对象在第一先前所捕获的媒体对象中的位置或取向确定的位置处显示第二虚拟对象,而在不需要用户输入(例如,以指示虚拟对象在第二先前所捕获的媒体对象中的位置),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一先前所捕获的媒体对象和第二先前所捕获的媒体对象是(1116)先前和与不同物理环境和/或相同物理环境的不同视图对应的不同深度数据一起记录和存储的两个不同的静止图像(例如,如图7E的媒体对象显示区域7002所示的第一先前所捕获的图像和如图7F的媒体对象显示区域7002所示的第二先前所捕获的图像)。例如,就在图像中捕获的素材而言,第二静止图像不需要与第一静止图像具有任何联系,以便使相同效果(例如,下落的五彩纸屑、虚拟球、烟花、虚拟块状字母等)继续应用于第二静止图像。从在第一先前所捕获的媒体对象上方显示虚拟对象切换为在具有与第一先前所捕获的媒体对象不同的深度数据的第二先前所捕获的媒体对象上方显示第二虚拟对象,而不需要进一步的用户输入(例如,以指示虚拟对象在第二先前所捕获的媒体对象中的位置),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一先前所捕获的媒体对象是包括连续图像帧序列的视频(例如,如参照图7AM至图7AT所述),并且在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象包括:在第一先前所捕获的媒体对象的回放期间:在显示第一先前所捕获的媒体对象的第一图像帧时,在第一图像帧的第一部分上方显示(1118)第一虚拟对象,其中第一虚拟对象被显示为具有根据第一深度数据的与第一先前所捕获的媒体对象的第一图像帧对应的一部分确定的位置或取向(或移动路径);以及在紧接在显示第一图像帧之后显示第一先前所捕获的媒体对象的第二图像帧时(例如,在媒体对象的正常或快进回放中,第二图像帧紧接在媒体对象中的第一图像帧之后;在媒体对象的反向回放中,第二图像帧紧接在媒体对象中的第一图像帧之前;或者在媒体对象的循环回放中,第二图像是媒体对象的初始帧,第一图像是媒体对象的最后一帧),在第二图像帧的第二部分上方显示第一虚拟对象,其中第一虚拟对象被显示为具有根据第一虚拟对象在第一图像帧中的位置或取向(或移动路径)并且根据第一深度数据的与第一先前所捕获的媒体对象的第二图像帧对应的一部分确定的位置或取向(或移动路径)。例如,如果第一虚拟对象是已向下落在视频的第一图像帧中的表面(例如,移动或静止对象的表面)上的一片虚拟五彩纸屑或虚拟球,则当视频继续播放并且该表面在下一个图像帧中示出时,该虚拟五彩纸屑或虚拟球的位置和/或取向和/或移动路径将根据新图像帧中表面的位置和取向而改变。例如,如果表面是静止桌子表面,则即使与第一图像帧相比该桌子表面现在是以不同的视角观看的并且在第二图像帧上占据不同区域,虚拟五彩纸屑也将看起来位于该静止桌子表面上的相同位置处,并且虚拟球也将看起来沿着该静止桌子表面滚动。类似地,如果表面是在视频中突然松开的活板门的顶部,则虚拟五彩纸屑将开始从其在活板门的顶部上的静止位置逐渐下落,并且虚拟球将看起来由于模拟重力而从其在活板门的顶部上的位置加速下落。在一些实施方案中,第一用户请求是随时间推移(例如,以连续方式)添加相同类型的一系列虚拟对象以在图像上创建效果(诸如,下落的五彩纸屑或烟花等)的请求。例如,在图7AM至图7AT中发生视频回放时,搁置在物理风筝对象7112的边缘上的虚拟五彩纸屑对象被显示为具有改变的位置、取向和移动路径。在将该效果应用于第一图像帧时(例如,在将虚拟五彩纸屑或烟花的多个实例添加到第一图像帧时),当视频回放继续时,该效果还被自动应用于下一个图像帧(例如,虚拟五彩纸屑或烟花的新实例也被添加到下一个图像)。在一些实施方案中,在视频结束时,添加到最后一个图像帧的虚拟对象包括添加到多个较早图像帧并且已基于以下先前交互而稳定为其在最终图像帧中的最终位置和取向的虚拟对象:和与在较早图像帧中描绘的物理环境对应的模拟表面以及与在最后一个图像帧中描绘的物理环境对应的模拟表面的先前交互。在紧接在显示视频的第一帧之后显示的视频的第二帧上方显示虚拟对象,其中在第二图像帧中使用来自第二图像帧的深度数据来确定该虚拟对象的位置或取向而不需要进一步的输入(例如,不需要用户提供指示虚拟对象在视频的每个帧中的位置的输入),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,显示第一先前所捕获的媒体对象包括(1120)根据第一时间线播放视频,第一时间线包括连续图像帧序列的循环、快进或反向中的至少一者;并且在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象包括:在根据第一时间线回放视频期间,根据前向时间线显示第一虚拟对象的位置或取向(或移动路径)的变化(例如,虚拟对象在每个先前显示的图像帧中的先前位置和取向影响在当前显示的图像帧中的位置和取向),该前向时间线与在视频的回放期间显示的图像帧序列的实际顺序(例如,包括:从视频的结束到开始循环、在视频回放期间以不均匀的速率切换帧、将视频从较晚的帧倒着播放到较早的帧等)相关联。换句话讲,虚拟对象在显示的图像帧中的移动的时间线与根据其回放媒体对象的时间线无关。根据与图像帧序列的顺序相关联的时间线显示虚拟对象的位置或取向的变化而不需要进一步的输入(例如,不需要用户提供指示虚拟对象在视频的每个帧中的位置的变化的输入),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象包括(1122):在将第一虚拟对象放置在该一个或多个第一图像中的相应图像上时,显示第一虚拟对象根据在第一先前所捕获的媒体对象中捕获的第一物理表面的阴影,其中第一虚拟对象的阴影受到与第一物理表面对应并且基于第一深度数据确定的第一模拟表面的约束。例如,如果静止图像捕获具有弯曲扶手和平坦座位区域的沙发,放置在该扶手的弯曲表面上然后侧向下落到座位区域的平坦表面的虚拟字母A将具有阴影,该阴影的形状根据虚拟字母A当前所在的表面以及虚拟字母A相对于表面的当前取向而改变。在一些实施方案中,基于与图像或视频相关联的深度数据生成三维或准三维网格,该网格表面表现出在该图像或视频中捕获的物理环境的形状特征,基于模拟光源以及虚拟对象相对于该网格表面的位置和取向将阴影投射在该网格表面上。显示具有受到与物理表面对应并且基于先前所捕获的媒体对象的深度数据的模拟表面的约束的阴影的虚拟对象而不需要进一步的输入(例如,以识别先前所捕获的媒体对象中的表面),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一用户请求是(1124)将虚拟第一文本对象放置在第一先前所捕获的媒体对象中的相应图像中的第一位置处的用户请求。例如,该用户请求是在虚拟文本对象7064处提供的用于启动虚拟文本对象7064的编辑模式的输入,如参照图7Q至图7S所述。设备接收(1126)更新虚拟第一文本对象的用户输入,包括将第一虚拟字母添加到虚拟第一文本对象(例如,通过在现有文本输入的末端键入字母来编辑文本输入区域);并且响应于接收到该用户输入,设备在第一先前所捕获的媒体对象中的相应图像中的与虚拟第一文本对象中的先前虚拟字母相邻的第二位置处并且根据第一深度数据的与相应图像中的第二位置对应的一部分显示第一虚拟字母。在一些实施方案中,文本具有基于在相应图像中捕获的环境的表面网格而生成的光照和阴影。在先前所捕获的媒体对象中的位置处显示文本对象并且根据媒体对象中的深度数据放置该文本对象的字母而不需要进一步的输入(例如,以识别先前所捕获的媒体对象中的深度数据),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象包括(1128):根据确定与相应图像中的第一虚拟对象的当前位置邻近的模拟表面是水平表面,在该水平表面的上方(例如,与水平表面下方相反)上显示第一虚拟对象;并且根据确定与相应图像中的第一虚拟对象的当前位置邻近的模拟表面是垂直表面,在该垂直表面的前方显示第一虚拟对象。根据表面是水平表面还是垂直表面在与虚拟对象邻近的表面的顶部或前方显示虚拟对象而不需要进一步的输入(例如,以指示表面是水平表面还是垂直表面),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象包括(1130):根据确定该相应图像包括与该相应图像中的第一虚拟对象的当前位置邻近并且具有不同深度的第一模拟表面(例如,前景对象)和第二模拟表面(例如,背景对象),在第一模拟表面和第二模拟表面之间的深度处显示第一虚拟对象(例如,其中第一虚拟对象的至少第一部分被第一模拟表面遮挡,并且其中第一虚拟对象的至少第二部分遮挡第二模拟表面的至少一部分,或者在由第一模拟表面表示的对象下方)。例如,如参照图7G所述,在第一模拟表面(例如,在先前所捕获的图像中描绘的房间的后墙)和第二模拟表面(例如,桌子7054)之间的深度处显示虚拟球对象7045。在一些实施方案中,不能仅基于图像的深度数据来建立物理环境的完整三维模型。不存在关于第一模拟表面和第二模拟表面之间的空间的空间信息。第一虚拟对象放置在第一模拟表面和第二模拟表面之间,而不考虑不存在第一模拟表面和第二模拟表面之间的深度范围内的空间信息。显示具有在第一模拟表面和第二模拟表面之间的深度的虚拟对象而不需要进一步的输入(例如,以指示虚拟对象的深度、第一模拟表面的深度和/或第二模拟表面的深度),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,设备检测(1132)通过触敏表面上的接触进行的指向第一虚拟对象的对象定位输入(例如,拖动输入或轻击输入),其中该对象定位输入指定第一虚拟对象在相应图像上的放置位置,该放置位置与该触敏表面上的接触的最终位置(以及任选地,最终移动速度和方向)对应。例如,对象定位输入是通过接触7066进行的定位虚拟文本对象7064的输入,如参照图7M所述。响应于检测到该对象定位输入,设备根据该对象定位输入将第一虚拟对象放置在相应图像上的放置位置处。当在相应图像上的放置位置处显示第一虚拟对象时,设备检测该对象定位输入的终止,包括检测接触从触敏表面的抬离。响应于检测到该对象定位输入的终止,设备根据与物理环境的围绕放置位置的一部分(例如,基于该放置位置附近的深度数据创建的物理环境的表面网格)对应的深度数据并且根据物理环境的该部分和第一虚拟对象的一个或多个模拟物理属性(例如,重量、重力、弹性、塑性、速率、速度等),将第一虚拟对象从该放置位置移动到最终位置(例如,利用旋转和/或平移移动)。根据深度数据移动虚拟对象而不需要进一步的输入(例如,以指示虚拟对象的移动将如何发生并且/或者以指示先前所捕获的媒体图像的深度数据),增强了设备的可操作性。例如,在接触5066抬离时,虚拟文本对象被放置在先前所捕获的图像中的沙发7060的水平表面上的最终位置处,如参照图7M至图7P所述。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一虚拟对象包括(1134)模拟聚光灯(例如,虚拟聚光灯对象7118,如参照图7AU所述)。在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象包括在该相应图像中显示具有模拟三维形状的模拟光束(例如,光束7120)(例如,锥形或圆柱形光束),其中该模拟三维形状在模拟光束在该相应图像中移动时保持恒定(例如,对于用户而言该形状的外观可为不同的,这取决于从用户的有利位置看光束的观看视角);以及在相应图像中显示具有二维形状的模拟照明点(例如,照明点7122),其中该二维形状根据模拟光束在相应图像中的移动并且根据模拟光束和与物理环境中的物理表面(例如,物理对象的表面(例如,弯曲或平坦表面)对应并且基于第一深度数据确定的模拟相交表面之间的相对空间关系而改变。例如,如参照图7AV至图7AW所述,模拟照明点7122的形状随着虚拟聚光灯对象7118响应于用户输入的移动而改变。显示具有根据以下各项改变的二维形状的模拟照明点而不需要进一步的输入(例如,以指示先前所捕获的媒体图像的深度数据)增强了设备的可操作性:模拟光束的移动,以及该模拟光束和与基于深度数据确定的表面对应的模拟表面之间的相对空间关系。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一虚拟对象包括(1136)图形对象(例如,二维或三维表情符号),并且在第一先前所捕获的媒体对象中的相应图像的至少一部分上方显示第一虚拟对象包括:在相应图像中与物理环境中的自由空间对应的位置处显示图形对象(例如,表情符号漂浮在物理环境中通过用户手指接触选择的位置处的空气中)。例如,该图形对象是如参照图7AB所述的虚拟表情符号对象7098。在与(例如,在媒体图像中捕获的)物理环境中的自由空间对应的位置处显示图形对象而不需要进一步的输入(例如,以指示先前所捕获的媒体图像中的自由空间的位置),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,设备检测(1138)触敏表面上的两个并发接触,并且响应于检测到这两个并发接触,设备显示具有两个相应端部的第一测量对象,这两个相应端部位于相应图像上与该触敏表面上的这两个并发接触的相应位置对应的相应位置处。例如,响应于检测到并发接触7132和7134,虚拟测量对象7136被显示为具有位于与接触的位置对应的位置处的端部,如参照图7AY至图7AZ所述。显示具有位于图像上与接触的位置对应的位置处的端部的测量对象向用户提供了视觉反馈(例如,指示图像的与测量对应的一部分)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地确定和/或调整图像的与测量对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,显示第一测量对象包括(1140):根据确定第一测量对象的两个相应端部位于与在相应图像中捕获的物理表面对应的模拟前景表面的两侧上(例如,第一测量对象跨越模拟前景表面),显示第一测量对象的位于该模拟前景表面的第一侧上并且具有第一外观的第一部分,以及显示第一测量对象的位于该模拟前景表面的第二侧(不同于第一侧)上并且具有第二外观(不同于第一外观)的第二部分(不同于第一部分)(例如,测量对象的第一侧是前景且完全可见的,并且测量对象的第二侧被前景表面遮蔽并具有阴影外观)。例如,在图7BD中,测量对象7148的第一部分(例如,虚线部分)位于模拟前景表面的第一侧上,并且测量对象7148的第二部分(例如,实线部分)位于该模拟前景表面的第二侧上。显示第一测量对象的位于模拟前景表面的第一侧上并且具有第一外观的第一部分,以及显示第一测量对象的位于该模拟前景表面的第二侧上并且具有第二外观的第二部分,向用户提供了视觉反馈(例如,指示测量对象跨越与所捕获的图像中的物理表面对应的模拟表面的不同侧)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地确定和/或调整图像的与测量对应的部分),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,显示第一测量对象包括(1142):在相应图像中显示具有第一端部和第二端部的第一测量对象时,检测通过触敏表面上的接触进行的定位输入,其中该定位输入指定第一测量对象在该相应图像中的新端部位置;并且响应于检测到通过接触进行的该定位输入,将第一测量对象的第一端部和第二端部中更靠近该新端部位置的一者移动到相应图像中由定位输入指定的该新端部位置。例如,如参照图7BF所述,通过接触7152进行的定位输入指定先前显示的测量对象7148的新端部位置,如参照图7BB至图7BE所述。将第一测量对象的第一端部和第二端部中的一者移动到新端部位置而不需要进一步的输入(例如,取消先前的测量输入以提供新的测量输入的输入),增强了设备的可操作性。在不需要进一步的用户输入的情况下执行操作使用户-设备界面更有效,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
应当理解,对图11A至图11F中的操作进行描述的特定顺序仅仅是示例性的,并非旨在表明所述顺序是可以执行这些操作的唯一顺序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另外,应当注意,本文相对于本文所述的其他方法(例如,方法900、1000和1200)所述的其他过程的细节同样以类似的方式适用于上文相对于图11A至图11F所述的方法1200。例如,上文参考方法1100所述的接触、输入、注释、虚拟对象、物理对象、用户界面区域、视场、移动和/或动画任选地具有本文参考本文所述的其他方法(例如,方法900、1000和1200)所述的接触、输入、注释、虚拟对象、物理对象、用户界面区域、视场、移动和/或动画的特征中的一者或多者。为了简明起见,此处不再重复这些细节。
图12A至图12D是示出发起共享注释会话的方法1200的流程图。方法1200在具有第一显示生成部件(例如,显示器、投影仪、平视显示器等)、第一组一个或多个输入设备(例如,触敏表面诸如触敏遥控器或也用作显示生成部件的触摸屏显示器、鼠标、操纵杆、棒控制器和/或跟踪用户的一个或多个特征诸如用户的手的位置的相机)以及第一组一个或多个相机(例如,设备上与显示器和触敏表面相对的一侧上的一个或多个后向相机)的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行。在一些实施方案中,显示器是触摸屏显示器,并且触敏表面在显示器上或与显示器集成。在一些实施方案中,显示器与触敏表面是分开的。方法1200中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
设备(例如,响应于进入共享注释模式的用户请求)向远程设备(例如,服务器或第二设备)发送(1202)发起与第二设备的共享注释会话的请求,第二设备包括第二显示生成部件、第二组一个或多个输入设备以及第二组一个或多个相机。例如,如参照图8B所述,响应于接收到在用于发起共享注释会话的控件8010处的输入,发起共享注释会话的请求从设备100-1发送到第二设备100-2。在一些实施方案中,进入共享注释模式的请求包括发起共享注释会话的第一输入以及(例如,从附近设备列表,或者从社交网络联系人列表)选择与其共享注释会话的第二设备的第二输入。
响应于发送发起与第二设备的共享注释会话的请求,设备(例如,从服务器或第二设备)接收(1204)对接受发起共享注释会话的请求的指示。在一些实施方案中,该请求被(例如,不经过服务器直接地或经由服务器)发送到第二设备,并且第二设备显示发起与第一设备的共享注释会话的请求的通知。例如,在图8C中,第一设备100-1已发送发起共享注释会话的请求,并且第二设备100-2显示通知(例如,包括用于接受该请求的指令的提示8016)。第二用户响应于第二设备显示的通知而在第二设备处提供接受输入。然后,第二设备向第一设备(例如,直接地或经由服务器)发送对接受的指示。
响应于接收到对接受发起共享注释会话的请求的指示,设备经由第一显示生成部件显示(1206)将第一设备朝向第二设备移动的第一提示(例如,示出第一设备和第二设备的表示朝向彼此移动的动画)。例如,第一设备100-1显示提示8022,该提示包括将设备100-1朝向设备100-2的表示移动的指令,如参照图8D所述。在一些实施方案中,提示8022包括示出设备100-1的表示朝向设备100-2移动的动画,如参照图8D至图8E所述。在一些实施方案中,也在第二设备处显示提示以将第二设备朝向第一设备移动。在一些实施方案中,两个设备朝向彼此移动并指向物理环境的相同部分,使得这两个设备上的视场基本上相同或具有显著的重叠。例如,第二设备100-2显示提示8024,该提示包括将设备100-2朝向设备100-1移动的指令,如参照图8D所述。在一些实施方案中,提示8024包括示出设备100-2的表示朝向设备100-1的表示移动的动画,如参照图8D至图8E所述。
在显示第一提示之后,根据确定满足第一设备和第二设备的连接标准(例如,在第一设备和第二设备朝向彼此移动之后,并且在分析在第一组相机和第二组相机的视场中捕获的物理空间之后),设备在与第二设备的共享注释会话中显示(1208)第一组相机的视场的表示。例如,如参照图8F至图8G所述,根据确定满足第一设备和第二设备的连接标准,设备100-1显示设备100-1的一个或多个相机的视场的表示。在一些实施方案中,在开始共享注释会话之前已显示第一组相机的视场的表示。在一些实施方案中,共享注释会话中的视场的表示包括实时相机视图和用于共享注释会话的一个或多个控件(例如,各种注释工具的用户界面对象)两者。连接标准要求第一设备的视场的至少一部分和第二设备的视场的一部分与物理环境的围绕第一设备和第二设备的相同部分对应(例如,在一些实施方案中,连接标准要求第一设备和第二设备从物理环境中的基本上相同的位置指向物理环境的相同部分(例如,设备与它们的相机并排指向相同的方向))。在共享注释会话期间,与通过第一设备进行的指向物理环境中的相应位置(例如,通过对视场的静止图像的直接注释或对相机的视场的实时馈送的直接注释)的注释输入(绘图、虚拟对象、文本等)对应的一个或多个第一虚拟注释(例如,注释8056-1,如参照图8K至图8M所述)经由第一显示生成部件显示(例如,覆盖在第一组相机的视场的表示上),并且与通过第二设备进行的指向物理环境中的相应位置(例如,通过对视场的静止图像的直接注释或对相机的视场的实时馈送的直接注释)的注释输入(绘图、虚拟对象、文本等)对应的一个或多个第二虚拟注释(例如,注释8050-1,如参照图8H至图8J所述)经由第一显示生成部件显示(例如,覆盖在第一组相机的视场的表示上),前提条件是该相应位置包括在第一组相机的视场中(例如,根据通过分析视场(例如,包括图像和深度数据)以及共享注释会话期间第一设备和/或第二设备的设备移动数据作出的此类确定)。在第一显示器处显示通过第一设备和第二设备进行的指向物理环境中的位置的注释输入(前提条件是该位置包括在第一设备的视场中),向用户提供了视觉反馈(例如,指示设备的接近度足以用于共享注释会话)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户在注释会话中合作,在该注释会话中,不同用户进行的注释相对地出现在空间中的相同位置),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在共享注释会话期间,与通过第一设备进行的指向物理环境中的相应位置(例如,通过对视场的静止图像的直接注释或对相机的视场的实时馈送的直接注释)的注释输入(绘图、虚拟对象、文本等)对应的该一个或多个第一虚拟注释经由第二显示生成部件显示(1210)(例如,覆盖在第二组相机的视场的表示上),并且与通过第二设备进行的指向物理环境中的相应位置(例如,通过对视场的静止图像的直接注释或对相机的视场的实时馈送的直接注释)的注释输入(绘图、虚拟对象、文本等)对应的该一个或多个第二虚拟注释经由第二显示生成部件显示(例如,覆盖在第二组相机的视场的表示上),前提条件是该相应位置包括在第二组相机的视场中(例如,根据通过分析视场(例如,包括图像和深度数据)以及共享注释会话期间第一设备和/或第二设备的设备移动数据作出的此类确定)。例如,第二设备100-2的显示器显示作为第二设备100-2处的输入的注释8050-2和作为第一设备100-1处的输入的注释8056-2,如参照图8K至图8M和图8H至图8J所述。在第二显示器处显示通过第一设备和第二设备进行的指向物理环境中的位置的注释输入(前提条件是该位置包括在第二设备的视场中),向用户提供了视觉反馈(例如,指示设备的接近度足以用于共享注释会话)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户在注释会话中合作,在该注释会话中,不同用户进行的注释相对地出现在空间中的相同位置),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在共享注释会话期间,与通过第一设备进行的指向物理环境中的相应位置(例如,通过对视场的静止图像的直接注释或对相机的视场的实时馈送的直接注释)的注释输入(绘图、虚拟对象、文本等)对应的该一个或多个第一虚拟注释经由第二显示生成部件显示(1212)(例如,覆盖在第二组相机的视场的表示上)并且不经由第一显示生成部件显示,前提条件是的前提条件是该相应位置包括在第二组相机的视场中并且不包括在第一组相机的视场中(例如,根据通过分析视场(例如,包括图像和深度数据)以及共享注释会话期间第一设备和/或第二设备的设备移动数据作出的此类确定)。例如,注释8050-1、8050-2和8056-1、8056-2被接收为(分别在设备101-1和101-2的相机的视场中)指向物理海报8038a的表示8038b和8038c的直接注释输入。在第一显示器不显示注释输入时在第二显示器处显示注释输入(前提条件是该位置包括在第二设备的视场中并且不包括在第一设备的视场中),向用户提供了视觉反馈(例如,指示注释与物理环境中的位置对应)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户在注释会话中合作,在该注释会话中,不同用户进行的注释相对地出现在空间中的相同位置),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在显示第一提示之后,根据确定满足第一设备和第二设备的连接标准(例如,在第一设备和第二设备朝向彼此移动之后,并且在分析在第一组相机和第二组相机的视场中捕获的物理空间之后),设备在第一组相机的视场表示中显示(1214)已建立与第二设备的共享注释会话的通知(例如,具有所示的第二设备的头像或设置在共享注释会话中的控件的外观的弹出式通知或横幅通知)。例如,如参照图8F所述,通知8034由第一设备100-1显示以指示已建立与第二设备100-2的共享注释会话。在一些实施方案中,第一设备显示第一设备当前正在显示通过第二设备进行的注释的指示(例如,当在第一设备处的第一设备的视场的表示中示出时,通过第二设备进行的注释与第二设备的头像同时显示)。在一些实施方案中,第一设备显示通过第一设备进行的注释当前被第二设备显示的指示(例如,通过第一设备进行的注释当前在第二设备处的第二设备的视场的表示中示出)。显示已建立共享注释会话的通知向用户提供了视觉反馈(例如,指示设备的接近度足以用于建立共享注释会话)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户继续遵循提示指令直到接收到通知,并且响应于接收到该通知停止遵循这些提示指令),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一提示包括(1216)示出第一设备和第二设备的表示朝向彼此移动的动画(例如,如参照图8D至图8E所述)。在显示第一提示之后,根据确定满足第一设备和第二设备的连接标准(例如,在第一设备和第二设备朝向彼此移动之后,并且在分析在第一组相机和第二组相机的视场中捕获的物理空间之后),设备用第一组相机的视场的表示来替换(1218)第一提示的显示。例如,如参照图8F至图8G所述,根据确定满足第一设备100-1和第二设备100-2的连接标准,第一设备100-1显示第一组相机的视场的表示(例如,包括物理海报8038a的表示8038b)。在一些实施方案中,当第一设备和第二设备正在一起移动使得这两者的视场之间的重叠超过阈值时,第一设备和第二设备两者上的动画提示同时被替换为这两者的相应视场(此时基本上相同)。根据确定满足第一设备和第二设备的连接标准,用第一设备的相机的视图的表示来替换提示的显示向用户提供了视觉反馈(例如,指示设备的接近度足以用于建立共享注释会话)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户继续遵循提示指令直到显示相机视图,并且在显示该相机视图时停止遵循这些提示指令),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在共享注释会话期间:在经由第一显示生成部件显示第一组相机的视场的表示时,根据确定从第二设备接收指向在第一组相机的视场中捕获的物理环境的一部分的第一注释输入,设备在第一组相机的视场的表示中与第一注释输入指向的位置对应的位置处显示(1220)第二设备的头像。例如,如参照图8H至图8J所述,当接收通过接触8044进行的注释输入时,由第一设备100-1显示与第二设备100-2对应的头像8048。在一些实施方案中,注释输入的结果实时(例如,在第二设备的用户在AR环境中绘制和/或拖动标记时)反映在第一组相机的视场的表示中。由第一显示器在与第一注释输入的位置对应的位置处显示第二设备的头像向用户提供了视觉反馈(例如,指示正经由第二设备提供所显示的注释输入)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,以帮助用户区分通过第二设备进行的注释和通过第一设备进行的注释,从而避免冲突的注释输入),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在共享注释会话期间:在经由第一显示生成部件显示第一组相机的视场的表示时,设备在第一组相机的视场的表示中以与第二设备的当前位置对应的位置(以及任选地,视角)显示(1222)虚拟对象(例如,与第二设备相关的二维虚拟对象或三维虚拟对象(例如,虚拟篮球框,第二设备或第二用户的头像)),包括:检测第二设备在物理环境中从第一位置到第二位置的移动;以及在第一组相机的视场的表示中显示虚拟对象的与第二设备在物理环境中从第一位置到第二位置的移动对应的移动(以及任选地,虚拟对象的观看视角的变化),前提条件是在第二设备在物理环境中从第一位置到第二位置的移动期间,第一位置和第二位置在第一组相机的视场内(例如,在第二设备在物理环境中从第一位置到第二位置的移动期间,第二设备被第一组相机捕获在第一组相机的视场中,并且在第一组相机的视场的表示上可见)。例如,如参照图8V至图8W所述,第一设备100-1显示与第二设备100-2的当前位置对应的虚拟篮球框8074,并且当第二设备100-2移动时,虚拟篮球框8074的显示位置移动。由第一显示器显示在第一设备相机的视图中的虚拟对象的与第二设备的移动对应的移动,向用户提供了视觉反馈(例如,指示虚拟对象与第二设备对应)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,以帮助用户区分通过第二设备进行的注释和通过第一设备进行的注释,从而避免注释错误),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在共享注释会话期间,第一设备经由第一显示生成部件显示(1224)第一组相机的视场的表示,并且第二设备经由第二显示生成部件显示第一组相机的视场的表示(例如,第一组相机的视场被(例如,直接地或经由服务器)提供给第二设备,使得在第一设备和第二设备两者处呈现相同的视场)。在一些实施方案中,第二设备具有与第二组相机不同的视场,但是当其显示第一组相机的视场时,不显示来自第二组相机的视场。由第一显示器和第二显示器显示第一设备相机的视场向用户提供了视觉反馈(例如,指示所显示的视图是共享视图)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,允许第二设备体验第一设备的视点),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在共享注释会话期间,第一设备经由第一显示生成部件显示(1226)第一组相机的视场的表示,并且第二设备经由第二显示生成部件显示第二组相机的视场的表示(例如,当设备在物理环境中位于不同位置和/或指向不同方向时,在第一设备和第二设备处呈现不同的视场。在第一显示器处显示第一设备相机的视场并且在第二显示器处显示第二设备相机的视场向用户提供了视觉反馈(例如,指示所显示的视图不是共享视图)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许第一设备和第二设备保持各自相对于物理世界的参考点),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在共享注释会话期间,根据确定不再满足连接标准(例如,在第一设备和第二设备移动远离彼此之后,并且在分析在第一组相机和第二组相机的视场中捕获的物理空间之后),设备终止(1228)共享注释会话。例如,如参照图8P所述,当在共享注释会话期间第一设备100-1远离第二设备100-2的移动超过阈值量时,终止共享注释会话。在一些实施方案中,在检测到不再满足连接标准之前,根据确定在第一组相机和第二组相机中捕获的物理环境的部分之间的重叠量已减少到阈值量,如果在阈值时间量内重叠未增加,则在第一设备和第二设备中的每一者处生成警告通知以指示共享注释会话将结束。在一些实施方案中,示能表示与第一设备处的第一组相机的视场的表示同时显示,当该示能表示被调用时,使得第一设备终止共享注释会话。在一些实施方案中,即使第一组相机的视场包括物理环境的其中提供了注释的部分,由第二设备提供的注释也停止在第一设备处的第一组相机的视场的表示中显示。根据确定不满足连接标准来终止共享注释会话向用户提供了视觉反馈(例如,指示需要相机的移动来恢复共享注释会话)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地移动设备以启用共享注释会话),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在共享注释会话期间,根据确定第一组相机的视场和第二组相机的视场之间的重叠量(或更一般地,在第一组相机的视场中捕获的物理环境的部分与在第二组相机的视场中捕获的物理环境的部分之间的重叠)低于第一阈值量(例如,在第一设备和第二设备移动远离彼此之后),设备经由第一显示生成部件生成(1230)将第一设备朝向第二设备移动的第二提示。例如,如参照图8P所述,在共享注释会话期间第一设备100-1远离第二设备100-2的移动使得显示提示8060,该提示包括将第一设备100-1朝向第二设备100-2移动的指令。根据确定第一相机的视图未与第二相机的视图重叠至少阈值量而显示将第一设备朝向第二设备移动的提示向用户提供了视觉反馈(例如,指示需要相机的移动来观看共享注释会话)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地移动设备以启用共享注释会话),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在共享注释会话期间,根据确定第一组相机的视场和第二组相机的视场之间的重叠量(或更一般地,在第一组相机的视场中捕获的物理环境的部分与在第二组相机的视场中捕获的物理环境的部分之间的重叠)低于第一阈值量(例如,在第一设备和第二设备移动远离彼此之后),设备经由第一显示生成部件显示(1232)对第一设备和第二设备之间的当前相对空间关系的指示(例如,在第一组相机的视场的表示的边缘上动态移动的视觉指示符,其与将第一设备朝向第二设备移动的第二提示同时显示)。根据确定第一相机的视图未与第二相机的视图重叠至少阈值量而显示对第一设备和第二设备之间的当前空间关系的指示向用户提供了视觉反馈(例如,指示需要相机的移动来观看共享注释会话)。向用户提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过允许用户快速并精确地移动设备以启用共享注释会话),这另外通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
应当理解,对图12A至图12D中的操作进行描述的特定顺序仅为示例性的,并非旨在表明所述顺序是可以执行这些操作的唯一顺序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另外,应当注意,本文相对于本文所述的其他方法(例如,方法900、1000和1100)所述的其他过程的细节同样以类似的方式适用于上文相对于图12A至图12D所述的方法1200。例如,上文参考方法1200所述的接触、输入、注释、物理对象、用户界面区域、视场、移动和/或动画任选地具有本文参考本文所述的其他方法(例如,方法900、1000和1100)所述的接触、输入、注释、物理对象、用户界面区域、视场、移动和/或动画的特征中的一者或多者。为了简明起见,此处不再重复这些细节。
出于解释的目的,前面的描述是通过参考具体实施方案来描述的。然而,上面的例示性论述并非旨在是穷尽的或将本公开限制为所公开的精确形式。根据以上教导内容,很多修改形式和变型形式都是可能的。选择和描述实施方案是为了最佳地阐明本公开的原理及其实际应用,以便由此使得本领域的其他技术人员能够最佳地使用具有适合于所构想的特定用途的各种修改的本公开以及各种所描述的实施方案。

Claims (11)

1.一种用于将注释添加到视频的方法,包括:
在具有显示生成部件和一个或多个输入设备的设备处:
经由所述显示生成部件显示包括视频回放区域的用户界面;
在所述视频回放区域中显示视频的第一部分的回放时,经由所述一个或多个输入设备接收将第一注释添加到所述视频的回放的第一请求;
响应于接收到添加所述第一注释的所述第一请求:
在所述视频中的第一位置处暂停所述视频的回放;以及
显示与所述视频的暂停的所述第一位置对应的静止图像;
在显示所述静止图像时,经由所述一个或多个输入设备接收在所述静止图像中捕获的物理环境的第一部分上的所述第一注释,以及
在接收到所述第一注释之后,在所述视频回放区域中显示所述视频的与所述视频中的第二位置对应的第二部分,所述第二位置不同于所述视频中的所述第一位置,其中所述物理环境的所述第一部分是在所述视频的所述第二部分中被捕获的,并且所述第一注释显示在所述视频的所述第二部分中。
2.根据权利要求1所述的方法,其中:
所述视频是在相机和所述物理环境的相对移动期间由所述相机捕获的,
在所述相机和所述物理环境的所述相对移动期间,所述视频的第三部分在所述视频的所述第一部分和所述第二部分之间被捕获并且不包括所述物理环境的所述第一部分,
在所述静止图像上接收到的所述第一注释指向位于所述物理环境的所述第一部分中的第一对象,并且显示在与所述视频的所述第二部分中的所述第一对象相对应的位置处,并且
所述第一注释不显示在所述视频的不包括所述第一对象的所述第三部分中。
3.根据权利要求1所述的方法,包括:
显示所述视频的时间线,其中响应于用户输入刷过所述视频的所述时间线到达所述视频中的所述第二位置,执行显示所述视频的所述第二部分。
4.根据权利要求1至3中任一项所述的方法,包括:
作为所述视频从所述第一位置倒回到所述第二位置的结果,执行显示所述视频的所述第二部分。
5.根据权利要求1至3中任一项所述的方法,包括:
作为所述视频从所述第一位置快进到所述第二位置的结果,执行显示所述视频的所述第二部分。
6.根据权利要求1至3中任一项所述的方法,包括:
作为所述视频从所述第一位置正常回放到所述第二位置的结果,执行显示所述视频的所述第二部分。
7.根据权利要求1所述的方法,包括:
经由所述显示生成部件显示包括所述视频的媒体内容对象列表;
接收从所述媒体内容对象列表中选择所述视频的输入;以及
响应于接收到选择所述视频的所述输入,在所述视频回放区域中将用户界面对象与所述视频的显示一起显示,其中所述用户界面对象被配置为接收在所述视频的回放期间将一个或多个注释添加到所述视频的一个或多个请求。
8.一种计算机系统,包括:
显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于进行以下操作的指令:
经由所述显示生成部件显示包括视频回放区域的用户界面;
在所述视频回放区域中显示视频的第一部分的回放时,经由所述一个或多个输入设备接收将第一注释添加到所述视频的回放的第一请求;
响应于接收到添加所述第一注释的所述第一请求:
在所述视频中的第一位置处暂停所述视频的回放;以及
显示与所述视频的暂停的所述第一位置对应的静止图像;
在显示所述静止图像时,经由所述一个或多个输入设备接收在所述静止图像中捕获的物理环境的第一部分上的所述第一注释;以及
在接收到所述第一注释之后,在所述视频回放区域中显示所述视频的与所述视频中的第二位置对应的第二部分,所述第二位置不同于所述视频中的所述第一位置,其中所述物理环境的所述第一部分是在所述视频的所述第二部分中被捕获的,并且所述第一注释显示在所述视频的所述第二部分中。
9.根据权利要求8所述的计算机系统,其中,所述一个或多个程序包括用于执行根据权利要求2-7中任一项所述的方法的指令。
10.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,当所述指令由具有显示生成部件和一个或多个输入设备的计算机系统执行时,致使所述计算机系统:
经由所述显示生成部件显示包括视频回放区域的用户界面;
在所述视频回放区域中显示视频的第一部分的回放时,经由所述一个或多个输入设备接收将第一注释添加到所述视频的回放的第一请求;
响应于接收到添加所述第一注释的所述第一请求:
在所述视频中的第一位置处暂停所述视频的回放;以及
显示与所述视频的暂停的所述第一位置对应的静止图像;
在显示所述静止图像时,经由所述一个或多个输入设备接收在所述静止图像中捕获的物理环境的第一部分上的所述第一注释;以及
在接收到所述第一注释之后,在所述视频回放区域中显示所述视频的与所述视频中的第二位置对应的第二部分,所述第二位置不同于所述视频中的所述第一位置,其中所述物理环境的所述第一部分是在所述视频的所述第二部分中被捕获的,并且所述第一注释显示在所述视频的所述第二部分中。
11.根据权利要求10所述的计算机可读存储介质,其中,所述一个或程序包括指令,当所述指令由所述计算机系统执行时,致使所述计算机系统执行根据权利要求2-7中任一项所述的方法。
CN202210540499.XA 2018-09-29 2019-09-20 用于基于深度的注释的设备、方法和图形用户界面 Pending CN114949841A (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201862739178P 2018-09-29 2018-09-29
US62/739,178 2018-09-29
US16/574,029 US10785413B2 (en) 2018-09-29 2019-09-17 Devices, methods, and graphical user interfaces for depth-based annotation
US16/574,029 2019-09-17
CN201980056942.2A CN112639970A (zh) 2018-09-29 2019-09-20 用于基于深度的注释的设备、方法和图形用户界面
PCT/US2019/052140 WO2020068580A1 (en) 2018-09-29 2019-09-20 Devices, methods, and graphical user interfaces for depth-based annotation

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201980056942.2A Division CN112639970A (zh) 2018-09-29 2019-09-20 用于基于深度的注释的设备、方法和图形用户界面

Publications (1)

Publication Number Publication Date
CN114949841A true CN114949841A (zh) 2022-08-30

Family

ID=69946774

Family Applications (3)

Application Number Title Priority Date Filing Date
CN201980056942.2A Pending CN112639970A (zh) 2018-09-29 2019-09-20 用于基于深度的注释的设备、方法和图形用户界面
CN202210540499.XA Pending CN114949841A (zh) 2018-09-29 2019-09-20 用于基于深度的注释的设备、方法和图形用户界面
CN202110369762.9A Active CN113223563B (zh) 2018-09-29 2019-09-20 用于基于深度的注释的设备、方法和图形用户界面

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201980056942.2A Pending CN112639970A (zh) 2018-09-29 2019-09-20 用于基于深度的注释的设备、方法和图形用户界面

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202110369762.9A Active CN113223563B (zh) 2018-09-29 2019-09-20 用于基于深度的注释的设备、方法和图形用户界面

Country Status (7)

Country Link
US (5) US10785413B2 (zh)
EP (1) EP3837684A1 (zh)
JP (3) JP7072717B2 (zh)
KR (2) KR20230054747A (zh)
CN (3) CN112639970A (zh)
AU (3) AU2019349408B2 (zh)
WO (1) WO2020068580A1 (zh)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9716825B1 (en) 2016-06-12 2017-07-25 Apple Inc. User interface for camera effects
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
EP3714439A1 (en) * 2017-11-20 2020-09-30 Google LLC Directing user attention
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
DK180130B1 (da) 2018-05-07 2020-06-02 Apple Inc. Multi-participant live communication user interface
DK201870351A1 (en) 2018-05-07 2020-01-13 Apple Inc. Devices and Methods for Measuring Using Augmented Reality
US11770601B2 (en) * 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US10785413B2 (en) 2018-09-29 2020-09-22 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
USD912699S1 (en) 2018-11-15 2021-03-09 Biosense Webster (Israel) Ltd. Display screen or portion thereof with icon
KR102657519B1 (ko) * 2019-02-08 2024-04-15 삼성전자주식회사 음성을 기반으로 그래픽 데이터를 제공하는 전자 장치 및 그의 동작 방법
US10963140B2 (en) * 2019-04-12 2021-03-30 John William Marr Augmented reality experience creation via tapping virtual surfaces in augmented reality
USD970516S1 (en) * 2019-06-20 2022-11-22 Yandex Europe Ag Display screen or portion thereof with graphical user interface
US11227446B2 (en) 2019-09-27 2022-01-18 Apple Inc. Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
US11321515B2 (en) * 2019-11-10 2022-05-03 ExactNote, Inc. Information restructuring, editing, and storage systems for web browsers
US11080879B1 (en) 2020-02-03 2021-08-03 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
US11079913B1 (en) 2020-05-11 2021-08-03 Apple Inc. User interface for status indicators
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11551429B2 (en) * 2020-06-05 2023-01-10 Uatc, Llc Photorealistic image simulation with geometry-aware composition
USD950585S1 (en) * 2020-06-22 2022-05-03 Oneplus Technology (Shenzhen) Co., Ltd. Television display screen with graphical user interface
US11995894B2 (en) 2020-09-10 2024-05-28 Adobe Inc. Interacting with hierarchical clusters of video segments using a metadata panel
US11630562B2 (en) * 2020-09-10 2023-04-18 Adobe Inc. Interacting with hierarchical clusters of video segments using a video timeline
US11810358B2 (en) 2020-09-10 2023-11-07 Adobe Inc. Video search segmentation
US11887371B2 (en) 2020-09-10 2024-01-30 Adobe Inc. Thumbnail video segmentation identifying thumbnail locations for a video
US12033669B2 (en) 2020-09-10 2024-07-09 Adobe Inc. Snap point video segmentation identifying selection snap points for a video
US11880408B2 (en) 2020-09-10 2024-01-23 Adobe Inc. Interacting with hierarchical clusters of video segments using a metadata search
US11887629B2 (en) 2020-09-10 2024-01-30 Adobe Inc. Interacting with semantic video segments through interactive tiles
US11450112B2 (en) 2020-09-10 2022-09-20 Adobe Inc. Segmentation and hierarchical clustering of video
USD1012095S1 (en) * 2020-10-26 2024-01-23 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
CN112714266B (zh) * 2020-12-18 2023-03-31 北京百度网讯科技有限公司 标注信息展示方法、装置、电子设备及存储介质
BE1028937B1 (nl) * 2020-12-22 2022-07-19 Rods&Cones Holding Bv Contactloos configureren van een videoconferentie in steriele omgevingen
US11671697B2 (en) 2021-01-31 2023-06-06 Apple Inc. User interfaces for wide angle video conference
US11523063B2 (en) * 2021-03-25 2022-12-06 Microsoft Technology Licensing, Llc Systems and methods for placing annotations in an augmented reality environment using a center-locked interface
CN113099285A (zh) * 2021-03-30 2021-07-09 上海哔哩哔哩科技有限公司 展示方法及装置
US11557100B2 (en) 2021-04-08 2023-01-17 Google Llc Augmented reality content experience sharing using digital multimedia files
KR102392675B1 (ko) * 2021-04-16 2022-05-12 주식회사 스케치소프트 3차원 스케치를 위한 인터페이싱 방법 및 장치
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
US20220334693A1 (en) * 2021-04-19 2022-10-20 Apple Inc. User interfaces for managing visual content in media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11360634B1 (en) 2021-05-15 2022-06-14 Apple Inc. Shared-content session user interfaces
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
CN113347362B (zh) * 2021-06-08 2022-11-04 杭州海康威视数字技术股份有限公司 一种跨相机轨迹关联方法、装置及电子设备
US11424945B1 (en) 2021-06-30 2022-08-23 Dropbox, Inc. Techniques for avoiding conflicting user actions during a video collaboration session
US11863600B2 (en) 2021-06-30 2024-01-02 Dropbox, Inc. Techniques for efficient communication during a video collaboration session
JP7518302B2 (ja) * 2021-06-30 2024-07-17 ドロップボックス, インコーポレイテッド ビデオコラボレーションセッション中のユーザ動作の競合を回避するための技術
US11989895B2 (en) 2021-09-15 2024-05-21 Passivelogic, Inc Capturing environmental features using 2D and 3D scans
US20230075701A1 (en) * 2021-09-03 2023-03-09 Motional Ad Llc Location based parameters for an image sensor
US20230089049A1 (en) * 2021-09-21 2023-03-23 Apple Inc. Methods and Systems for Composing and Executing a Scene
US11770600B2 (en) 2021-09-24 2023-09-26 Apple Inc. Wide angle video conference
US20240291944A1 (en) * 2023-02-24 2024-08-29 Apple Inc. Video application graphical effects

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130108684A (ko) * 2012-03-26 2013-10-07 인하대학교 산학협력단 스마트 tv의 비디오 어노테이션 및 증강 방법 및 그 시스템
US20160012859A1 (en) * 2014-01-07 2016-01-14 Hypershow Ltd. System and method for generating and using spatial and temporal metadata
CN106254941A (zh) * 2016-10-10 2016-12-21 乐视控股(北京)有限公司 视频处理方法及装置
CN106611412A (zh) * 2015-10-20 2017-05-03 成都理想境界科技有限公司 贴图视频生成方法及装置

Family Cites Families (178)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1119763C (zh) * 1998-03-13 2003-08-27 西门子共同研究公司 合作动态视频注释的设备和方法
US7072810B2 (en) 2001-06-08 2006-07-04 Tata Consultancy Services Limited Method and apparatus for pattern based generation of graphical user interfaces (GUI)
US7412658B2 (en) 2002-11-14 2008-08-12 Sap Ag Modeling system for graphic user interface
CN100375124C (zh) 2003-12-17 2008-03-12 中国科学院自动化研究所 一种骨架化物体重建方法
US8306280B2 (en) * 2006-04-11 2012-11-06 Nikon Corporation Electronic camera and image processing apparatus
JP2008217590A (ja) * 2007-03-06 2008-09-18 Fuji Xerox Co Ltd 情報共有支援システム、情報処理装置及び制御プログラム
GB0707216D0 (en) * 2007-04-14 2007-05-23 Livesey Carl Interactive shopping platform
JP4858375B2 (ja) 2007-04-19 2012-01-18 富士ゼロックス株式会社 情報処理装置及びプログラム
CN101334277B (zh) 2007-06-28 2010-12-08 鸿富锦精密工业(深圳)有限公司 点镭射自动对焦扫描影像量测系统及方法
CN101939616B (zh) 2008-01-09 2014-07-09 株式会社尼康 测量设备和测量方法
US10872322B2 (en) 2008-03-21 2020-12-22 Dressbot, Inc. System and method for collaborative shopping, business and entertainment
FR2933218B1 (fr) 2008-06-30 2011-02-11 Total Immersion Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee
US8698799B2 (en) 2009-01-20 2014-04-15 Adobe Systems Incorporated Method and apparatus for rendering graphics using soft occlusion
US20100235784A1 (en) 2009-03-16 2010-09-16 Bas Ording Methods and Graphical User Interfaces for Editing on a Multifunction Device with a Touch Screen Display
WO2010127043A1 (en) 2009-04-28 2010-11-04 Rey Flemings System and method for annotating multimedia objects
US8244462B1 (en) 2009-05-21 2012-08-14 Google Inc. System and method of determining distances between geographic positions
US8365081B1 (en) * 2009-05-28 2013-01-29 Amazon Technologies, Inc. Embedding metadata within content
JP5434338B2 (ja) * 2009-07-29 2014-03-05 ソニー株式会社 撮像制御装置、撮像方法、プログラム
WO2011029209A2 (en) * 2009-09-10 2011-03-17 Liberovision Ag Method and apparatus for generating and processing depth-enhanced images
EP2476259A1 (en) 2009-09-11 2012-07-18 Disney Enterprises, Inc. Virtual insertions in 3d video
US8819591B2 (en) 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
JP2011199560A (ja) 2010-03-19 2011-10-06 Nec Corp 携帯電話機およびスケール表示方法
JP5018980B2 (ja) 2010-04-08 2012-09-05 カシオ計算機株式会社 撮像装置、長さ測定方法、及びプログラム
US20110252405A1 (en) 2010-04-10 2011-10-13 Ilan Meirman Detecting user interface defects in a software application
US8466889B2 (en) 2010-05-14 2013-06-18 Research In Motion Limited Method of providing tactile feedback and electronic device
US20110279445A1 (en) 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for presenting location-based content
JP5525923B2 (ja) 2010-06-09 2014-06-18 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
US8982156B2 (en) 2010-06-10 2015-03-17 Sartorius Stedim Biotech Gmbh Assembling method, operating method, augmented reality system and computer program product
JP2012178820A (ja) * 2011-01-31 2012-09-13 Sanyo Electric Co Ltd 電子機器
KR101074678B1 (ko) 2011-03-03 2011-10-18 배상모 휴대단말기에 구비된 카메라를 이용한 물체의 실제 크기 측정 방법
KR20160084502A (ko) 2011-03-29 2016-07-13 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
JP2014143453A (ja) * 2011-05-19 2014-08-07 Panasonic Corp 動画像編集再生装置
KR101845231B1 (ko) * 2011-06-14 2018-04-04 삼성전자주식회사 영상 처리 장치 및 방법
US9720587B2 (en) 2011-07-11 2017-08-01 Kddi Corporation User interface device enabling input motions by finger touch in different modes, and method and program for recognizing input motion
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
KR101824413B1 (ko) 2011-08-30 2018-02-02 삼성전자주식회사 휴대단말기의 동작 모드 제어 방법 및 장치
US9696897B2 (en) 2011-10-19 2017-07-04 The Regents Of The University Of California Image-based measurement tools
WO2013096052A2 (en) 2011-12-19 2013-06-27 Dolby Laboratories Licensing Corporation Highly-extensible and versatile personal display
JP6124543B2 (ja) * 2011-12-26 2017-05-10 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム、及びプログラム
US20130215230A1 (en) 2012-02-22 2013-08-22 Matt Miesnieks Augmented Reality System Using a Portable Device
JP2013229672A (ja) * 2012-04-24 2013-11-07 Panasonic Corp 通信端末、通信方法、通信プログラム及び通信システム
US9147221B2 (en) 2012-05-23 2015-09-29 Qualcomm Incorporated Image-driven view management for annotations
US9541417B2 (en) 2012-06-05 2017-01-10 Apple Inc. Panning for three-dimensional maps
JP5571269B2 (ja) * 2012-07-20 2014-08-13 パナソニック株式会社 コメント付き動画像生成装置およびコメント付き動画像生成方法
JP6080249B2 (ja) 2012-09-13 2017-02-15 富士フイルム株式会社 3次元画像表示装置および方法並びにプログラム
JP6080248B2 (ja) 2012-09-13 2017-02-15 富士フイルム株式会社 3次元画像表示装置および方法並びにプログラム
US20150169525A1 (en) * 2012-09-14 2015-06-18 Leon Gomes Palm Augmented reality image annotation
US9237263B2 (en) 2012-10-05 2016-01-12 Vidinoti Sa Annotation method and apparatus
US9524585B2 (en) 2012-11-05 2016-12-20 Microsoft Technology Licensing, Llc Constructing augmented reality environment with pre-computed lighting
KR101745625B1 (ko) * 2012-12-17 2017-06-09 인텔 코포레이션 비디오 스트림에 섬네일 정보 실장
WO2014157340A1 (ja) 2013-03-29 2014-10-02 日本電気株式会社 サイズ測定装置及びサイズ測定方法
CN103218854B (zh) 2013-04-01 2016-04-20 成都理想境界科技有限公司 在增强现实过程中实现部件标注的方法及增强现实系统
EP2983138A4 (en) * 2013-04-04 2017-02-22 Sony Corporation Display control device, display control method and program
JP6304240B2 (ja) * 2013-04-04 2018-04-04 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP6304242B2 (ja) * 2013-04-04 2018-04-04 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
CN105164999B (zh) * 2013-04-17 2018-08-10 松下知识产权经营株式会社 图像处理方法及图像处理装置
WO2014181725A1 (ja) 2013-05-07 2014-11-13 シャープ株式会社 画像計測装置
US20160125276A1 (en) 2013-06-04 2016-05-05 Clic RWeight ,LLC Methods and systems for marking animals
US9678651B2 (en) 2013-06-08 2017-06-13 Apple Inc. Mapping application with interactive compass
KR102153366B1 (ko) 2013-08-30 2020-10-15 삼성전자 주식회사 전자 기기의 화면 전환 방법 및 장치
US20150062123A1 (en) 2013-08-30 2015-03-05 Ngrain (Canada) Corporation Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
US9996974B2 (en) 2013-08-30 2018-06-12 Qualcomm Incorporated Method and apparatus for representing a physical scene
EP3822759A1 (en) 2013-09-03 2021-05-19 Apple Inc. User interface for manipulating user interface objects
US9424239B2 (en) * 2013-09-06 2016-08-23 Microsoft Technology Licensing, Llc Managing shared state information produced by applications
CN105580355A (zh) * 2013-09-11 2016-05-11 辛赛股份有限公司 内容交易型项目的动态绑定
CN110379019A (zh) 2013-09-24 2019-10-25 苹果公司 在真实环境的视图中表示兴趣点的方法以及移动设备
KR20160068916A (ko) * 2013-10-11 2016-06-15 인터디지탈 패튼 홀딩스, 인크 시선 구동 증강 현실
US20150193982A1 (en) 2014-01-03 2015-07-09 Google Inc. Augmented reality overlays using position and orientation to facilitate interactions between electronic devices
US9600925B2 (en) 2014-01-06 2017-03-21 Oculus Vr, Llc Calibration of multiple rigid bodies in a virtual reality system
JP2015146173A (ja) * 2014-02-03 2015-08-13 村瀬 徹 アノテーションシステム、方法、プログラムおよび記録媒体
WO2015120019A1 (en) * 2014-02-10 2015-08-13 Google Inc. Smart camera user interface
WO2015123348A1 (en) 2014-02-11 2015-08-20 Xactware Solutions, Inc. System and method for generating computerized floor plans
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
EP3176755A4 (en) 2014-08-01 2018-02-28 Sony Corporation Information processing device, information processing method, and program
KR102223282B1 (ko) 2014-08-07 2021-03-05 엘지전자 주식회사 스마트 줄자를 구비한 이동 단말기 및 그의 물체 길이 측정 방법
CN107077753A (zh) 2014-08-26 2017-08-18 霍尼韦尔国际公司 对三维显示进行注释
US10114545B2 (en) 2014-09-03 2018-10-30 Intel Corporation Image location selection for use in depth photography system
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program
JP6488653B2 (ja) * 2014-11-07 2019-03-27 セイコーエプソン株式会社 表示装置、表示制御方法および表示システム
US9754419B2 (en) 2014-11-16 2017-09-05 Eonite Perception Inc. Systems and methods for augmented reality preparation, processing, and application
US20160147408A1 (en) 2014-11-25 2016-05-26 Johnathan Bevis Virtual measurement tool for a wearable visualization device
JP2016110676A (ja) * 2014-12-09 2016-06-20 株式会社MetaMoJi 動画編集装置
US9665960B1 (en) * 2014-12-22 2017-05-30 Amazon Technologies, Inc. Image-based item location identification
US9728010B2 (en) 2014-12-30 2017-08-08 Microsoft Technology Licensing, Llc Virtual representations of real-world objects
KR101629134B1 (ko) 2015-01-14 2016-06-09 재단법인대구경북과학기술원 증강현실을 이용한 측정 장치 및 증강현실을 이용한 측정 방법
US9661308B1 (en) 2015-04-20 2017-05-23 Samsung Electronics Co., Ltd. Increasing tolerance of sensor-scanner misalignment of the 3D camera with epipolar line laser point scanning
US20160329006A1 (en) 2015-05-04 2016-11-10 Microsoft Technology Licensing, Llc Interactive integrated display and processing device
US10559086B1 (en) 2015-05-15 2020-02-11 4DMobile, LLC System for volume dimensioning via holographic sensor fusion
WO2016205074A1 (en) 2015-06-15 2016-12-22 United States Postal Service Dimensional measuring system
US10799792B2 (en) 2015-07-23 2020-10-13 At&T Intellectual Property I, L.P. Coordinating multiple virtual environments
US20170053621A1 (en) * 2015-08-20 2017-02-23 Microsoft Technology Licensing, Llc Roundtrip Reintegration of Asynchronous 3D Session
US20170061696A1 (en) 2015-08-31 2017-03-02 Samsung Electronics Co., Ltd. Virtual reality display apparatus and display method thereof
US10049500B2 (en) 2015-09-22 2018-08-14 3D Product Imaging Inc. Augmented reality e-commerce for home improvement
NO3154008T3 (zh) 2015-10-09 2018-05-19
US10962780B2 (en) 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
CN105554247B (zh) 2015-12-07 2019-05-14 魅族科技(中国)有限公司 测量方法、测量系统和终端
US9767606B2 (en) 2016-01-12 2017-09-19 Lenovo (Singapore) Pte. Ltd. Automatic modification of augmented reality objects
KR102559625B1 (ko) 2016-01-25 2023-07-26 삼성전자주식회사 증강 현실 출력 방법 및 이를 지원하는 전자 장치
EP3408848A4 (en) 2016-01-29 2019-08-28 Pointivo Inc. SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION
US10942024B2 (en) 2016-02-02 2021-03-09 Sony Corporation Information processing apparatus, information processing method, and recording medium
US10083537B1 (en) * 2016-02-04 2018-09-25 Gopro, Inc. Systems and methods for adding a moving visual element to a video
US10257505B2 (en) 2016-02-08 2019-04-09 Microsoft Technology Licensing, Llc Optimized object scanning using sensor fusion
CN105608746B (zh) 2016-03-16 2019-10-11 成都电锯互动科技有限公司 一种将现实进行虚拟实现的方法
US10296574B2 (en) 2016-03-28 2019-05-21 Microsoft Technology Licensing, Llc Contextual ink annotation in a mapping interface
US10367919B2 (en) 2016-03-31 2019-07-30 Verizon Patent And Licensing Inc. Methods and systems for efficient distribution of virtual reality media content
US10380758B2 (en) * 2016-04-27 2019-08-13 Mad Street Den, Inc. Method for tracking subject head position from monocular-source image sequence
US11024088B2 (en) 2016-05-27 2021-06-01 HoloBuilder, Inc. Augmented and virtual reality
US20200322595A1 (en) 2016-06-07 2020-10-08 Sony Corporation Information processing device and information processing method, and recording medium
CN109844819A (zh) 2016-06-27 2019-06-04 罗伯特·博世有限公司 用于动态遮挡处置的系统和方法
US10268266B2 (en) 2016-06-29 2019-04-23 Microsoft Technology Licensing, Llc Selection of objects in three-dimensional space
US10445867B2 (en) 2016-07-13 2019-10-15 The Boeing Company System and method for generating enhanced stereographic videos of aircraft build processes
CN106251185A (zh) 2016-08-24 2016-12-21 四川见山科技有限责任公司 基于ue4引擎的vr房产展示与交互系统
AU2017326762C1 (en) 2016-09-16 2023-11-16 Lifesize Plans Ip Pty Ltd A floorplan visualisation system
US10852936B2 (en) 2016-09-23 2020-12-01 Apple Inc. Devices, methods, and graphical user interfaces for a unified annotation layer for annotating content displayed on a device
US10332317B2 (en) 2016-10-25 2019-06-25 Microsoft Technology Licensing, Llc Virtual reality and cross-device experiences
KR101809440B1 (ko) 2016-11-21 2017-12-15 김승정 스마트 기기의 증강현실을 이용한 사이즈 측정 방법
KR101899981B1 (ko) 2016-12-02 2018-09-19 엘지전자 주식회사 차량용 헤드 업 디스플레이
US10540699B1 (en) * 2016-12-05 2020-01-21 Amazon Technologies, Inc. Methods and systems for scene driven content creation
CN111899003A (zh) 2016-12-13 2020-11-06 创新先进技术有限公司 基于增强现实的虚拟对象分配方法及装置
JP6794838B2 (ja) 2017-01-13 2020-12-02 コニカミノルタ株式会社 医用画像表示装置
US11132840B2 (en) 2017-01-16 2021-09-28 Samsung Electronics Co., Ltd Method and device for obtaining real time status and controlling of transmitting devices
TWI616799B (zh) 2017-01-16 2018-03-01 宏碁股份有限公司 輸入裝置
WO2018164932A1 (en) 2017-03-08 2018-09-13 Vid Scale, Inc. Zoom coding using simultaneous and synchronous multiple-camera captures
US10249095B2 (en) 2017-04-07 2019-04-02 Microsoft Technology Licensing, Llc Context-based discovery of applications
US10692287B2 (en) 2017-04-17 2020-06-23 Microsoft Technology Licensing, Llc Multi-step placement of virtual objects
US20180336732A1 (en) 2017-05-16 2018-11-22 Michael J. Schuster Augmented reality task identification and assistance in construction, remodeling, and manufacturing
US10777018B2 (en) 2017-05-17 2020-09-15 Bespoke, Inc. Systems and methods for determining the scale of human anatomy from images
CN109804333B (zh) 2017-06-15 2021-05-28 腾讯科技(深圳)有限公司 基于用户的物理尺寸定制用户界面面板的系统和方法
CN110945365A (zh) 2017-06-16 2020-03-31 特克特朗尼克公司 与增强现实相关联的测试和测量设备、系统和方法
US10304254B2 (en) 2017-08-08 2019-05-28 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
KR102338576B1 (ko) * 2017-08-22 2021-12-14 삼성전자주식회사 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
DK180470B1 (en) 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
CN109802931B (zh) 2017-11-17 2021-08-06 腾讯科技(深圳)有限公司 一种通信处理方法、终端及存储介质
US10553031B2 (en) 2017-12-06 2020-02-04 Microsoft Technology Licensing, Llc Digital project file presentation
US20190180506A1 (en) 2017-12-11 2019-06-13 Tsunami VR, Inc. Systems and methods for adding annotations to virtual objects in a virtual environment
US11341350B2 (en) 2018-01-05 2022-05-24 Packsize Llc Systems and methods for volumetric sizing
US20190221035A1 (en) 2018-01-12 2019-07-18 International Business Machines Corporation Physical obstacle avoidance in a virtual reality environment
CN108182730B (zh) * 2018-01-12 2022-08-12 北京小米移动软件有限公司 虚实对象合成方法及装置
US10922862B2 (en) 2018-04-05 2021-02-16 Lenovo (Singapore) Pte. Ltd. Presentation of content on headset display based on one or more condition(s)
US11086474B2 (en) 2018-04-09 2021-08-10 Spatial Systems Inc. Augmented reality computing environments—mobile device join and load
US11182964B2 (en) 2018-04-30 2021-11-23 Apple Inc. Tangibility visualization of virtual objects within a computer-generated reality environment
US12112015B2 (en) 2018-05-07 2024-10-08 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces, displaying a dock, and displaying system user interface elements
DK201870351A1 (en) 2018-05-07 2020-01-13 Apple Inc. Devices and Methods for Measuring Using Augmented Reality
AU2019100486B4 (en) 2018-05-07 2019-08-01 Apple Inc. Devices and methods for measuring using augmented reality
WO2019217148A1 (en) 2018-05-07 2019-11-14 Apple Inc. Devices and methods for measuring using augmented reality
US10853946B2 (en) 2018-05-18 2020-12-01 Ebay Inc. Physical object boundary detection techniques and systems
US10977868B2 (en) 2018-06-29 2021-04-13 Factualvr, Inc. Remote collaboration methods and systems
US10896546B2 (en) 2018-07-11 2021-01-19 The Boeing Company Augmented reality system with an active portable anchor
JP7338626B2 (ja) 2018-07-20 2023-09-05 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
TWI675583B (zh) 2018-07-23 2019-10-21 緯創資通股份有限公司 擴增實境系統及其色彩補償方法
EP3655928B1 (en) 2018-09-26 2021-02-24 Google LLC Soft-occlusion for computer graphics rendering
US10785413B2 (en) 2018-09-29 2020-09-22 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US10679420B2 (en) 2018-11-02 2020-06-09 General Motors Llc Augmented reality (AR) remote vehicle assistance
US11090561B2 (en) 2019-02-15 2021-08-17 Microsoft Technology Licensing, Llc Aligning location for a shared augmented reality experience
CN111815755B (zh) 2019-04-12 2023-06-30 Oppo广东移动通信有限公司 虚拟物体被遮挡的区域确定方法、装置及终端设备
US10999629B1 (en) * 2019-04-23 2021-05-04 Snap Inc. Automated graphical image modification scaling based on rules
US10762716B1 (en) 2019-05-06 2020-09-01 Apple Inc. Devices, methods, and graphical user interfaces for displaying objects in 3D contexts
US11494953B2 (en) 2019-07-01 2022-11-08 Microsoft Technology Licensing, Llc Adaptive user interface palette for augmented reality
US11941762B2 (en) 2019-07-15 2024-03-26 Samsung Electronics Co., Ltd. System and method for augmented reality scenes
US11340756B2 (en) 2019-09-27 2022-05-24 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11227446B2 (en) 2019-09-27 2022-01-18 Apple Inc. Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
US20210097776A1 (en) 2019-09-28 2021-04-01 Apple Inc. Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
JP7427929B2 (ja) 2019-11-22 2024-02-06 セイコーエプソン株式会社 情報処理装置、サービス提供システム、及び、情報処理装置の制御方法
CN114762008A (zh) 2019-12-09 2022-07-15 奇跃公司 简化的虚拟内容编程的交叉现实系统
US11204678B1 (en) 2019-12-11 2021-12-21 Amazon Technologies, Inc. User interfaces for object exploration in virtual reality environments
US11875013B2 (en) 2019-12-23 2024-01-16 Apple Inc. Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments
KR102655481B1 (ko) 2019-12-24 2024-04-08 엘지전자 주식회사 Xr 컨텐트 제공 방법 및 디바이스
EP4254147A3 (en) 2020-02-03 2023-12-06 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11080879B1 (en) 2020-02-03 2021-08-03 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US20210286502A1 (en) 2020-03-16 2021-09-16 Apple Inc. Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
US12032803B2 (en) 2020-09-23 2024-07-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11615595B2 (en) 2020-09-24 2023-03-28 Apple Inc. Systems, methods, and graphical user interfaces for sharing augmented reality environments
US11523063B2 (en) * 2021-03-25 2022-12-06 Microsoft Technology Licensing, Llc Systems and methods for placing annotations in an augmented reality environment using a center-locked interface
WO2022225795A1 (en) 2021-04-18 2022-10-27 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
US20230368458A1 (en) 2022-05-10 2023-11-16 Apple Inc. Systems, Methods, and Graphical User Interfaces for Scanning and Modeling Environments
US20240273832A1 (en) 2023-02-13 2024-08-15 Apple Inc. Systems, Methods, and Graphical User Interfaces for Applying Virtual Effects in Three-Dimensional Environments

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130108684A (ko) * 2012-03-26 2013-10-07 인하대학교 산학협력단 스마트 tv의 비디오 어노테이션 및 증강 방법 및 그 시스템
US20160012859A1 (en) * 2014-01-07 2016-01-14 Hypershow Ltd. System and method for generating and using spatial and temporal metadata
CN106611412A (zh) * 2015-10-20 2017-05-03 成都理想境界科技有限公司 贴图视频生成方法及装置
CN106254941A (zh) * 2016-10-10 2016-12-21 乐视控股(北京)有限公司 视频处理方法及装置

Also Published As

Publication number Publication date
US11632600B2 (en) 2023-04-18
US20200106965A1 (en) 2020-04-02
JP7072717B2 (ja) 2022-05-20
US20220239842A1 (en) 2022-07-28
AU2022235625B2 (en) 2024-04-11
US20230199296A1 (en) 2023-06-22
US10785413B2 (en) 2020-09-22
EP3837684A1 (en) 2021-06-23
KR20210038619A (ko) 2021-04-07
AU2024204720A1 (en) 2024-07-25
WO2020068580A1 (en) 2020-04-02
JP2022116018A (ja) 2022-08-09
US20200382718A1 (en) 2020-12-03
JP2021536058A (ja) 2021-12-23
AU2022235625A1 (en) 2022-10-20
US11818455B2 (en) 2023-11-14
AU2019349408A1 (en) 2021-03-18
US11303812B2 (en) 2022-04-12
AU2019349408B2 (en) 2022-08-18
CN113223563A (zh) 2021-08-06
CN112639970A (zh) 2021-04-09
KR20230054747A (ko) 2023-04-25
CN113223563B (zh) 2022-03-29
US12131417B1 (en) 2024-10-29
KR102522079B1 (ko) 2023-04-14
JP2024073471A (ja) 2024-05-29

Similar Documents

Publication Publication Date Title
CN113223563B (zh) 用于基于深度的注释的设备、方法和图形用户界面
JP7461523B2 (ja) 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース
DK180842B1 (en) Devices, procedures, and graphical user interfaces for System-Wide behavior for 3D models
CN113785264A (zh) 用于在3d情景中显示对象的设备、方法和图形用户界面
CN110851053A (zh) 用于3d模型的系统级行为的设备、方法和图形用户界面
KR102140078B1 (ko) 다수의 디스플레이 모드를 갖는 미디어 아이템들을 탐색, 디스플레이, 및 편집하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
KR102397481B1 (ko) 3d 모델들에 대한 시스템 전체 거동을 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
JP2024156710A (ja) 奥行きベースの注釈のためのデバイス、方法、およびグラフィカルユーザインターフェース
CN117501316A (zh) 用于在增强现实环境中添加效果的系统、方法和图形用户界面

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination