CN116325711A - 具有基于环境确定收件人以自动发送图像的图像捕获眼戴器 - Google Patents

具有基于环境确定收件人以自动发送图像的图像捕获眼戴器 Download PDF

Info

Publication number
CN116325711A
CN116325711A CN202180066736.7A CN202180066736A CN116325711A CN 116325711 A CN116325711 A CN 116325711A CN 202180066736 A CN202180066736 A CN 202180066736A CN 116325711 A CN116325711 A CN 116325711A
Authority
CN
China
Prior art keywords
image
processor
eye
image data
identifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180066736.7A
Other languages
English (en)
Inventor
谢里夫·穆罕默德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snape Co
Original Assignee
Snape Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snape Co filed Critical Snape Co
Publication of CN116325711A publication Critical patent/CN116325711A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32037Automation of particular transmitter jobs, e.g. multi-address calling, auto-dialing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/08Auxiliary lenses; Arrangements for varying focal length
    • G02C7/086Auxiliary lenses located directly on a main spectacle lens or in the immediate vicinity of main spectacles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B29/00Combinations of cameras, projectors or photographic printing apparatus with non-photographic non-optical apparatus, e.g. clocks or weapons; Cameras having the shape of other objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1671Special purpose buttons or auxiliary keyboards, e.g. retractable mini keypads, keypads or buttons that remain accessible at closed laptop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1688Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being integrated loudspeakers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了用于基于背景选择标准(例如,位置、内容或质量中的一者或多者)而将图像自动发送到指定的接收者的系统、方法和非暂态计算机可读介质上的指令。该系统包括相机和触发该相机捕获图像的用户界面。该方法包括:识别背景选择标准、识别指定的接收者、接收由该相机捕获的该图像、确定所捕获的图像的图像数据、将所确定的图像数据与所识别的背景选择标准进行比较以识别匹配,以及响应于所识别的匹配而将所捕获的图像发送到该组指定的接收者。

Description

具有基于环境确定收件人以自动发送图像的图像捕获眼戴器
相关申请的交叉引用
本申请要求2020年9月30日提交的美国临时专利申请号63/085,296和2021年1月31日提交的美国专利申请序列号17/147,872的优先权,这两个专利申请的全部内容据此以引用方式并入。
技术领域
本主题涉及图像捕获眼戴器,例如智能眼镜,更具体地说,涉及基于图像背景选择标准来将捕获的图像自动发送到接收者的图像捕获眼戴器系统。
背景技术
当今可用的图像捕获眼戴器,诸如智能眼镜、头饰和头戴器,集成有透镜、相机和无线网络收发器设备。这种眼戴器的使用者期望增加功能以提高便利性和效率。
附图说明
附图仅以示例的方式而不是以限制的方式描绘了具体实施。在附图中,相同的附图标记表示相同或类似的元素。当存在多个类似的元件时,可将单个附图标记分配给多个类似的元件,其中字母标记指代特定元件。当共同地提及元件或者提及元件中的非特定的一个或多个元件时,可以省略小写字母标记。
从以下参考附图的具体实施方式中,将容易理解所描述的各种示例的特征。除非另外指出,否则附图中所示的各种元件并非按比例绘制的。为了清楚起见,可放大或缩小各个元件的尺寸。附图中包括以下附图:
图1A是在具有情景发送系统的图像捕获眼戴器中适于使用的眼戴设备的示例性硬件配置的侧视图(右);
图1B是图1A的眼戴设备的右角部的局部横截面透视图,其描绘了右可见光相机和电路板;
图1C是图1A的眼戴设备的示例性硬件配置的侧视图(左),其示出了左可见光相机;
图1D是图1C的眼戴设备的左角部的局部横截面透视图,其描绘了左可见光相机和电路板;
图2A和图2B是在具有情景发送系统的图像捕获眼戴器中利用的眼戴设备的示例性硬件配置的后视图;
图3是三维场景、由左可见光相机捕获的左原始图像和由右可见光相机捕获的右原始图像的图形描绘;
图4是具有情景发送系统中示例性图像捕获眼戴器的功能框图,该基于背景的发送系统包括经由各种网络连接的移动设备(例如,眼戴设备)和服务器系统;
图5是具有图4的情景发送系统的图像捕获眼戴器的移动设备的示例性硬件配置的图形表示;
图6A和图6B是分别用于指定接收者和背景选择标准的示例图形用户界面;
图7A、图7B、图7C、图7D、图7E、图7F和图7G是列出用于实现具有情景发送系统的图像捕获眼戴器的示例性步骤的流程图。
具体实施方式
本文所述的示例涉及响应于背景选择标准(例如,位置、环境或质量中的一者或多者)匹配与所捕获的图像相关联的图像数据而将利用眼戴设备捕获的图像自动发送到指定的接收者。眼戴设备包括相机和用户界面。通过以下方式来发送所捕获的图像:识别背景选择标准、识别指定的接收者、接收由该相机捕获的该图像、确定所捕获的图像的图像数据、将所确定的图像数据与所识别的背景选择标准进行比较以识别匹配,以及响应于所识别的匹配而将所捕获的图像自动发送到该组指定的接收者。
尽管本文参考自动发送由眼戴设备捕获的图像来描述各种系统和方法,但所描述的技术可应用于其他移动设备,诸如平板计算机、手表或蜂窝电话。
以下详细描述包括说明本公开中阐述的示例的系统、方法、技术、指令序列和计算机器程序产品。出于提供对所公开的主题及其相关教导内容的透彻理解的目的而包括许多细节和示例。然而,相关领域的技术人员能够理解如何在没有此类细节的情况下应用相关教导内容。所公开的主题的各方面不限于所描述的特定设备、系统和方法,因为相关教导内容可以以各种方式来应用或实践。本文中所使用的术语和命名仅仅是为了描述特定方面并非旨在进行限制。通常,公知的指令实例、协议、结构和技术不一定被详细示出。
本文中所使用的术语“耦接”或“连接”指的是任何逻辑、光学、物理或电连接,包括链路等,由一个系统元件产生或提供的电或磁信号通过这些连接传递到另一耦接或连接的系统元件。除非另外描述,否则耦接或连接的元件或设备不一定直接彼此连接,并且可以由中间组件、元件或通信介质隔开,中间部件、元件或通信介质中的一者或多者可修改、操纵或承载电信号。术语“上”是指由元件直接支撑或通过另一元件由元件间接支撑,该另一元件集成到元件中或由元件支撑。
出于说明和讨论的目的,仅以示例的方式给出了眼戴设备、其他移动设备、相关联部件和任一附图所示的包含相机、惯性测量单元或两者的任何其他设备的朝向。在操作中,眼戴设备可以朝向适合于眼戴设备的特定应用的任何其他方向,例如,向上、向下、侧向或任何其他定向。此外,就本文所用的范围而言,任何方向性术语,诸如前、后、内、外、向、左、右、侧向、纵向、上、下、高、低、顶部、底部、侧面、水平、垂直和对角,仅以示例的方式使用,并且不限制如本文所构造或另外描述的任何相机或惯性测量单元的方向或定向。
示例的其他目的、优点和新颖特征将部分地在以下具体描述中阐述,并且部分地在本领域技术人员检查以下内容和附图后将变得显而易见,或者可通过生产或操作示例来了解。本主题的目的和优点可借助于所附权利要求书中特别指出的方法、手段和组合来实现和达成。
现在详细参考附图所示和下文所讨论的示例。
图1A是包括触敏输入设备或触摸板181的眼戴设备100的示例性硬件配置的侧视图(右)。如图所示,触摸板181可具有细微且不易看到的边界;另选地,边界可清楚可见或包括向用户提供关于触摸板181的位置和边界的反馈的凸起或以其他方式可触知的边缘。在其他实施方式中,眼戴设备100可包括在左侧的触摸板。
触摸板181的表面被配置为检测手指触摸、轻击和其他手势(例如,移动触摸),以便与眼戴设备在图像显示器上显示的GUI一起使用,从而允许用户以直观的方式浏览并选择菜单选项,这改善并简化了用户体验。
对触摸板181上的手指输入的检测可实现若干功能。例如,触摸触摸板181上的任何地方都可使GUI进行显示或在图像显示器上突出显示项目,该项目可被投影到光学组件180A、180B中的至少一者上。在触摸板181上双击可选择项目或图标。在特定方向上(例如,从前到后、从后到前、从上到下或从下到上)滑动或轻扫手指可使项目或图标在特定方向上滑动或滚动;例如,以移动到下一项目、图标、视频、图像、页面或幻灯片。在另一方向上滑动手指可以在相反方向上滑动或滚动;例如,以移动到前一项目、图标、视频、图像、页面或幻灯片。触摸板181实际上可以在眼戴设备100上的任何地方。
在一个示例中,触摸板181上所识别的手指手势发起眼戴设备100的图像捕获、利用自动发送的图像捕获,以及对在光学组件180A、180B的图像显示器上呈现的图像中的图形用户界面元素的选择或按压。可将单击手指手势设置为触发对图像的捕获而不发送;并且可将双击手指手势或轻击并保持设置为响应于先前定义的上下文选择标准而触发对图像的捕获和自动发送。尽管用户界面被示出和描述为触摸板,但是用户界面可包括除了触摸板之外或者代替触摸板的其他部件,诸如按钮。
如图所示,眼戴设备100包括右可见光相机114B。如本文进一步描述,两个相机114A、114B从两个不同视点捕获场景的图像信息。两个所捕获的图像可用于将三维显示投影到图像显示器上以利用3D眼镜进行观看。
眼戴设备100包括右光学组件180B,其具有图像显示器以呈现图像,诸如深度图像。如图1A和图1B所示,眼戴设备100包括右可见光相机114B。眼戴设备100可包括多个可见光相机114A、114B,其形成被动式三维相机,诸如立体相机,其中右可见光相机114B位于右角部110B。如图1C至图1D所示,眼戴设备100还包括左可见光相机114A。
左和右可见光相机114A、114B对可见光范围波长敏感。每个可见光相机114A、114B具有不同的前向视场,这些视场重叠以使得能够生成三维深度图像,例如,右可见光相机114B描绘右视场111B。通常,“视场”是在空间中的部分场景,这一场景对特定位置和方向上的相机是可见的。视场111A和111B具有重叠视场304(图3)。当可见光相机捕获图像时,视场111A、111B之外的对象或对象特征未被记录在原始图像(例如,照片或图片)中。视场描述了可见光相机114A、114B的图像传感器在给定场景的所捕获的图像中拾取给定场景的电磁辐射的角度范围或幅度。视场可以被表示为视锥的角度大小;即视角。视角可以水平、垂直或对角地测量。
在示例性配置中,可见光相机114A、114B中的一者或两者具有100°的视场和480×480像素的分辨率。“覆盖角度”描述了可有效成像的可见光相机114A、114B或红外相机410(见图2A)的透镜的角度范围。通常,相机透镜产生大到足以完全覆盖相机的胶片或传感器的成像圈,可能包括某种渐晕(例如,与中心相比,图像朝向边缘变暗)。如果相机透镜的覆盖角度未遍及传感器,则成像圈将是可见的,通常具有朝向边缘的强渐晕,并且有效视角将限于覆盖角度。
此类可见光相机114A、114B的示例包括高分辨率互补金属氧化物半导体(CMOS)图像传感器和能够具有640p(例如,640×480像素,总共0.3兆像素)、720p或1080p的分辨率的数字VGA相机(视频图形阵列)。可见光相机114A、114B的其他示例,其可捕获高清晰度(HD)静止图像且以1642×1642像素(或更大)的分辨率存储这些图像;或者以高帧速率(例如,每秒三十至六十帧或更多)记录高清晰度视频且以1216×1216像素(或更大)的分辨率存储该记录。
眼戴设备100可捕获来自可见光相机114A、114B的图像传感器数据以及由图像处理器数字化的地理定位数据,以存储在存储器中。可见光相机114A、114B在二维空间域中捕获相应的左原始图像和右原始图像,这些原始图像包括二维坐标系上的像素矩阵,该二维坐标系包括用于水平定位的X轴和用于垂直定位的Y轴。每个像素包括颜色属性值(例如,红色像素光值、绿色像素光值或蓝色像素光值);和定位属性(例如,X轴坐标和Y轴坐标)。
为了捕获立体图像以用于稍后显示为三维投影,图像处理器412(在图4中示出)可耦接到可见光相机114A、114B以接收并存储视觉图像信息。图像处理器412或另一处理器控制可见光相机114A、114B的操作以充当模拟人类双眼视觉的立体相机,并且可将时间戳添加到每个图像。每对图像上的时间戳允许将图像一起显示为三维投影的一部分。三维投影产生沉浸式逼真体验,这在包括虚拟现实(VR)和视频游戏的各种场景中是期望的。
图1B是图1A的眼戴设备100的右角部110B的横截面透视图,其描绘了相机系统的右可见光相机114B和电路板。图1C是图1A的眼戴设备100的示例性硬件配置的侧视图(左),其示出了相机系统的左可见光相机114A。图1D是图1C的眼戴设备的左角部110A的横截面透视图,其描绘了三维相机的左可见光相机114A和电路板。
除了连接和耦接位于左侧面170A上之外,左可见光相机114A的结构和布置类似于右可见光相机114B。如图1B的示例所示,眼戴设备100包括右可见光相机114B和电路板140B,该电路板可以是柔性印刷电路板(PCB)。右铰链126B将右角部110B连接到眼戴设备100的右镜腿125B。在一些示例中,右可见光相机114B、柔性PCB 140B或其他电连接器或触点等部件可位于右镜腿125B或右铰链126B上。左铰链126A将左角部110A连接到眼戴设备100的左镜腿125A。在一些示例中,左可见光相机114A、柔性PCB 140A或其他电连接器或触点的部件可位于左镜腿125A或左铰链126A上。
右角部110B包括角部体190和角部盖,图1B的横截面中省略了角部盖。设置在右角部110B内部的是各种互连的电路板,诸如PCB或柔性PCB,其包括用于右可见光相机114B的控制器电路、麦克风、低功率无线电路(例如,用于经由BluetoothTM的无线短距离网络通信)、高速无线电路(例如,用于经由Wi-Fi的无线局域网通信)。
右可见光相机114B耦接到或设置在柔性PCB 140B上且由可见光相机覆盖透镜覆盖,该透镜通过形成在框架105中的开口瞄准。例如,框架105的右边缘107B,如图2A所示,连接到右角部110B,并且包括用于可见光相机覆盖透镜的开口。框架105包括被配置为面向外且远离用户的眼睛的前侧。用于可见光相机覆盖透镜的开口形成在框架105的前向或外向侧面上并穿过该前向或外向侧面。在示例中,右可见光相机114B具有面向外的视场111B(在图3中示出),其视线或视角与眼戴设备100的用户的右眼相关。可见光相机覆盖透镜也可粘附到右角部110B的前侧或面向外的表面,其中开口形成有面向外的覆盖角度,但在不同的向外方向上。耦接也可经由居间部件间接实现。
如图1B所示,柔性PCB 140B设置在右角部110B内,并且耦接到容纳在右角部110B中的一个或多个其他部件。尽管示出为形成在右角部110B的电路板上,但是右可见光相机114B可形成在左角部110A、镜腿125A、125B或框架105的电路板上。
图2A和图2B是包括两种不同类型的图像显示器的眼戴设备100的示例性硬件配置的后透视图。眼戴设备100的尺寸和形状被设计成被配置为供用户佩戴的形式;在该示例中为眼镜的形式。眼戴设备100可采取其他形式并且可结合其他类型的框架,例如,头戴器、头戴式耳机或头盔。
在眼镜的示例中,眼戴设备100包括框架105,其包括经由适于由用户的鼻部支撑的鼻梁架106连接到右边缘107B的左边缘107A。左和右边缘107A、107B包括相应的孔口175A、175B,这些孔口保持相应的光学元件180A、180B,诸如透镜和显示设备。如本文所用,术语“透镜”旨在包括透明或半透明玻璃或塑料片,其具有弯曲或平坦表面,使光会聚/发散或几乎或完全不引起会聚或发散。
虽然被示出为具有两个光学元件180A、180B,但是眼戴设备100可包括其他布置,诸如单个光学元件(或者其可不包括任何光学元件180A、180B),这取决于眼戴设备100的应用或预期用途。如图进一步所示,眼戴设备100包括与框架105的左侧面170A相邻的左角部110A以及与框架105的右侧面170B相邻的右角部110B。角部110A、110B可集成到框架105相应的侧面170A、170B上(如图所示)或实施为附接到框架105相应的侧面170A、170B上的单独部件。另选地,角部110A、110B可集成到附接到框架105的镜腿(未示出)中。
在一个示例中,光学组件180A、180B的图像显示器包括集成的图像显示器。如图2A所示,每个光学组件180A、180B包括合适的显示矩阵177,诸如液晶显示器(LCD)、有机发光二极管(OLED)显示器或任何其他此类显示器。每个光学组件180A、180B还包括一个或多个光学层176,其可以包括透镜、光学涂层、棱镜、反射镜、波导、光学条带和其他光学部件的任何组合。光学层176A、176B、…、176N(在图2A和本文中示出为176A-N)可包括棱镜,该棱镜具有合适的尺寸和构造并包括用于接收来自显示矩阵的光的第一表面和用于向用户的眼睛发射光的第二表面。光学层176A-N的棱镜在形成在左和右边缘107A、107B中的相应的孔口175A、175B的全部或至少一部分上方延伸,以在用户的眼睛透过对应的左和右边缘107A、107B观看时允许用户看到棱镜的第二表面。光学层176A-N的棱镜的第一表面从框架105面向向上,并且显示矩阵177覆盖在棱镜上,使得由显示矩阵177发射的光子和光线照射在第一表面上。棱镜的尺寸和形状被设计成使得光在棱镜内被折射并且被光学层176A-N的棱镜的第二表面导向用户的眼睛。在这一点而言,光学层176A-N的棱镜的第二表面可以是凸形的以将光导向眼睛的中心。棱镜的尺寸和形状可任选地被设计成放大由显示矩阵177投影的图像,并且光行进穿过棱镜,使得从第二表面观察的图像在一个或多个维度上大于从显示矩阵177发射的图像。
在一个示例中,光学层176A-N可包括透明的LCD层(保持透镜打开),除非且直到施加使该层不透明(关闭或遮挡透镜)的电压。眼戴设备100上的图像处理器412可执行程序以将电压施加到LCD层,以便产生主动式快门系统,从而使得眼戴设备100适于观看被显示为三维投影的视觉内容。除了LCD之外的技术可用于主动式快门模式,包括响应于电压或另一类型的输入的其他类型的反应层。
在另一示例中,光学组件180A、180B的图像显示设备包括如图2B所示的投影图像显示器。每个光学组件180A、180B包括激光投影仪150,其是使用扫描镜或检流计的三色激光投影仪。在操作期间,光源诸如激光投影仪150设置在眼戴设备100的镜腿125A、125B中的一个镜腿之中或之上。在该示例中,光学组件180B包括一个或多个光学条带155A、155B、…155N(在图2B中示出为155A-N),其在每个光学组件180A、180B的透镜的宽度上,或者在透镜的前表面和后表面之间的透镜的深度上间隔开。
当由激光投影仪150投射的光子行进穿过每个光学组件180A、180B的透镜时,光子遇到光学条带155A-N。当特定光子遇到特定光学条带时,光子要么朝向用户的眼睛重定向,要么传递到下一光学条带。激光投影仪150的调制和光学条带的调制的组合可控制特定的光子或光束。在示例中,处理器通过发出机械、声学或电磁信号来控制光学条带155A-N。虽然被示出为具有两个光学组件180A、180B,但是眼戴设备100可包括其他布置,诸如单个或三个光学组件,或者每个光学组件180A、180B可被布置有不同的布置,这取决于眼戴设备100的应用或预期用户。
在另一示例中,图2B中示出的眼戴设备100可包括两个投影仪,左投影仪150A(未示出)和右投影仪150B(示出为投影仪150)。左光学组件180A可包括左显示矩阵177A(未示出)或左光学条带155'A、155'B、…、155'N(155',A至N,未示出),其被配置为与来自左投影仪150A的光交互。类似地,右光学组件180B可包括右显示矩阵177B(未示出)或右光学条带155”A、155”B、…、155”N(155”,A至N,未示出),其被配置为与来自右投影仪150B的光交互。在该示例中,眼戴设备100包括左显示器和右显示器。
图3是三维场景306、由左可见光相机114A捕获的左原始图像302A和由右可见光相机114B捕获的右原始图像302B的图形描绘。如图所示,左视场111A可与右视场111B重叠。重叠视场304表示由图像中两个相机114A、114B捕获的部分。术语“重叠”在涉及视场时意味着所生成的原始图像中的像素矩阵重叠百分之三十(30%)或更多。“基本上重叠”意味着所生成的原始图像中的像素矩阵或场景的红外图像中的像素矩阵重叠百分之五十(50%)或更多。如本文所述,两个原始图像302A、302B可被处理为包括时间戳,该时间戳允许将图像一起显示为三维投影的一部分。
为了捕获立体图像,如图3所示,在给定时刻捕获真实场景306的一对原始红绿蓝(RGB)图像-由左相机114A捕获的左原始图像302A和由右相机114B捕获的右原始图像302B。当(例如,由图像处理器412)处理该对原始图像302A、302B时,生成深度图像。所生成的深度图像可在眼戴设备的光学组件180A、180B上、在另一显示器(例如,移动设备401上的图像显示器580)上、或在屏幕上被查看。
所生成的深度图像在三维空间域中,并且可包括三维位置坐标系上的顶点矩阵,该三维位置坐标系包括用于水平定位(例如,长度)的X轴、用于垂直定位(例如,高度)的Y轴和用于深度(例如,距离)的Z轴。每个顶点可包括颜色属性(例如,红色像素光值、绿色像素光值或蓝色像素光值);定位属性(例如,X位置坐标、Y位置坐标和Z位置坐标);纹理属性;反射率属性;或它们的组合。纹理属性量化深度图像的感知纹理,诸如深度图像的顶点区域中的颜色或强度的空间布置。
在一个示例中,具有情景发送系统400(图4)的图像捕获眼戴器包括眼戴设备100,其包括框架105、从框架105的左侧面170A延伸的左镜腿125A,以及从框架105的右侧面170B延伸的右镜腿125B。眼戴设备100还可包括具有重叠的视场的至少两个可见光相机114A、114B。在一个示例中,眼戴设备100包括具有左视场111A的左可见光相机114A,如图3所示。左相机114A连接到框架105或左镜腿125A以从场景306的左侧捕获左原始图像302A。眼戴设备100还包括具有右视场111B的右可见光相机114B。右相机114B连接到框架105或右镜腿125B以从场景306的右侧捕获右原始图像302B。
图4是具有情景发送系统400的示例性图像捕获眼戴器的功能框图,该情景发送系统包括经由各种网络495诸如因特网连接的可穿戴设备(例如,眼戴设备100)、移动设备401和服务器系统499。具有情景发送系统400的图像捕获眼戴器包括眼戴设备100与移动设备401之间的低功率无线连接425和高速无线连接437。
如图4所示,如本文所述,眼戴设备100包括一个或多个可见光相机114A、114B,它们捕获静止图像、视频图像或静止图像和视频图像两者。相机114A、114B可具有对高速电路430的直接存储器访问(DMA)并且用作立体相机。相机114A、114B可用于捕获初始深度图像,这些初始深度图像可被渲染成三维(3D)模型,这些三维模型是红绿蓝(RGB)成像场景的纹理映射图像。设备100还可包括深度传感器213,其使用红外信号来估计对象相对于设备100的定位。在一些示例中,深度传感器213包括一个或多个红外发射器215和红外相机410。
眼戴设备100还包括每个光学组件180A、180B的两个图像显示器(一个与左侧面170A相关联,一个与右侧面170B相关联)。眼戴设备100还包括图像显示驱动器442、图像处理器412、低功率电路420和高速电路430。每个光学组件180A、180B的图像显示器用于呈现图像,包括静止图像、视频图像、或静止和视频图像。图像显示驱动器442耦接到每个光学组件180A、180B的图像显示器,以便控制图像的显示。
眼戴设备100还包括一个或多个扬声器440(例如,一个与眼戴设备的左侧相关联,另一个与眼戴设备的右侧相关联)。扬声器440可嵌入到眼戴设备100的框架105、镜腿125或角部110中。一个或多个扬声器440由音频处理器443在低功率电路420、高速电路430或两者的控制下被驱动。扬声器440用于呈现音频信号,包括例如节拍音轨。音频处理器443耦接到扬声器440以便控制声音的呈现。
图4所示的用于眼戴设备100的部件位于一个或多个电路板上,例如,位于边缘或镜腿中的印刷电路板(PCB)或柔性印刷电路(FPC)。另选地或附加地,所描绘的部件可位于眼戴设备100的角部、框架、铰链或鼻梁架中。左和右可见光相机114A、114B可包括数字相机元件,诸如互补金属氧化物半导体(CMOS)图像传感器、电荷耦合器件、透镜、或可用于捕获数据(包括具有未知对象的场景的静止图像或视频)的任何其他相应的可见或光捕获元件。
如图4所示,高速电路430包括高速处理器432、存储器434和高速无线电路436。在该示例中,图像显示驱动器442耦接到高速电路430并且由高速处理器432运行,以便驱动每个光学组件180A、180B的左和右图像显示器。高速处理器432可以是能够管理眼戴设备100所需的任何通用计算系统的高速通信和操作的任何处理器。高速处理器432包括使用高速无线电路436将高速数据从高速无线连接437传输到无线局域网(WLAN)所需的处理资源。
在一些示例中,高速处理器432执行操作系统,诸如LINUX操作系统或眼戴设备100的其他此类操作系统,并且操作系统被存储在存储器434中以供执行。除了任何其他职责之外,执行眼戴设备100的软件架构的高速处理器432还用于管理利用高速无线电路436的数据传输。在一些示例中,高速无线电路436被配置为实施电气和电子工程师协会(IEEE)802.11通信标准,本文中也称为Wi-Fi。在其他示例中,高速无线电路436可实施其他高速通信标准。
低功率电路420包括低功率处理器422和低功率无线电路424。眼戴设备100的低功率无线电路424和高速无线电路436可包括短距离收发器(BluetoothTM或蓝牙低功耗(BLE))和无线广域网、局域网或广域网收发器(例如,蜂窝或Wi-Fi)。移动设备401,包括经由低功率无线连接425和高速无线连接437通信的收发器,可像网络495的其他元件一样,可使用眼戴设备100的架构的细节来实施。
存储器434包括能够存储各种数据和应用的任何存储设备,除其它外,包括由左和右可见光相机114A、114B、红外相机410、图像处理器412生成的相机数据,以及被生成用于由图像显示器驱动器442在每个光学组件180A、180B的图像显示器上显示的图像。虽然存储器434被示出为与高速电路430集成,但在其他示例中,存储器434可以是眼戴设备100的单独的独立元件。在某些此类示例中,电气布线线路通过包括高速处理器432的芯片提供从图像处理器412或低功率处理器422到存储器434的连接。在其他示例中,高速处理器432可管理存储器434的寻址,使得低功率处理器422将在需要涉及存储器434的读或写操作的任何时间启动高速处理器432。
如图4所示,眼戴设备100的高速处理器432可耦接到相机系统(可见光相机114A、114B)、图像显示驱动器442、用户输入设备491和存储器434。如图5所示,移动设备401的CPU530可耦接到相机系统570、移动显示驱动器582、用户输入层591和存储器540A。
服务器系统499可以是作为服务或网络计算系统的一部分的一个或多个计算设备,例如包括处理器、存储器和网络通信接口以通过网络495与眼戴设备100和移动设备401进行通信。
眼戴设备100的输出部件包括视觉元件,诸如与每个透镜或光学组件180A、180B相关联的左和右图像显示器,如图2A和图2B所述(例如,显示器,诸如液晶显示器(LCD)、等离子体显示面板(PDP)、发光二极管(LED)显示器、投影仪或波导)。眼戴设备100可包括面向用户的指示器(例如,LED、扬声器或振动致动器),或面向外的信号(例如,LED、扬声器)。每个光学组件180A、180B的图像显示器由图像显示器驱动器442驱动。在一些示例性配置中,眼戴设备100的输出部件还包括附加指示器,诸如可听元件(例如,扬声器)、触觉部件(例如,致动器,诸如用于生成触觉反馈的振动马达)和其他信号生成器。例如,设备100可包括面向用户的一组指示器和面向外的一组信号。面向用户的一组指示器被配置为由设备100的用户看到或以其他方式感知到。例如,设备100可包括被定位成使得用户可以看见它的LED显示器、被定位成生成用户可以听到的声音的一个或多个扬声器、或者提供用户可以感觉到的触觉反馈的致动器。面向外的一组信号被配置为由设备100附近的观察者看到或以其他方式感知到。类似地,设备100可包括被配置和定位成由观察者感知到的LED、扬声器或致动器。
眼戴设备100的输入部件可包括字母数字输入部件(例如,被配置为接收字母数字输入的触摸屏或触摸板、摄影光学键盘或其他字母数字配置的元件)、基于点的输部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指点仪器)、触觉输入部件(例如,按钮开关、感测触摸或触摸手势的位置、力或位置和力的触摸屏或触摸板,或其他触觉配置的元件)和音频输入部件(例如,麦克风)等。移动设备401和服务器系统499可包括字母数字、基于点、触觉、音频和其他输入部件。
在一些示例中,眼戴设备100包括被称为惯性测量单元472的运动感测部件的集合。运动感测部件可以是具有微观移动部件的微机电系统(MEMS),这些微观移动部件通常足够小以成为微芯片的一部分。在一些示例性配置中,惯性测量单元(IMU)472包括加速度计、陀螺仪和磁力计。加速度计可感测设备100相对于三个正交轴(x、y、z)的线性加速度(包括由于重力而引起的加速度)。陀螺仪可感测设备100绕三个旋转轴(俯仰、滚转、偏航)的角速度。加速度计和陀螺仪可一起提供关于设备相对于六个轴(x、y、z、俯仰、滚转、偏航)的定位、定向和运动数据。如果存在磁力计,则磁力计可感测设备100相对于磁北极的航向。设备100的定位可以由位置传感器诸如GPS单元473、用于生成相对定位坐标的一个或多个收发器、高度传感器或气压计和其他定向传感器来确定。还可经由低功率无线电路424或高速无线电路436从移动设备401通过无线连接425和437接收此类定位系统坐标。
IMU 472可包括数字运动处理器或程序,或者与数字运动处理器或程序协作,该数字运动处理器或程序从部件采集原始数据,并且计算关于设备100的定位、定向和运动的多个有用值。例如,从加速度计采集的加速度数据可被积分以获得相对于每个轴(x、y、z)的速度;并再次被积分以获得设备100的定位(以线性坐标x、y和z表示)。来自陀螺仪的角速度数据可被积分以获得设备100的定位(以球面坐标表示)。用于计算这些有效值的程序可存储在存储器434中并且由眼戴设备100的高速处理器432执行。
眼戴设备100可以可选地包括附加的外围传感器,诸如与眼戴设备100集成的生物计量传感器、特性传感器或显示元件。例如,外围设备元件可包括任何I/O部件,包括输出部件、运动部件、定位部件或本文所述的任何其他此类元件。例如,生物计量传感器可包括检测表情(例如,手势、面部表情、声音表达、身体姿势或眼睛追踪)、测量生物信号(例如,血压、心率、体温、出汗或脑电波)或识别人(例如,基于语音、视网膜、面部特征、指纹或电生物信号诸如脑电图数据的识别)等的部件。
移动设备401可以是智能电话、平板电脑、笔记本电脑、接入点或能够使用低功率无线连接425和高速无线连接437两者与眼戴设备100连接的任何其他此类设备。移动设备401连接到服务器系统499和网络495。网络495可包括有线和无线连接的任何组合。
如图4所示,具有情景发送系统400的图像捕获眼戴器包括通过网络耦接到眼戴设备100的计算设备,诸如移动设备401。具有情景发送系统400的图像捕获眼戴器包括用于存储指令的存储器和用于执行指令的处理器。处理器432对具有情景发送系统400的图像捕获眼戴器的指令的执行可将眼戴设备100配置为与移动设备401协作。具有情景发送系统400的图像捕获眼戴器可利用眼戴设备100的存储器434或移动设备401的存储器元件540A、540B、540C(图5)。此外,具有情景发送系统400的图像捕获眼戴器可利用眼戴设备100的处理器元件432、422或移动设备401的中央处理单元(CPU)530(图5)。另外,具有情景发送系统400的图像捕获眼戴器还可利用服务器系统499的存储器和处理器元件。在该方面,具有情景发送系统400的图像捕获眼戴器的存储器和处理功能可跨眼戴设备100、移动设备401和服务器系统499共享或分布。
在一些示例性具体实施中,存储器434包括或耦接到特征模型480、坐标数据库482、背景选择标准484和指定的接收者486。特征模型480是被训练成识别例如地标和标志性角色(例如,艾菲尔铁塔和米奇老鼠)的CNN模型。坐标数据库482包括位置坐标。位置坐标可包括眼戴设备100的位置坐标(例如,以确定其何时处于新区域中)、眼戴设备100在捕获时捕获的图像的位置坐标,以及来自其他设备的用于识别受欢迎图像捕获位置的图像的位置坐标。位置坐标被存储在存储器434中的一个或多个数据库中并由处理器432访问。背景选择标准484包括眼戴设备100的用户/佩戴者做出的以确定何时自动发送图像的一系列选择。指定的接收者486包括眼戴设备自动向其发送图像的一组一个或多个接收者。在一个示例中,接收者是具有用于查看图像的电子设备的一个人或一群人。在另一示例中,附加地或另选地,接收者是佩戴者/用户的主存在服务器系统499上的社交媒体平台(例如,通过加利福尼亚圣塔莫尼卡(Santa Monica,California)的Snap公司可获得的Snapchat Story)。背景选择标准和指定的接收者可被存储在存储器434中的一个或多个数据库中并可由处理器432访问。
存储器434还包括由处理器432执行的背景选择引擎492、接收者指定引擎494、图像数据生成引擎496和选择引擎498。背景选择引擎492包括用于选择自动发送所基于的图像背景的指令。接收者指定引擎494包括用于指定自动发送的图像的接收者的指令。图像数据生成引擎496包括用于生成用于与图像背景进行比较的图像信息(例如,地标或标志性角色的位置信息和存在)的指令。选择引擎498包括用于基于图像的图像数据与眼戴设备100的用户所建立的背景选择标准的匹配比较来选择要自动发送的图像的指令。
在一个示例中,服务器系统499通过网络395经由移动设备401从眼戴设备100、从移动设备401以及从其他设备来接收图像,以供由神经网络编程来训练特征模型480。服务器系统499将经训练的特征模型发送到眼戴设备100或移动设备401以用于识别地标和标志性角色。合适的神经网络是基于以下架构中的一者的卷积神经网络(CNN):VGG16、VGG19、ResNet50、Inception V3和Xception或其他CNN架构。
在一个示例中,机器学习技术(例如,深度学习)用于识别图像中的对象,诸如特定地标或标志性角色(例如,艾菲尔铁塔、米奇老鼠等)以及人或动物的存在。深度学习是机器学习的子集,其使用一组算法、使用具有包括线性和非线性变换的多个处理层的深度图来对数据中的高级抽象进行建模。虽然许多机器学习系统被植入有将通过机器学习网络的学习和更新来修改的初始特征和网络权重,但是深度学习网络训练其自身来识别用于分析的“良好”特征。使用多层架构,采用深度学习技术的机器可比使用常规机器学习技术的机器更好地处理原始数据。使用不同的评估或抽象层来检查高度相关的值组或不同主题的数据是方便的。
CNN是在受生物学启发的互连数据网络,用于对数据集中的相关对象和区域的检测、分割和识别的深度学习。CNN以多个数组的形式评估原始数据,在一系列阶段中分解数据,检查数据的所学习特征。
在一个示例中,使用CNN来执行图像分析。CNN接收输入图像并在卷积层中对该图像进行抽象以识别所学习特征(例如,地标结构和标志性角色)。在第二卷积层中,图像被变换成多个图像,其中所学习特征各自在相应的子图像中被强调。这些图像被进一步处理以聚焦于图像中感兴趣的特征。然后通过池化层处理所得到的图像,该池化层减小图像的尺寸以分离包括感兴趣的特征的图像部分。卷积神经网络的输出从最后非输出层接收值,并且基于从该最后非输出层接收到的数据来对图像进行分类。
图5是示例性移动设备401的高级功能框图。移动设备401包括闪存存储器540A,其存储要由CPU 530执行以运行本文所述的所有功能或功能子集的程序。
移动设备401可包括相机570,其包括一个或多个可见光相机(具有重叠的视场的第一和第二可见光相机)或具有基本上重叠的视场的至少一个可见光相机和深度传感器。闪存存储器540A还可包括经由相机570生成的多个图像或视频。
如图所示,移动设备401包括图像显示器580、用于控制图像显示器580的移动显示驱动器582和显示控制器584。在图5的示例中,图像显示器580包括用户输入层591(例如,触摸屏),其层叠在由图像显示器580使用的屏幕的顶部上或以其他方式集成到该屏幕中。
可使用的触摸屏式的移动设备的示例包括(但不限于)智能电话、个人数字助理(PDA)、平板计算机、笔记本电脑或其他便携式设备。然而,触摸屏式的设备的结构和操作是以示例的方式提供的;如本文所述的主题技术并不旨在局限于此。为了便于讨论,图5因此提供了具有用户界面的示例性移动设备401的框图图示,该用户界面包括用于接收输入(通过手、触笔或其他工具的触摸、多点触摸或手势等)的触摸屏输入层591和用于显示背景的图像显示器580。
如图5所示,移动设备401包括用于经由广域无线移动通信网络进行数字无线通信的至少一个数字收发器(XCVR)510,示出为WWAN XCVR。移动设备401还包括附加的数字或模拟收发器,诸如用于诸如经由NFC、VLC、DECT、ZigBee、BluetoothTM或Wi-Fi进行短距离网络通信的短距离收发器(XCVR)520。例如,短距离XCVR 520可采取与在无线局域网中实施的一个或多个标准通信协议诸如符合IEEE 802.11的Wi-Fi标准中的一者兼容的类型的任何可用双向无线局域网(WLAN)收发器的形式。
为了生成用于定位移动设备401的位置坐标,移动设备401可包括全球定位系统(GPS)接收器。另选地或附加地,移动设备401可利用短距离XCVR 520和WWAN XCVR 510中的任一者或两者来生成用于定位的位置坐标。例如,基于蜂窝网络、Wi-Fi或BluetoothTM的定位系统可生成非常准确的位置坐标,尤其是当它们组合使用时。此类位置坐标可经由XCVR510、520通过一个或多个网络连接传输到眼戴设备。
收发器510、520(即,网络通信接口)符合现代移动网络所利用的各种数字无线通信标准中的一个或多个标准。WWAN收发器510的示例包括(但不限于)被配置为根据码分多址(CDMA)和第3代合作伙伴计划(3GPP)网络技术操作的收发器,所述技术包括例如但不限于3GPP类型2(或3GPP2)和LTE,有时被称为“4G”。例如,收发器510、520提供信息的双向无线通信,所述信息包括数字化音频信号、静态图像和视频信号、用于显示的网页信息以及web相关输入,以及去往/来自移动设备401的各种类型的移动消息通信。
移动设备401还包括用作中央处理单元(CPU)的微处理器;如图4中的CPU 530所示。处理器是具有被构造并布置成执行一个或多个处理功能通常是各种数据处理功能的元件的电路。尽管可使用分立的逻辑部件,但是这些示例利用形成可编程CPU的部件。微处理器例如包括一个或多个集成电路(IC)芯片,其结合了执行CPU的功能的电子元件。例如,CPU530可基于任何已知或可用的微处理器架构,诸如使用ARM架构的精简指令集计算(RISC),正如现今在移动设备和其他便携式电子设备中通常使用的。当然,处理器电路的其他布置可用于形成智能电话、笔记本电脑和平板电脑中的CPU 530或处理器硬件。
通过将移动设备401配置用于执行各种操作,例如根据CPU 530可执行的指令或程序,CPU 530用作移动设备401的可编程主机控制器。例如,此类操作可包括移动设备的各种一般操作,以及与用于移动设备上的应用程序相关的操作。尽管处理器可使用硬连线逻辑来配置,但是移动设备中的典型处理器是通过执行程序来配置的通用处理电路。
移动设备401包括用于存储程序和数据的存储器或存储系统。在示例中,存储器系统可根据需要包括闪存存储器540A、随机存取存储器(RAM)540B和其他存储器部件540C。RAM 540B用作由CPU 530处理的指令和数据的短期存储装置,例如,用作工作数据处理存储器。闪存存储器540A通常提供长期存储。
因此,在移动设备401的示例中,闪存存储器540A用于存储由CPU 530执行的程序或指令。根据设备的类型,移动设备401存储并运行移动操作系统,特定应用通过该移动操作系统执行。移动操作系统的示例包括Google Android、Apple iOS(用于iPhone或iPad设备)、Windows Mobile、Amazon Fire OS、RIM BlackBerry OS等。
图7A至图7G是列出情景发送的示例性方法中的步骤的流程图。下文参考眼戴设备100、用于指定接收者的GUI 602(图6A)以及用于指定背景选择标准的GUI 610(图6B)来描述这些步骤。尽管如本文所述,参考眼戴设备100描述了这些步骤,但是本领域技术人员根据本文的描述将理解所描述的步骤针对其他类型的移动设备的其他具体实施。另外,可以设想,在附图中示出并且在本文中描述的一个或多个步骤可省略、同时或依序执行、以不同于所示和所述的次序执行、或结合附加步骤执行。
参考包括相机114、处理器432和存储器434的眼戴设备100来描述这些步骤。与一些示例实现的方面一致,眼戴设备100发起并运行背景搜索引擎492、接收者指定引擎494、图像数据生成引擎496和选择引擎498。在其他示例性具体实施中,另一设备诸如移动设备401或服务器系统499执行眼戴设备100的一些或全部功能或者结合眼戴设备100执行一些功能。
图7A描绘了用于实现基于应用于图像的背景选择标准的自动图像发送系统的流程图700。在框702处,眼戴设备100捕获图像。眼戴设备100的处理器432可响应于用户输入设备491上的手势而使用可见光相机114来捕获图像。
在框704处,眼戴设备100存储图像。在一个示例中,处理器432将所捕获的图像存储在存储器434中。在另一示例中,处理器432附加地或另选地将所捕获的图像发送到另一设备(例如,移动设备401)以用于存储(例如,由通过存储器540中的处理器530)。
在框706处,眼戴设备100使用上下文选择引擎492来识别上下文选择标准。在一个示例中,处理器432在显示器180上呈现图形用户界面,以供佩戴者在识别上下文选择标准时使用(见GUI 610;图6B)。在另一示例中,相关移动设备401的处理器530在显示器590上呈现图形用户界面,以用于识别上下文选择标准。上下文选择标准包括图像的捕获位置、图像内容(例如,地标或人)、图像质量或图像数量中的一者或多者。
在框708处,眼戴设备100使用接收者指定引擎494来识别指定的接收者。在一个示例中,处理器432在显示器180上呈现图形用户界面,以供佩戴者在识别背景选择标准时使用(见GUI 602;图6A)。在另一示例中,相关移动设备401的处理器530在显示器590上呈现图形用户界面,以用于识别背景选择标准。处理器可检索已知联系人姓名的列表,将每个姓名旁边有复选框的列表呈现给佩戴者/用户,接收复选框选择,并将与复选框相关联的联系人识别为指定的接收者。处理器可附加地或另选地检索佩戴者/用户的社交媒体平台的列表,将每个平台旁边有复选框的列表呈现给佩戴者/用户,接收复选框选择,并将与复选框相关联的平台识别为指定的接收者。处理器可附加地或另选地向用户提供用于选择佩戴者/用户的具有特定标识或相关联状态(例如,朋友或密友)的所有联系人或在与佩戴者/用户的当前位置相关联的地理位置内的这种联系人的选项。
在框710处,眼戴设备100接收图像。在一个示例中,处理器432从相机114、存储器434或相关移动设备401接收图像。
在框712中,眼戴设备100使用图像数据生成引擎496来确定图像数据。在一个示例中,处理器432确定图像数据。在另一示例中,相关移动设备401的处理器530确定图像数据。对于基于位置的图像数据,处理器432可在捕获图像时从GPS 473检索位置坐标。对于基于内容的图像数据,处理器432可将特征模型480(例如,其是使用地标和人的图像来训练的)应用于所捕获的图像,或者应用已知的图像识别程序(例如,来自纽约阿蒙克(Armonk,NY)的IBM公司的Watson)。对于图像质量,处理器432可应用图像质量指标来测量图像质量(例如,使用例如可从马萨诸塞州纳蒂克的MathWorks公司获得的BRISQUE或NIQE算法来测量清晰度、伪影、失真中的一者或多者)。
在框714处,眼戴设备100将图像数据与背景选择标准进行比较。处理器432可通过顺序地分析所识别的标准中的每个标准并将其与图像数据进行比较来将图像数据与背景选择标准进行比较。另外,如果处理器432确定已达到图像的最大数量(例如,基于每当识别出要发送的图像时递增的计数器),则处理器可停止执行进一步比较。
在决策框716处,眼戴设备100使用选择引擎498来确定图像数据与背景选择标准之间是否存在匹配。在一个示例中,处理器432将图像数据与背景选择标准进行比较,并且识别精确匹配的一个或多个图像。在另一示例中,处理器432将图像数据与上下文选择标准进行比较,并且识别包括超过预定义阈值水平的匹配标准(例如,90%匹配)的一个或多个图像。对于GUI 610中描绘的背景选择标准选择,匹配图像将位于巴黎的艾菲尔铁塔附近(例如,在艾菲尔铁塔的300英尺内),将包括艾菲尔铁塔和人,将具有高水平的清晰度和低水平的伪影且没有失真,并且将是匹配所有标准的前10个图像中的一者。
在框718处,如果存在匹配便达到该条件,那么眼戴设备100将图像自动发送到指定的接收者。处理器432可经由无线电路424/436通过网络495直接发送图像或经由移动设备401间接发送图像。在框720处,如果不存在匹配便达到该条件,那么眼戴设备100不将图像自动发送到指定的接收者。
图7B描绘了根据接收者指定引擎494的示例性具体实施的当存在具有不同选择标准的多组指定的接收者时的示例性步骤的流程图721。在框722处,眼戴设备100识别第1标准。处理器432可以识别第1选择标准,如上文参考框706所述。在框722处,眼戴设备100识别第2标准。处理器432可识别第2选择标准,如上文参考框706所述。
在框726处,眼戴设备100针对第1选择标准识别第1指定的接收者。处理器432可识别第1指定的接收者,如上文参考框708所述。在框728中,眼戴设备100针对第2选择标准识别第2指定的接收者。处理器432可识别第2指定的接收者,如上文参考框708所述。
在框730处,眼戴设备100将图像发送到图像内容与第1选择标准匹配的第1指定的接收者。处理器432可将图像发送到第1指定的接收者,如上文参考框718所述。在框732处,眼戴设备100将图像发送到图像内容与第2选择标准匹配的第2指定的接收者。处理器432可将图像发送到第2指定的接收者,如上文参考框718所述。
图7C描绘了根据背景选择引擎492的示例性具体实施的用于识别背景选择标准的示例性步骤的流程图740。在决策框742处,眼戴设备100确定背景选择标准是否包括指定的捕获位置(例如,使用GUI 610,其包括位置选择612a、内容选择612b、质量选择612c和数量选择612d)。处理器432可经由图像显示驱动器442在显示器180上向佩戴者呈现包括位置614和对应的复选框616(例如,巴黎616a和洛杉矶616b)的GUI 610。处理器432可用在眼戴设备100的预定义半径内(例如,在25英里内)的位置614或目的地(例如,通过处理佩戴者的日历确定)来为复选框填充文本。
在框743处,如果佩戴者希望包括捕获位置作为背景选择标准中的一者便达到该条件,那么眼戴设备100接收并存储位置参数。佩戴者可通过勾选GUI 610内的一个或多个框(例如,巴黎616a)来指示其想要包括捕获位置参数。在示例中,对特定位置诸如巴黎的选择产生用于选择的更具体的位置信息618(例如,艾菲尔铁塔620a和罗浮宫620b)以进一步细化捕获位置。在所示的GUI 610中,位置选择标准是巴黎内的艾菲尔铁塔。如果没有选择,则处理在框744处继续。
在决策框746处,眼戴设备100确定背景选择标准是否包括指定的内容(例如,使用GUI 610)。处理器432可经由图像显示驱动器442在显示器180上向佩戴者呈现包括内容622和对应的复选框624(例如,艾菲尔铁塔624a和人624b)的GUI 610。处理器432可用与所选择位置相关联的内容622为复选框填充文本,诸如在指定位置的预定义半径内的本地地标(例如,巴黎616a中艾菲尔铁塔620a附近的艾菲尔铁塔624a)以及不特定于位置的一般信息诸如图像必须包括人624。
在框747处,如果佩戴者希望包括内容作为背景选择标准中的一者便达到该条件,那么眼戴设备100接收并存储位置参数。佩戴者可通过勾选GUI 610内的一个或多个框(例如,艾菲尔铁塔624a和人624b)来指示其想要包括内容参数。在所示的GUI 610中,内容选择标准是艾菲尔铁塔624a和人624b。如果没有选择,则处理在框748处继续。
在决策框750处,眼戴设备100确定背景选择标准是否包括指定的质量(例如,使用GUI 610)。处理器432可经由图像显示驱动器442在显示器180上向佩戴者呈现GUI 610,包括图像质量626(例如,清晰度628a、伪影628b和失真628c)和对应的输入框(例如,下拉数字选择;例如,范围为从1至10,其中1等于低优先级,10等于高优先级)。图像质量可以是预定义的。
在框751处,如果佩戴者希望包括图像质量作为背景选择标准中的一者便达到该条件,那么眼戴设备100接收并存储质量参数。佩戴者可通过调整质量参数(例如,对于所需的高水平清晰度,将清晰度628a设置为“8”;对于非常高水平的伪影检测要求,将伪影628b设置为“9”;以及对于移除具有任何检测到的失真的所有图像,将失真设置为“10”)来指示其想要包括质量参数。如果没有设置,则在框752处的处理继续。
在决策框754处,眼戴设备100确定背景选择标准是否包括指定的数量(例如,使用GUI 610)。处理器432可经由图像显示驱动器442在显示器180上向佩戴者呈现GUI 610,包括数量选择630和用于指定在旅行期间要发送的图像的最大数量的对应的对应的输入框。
在框755处,如果佩戴者希望包括数量作为背景选择标准中的一者便达到该条件,那么眼戴设备100接收并存储数量参数。佩戴者可通过在GUI 610内输入值(例如,10个图像)来指示其想要包括数量参数。如果没有设置,则在框756处的处理继续。
图7D描绘了根据图像数据生成引擎496的示例性具体实施的用于生成图像数据的示例性步骤的流程图760。在框762处,眼戴设备100接收所捕获的图像的位置信息。在示例中,处理器432在捕获图像时从GPS 473接收位置信息。处理器432可周期性地向GPS 473询问位置坐标或请求何时捕获图像。
在框764处,眼戴设备100分析图像。在示例中,处理器432通过应用使用已知地标和标志性人物的图像训练的特征模型480来分析图像。特征模型480可附加地被训练为检测图像中人的存在。
在框766处,眼戴设备100生成图像数据。在示例中,处理器432生成在图像分析期间响应于识别匹配的图像数据。图像数据可包括与图像中的所识别的地标和标志性人物(以及人的存在)相关联的字符串。
在框768处,眼戴设备100将图像数据与图像建立关联,并存储该图像数据。在示例中,处理器432将图像数据添加到与所捕获的图像一起存储的元数据。
图7E描绘了用于确定是否建立自动发送的示例性步骤的流程图770。在框772处,眼戴设备100监测眼戴设备100的位置坐标。处理器432可通过周期性地向GPS 473询问位置坐标来监测位置坐标。
在框774处,眼戴设备100确定过去位置坐标的范围。处理器432可确定过去位置的范围(例如,包括在彼此25英里内的所有位置的范围)。
在框776处,眼戴设备100将最新位置坐标与过去位置坐标的范围进行比较。处理器432可确定过去位置的范围(例如,包括彼此25英里内的所有位置的范围)。
在框778处,眼戴设备100询问佩戴者他们是否想要当在所确定的范围之外时自动发送。处理器432可将过去位置的所确定的一个或多个范围与当前位置进行比较,并且询问佩戴者当前位置是否在所确定的范围之外。例如,当当前位置不在该一个或多个范围(或预定义距离,例如,10英里的范围)内时,处理器432可在显示器180上显示询问。
图7F描绘了用于基于其他人拍摄的图像(例如,受欢迎的图像)来指定选择标准的示例性步骤的流程图780。在框782处,眼戴设备100接收由其他设备捕获的远程图像的位置信息。在示例中,服务器系统499监测并存储由其他设备提供的图像和对应的图像位置坐标。
在框784处,眼戴设备100对远程图像位置进行分组。在示例中,处理器432从服务器系统499接收远程图像位置,并将它们分组为多组相邻位置坐标。在另一示例中,服务器系统598对图像位置坐标进行分组。
在框786处,眼戴设备100识别超过预定义阈值的组。在示例中,处理器432识别具有超过阈值(例如,100个图像)的图像数量的组,并且将那些组识别为受欢迎图像捕获区域。在另一示例中,服务器系统598识别这些组。
在框788处,眼戴设备100指定包含超过阈值的组的区域作为选择标准。在示例中,处理器432指定区域作为选择标准(例如,用于在GUI 610的位置部分612a中显示(图6B))。在另一示例中,在服务器系统598识别到组的情况下,处理器432首先经由网络495从服务器系统598(以及可选的移动设备401)接收所识别的组。
图7G描绘了用于响应于手势而自动发送图像的示例性步骤的流程图770。在框792处,眼戴设备100识别第一输入手势。在示例中,处理器432识别第一输入手势(例如,在用户输入设备491上的单击)。在框794处,眼戴设备100识别第二输入手势。在示例中,处理器432识别第二输入手势(例如,在用户输入设备491上的双击或轻击并保持)。
在框796处,眼戴设备100响应于第一输入手势而捕获并存储第一图像,而不自动发送。在示例中,处理器432响应于第一输入手势(例如,在用户输入设备491上的单击)而用相机114捕获图像并将该图像存储在存储器434中(例如,在由图像处理器412处理之后)。
在框798处,眼戴设备100响应于第二输入手势而捕获、存储并自动发送第二图像。在示例中,处理器432响应于第二输入手势(例如,在用户输入设备491上的双击或轻击并保持)而用相机114捕获图像,将该图像存储在存储器434中,并且自动发送该图像(例如,在由图像处理器412处理之后)。
图7A至图7G中的步骤可由眼戴设备100的处理器432、移动设备401的处理器530或服务器系统499的处理器中的一者或多者在加载并执行软件代码或指令时执行,该软件代码或指令有形地存储在有形(即,非暂态)计算机可读介质上,诸如在磁介质例如计算机硬盘驱动器、光介质例如光盘、固态存储器例如闪存存储器或本领域已知的其他存储介质上。因此,由眼戴设备100的处理器432、移动设备401的处理器530或本文所述的服务器系统499的处理器执行的任何功能,诸如图图7A至图7G中的步骤,可以有形地存储在有形计算机可读介质上的软件代码或指令来实施。在处理器加载和执行此类软件代码或指令时,包括处理器的设备可执行本文所述的设备的任何功能,包括本文所述的图7A至图7G中的步骤。
应当理解,除非本文另外阐述了特定的含义,否则本文所用的术语和表达具有与关于它们对应的相应调查和研究领域的此类术语和表达一致的通常含义。诸如“第一”和“第二”等的关系术语仅可用于将一个实体或动作与另一个实体或动作区分开,而不一定要求或暗示这些实体或动作之间的任何实际的此类关系或顺序。术语“包括”、“包含”、“含有”、“具有”或其任何其他变型形式旨在涵盖非排他性的包括,使得包括或包含一系列元素或步骤的过程、方法、制品或装置不仅包括那些元素或步骤,而是还可以包括未明确列出的或对于此类过程、方法、制品或装置固有的其他元素或步骤。在没有进一步限制的情况下,前缀为“一”或“一个”的元素并不排除在包括该元素的过程、方法、制品或装置中另外的相同元素的存在。
除非另有说明,否则本说明书中,包括所附权利要求书中阐述的任何和所有测量、值、额定值、定位、量值、尺寸和其他规格是近似的,而不是精确的。此类量旨在具有与它们涉及的功能和它们所属的领域中的惯例一致的合理范围。例如,除非另外明确说明,否则参数值等可以从所述量变化多达±10%。
此外,在前述具体实施方式中可看出,出于使本公开简化的目的,各种特征在各种示例中被组合在一起。公开的本方法不应被解释为反映所要求保护的示例需要比每个权利要求中明确记载的特征更多的特征的意图。相反,如以下权利要求所反映的,要求保护的本主题在于少于任何单个公开的示例的所有特征。因此,将以下权利要求据此并入到具体实施方式中,其中每个权利要求作为独立要求保护的主题而独立存在。
虽然前文已描述了被认为是最佳模式的示例和其他示例,但应当理解,可在其中作出各种修改且本文所公开的主题可以各种形式和示例来实施,并且其可应用于许多应用中,本文仅描述了其中的一些应用。所附权利要求书旨在要求保护落入本发明构思的真实范围内的任何和所有修改和变型。

Claims (20)

1.一种系统,包括:
图像捕获眼戴器,包括:
支撑结构;
相机,所述相机连接到所述支撑结构以捕获场景的图像;和
用户界面,所述用户界面连接到所述相机和所述支撑结构,所述用户界面被配置成触发所述相机捕获所述图像;
处理器,所述处理器耦接到所述图像捕获眼戴器,所述处理器被配置为:
识别背景选择标准;
识别一组一个或多个指定的接收者;
接收所捕获的图像;
确定所捕获的图像的图像数据;
将所确定的图像数据与所识别的背景选择标准进行比较以识别匹配;以及
响应于所识别的匹配而将所捕获的图像发送到所述一组指定的接收者。
2.根据权利要求1所述的系统,其中所述处理器通过识别针对所述一组一个或多个指定的接收者的第一组背景选择标准和第二组背景选择标准来识别所述背景选择标准,并且其中所述处理器被进一步配置为:
针对所述第二组背景选择标准识别另一组一个或多个指定的接收者;
将所确定的图像数据与所识别的另一背景选择标准进行比较以识别另一匹配;以及
响应于所识别的另一匹配而将所捕获的图像发送到所述第二组指定的接收者。
3.根据权利要求1所述的系统,其中所述背景选择标准包括捕获位置、图像内容或图像质量中的至少一者,并且其中为了比较所确定的图像数据,所述处理器被配置为:
将所确定的图像数据与所述捕获位置、所述图像内容或所述图像质量中的所述至少一者进行比较以识别所述匹配。
4.根据权利要求1所述的系统,其中所述背景选择标准包括捕获位置、图像内容或图像质量中的至少两者,并且其中为了比较所确定的图像数据,所述处理器被配置为:
将所确定的图像数据与所述捕获位置、所述图像内容或所述图像质量中的所述至少两者进行比较以识别所述匹配。
5.根据权利要求1所述的系统,其中为了确定所述图像数据,所述处理器被配置为:
生成图像数据;以及
将所生成的图像数据存储在所捕获的图像的元数据中。
6.根据权利要求5所述的系统,还包括:
全球定位系统(GPS),所述GPS耦接到所述处理器,所述GPS被配置为生成位置坐标;
其中所述处理器响应于在捕获所捕获的图像时从所述GPS接收的位置坐标来生成所述图像数据。
7.根据权利要求6所述的系统,其中所述处理器被进一步配置为:
监测从所述GPS接收的所述位置坐标;
确定过去位置坐标的范围;
通过确定最新位置坐标在所述位置坐标的所确定的范围之外来识别所述图像捕获眼戴器何时处于新区域中;以及
询问所述图像捕获眼戴器的所述佩戴者他们是否想要当处于所述新区域中时自动发送所捕获的图像。
8.根据权利要求5所述的系统,其中为了生成所述图像数据,所述处理器被配置为:
通过将视觉识别算法应用于所捕获的图像来识别所捕获的图像内的内容。
9.根据权利要求1所述的系统,其中为了识别背景选择标准,所述处理器被配置为:
接收由所述图像捕获眼戴器的预定义范围内的其他设备捕获的远程图像的远程图像位置信息;
对所述远程图像位置进行分组;
识别与超过预定义阈值的远程图像的远程图像位置信息相关联的组;以及
指定包含所识别的组中的每个组的区域作为所述内容选择标准中的一者。
10.根据权利要求1所述的系统,其中所述处理器被进一步配置为:
识别所述用户输入上的第一输入手势;
识别所述用户输入上的第二输入手势;
响应于所述第一输入手势而捕获并存储第一图像,而不将所捕获的第一图像自动发送到所述一组指定的接收者;以及
响应于所述第二输入手势而捕获、存储第二图像并将所述第二图像自动发送到所述一组指定的接收者。
11.一种用于与图像捕获眼戴器一起使用的方法,所述图像捕获眼戴器包括被配置为捕获图像的相机和被配置为触发所述相机捕获所述图像的用户界面,所述方法包括以下步骤:
识别背景选择标准;
识别一组一个或多个指定的接收者;
接收所捕获的图像;
确定所捕获的图像的图像数据;
将所确定的图像数据与所识别的背景选择标准进行比较以识别匹配;以及
响应于所识别的匹配而将所捕获的图像发送到所述一组指定的接收者。
12.根据权利要求11所述的方法,其中所述识别所述背景选择标准包括识别针对所述一组一个或多个指定的接收者的第一组背景选择标准和第二组背景选择标准,并且其中所述方法还包括:
针对所述第二组背景选择标准识别另一组一个或多个指定的接收者;
将所确定的图像数据与所识别的另一背景选择标准进行比较以识别另一匹配;以及
响应于所识别的另一匹配而将所捕获的图像发送到所述第二组指定的接收者。
13.根据权利要求11所述的方法,其中所述背景选择标准包括捕获位置、图像内容或图像质量中的至少一者,并且其中所述比较所确定的图像数据包括:
将所确定的图像数据与所述捕获位置、所述图像内容或所述图像质量中的所述至少一者进行比较以识别所述匹配。
14.根据权利要求11所述的方法,其中所述背景选择标准包括捕获位置、图像内容或图像质量中的至少两者,并且其中所述比较所确定的图像数据包括:
将所确定的图像数据与所述捕获位置、所述图像内容或所述图像质量中的所述至少两者进行比较以识别所述匹配。
15.根据权利要求11所述的方法,其中所述确定所述图像数据包括:
响应于在捕获所捕获的图像时来自全球定位系统的位置坐标而生成所述图像数据;以及
将所生成的图像数据存储在所捕获的图像的元数据中。
16.根据权利要求15所述的方法,其中所述方法还包括:
监测从所述GPS接收的所述位置坐标;
确定过去位置坐标的范围;
通过确定最新位置坐标在所述位置坐标的所确定的范围之外来识别所述图像捕获眼戴器何时处于新区域中;以及
询问所述图像捕获眼戴器的所述佩戴者他们是否想要当处于所述新区域中时自动发送所捕获的图像。
17.根据权利要求15所述的方法,其中所述生成所述图像数据包括:
通过将视觉识别算法应用于所捕获的图像来识别所捕获的图像内的内容。
18.根据权利要求11所述的方法,其中所述识别所述背景选择标准包括:
接收由所述图像捕获眼戴器的预定义范围内的其他设备捕获的远程图像的远程图像位置信息;
对所述远程图像位置进行分组;
识别与超过预定义阈值的远程图像的远程图像位置信息相关联的组;以及
指定包含所识别的组中的每个组的区域作为所述内容选择标准中的一者。
19.根据权利要求11所述的方法,还包括:
识别所述用户输入上的第一输入手势;
识别所述用户输入上的第二输入手势;
响应于所述第一输入手势而捕获并存储第一图像,而不将所捕获的第一图像自动发送到所述一组指定的接收者;以及
响应于所述第二输入手势而捕获、存储第二图像并将所述第二图像自动发送到所述一组指定的接收者。
20.一种非暂态计算机可读介质,所述非暂态计算机可读介质包括用于与图像捕获眼戴器一起使用的指令,所述图像捕获眼戴器包括被配置为捕获图像的相机和被配置为触发所述相机捕获所述图像的用户界面,所述指令当由处理器执行时将所述处理器配置为:
识别背景选择标准;
识别一组一个或多个指定的接收者;
接收所捕获的图像;
确定所捕获的图像的图像数据;
将所确定的图像数据与所识别的背景选择标准进行比较以识别匹配;以及
响应于所识别的匹配而将所捕获的图像发送到所述一组指定的接收者。
CN202180066736.7A 2020-09-30 2021-09-23 具有基于环境确定收件人以自动发送图像的图像捕获眼戴器 Pending CN116325711A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063085296P 2020-09-30 2020-09-30
US63/085,296 2020-09-30
US17/147,872 2021-01-13
US17/147,872 US11863860B2 (en) 2020-09-30 2021-01-13 Image capture eyewear with context-based sending
PCT/US2021/051635 WO2022072205A1 (en) 2020-09-30 2021-09-23 Image capture eyewear with automatic image sending to recipients determined based on context

Publications (1)

Publication Number Publication Date
CN116325711A true CN116325711A (zh) 2023-06-23

Family

ID=80821929

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180066736.7A Pending CN116325711A (zh) 2020-09-30 2021-09-23 具有基于环境确定收件人以自动发送图像的图像捕获眼戴器

Country Status (5)

Country Link
US (2) US11863860B2 (zh)
EP (1) EP4222944A1 (zh)
KR (1) KR20230079156A (zh)
CN (1) CN116325711A (zh)
WO (1) WO2022072205A1 (zh)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7908629B2 (en) 2001-06-28 2011-03-15 Intel Corporation Location-based image sharing
US9665597B2 (en) 2006-12-05 2017-05-30 Qualcomm Incorporated Method and system for processing images using time and location filters
KR101544475B1 (ko) * 2008-11-28 2015-08-13 엘지전자 주식회사 터치를 통한 입출력 제어
US9268792B2 (en) 2011-01-24 2016-02-23 T-Mobile Usa, Inc. Automatic selection of digital images with an apparatus
US10409850B2 (en) 2011-03-02 2019-09-10 T-Mobile Usa, Inc. Preconfigured media file uploading and sharing
US9325783B2 (en) 2013-08-07 2016-04-26 Google Inc. Systems and methods for inferential sharing of photos
CN107172367A (zh) 2016-03-07 2017-09-15 赛尔莱博股份有限公司 带有基于位置信息的地理贴纸的图像生成方法及装置
KR20210058969A (ko) 2018-09-28 2021-05-24 스냅 인코포레이티드 웨어러블 또는 모바일 디바이스에서 제스처, 착용, 활동 또는 휴대 검출을 위한 신경 네트워크 시스템
US10958603B2 (en) 2018-10-23 2021-03-23 International Business Machines Corporation Instant photo sharing via local area network setups

Also Published As

Publication number Publication date
US11863860B2 (en) 2024-01-02
US20240129617A1 (en) 2024-04-18
KR20230079156A (ko) 2023-06-05
WO2022072205A1 (en) 2022-04-07
EP4222944A1 (en) 2023-08-09
US20220103745A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
CN116324677A (zh) 响应于检测到的手势的非接触式照片捕获
CN115917498A (zh) 使用语音和文字字幕的增强现实体验
CN115720651A (zh) 利用对象操纵的增强现实体验
CN117356116A (zh) 用于定位可穿戴设备和向可穿戴设备递送内容的信标
CN117120962A (zh) 用于控制虚拟和图形元素的映射手部区域之间的双手交互
CN115768537A (zh) 使用定位追踪的交互式增强现实体验
US11689877B2 (en) Immersive augmented reality experiences using spatial audio
CN115698909A (zh) 增强现实引导
CN115735183A (zh) 增强现实眼戴器3d绘画
CN115735178A (zh) 具有对话气泡和翻译的增强现实眼戴器
CN115917465A (zh) 使用卷帘快门相机的视觉惯性追踪
CN115735174A (zh) 使用保持社交距离的增强现实体验
WO2022005715A1 (en) Augmented reality eyewear with 3d costumes
CN117321537A (zh) 眼睛佩戴设备动态功率配置
CN115836269A (zh) 增强现实环境增强
CN115735179A (zh) 增强现实眼戴器与情绪共享
US20240004197A1 (en) Dynamic sensor selection for visual inertial odometry systems
CN117581147A (zh) 具有x射线效应的增强现实眼镜
CN116324579A (zh) 使用虚拟眼戴器光束的增强现实游戏
CN116324679A (zh) 上下文相关的眼戴器遥控器
US11863860B2 (en) Image capture eyewear with context-based sending
CN117501702A (zh) 具有动态转码节流的设备
CN116685934A (zh) 增强现实精确追踪和显示
CN116529652A (zh) 增强现实空间音频体验

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination