CN109074772B - 基于视线的内容共享动态自组织网络 - Google Patents

基于视线的内容共享动态自组织网络 Download PDF

Info

Publication number
CN109074772B
CN109074772B CN201780012045.2A CN201780012045A CN109074772B CN 109074772 B CN109074772 B CN 109074772B CN 201780012045 A CN201780012045 A CN 201780012045A CN 109074772 B CN109074772 B CN 109074772B
Authority
CN
China
Prior art keywords
user
los
wearable device
specified
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780012045.2A
Other languages
English (en)
Other versions
CN109074772A (zh
Inventor
阿萨夫·阿史克纳茨
哈纳·沙米尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Everysight Ltd
Original Assignee
Everysight Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Everysight Ltd filed Critical Everysight Ltd
Publication of CN109074772A publication Critical patent/CN109074772A/zh
Application granted granted Critical
Publication of CN109074772B publication Critical patent/CN109074772B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/0433Detecting, signalling or lighting devices
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/30Mounting radio sets or communication systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)

Abstract

提供了与通信组中的用户相关联的方法、系统和可穿戴设备。设备接收或得到它们的位置、计算它们相对于参考系的轴线的设备轴线定向和相关联的部件或用户的视线(LOS)、并根据它们相对于LOS的位置和预定义规则向其他用户传递指定数据。系统可以被配置成理解情况的性质,并能够根据指定的标准(例如,阈值)在动态网络内的用户之间自动共享相关的数字信息。假设相关朋友在拍摄图像的位置和定向内、在专用网络内链接到共享图像的用户、并且被批准从网络接收这样的数据,图片和视频可以自动与那些朋友共享。

Description

基于视线的内容共享动态自组织网络
发明背景
1.技术领域
本发明涉及可穿戴设备的领域,并且更具体地涉及在这种设备之间的动态自组织网络。
2.相关技术的讨论
许多网络和网络应用能够访问众多互联用户,这些用户可以根据用户定义来共享信息。当与特定事件相关时,用户通常会注册到专用于该事件的特定组。例如,美国专利公开第2015/0006637号公开了一种在终端用户之间共享媒体的方法,该方法包括定义要共享媒体的事件、在终端用户设备处登记事件数据,以及根据用户定义共享捕获的媒体,该专利公开通过引用以其整体并入本文。在另一个示例中,美国专利第9,009,596号公开了一种媒体内容呈现系统,该系统接收由直播事件的多个参与者在直播事件期间生成的多个带有时间戳和地理标记的媒体内容实例、检测由用户提供的指定与直播事件相关联的时间段的输入和由用户提供的指定与直播事件相关联的地点内的观看区域的输入、识别一个或更多个具有包括在指定的时间段内的时间戳和指定的观看区域内的地理标记定位的媒体内容实例、以及以与直播事件相关联的事件时间线在时间上同步的方式在图形用户界面内向用户呈现识别的一个或更多个媒体内容实例,该专利通过引用以其整体并入本文。在这方面的类似方法包括美国专利第8,442,922号、第9,026,596号和第8,767,081号以及美国专利公开第2011/0271213号和第2012/0324589号的公开内容,这些方法通过引用以其整体并入本文。
发明概述
以下是提供对本发明的初步理解的简要概述。该概述不一定标识关键要素,也不限制本发明的范围,而是仅作为对以下描述的介绍。
本发明的一个方面提供了一种可穿戴设备,该可穿戴设备与作为具有相应可穿戴设备的用户的至少一个通信组的成员的用户相关联,该可穿戴设备包括:位置和定向(P&O)模块,其被配置为:接收或得到可穿戴设备的位置,计算可穿戴设备相对于参考系的轴线的设备轴线定向,以及计算与可穿戴设备相关联的具有指定的P&O的至少一个部件的视线(LOS),该LOS计算相对于场景并基于以下来执行:可穿戴设备的接收或得到的位置、可穿戴设备的计算的设备轴线定向以及至少一个部件的指定的P&O;以及通信模块,其被配置为根据在其他可穿戴设备的位置和计算的LOS和设备位置之间的关系将指定的数据传递给至少一个通信组的相应的至少一个其他用户的至少一个其他可穿戴设备,其中该关系由预定义规则指定。
本发明的这些、另外的和/或其它方面和/或优点在下面的详细描述中阐述;从该详细描述是可以推断出的;和/或通过本发明的实践是可以知悉的。
附图简述
为更好地理解本发明的实施例,并示出如何可以付诸实施,现在将仅以举例的方式参照附图,整个附图中类似的标号表示相应的元件或部分。
在附图中:
图1A和图1B是根据本发明的一些实施例的系统中的可穿戴设备的高层级示意框图。
图1C-1F是根据本发明的一些实施例的可穿戴设备的各种配置的高层级示意图。
图2A-2D是根据本发明的一些实施例的使用场景的高层级示意图。
图3是示出根据本发明的一些实施例的方法的高层级流程图。
图4和图5是根据本发明的一些实施例的使用场景的高层级示意图。
图6是示出了根据本发明的一些实施例的方法的元素的高层级示意流程图。
发明的详细描述
现在详细地具体参考附图,要强调的是,所示的细节是通过举例的方式且仅仅是出于对本发明的优选实施例说明性讨论的目的,并为了提供认为是本发明的原理和概念方面的最有用和容易理解的描述而呈现。在这点上,没有试图以比对本发明的基本理解所必须的细节更详细的程度来显示本发明的结构细节,结合附图的描述使得本领域技术人员明白,如何可以在实践中实施本发明的几种形式。
在详细说明本发明的至少一个实施例之前,应当理解本发明在其应用中不限于在下面描述中阐述的和在附图中示出的结构细节和部件的结构。本发明可以适用于可以以各种方式被实践或被实施的其他实施例。另外,应理解本文采用的措辞和术语是出于描述的目的而不应被看作是限制性的。
除非另有特别规定,如从下面的讨论明显的,应认识到,在整个说明书讨论中,利用术语例如“处理”、“计算(computing)”、“计算(calculating)”、“确定”、“增强”等指计算机或计算系统或类似的电子计算设备的动作和/或过程,这些设备操作被表示为在计算系统的寄存器和/或存储器内的物理量例如电子量的数据和/或将表示为在计算系统的寄存器和/或存储器内的物理量例如电子量的数据转换成类似地被表示为在计算系统的存储器、寄存器或其它这样的信息存储、传输或显示设备内的物理量的其它数据。任何公开的模块或单元可以至少部分地由计算机处理器实现。
提供了方法、系统和可穿戴设备,其与通信组中的用户相关联,并实现具有无缝交互和数据共享的自组织动态网络。设备接收或得到它们的位置、计算它们相对于参考系的轴线的设备轴线定向和相关联的部件或用户的视线(LOS)、并根据它们相对于LOS的位置和预定义规则向其他用户传递指定数据。系统可以被配置成理解情况的性质,并能够根据指定的标准(例如,阈值)在动态网络内的用户之间自动共享相关的数字信息。假设相关朋友在拍摄图像的位置和定向内,在专用网络内链接到共享图像的用户,并且被批准从网络接收这样的数据,图片和视频可以自动与那些朋友共享。
图1A和图1B是根据本发明的一些实施例的系统100中的可穿戴设备110的高层级示意框图。图1C-1F是根据本发明的一些实施例的可穿戴设备110的各种配置的高层级示意图。可穿戴设备110与作为具有相应的可穿戴设备110A的用户90A的至少一个通信组91的成员的用户90相关联(数字110和110A之间的区别仅仅是分别指定任意焦点设备和其他设备,并且在任何意义上没有限制,因为设备中的任一个可以被认为是焦点设备)。
每个可穿戴设备110包括位置和定向(P&O)模块120,其被配置为:(i)接收或得到可穿戴设备110的位置,计算可穿戴设备110相对于参考系的轴线的设备轴线定向,计算与可穿戴设备110相关联的具有指定的P&O的至少一个部件111的视线(LOS)95。参考系可以在用户外部(诸如地球)、或者特定于一个或更多个用户(诸如用户所处的环境(例如房间、特定的地理定位等))、相应车辆内部或者甚至用户自己。参考系可以是通信组中的用户共有的,或者可以是用户特定的。设备110和/或系统100可以被配置成在用户的参考系不同时在这些参考系之间转换坐标和方向。
LOS计算可以相对于场景96来执行,并且基于可穿戴设备110的计算出的设备轴线定向且基于至少一个部件111的指定的P&O。例如,P&O模块120可以被配置为例如使用GPS(全球定位系统)模块和/或经由诸如惯性跟踪器的跟踪器125来得到可穿戴设备110的位置。GPS模块125可以实现任何类型的GPS导航(例如,GPS、GLONASS(全球导航卫星系统)、A-GPS(辅助GPS)、航位推测法等)。跟踪器125还可以被配置为跟踪用户90的LOS 95,并且P&O模块120可以被配置为使用跟踪的用户的LOS 95来代替计算的部件LOS 95(分别参见下面的图1D和图1C)。使用设备110的定位数据和相应的矢量LOS数据提供了用户之间关于他们的设备110和LOS 95的空间关系。可穿戴设备110包括通信模块130,该通信模块130被配置为根据其他可穿戴设备110A的位置和计算的LOS 95之间的关系,将指定的数据传递给至少一个通信组91的相应的至少一个其他用户90A的至少一个其他可穿戴设备110A,其中该关系由预定义规则指定。预定义规则可以涉及空间和时间关系以及与用户的身份、定位和LOS相关的基于应用的规则。指定的数据可以直接从可穿戴设备110传递到其他可穿戴设备110A(141),可以经由通信链路99传递(143)和/或由管理应用180传递,可能在进一步处理之后。管理应用180还可以在设备110之间实现不包含通信链路99的网络142(见下文)。
图1B示意性地示出了可穿戴设备110和系统100的补充方面,并且图1A和图1B的任何组合也可以被认为是本发明的实施例。可穿戴设备110可以包括与其相关联的任何数量的部件111,其中至少一个部件111可以用于计算LOS。例如,经由应用170,设备110可以被配置为在由场景96、用户90、设备110和/或任何部件111定义的坐标系之间转换。例如,LOS 95可以以部件坐标计算,然后被转换成场景坐标。用于LOS计算和用于用户之间的空间关系的计算的坐标系的选择可以是静态的或者可以动态修改。部件111可以包括设备110的元件中的任何一个,诸如传感器112、照相机140(作为用于图像捕获设备140的非限制性示例)、显示器160、跟踪器125、照明器147(例如,用户激活的指示器)、指南针、3D音频麦克风等。例如,部件111可以包括具有相对于垂直于照相机的检测器的线定义的LOS 95的照相机140(例如,向前看)、具有相对于传感器112的主瓣和/或指定的感测扇区(或角度范围)定义的LOS 95的传感器112,等等。LOS 95的计算可以相对于部件111以及相对于部件111的标识动态变化(即,LOS 95可以相对于不同的部件111来计算,同时产生一个或更多个LOS和/或顺序地产生LOS)。明确地注意到,设备110的任何部件可以相对于其自身的LOS(或与任何方向无关)进行操作,并且设备110可以被配置为将这些方向中的每一个与LOS 95相关。
通信模块130和/或应用170可以在与一个用户90相关联的元件和部件(诸如部件111、传感器112、图像捕获设备140、显示器160、照明器147(例如,激光指示器)等)之间支持个人局域网(PAN)98。例如,传感器112可以包括测量用户90的生理参数(例如,脉搏、呼吸率、氧饱和度、温度等)的传感器,并且应用170可以被配置成监测这些生理参数,并且可能在特定条件下提供警报和/或传送与它们相关的数据。通信模块130和/或应用170可以在通信组91的用户90、90A之间支持广域网(WAN)99A。WAN 99A可以使用通信链路99或除此之外的方式实现。WAN 99A可以使用无线通信(诸如蜂窝通信)或者至少部分地使用任何类型的无线通信来实现。管理应用180还可以被配置为不使用任何通信链路而是直接经由设备到设备通信142来实现WAN 99A,例如,对于通信链路99覆盖减少的情况。
至少一个通信组91中的网络99A可以是动态、本地、临时和自组织(点对点)网络中的任何一个,该网络利用与用户的现有状况相关的参数(例如,定位、时间、头部和眼睛定向,以及诸如坐、站、走、跑、骑车、驾驶等状态)、健康监测传感器的指示、用户预定义的数据(诸如性别、年龄、地址、爱好等)和设置数据(社交联系人、家庭联系人、工作联系人、共享级别机制,诸如,共享全部、最好是图像/视频、智能共享——只有当用户在图片中时才能共享)。系统100可以涉及以下中任何一个:实时数据(例如,诸如定位、高度、时间、头部视线、眼睛视线的用户数据;传感器数据,诸如气压计、加速度计、功率、节奏、速度、移位器定位;生物数据,诸如心率、脉搏血氧仪;连通性信息,诸如蓝牙(常规能量或低能量)、WiFi、蜂窝等)、预定义数据(例如,性别、年龄、身高、体重、心率范围)、社交数据(例如,联系人列表、社交频道、优先级列表、紧急列表)和系统特定数据(例如,识别码、共享策略、隐私策略、基于定位的服务策略、认证策略、支付策略)。
预定义规则可以涉及以下各项中的至少一个:到其他可穿戴设备110A的距离、其他可穿戴设备110和计算的LOS 95之间的角度关系(例如,相对于LOS的角度,可能还涉及相对于LOS的距离和/或定义的扇区)、其他用户90A的身份、用户的至少一个通信组91内的其他用户90A的状态、其他用户90A的优先级、与指定数据相关的优先级以及与它们中的每一个相关的时间参数。预定义规则可以从可穿戴设备110中的应用170和/或从例如经由通信链路99与所有可穿戴设备110A连接的管理应用180接收。预定义规则可以涉及时间参数,诸如特定用户在特定时间处的定位,可能包括指定的延迟(例如,用于向在用户90之后到达定位的用户90A传送数据)。与用户定位和LOS的空间关系可以是基于时间的,使得数据可以基于其他用户的位置和LOS的时空特征传递给他们。
可穿戴设备110还可以包括图像捕获模块140,其被配置为沿着LOS95捕获至少一个图像(可能是数据流、视频等),并且传递的指定数据可以包括至少一个图像。捕获模块140以及设备110的任何其他部件可以沿着任何方向(作为相应部件的LOS)进行操作,并且这些方向可以与LOS95相关。
可穿戴设备110还可以包括图像处理软件150,其被配置成能够在至少一个图像被传递之前对其进行处理。
可穿戴设备110还可以包括具有图形用户界面(GUI)165的显示器160,其被配置为显示至少一个其他可穿戴设备110A的定位和指定数据,并且实现接收者用户90A的选择。接收者用户90A的用户选择可以在预定义规则之上使用。
如图1C-1F所示,可穿戴设备110可以被配置为头戴式设备(图1C),具有与穿戴设备110的用户90的LOS平行的LOS 95。例如,当可穿戴设备110是眼镜形式时,部件111可以位于其前面,显示器160可以被结合在眼镜或透镜中或投影在眼镜或透镜上,并且模块120、130、140和GUI165可以被集成在框架中。可穿戴设备110可以被结合在任何通信设备中(图1D),其中任何类型的P&O模块120被配置为通过任何方式跟踪用户的LOS 95。显示器160可以是通信设备的一部分或与通信设备相关联或通信的单独单元。可穿戴设备110可以是安装在车辆用户90坐骑上的前视设备(图1E),并且LOS 95可以相对于车辆计算。用户90可以在眼镜上具有显示器160,显示器160与前视设备通信。在某些实施例中,可穿戴设备110的元件甚至可以与地形分离,例如在空中,而LOS 95可以由相应用户的LOS确定。可穿戴设备110可以是具有显示器160的手机、平板电脑等(图1F),其被配置为由各种参数中的任何一个确定的LOS 95,诸如相对于设备110、相对于显示器160、相对于设备110的部件(例如,照相机、传感器等)的定向或任何其他用户定义的方向。明显地注意到,术语“可穿戴”在一般意义上被理解为设备110与用户、车辆或甚至定位的任何关联。术语“可穿戴”仅指明设备110与用户或与用户相关联的车辆之间的共同但非限制性的物理关联。
关于计算的LOS 95的指定数据的传递可以仅在场景96的指定扇区126处执行,该指定扇区126例如由相对于LOS 95的指定角度和/或相对于可穿戴设备110的位置的指定距离来限定。指定(角度)扇区126可以由用户90、管理应用180中的任何一个例如根据各种参数来调整,诸如用户的行为或活动、地形特征和通信组91的定义。对于扇区126的非限制性示例可以包括,例如,对于静态用户,在高达几百米的范围内在30°到150°之间的范围内,对于具有拍摄高达120°的照相机的动态用户,在类似范围内在100°到240°的范围内。更大的扇区(高达360°)例如可用于具有360°视场的照相机。低到几度的较小的扇区例如可用于具有窄视场的照相机,在这种情况下,距离可以增加到一个或更多个km。
可穿戴设备110可以是系统100的一部分,系统100包括各个用户90、90A的多个可穿戴设备110、110A,以及与可穿戴设备110、110A中的通信模块130通信的管理应用180。管理应用180可以被配置为根据预定义规则来管理通信模块130之间包括指定数据的数据流的发送。
系统100中的设备110、110A可以包括各自的图像捕获模块140,其被配置为沿着各自用户90A的各自LOS 95或沿着任何其他方向捕获至少一个图像,并且管理应用180可以进一步被配置为根据与捕获的图像和LOS相关的用户90A的时空参数,从接收的来自一个或更多个可穿戴设备110、110A的多个捕获的图像中构成复合图像或视频。管理应用180还可以被配置为相对于以下中的任一项来构成复合图像或视频:指定用户90A,例如,在多个图像中描绘的用户;特定捕获的图像,例如增强功能,诸如在不同时间处或从不同角度捕获相似的图像;时空轨迹,例如,沿着所有用户共有的轨迹;和/或定位,例如捕获场景的全景视图。复合图像或视频可以由任何用户和/或由管理应用180例如,使用说明在事件时间内与每个用户相关的位置和捕获的图像的查找表来实时处理或在事件之后处理。
管理应用180还可以被配置为定义和管理关于指定数据的传递的用户的预定义规则。例如,可以使用用户优先级、连接的朋友、地理数据和任何其他偏好来调整预定义规则。
图2A-2D是根据本发明的一些实施例的使用场景的高层级示意图。图2A-2C示出了包括多个轨迹80的各个场景的顶视图,其中用户90、90A、90B、90C、90D在轨迹80上。某些用户90(图2A)、90A和90B(图2B)和90A(图2C)以非限制性的方式被称为具有可穿戴设备110的焦点用户(focal user)(由相应的星星指示),并且它们的指定扇区126、126A和126B和126分别以示意方式示出(明确指定的扇区可以是可变的,并且也可以在用户之间变化)。其他用户90A(图2A)和90C(图2B)以非限制性的方式被指示为具有可穿戴设备110A的用户(由全黑圆圈指示),其属于具有焦点用户的通信组91,并且具体地与焦点用户相关联,例如,在管理应用180的上下文中作为连接的朋友。其他用户90B(图2A)和90D(图2B)以非限制性的方式被指示为具有可穿戴设备110A的用户(由空心圆圈指示),其属于具有焦点用户的通信组91,并且没有具体地与焦点用户相关联,例如,在管理应用180的上下文中没有作为连接的朋友。最后,以非限制性方式将用户90C(图2A)和90E(图2B)指示为可能具有或可能不具有可穿戴设备110A并且不属于具有焦点用户的通信组91的用户(由小阴影圆圈指示)。显然,通信组91中的成员和用户之间的朋友连接可以根据指定规则来更新和修改,例如,通过管理应用180来实现。显示器160和GUI 165可以呈现并允许用户与类似于图2A-2C中呈现的地图的地图交互,以实现对预定义规则、用户之间的社交交互等的修改。
圆圈128、128A、128B表示通信组91相对于焦点用户的范围(与LOS无关或可能依赖于LOS)。这些范围可以定义通信的不同方面,诸如属于特定组91的最大范围、包括作为连接朋友的其他用户的范围、从焦点用户或向焦点用户传递的特定的、可能不同类型的数据的范围、不同的数据传递优先级等。例如,在图2A中,圆圈128A之外的用户可能不从焦点用户接收数据,圆圈128A之内而圆圈128B之外的用户可能接收某些类型的数据,或者仅当作为朋友连接到焦点用户时才接收数据,以及圆圈128B之内的用户可接收更多或所有数据,这取决于或不取决于他们与焦点用户的朋友连接性。可选地或补充地,扇区126内的用户可以仅仅是从焦点用户接收数据(诸如图像或视频)的用户,而其他用户可以仅接收关于焦点用户的一般数据(例如,定位、身份等),这取决于他们与焦点用户的距离。区域126、128、128A、128B中的任一个的尺寸可以例如根据焦点用户的速度、前方地形的特征、通信可用性和参数等动态地变化。区域中的一个或更多个也可用于定义特定事件的参与者,将他们与其他可能相邻事件的参与者区分开来。示例性的非限制性半径对于圆圈128B为几百米至20km,而对于圆圈128A为几km至无穷大。
对于数据传递的规则和偏好可以取决于用户特征,诸如运动速度。例如,静态用户可能具有特定的数据传递定义(例如,范围128A内的传递),而移动用户(可能高于指定的速度阈值)可能具有其他特定的数据传递定义(例如,扇区126内的传递)。数据传递可以根据某些用户特征(诸如运动速度)自动地执行。根据时空标准(例如,诸如进入先前或当前被扇区126和/或圆圈128A覆盖的区域),其他用户可以在其传递时或之后接收传递的数据。在某些实施例中,焦点用户可以与圆圈128A中的用户或连接朋友共享低带宽数据(例如,实时元数据,如定位、时间、速度、速度矢量、生物数据),同时与在由焦点用户的LOS限定的扇区126中的用户或连接朋友共享高带宽数据(例如,图像和视频)。在某些实施例中,数据更新率在区域126、128、128A、128B之间可以不同,例如,低数据更新率可以应用于低带宽数据,而更高更新率可以应用于高带宽数据,和/或更新率可以取决于焦点用户的速度。在用户暂时失去与通信链路99和/或与特定的其他用户或连接朋友的连接的情况下,可穿戴设备110中的智能航位推算机构可以被配置为指示断开连接(例如,通过改变符号颜色)并根据过去的移动数据(诸如定位和速度)来估计断开连接的用户的前进。近的范围128B可以限定一个区域,在该区域中,所有或特定用户在特定条件下(例如移动焦点用户)、通过管理应用180(142)、直接(141)或直接经由通信链路99(143)从焦点用户接收特定类型的数据,诸如任务相关的信息(例如,当前或预定义信息,诸如导航数据或训练数据)。接收用户可以在接收任何类型的实际数据之前接收通知,并且可以批准或拒绝接收数据。数据传递也可以推迟到给定的时间或者推迟到用户处于某个情况(定位,不在移动等)的时候。管理应用180可以被配置为防止向用户过度传递数据,并相对于关于传递的数据的用户偏好来优化可用带宽。
如图2B所示,系统100可以处理多个焦点用户90A、90B,每个焦点用户具有与相应的LOS 95A、95B相关的相应扇区126A、126B。区域128可以是用户90A、90B共有的,或者可以变化(每个区域都以用户为中心)。系统100例如经由管理应用180可以处理从多个焦点用户到各个连接朋友的各个数据传递,以产生不同类型的多个数据传递,这取决于用户之间的对称和非对称关系。
在某些实施例中,一个或更多个用户可以被定义为连接到所有用户和/或从所有用户接收一个、一些或所有类别的所有数据的“超级用户”。这种“超级用户”(与系统100的管理器不同或相同)可以访问关于用户的所有地理数据、从所有用户传递的所有图像数据,和/或可以选择从哪个用户接收哪些数据。“超级用户”可以根据各种标准对用户进行分类(例如,车辆-骑行与否、生理参数-心率高于阈值等等),并因此监测相应事件的参与者、识别紧急情况或用户的苦恼等。“超级用户”可以相对于低带宽和/或高带宽数据如此定义。
如图2C所示,“超级用户”(用实心星表示的90C)可以在区域128的外部(在某些实施例中,甚至与地形分离,例如,在空中),并且仍然直接从例如管理应用180和/或其他用户90A接收所有用户数据。超级用户90C可以定义来自用户90A的数据传递的优先级,处理从用户90A传递的数据,并向一些或所有其他用户传递产品(例如,由多个用户90A捕获的图像和视频组成的编辑的复合视频)。例如,超级用户90C可以引导用户90A覆盖指定的兴趣点90D,该兴趣点90D可以是用户、定位、玩家等。可以使用各种地理信息进行引导,包括几何计算、使用LOS计算、地形特征等。超级用户90C可以接收实时数据以及早期捕获的图像或数据,并且可以从所需的数据或图像中选择特定的源,例如,使用定义用户及其各自LOS的地理查找表(例如,由于兴趣点90D从其位置或相对于其活动的有限可见性,用户90B可能不会被选择)。
在某些实施例中,一个或更多个用户可以被定义为连接到所有用户和/或向所有用户传送一个、一些或所有类别的数据的“超级用户”。这种“超级用户”可以是特定用户或处于特定状态的特定用户,例如处于困境状态的用户。系统100可以被配置成将处于困境的用户自动变成“超级用户”,并将相关数据传送给附近的一些或所有用户、指定为医务人员的用户或根据任何其他定义。“超级用户”可以根据各种标准进行分类(例如,车辆-骑行与否、生理参数-心率高于阈值等),并被其他用户经由该系统进行有效地监测以识别紧急情况、用户的困境等。“超级用户”可以相对于低带宽和/或高带宽数据如此定义。
图2D是根据本发明的一些实施例的系统100的多LOS操作模式的高层级示意图。系统100例如经由管理应用180可以被配置为评估与相应用户和设备110、110A、110B相关联的多个P&O和LOS 95、95A、95B之间的空间关系,并相应地发送数据流。例如,系统100可以仅向具有与LOS95相反的LOS的设备传递数据,可能考虑到设备110、110A、110B的位置,以确定这些设备是否在指定角度范围126内彼此面对。在检测到某些评估的空间关系时,可以初始化数据传输和/或可以发送数据增强。应当注意,这种操作模式可以在商业场景96中实现,例如,其中用户90是通过识别与潜在顾客90A的评估的空间关系以指示潜在顾客90A正在看商店来与该潜在顾客90A通信的商店,其中(商店处的设备110的)LOS 95和(潜在顾客90A上的设备110的)LOS 95A在指定角度范围内指向彼此。
图3是示出根据本发明的一些实施例的方法200的高层级流程图。方法200的数据处理阶段可以至少部分地由至少一个处理器执行。方法阶段可以相对于上述系统100来执行,该系统100可以可选地被配置为实现方法200。方法200可以至少部分地由至少一个计算机处理器实现。某些实施例包括计算机程序产品,该计算机程序产品包括计算机可读存储介质,该计算机可读存储介质具有用其体现并被配置为执行方法200的相关阶段的计算机可读程序。方法200可以包括用于生产、制备和/或使用系统100的阶段,诸如以下任何阶段,而不管它们的顺序如何。
方法200可以包括接收或得到可穿戴设备的位置(阶段210),该可穿戴设备与作为具有相应可穿戴设备的用户的至少一个通信组的成员的用户相关联,以及计算可穿戴设备相对于参考系的轴线的设备轴线定向(阶段220)。方法200还包括计算安装在可穿戴设备上的具有指定的P&O的至少一个部件的LOS和/或设备本身的LOS(阶段230),该计算相对于场景执行,并且基于可穿戴设备的计算出的设备轴线定向且基于至少一个部件的指定的P&O。方法200还包括根据至少一个通信组的相应的至少一个其他用户的至少一个其他可穿戴设备的位置与所计算的LOS和位置之间的关系,向该至少一个其他可穿戴设备传递指定的数据(阶段250),其中该关系由预定义规则指定。预定义规则可以涉及以下各项中的至少一个:到另一个可穿戴设备的距离、另一个可穿戴设备和计算的LOS之间的角度关系(例如,根据指定的扇区定义)、另一用户的身份、用户的至少一个通信组内的另一用户的状态、另一用户的优先级以及与指定数据相关的优先级。
方法200可以包括通过所有可穿戴设备所连接的公共应用来管理预定义规则(阶段275),并且通常根据预定义规则来管理用户之间数据流的发送(阶段270)。
方法200可以包括沿着LOS捕获至少一个图像(阶段240),其中所传递的指定数据包括至少一个图像。至少一个图像可以在其传递之前被处理(例如,修改和/或编辑)(阶段242)。方法200可以包括根据与捕获到的图像相关的用户的时空参数并相对于指定用户、特定捕获的图像、时空轨迹和定位中的至少一个,从由至少一个通信组中的一个或更多个可穿戴设备捕获的并从其接收的多个图像中构成复合图像或视频(阶段245)。方法200还可以包括提供关于复合图像/视频的部分的编辑和共享能力,诸如例如通过维护相应的数据库使用户能够分类、标记、编目、编辑和共享复合图像/视频的部分或全部(阶段246)。
方法200可以包括,使用具有GUI的显示器,显示至少一个其他可穿戴设备的定位和指定数据(阶段260),并且能够选择接收者用户(阶段262)。
方法200可以包括跟踪用户的LOS并使用跟踪的用户的LOS来代替计算的部件LOS(阶段234)。任何的计算(例如,阶段230的计算)可以在用户设备(例如,可穿戴设备)处和/或由远程服务器执行(阶段232)。
指定数据相对于计算的LOS的传递250(例如,发送捕获的或处理的图像/视频)可以相对于LOS以指定角度和/或相对于可穿戴设备的位置以指定距离执行(阶段255)。例如,指定的角度和距离可以被定义为相对于设备110和LOS 95的角度扇区。方法200可以包括检测用户的定位并相应地执行发送(阶段257)。方法200还可以包括评估多个P&O和LOS之间的空间关系,并相应地传递数据(阶段258)。例如,方法200可以在具有在指定角度范围内彼此指向的LOS的用户之间提供通信、数据传递或数据增强。
方法200可以包括根据预定义规则管理在至少一个通信组中的可穿戴设备之间包括指定数据的数据流的发送(阶段252)。方法200可以包括定义和管理用户关于指定数据的传递的预定义规则。
在某些实施例中,方法200可以包括在指定位置处并相对于指定的LOS来识别用户设备的P&O和LOS(阶段280),评估(i)指定位置和指定的LOS之间的空间关系,以及(ii)用户设备的P&O和LOS之间的空间关系(阶段282),并根据评估的空间关系和相对于预定义规则向用户设备传递指定数据(阶段284)。指定数据的传递284可以相对于指定的LOS以指定角度和/或相对于可穿戴设备的位置以指定距离执行。上述关于可穿戴设备110和系统100的特征可以被对静态设备实现,该静态设备根据其他设备的LOS检测其他设备并相应地与其他设备通信。
有利的是,系统100和方法200为智能识别系统提供了解决方案,其简化动态自组织网络内图像、视频和其他数字信息的共享。系统100和方法200可以被配置为理解情况的性质(例如,与用户活动、生物数据、定位、照相机位置和定向等相关),并能够根据指定的标准(例如阈值)在动态网络内的一组用户之间自动共享相关数字信息。例如,网络内的用户可以拍摄一组人的照片,并且假设相关朋友在拍摄图像的位置和定向内,在专用网络内链接到共享图像的用户,并且被批准从网络接收这样的数据,该照片可以自动与那些朋友共享。
图4和图5是根据本发明的一些实施例的使用场景的高层级示意图。图4和图5示意性地示出了用于根据其他可穿戴设备的位置和计算的LOS之间的关系,从具有可穿戴设备110的用户90向各个用户的其他可穿戴设备传递指定数据的配置和预定义规则。图4和图5示意性地示出了用户90行进的路径801以及用户90沿着路经801的LOS和观看扇区;以及具有根据预定义规则确定的相应的数据传递时空间隔的其他用户的路径。注意,数据传递可以取决于发送用户的P&O,而且还取决于用户出现的特定的地点和时间(以及他们与用户的P&O的关系),而不一定取决于其他用户的定向和LOS。图4和图5是来自用户90的透视图。
如图4所示,其中用户90是在路径801上行进并通过位置901、902的焦点(例如,发送)用户,带有具有位于前方的部件111的可穿戴设备110。部件111定义以LOS 95为中心的观看扇区126。部件111被配置成沿着路径801捕获场景500的数据101、102、103、104,其中捕获的数据101、102、103、104中的每一个被采用并与特定的相关数据相关联,诸如时间标签、位置、地理坐标、视线(LOS)、FOV、用户评论、兴趣点、录音等。捕获的数据101、102、103、104…N沿着用户90的路径生成部件111的轨迹线600。用户90A和用户90B以非限制性的方式示出为在路径802、803上行进,其中两个用户都属于通信组91并且与焦点用户90相关联。根据用户的移动之间的时空关系,用户90A和90B的路径在不同时间和不同定位处与用户90的扇区126相交。捕获的数据101、102、103、104可以根据焦点用户90的扇区126覆盖范围和其他用户位置之间的时空关系传递给其他用户。在一些实施例中,仅诸如用户90A的902A、903A和用户90B的901B的与用户90的扇区126相交并且对应于时空关系的位置可以被用于启动捕获的数据101、102到用户90A以及捕获的数据104到用户90B的数据传送,而捕获的数据103可以不传递到任何用户。
在某些实施例中,用户90沿着路径801捕获或生成的数据可以被分成多个捕获的数据部分,并且可以作为数据捕获过程的一部分与特定的相关数据相关联。多个捕获的数据部分可以与特定的相关数据相关联,并且通过评估与其他用户的时空关系,可以生成指定数据。可以基于预定义规则将指定的数据传送给特定用户,预定义规则可以涉及接收用户90A、90B和焦点用户90之间的相对时空关系。如以非限制性方式示出的,预定义规则可以是指示用户90A离捕获的数据101的中心的距离的阈值,或者是可以指示捕获的数据101被采用的时间和用户90A处于位置902A中的时间之间的关系的时间阈值,如所示,预定义规则可以指示哪些指定数据应该被传送给其他特定用户。
在某些实施例中,位置903A中的用户90A可以在场景500中使用LOS95指定兴趣点501,兴趣点501与用户90的扇区126相交,根据预定义规则以及兴趣点501和捕获的数据103之间的时空关系,捕获的数据103可以被传送给用户90A,该数据传送可以在现场或行程结束后启动。可以使用LOS 95在现场选择指定点501,或者在行程结束后,通过基于用户90的轨迹线600选择用户90A的路径上的点或其他兴趣点来选择指定点501。可以针对通信组91以相对时空关系向组91的每个用户显示轨迹线600。在某些实施例中,轨迹线600可以仅在用户90A的坐标和时域对应于部件111的覆盖范围的部分中显示给用户90A,以这种方式,用户90A可以选择沿着轨迹线的定位来传递指定的数据。
如图5所示,用户90的轨迹线600显示了沿着路径801的设备110的部件111在LOS95周围的记录的覆盖范围,用户90A的轨迹线600A显示了其他设备110A的部件111在LOS 95周围的记录的覆盖范围。用户轨迹线600和600A之间的交叉生成重叠轨迹线800,在该重叠轨迹线中由设备110在不同时间处捕获或同时捕获的两个用户90、90A的信息增加了在同一场景500上捕获的数据量。远程服务器或本地设备可以被配置为计算不同用户的所有不同轨迹线,并且可以显示单个轨迹线600、多个轨迹线600、600A或重叠轨迹线800,以供用户根据预定义规则手动或自动选择。重叠轨迹线可以根据用于生成重叠轨迹线800的用户轨迹线的数量在尺寸和形状上改变。可以根据两个设备、三个设备等等至N个设备的重叠来过滤显示。使用重叠轨迹线允许用户基于来自不同设备部件111的捕获数据的定位交叉和多个设备覆盖范围从其他设备接收指定数据。注意,所示的示例可以被一般化并应用于任何数量的设备,包括大量的设备和用户(例如,数十甚至数百个设备和用户)。
图6是示出根据本发明的一些实施例的方法400的高层级示意流程图。方法400的数据处理阶段可以至少部分地由至少一个处理器来执行,用户之间的数据传送可以由不同的通信硬件部件来承载。方法阶段可以相对于上述系统100来执行,该系统100可以可选地被配置为实现方法400。方法400可以至少作为方法200的一部分来实现,和/或来自方法200、400的阶段可以在本发明的各种实施例中组合。方法400可以至少部分地由至少一个计算机处理器实现。某些实施例包括计算机程序产品,该计算机程序产品包括计算机可读存储介质,该计算机可读存储介质具有用其体现并被配置为执行方法400的相关阶段的计算机可读程序。方法400可以包括用于生产、制备和/或使用系统100的阶段,诸如以下任何阶段,而不管它们的顺序如何。
方法400可以包括接收或得到可穿戴设备的位置,该可穿戴设备与作为具有相应可穿戴设备的用户的至少一个通信组的成员的用户相关联,以及计算可穿戴设备相对于参考系的轴线的设备轴线定向。方法400还包括计算安装在可穿戴设备上的具有指定的P&O的至少一个部件的LOS和/或设备本身的LOS(阶段580),该计算相对于场景执行,并且基于可穿戴设备的计算出的设备轴线定向且基于至少一个部件的指定的P&O。方法400可以包括接收安装在可穿戴设备上的至少一个部件的捕获时间,并且可以向捕获的数据指示时间戳(阶段581)。
方法400还可以包括在不同的定位和时间处接收至少一个其他用户的位置和定向(阶段583),从而接收至少一个其他用户的时空信息。方法400还可以包括在作为具有相应的可穿戴设备的用户的至少一个通信组的成员的用户之间的时钟的同步(阶段582)。
方法400可包括使用与可穿戴设备相关联的至少一个部件捕获与场景相关的数据,该数据可包括由至少一个通信组中的一个或更多个可穿戴设备捕获并从其接收的多个图像中记录的音频或图像或视频(阶段584),方法400可接收用于数据传送的预定义规则(阶段585),该预定义规则可涉及以下中的至少一个:到另一可穿戴设备的距离;在另一可穿戴设备和计算的LOS之间的角度关系,例如根据指定的扇区定义;另一用户的身份;另一用户在用户的至少一个通信组内的状态;另一用户的优先级;以及与关于捕获的数据的用户的指定的时空参数相关的优先级。
方法400可以基于在阶段584中捕获的捕获场景数据信息将至少一个指定数据定义为与至少一个其他用户相关(阶段586),该捕获场景数据信息可以将捕获数据与从阶段580和582接收的时空信息相关,此外,方法400可以基于在阶段583中接收的其他用户时空信息将至少一个指定数据定义为与至少一个其他用户相关,该其他用户时空信息可以与捕获数据时空信息或绝对时空数据相关。
方法400还可以向至少一个其他用户传送指定的数据(阶段587),数据传送可以通过可用于短程或远程通信(诸如蓝牙、WIFI、蜂窝和其他)的任何通信硬件来完成。
在上述描述中,实施例是本发明的示例或实现方式。“一个实施例”、“实施例”、“某些实施例”或“一些实施例”的各种显现不一定都指相同的实施例。
尽管本发明的各种特征可以在单个实施例的上下文中进行描述,但这些特征也可以单独地或以任何合适的组合提供。相反,尽管为了清楚起见,本发明可在本文中在单独实施例的上下文中进行描述,但本发明也可以在单个实施例中实现。
本发明的某些实施例可包括来自上面公开的不同实施例的特征,且某些实施例可包含来自上面公开的其它实施例的元素。本发明在特定实施例的上下文中对元素的公开不应被理解为将其使用限制在单独的特定实施例中。
此外,应当理解,本发明可以以各种方式完成或实践,并且,本发明可以在除了上述描述中阐述的实施例之外的某些实施例中实现。
本发明并不限于这些图或相应的描述。例如,流程不需要移动经过每个示出的框或状态,或按照与图示和描述完全相同的顺序移动。
本文使用的技术和科学术语的含义是如本发明所属领域的普通技术人员通常理解的含义,除非另有规定。
虽然本发明已经关于有限数量的实施例进行了描述,但是这些不应被解释为对本发明的范围的限制,而是应作为一些优选实施例的示例。其他可能的变化、修改和应用也落入本发明的范围内。因此,本发明的范围不应被迄今为止已经描述的内容限定,而是由所附的权利要求及其法律等效物限定。

Claims (36)

1.一种可穿戴设备,其与作为具有相应的可穿戴设备的用户的至少一个通信组的成员的用户相关联,所述可穿戴设备包括:
位置和定向P&O模块,其被配置为:
接收或得到所述可穿戴设备的位置,
计算所述可穿戴设备相对于参考系的轴线的设备轴线定向,以及
计算与所述可穿戴设备相关联的具有指定的P&O的至少一个部件的视线LOS,所述LOS的计算相对于场景并且基于所述可穿戴设备的所计算的设备轴线定向且基于所述至少一个部件的指定的P&O来执行,以及
通信模块,其被配置为向所述至少一个通信组的相应的至少一个其他用户的至少一个其他可穿戴设备传递指定数据,
其中,所述指定数据的传递的条件是预定义规则以及所述至少一个其他可穿戴设备对先前由扇区覆盖的区域的进入,所述扇区由相对于所计算的LOS的动态可调整的指定角度和/或由相对于所述可穿戴设备的位置的动态可调整的指定距离来限定。
2.根据权利要求1所述的可穿戴设备,其中,所述预定义规则涉及以下各项中的至少一个:到所述其他可穿戴设备的距离、所述其他可穿戴设备和所述计算的LOS之间的角度关系、所述其他用户的身份、在用户的所述至少一个通信组内的所述其他用户的状态、所述其他用户的优先级、与所述指定数据相关的优先级以及与它们中的每一个相关的时间参数。
3.根据权利要求1所述的可穿戴设备,还包括图像捕获模块,所述图像捕获模块被配置为沿所述LOS捕获至少一个图像,其中所传递的指定数据包括所述至少一个图像。
4.根据权利要求2所述的可穿戴设备,还包括图像捕获模块,所述图像捕获模块被配置为沿所述LOS捕获至少一个图像,其中所传递的指定数据包括所述至少一个图像。
5.根据权利要求3所述的可穿戴设备,还包括图像处理软件,所述图像处理软件被配置成能够在所述至少一个图像的传递之前对其进行处理。
6.根据权利要求4所述的可穿戴设备,还包括图像处理软件,所述图像处理软件被配置成能够在所述至少一个图像的传递之前对其进行处理。
7.根据权利要求1所述的可穿戴设备,其中,所述至少一个部件是传感器,并且所述LOS相对于所述传感器的角度范围的指定扇区来计算。
8.根据权利要求1-7中任一项所述的可穿戴设备,其中,所述P&O模块被配置为得到所述可穿戴设备的位置。
9.根据权利要求1-7中任一项所述的可穿戴设备,其中,所述P&O模块包括惯性跟踪器。
10.根据权利要求1-7中任一项所述的可穿戴设备,还包括具有图形用户界面(GUI)的显示器,所述显示器被配置为显示至少一个其他可穿戴设备的定位和所述指定数据,并且实现对接收者用户的选择。
11.根据权利要求1-7中任一项所述的可穿戴设备,其中,所述预定义规则从所有可穿戴设备所连接的应用来接收。
12.根据权利要求1-7中任一项所述的可穿戴设备,其被配置为头戴式设备,所述头戴式设备具有与佩戴所述头戴式设备的用户的LOS平行的LOS。
13.根据权利要求1-7中任一项所述的可穿戴设备,还包括被配置为跟踪用户的LOS的跟踪器,其中所述P&O模块被配置为使用所跟踪的用户的LOS来代替所计算的部件LOS。
14.根据权利要求1-7中任一项所述的可穿戴设备,其中,相对于所计算的LOS的所述指定数据的传递以相对于所述LOS的指定角度和/或以相对于所述可穿戴设备的位置的指定距离来执行。
15.一种包括多个根据权利要求1-14中任一项所述的可穿戴设备以及与其他可穿戴设备中的通信模块通信的管理应用的系统,所述管理应用被配置为根据所述预定义规则在所述通信模块之间管理包括所述指定数据的数据流的发送。
16.根据权利要求15所述的系统,其中,所述可穿戴设备还包括各自的图像捕获模块,所述图像捕获模块被配置为沿着各自的LOS捕获至少一个图像,并且其中,所述管理应用还被配置为根据与从一个或更多个可穿戴设备接收的多个捕获图像相关的用户的时空参数,从所述多个捕获图像构成复合图像或视频。
17.根据权利要求16所述的系统,其中,所述管理应用还被配置为相对于指定用户、特定捕获图像、时空轨迹和定位中的至少一个来构成所述复合图像或视频。
18.根据权利要求16所述的系统,其中,所述管理应用还被配置为提供关于所述复合图像或视频的部分的编辑和共享能力。
19.根据权利要求15-18中任一项所述的系统,其中,所述管理应用还被配置为定义和管理用户的关于所述指定数据的传递的预定义规则。
20.根据权利要求19所述的系统,其中,所述管理应用还被配置为评估多个P&O和LOS之间的空间关系,并相应地发送数据流。
21.一种在用户之间共享信息的方法,包括:
接收或得到可穿戴设备的位置,所述可穿戴设备与作为具有相应的可穿戴设备的用户的至少一个通信组的成员的用户相关联,
计算所述可穿戴设备相对于参考系的轴线的设备轴线定向,
计算与所述可穿戴设备相关联的具有指定的位置和定向P&O的至少一个部件的视线LOS,所述LOS的计算相对于场景并且基于所述可穿戴设备的所计算的设备轴线定向且基于所述至少一个部件的指定的P&O来执行,以及
向所述至少一个通信组的相应的至少一个其他用户的至少一个其他可穿戴设备传递指定数据,其中,所述指定数据的传递的条件是预定义规则以及所述至少一个其他可穿戴设备对先前由扇区覆盖的区域的进入,所述扇区由相对于所计算的LOS的动态可调整的指定角度和/或由相对于所述可穿戴设备的位置的动态可调整的指定距离来限定。
22.根据权利要求21所述的方法,其中,所述预定义规则涉及以下各项中的至少一个:到所述其他可穿戴设备的距离、所述其他可穿戴设备和所述计算的LOS之间的角度关系、所述其他用户的身份、在用户的所述至少一个通信组内的所述其他用户的状态、所述其他用户的优先级、与所述指定数据相关的优先级以及与它们中的每一个相关的时间参数。
23.根据权利要求21所述的方法,还包括沿所述LOS捕获至少一个图像,其中所传递的指定数据包括所述至少一个图像。
24.根据权利要求22所述的方法,还包括沿所述LOS捕获至少一个图像,其中所传递的指定数据包括所述至少一个图像。
25.根据权利要求23所述的方法,还包括在所述至少一个图像的传递之前对其进行处理。
26.根据权利要求21-25中任一项所述的方法,还包括使用具有GUI的显示器,显示至少一个其他可穿戴设备的定位和所述指定数据,并且实现对接收者用户的选择。
27.根据权利要求21-25中任一项所述的方法,还包括通过所有可穿戴设备所连接的应用来管理所述预定义规则。
28.根据权利要求21-25中任一项所述的方法,还包括跟踪用户的LOS,并且使用所跟踪的用户的LOS来代替所计算的部件LOS。
29.根据权利要求21-25中任一项所述的方法,其中,相对于所计算的LOS的所述指定数据的传递以相对于所述LOS的指定角度和/或以相对于所述可穿戴设备的位置的指定距离来执行。
30.根据权利要求29所述的方法,还包括评估多个LOS之间的空间关系,并相应地传递所述指定数据。
31.根据权利要求21-25、30中任一项所述的方法,还包括根据所述预定义规则在所述至少一个通信组中的可穿戴设备之间管理包括所述指定数据的数据流的发送。
32.根据权利要求31所述的方法,还包括根据与捕获到的图像相关的用户的时空参数并相对于指定用户、特定捕获图像、时空轨迹和定位中的至少一个,从由所述至少一个通信组中的一个或更多个可穿戴设备捕获的并从其接收的多个图像中构成复合图像或视频。
33.根据权利要求31所述的方法,还包括定义和管理用户的关于所述指定数据的传递的预定义规则。
34.根据权利要求32所述的方法,还包括提供关于所述复合图像或视频的部分的编辑和共享能力。
35.一种在用户之间共享信息的方法,包括:
在指定位置处且相对于指定的视线LOS来识别用户设备的位置和定向P&O和LOS,
评估在(i)所述指定位置和指定的LOS之间的空间关系,以及(ii)所述用户设备的所述P&O和LOS之间的空间关系,以及
向所述用户设备中的至少一个传递指定数据,其中,所述指定数据的传递的条件是预定义规则以及所述用户设备中的至少一个对先前由扇区覆盖的区域的进入,所述扇区由相对于所述指定的LOS的动态可调整的指定角度和/或由相对于所述指定位置的动态可调整的指定距离来限定。
36.根据权利要求35所述的方法,其中,所述指定数据的传递以相对于所述指定的LOS的指定角度和/或以相对于可穿戴设备的位置的指定距离来执行。
CN201780012045.2A 2016-01-25 2017-01-25 基于视线的内容共享动态自组织网络 Active CN109074772B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IL243772A IL243772B (en) 2016-01-25 2016-01-25 Dynamic ad-hoc networks for content sharing, based on line of sight
IL243772 2016-01-25
PCT/IL2017/050097 WO2017130198A1 (en) 2016-01-25 2017-01-25 Line-of-sight-based content-sharing dynamic ad-hoc networks

Publications (2)

Publication Number Publication Date
CN109074772A CN109074772A (zh) 2018-12-21
CN109074772B true CN109074772B (zh) 2022-05-03

Family

ID=57300850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780012045.2A Active CN109074772B (zh) 2016-01-25 2017-01-25 基于视线的内容共享动态自组织网络

Country Status (5)

Country Link
US (1) US11106721B2 (zh)
EP (1) EP3408846B1 (zh)
CN (1) CN109074772B (zh)
IL (1) IL243772B (zh)
WO (1) WO2017130198A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015089659A1 (en) * 2013-12-16 2015-06-25 Inbubbles Inc. Space time region based communications
FR3057950B1 (fr) * 2016-10-24 2018-10-19 Nexter Systems Procede d'aide a la localisation d'un objectif et dispositif d'observation permettant la mise en oeuvre de ce procede
US9992449B1 (en) * 2017-08-10 2018-06-05 Everysight Ltd. System and method for sharing sensed data between remote users
JP7143736B2 (ja) * 2018-11-20 2022-09-29 トヨタ自動車株式会社 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム
IL264046B2 (en) * 2018-12-31 2023-03-01 Elbit Systems Ltd System and method for increasing the field of view of a sensor
CN111124136A (zh) * 2019-12-31 2020-05-08 维沃移动通信有限公司 虚拟画面同步方法及穿戴式设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014185885A1 (en) * 2013-05-13 2014-11-20 Empire Technology Development, Llc Line of sight initiated handshake

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8229163B2 (en) * 2007-08-22 2012-07-24 American Gnc Corporation 4D GIS based virtual reality for moving target prediction
WO2010075430A1 (en) 2008-12-24 2010-07-01 Strands, Inc. Sporting event image capture, processing and publication
US8767081B2 (en) 2009-02-23 2014-07-01 Microsoft Corporation Sharing video data associated with the same event
US20110271213A1 (en) 2010-05-03 2011-11-03 Alcatel-Lucent Canada Inc. Event based social networking application
US9030536B2 (en) * 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
EP2684145A4 (en) * 2011-03-07 2014-09-03 Kba2 Inc SYSTEMS AND METHOD FOR ANALYTICAL DATA ACQUISITION OF IMAGE PROVIDERS ON THE BASIS OF AN EVENT OR GEOGRAPHICAL LOCATION
US9026596B2 (en) 2011-06-16 2015-05-05 Microsoft Technology Licensing, Llc Sharing of event media streams
US9130763B2 (en) 2011-06-20 2015-09-08 Microsoft Technology Licensing, Llc Automatic sharing of event content by linking devices
US8998414B2 (en) * 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system
US9009596B2 (en) 2011-11-21 2015-04-14 Verizon Patent And Licensing Inc. Methods and systems for presenting media content generated by attendees of a live event
US20130194304A1 (en) 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
US9564175B2 (en) 2013-04-02 2017-02-07 International Business Machines Corporation Clustering crowdsourced videos by line-of-sight
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
GB2515563A (en) 2013-06-28 2014-12-31 F Secure Corp Media sharing
CN104750230A (zh) * 2013-12-27 2015-07-01 中芯国际集成电路制造(上海)有限公司 可穿戴智能设备及其交互的方法、可穿戴智能设备系统
CN103809751A (zh) * 2014-02-12 2014-05-21 北京智谷睿拓技术服务有限公司 信息共享方法及信息共享装置
US20160202947A1 (en) * 2015-01-09 2016-07-14 Sony Corporation Method and system for remote viewing via wearable electronic devices

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014185885A1 (en) * 2013-05-13 2014-11-20 Empire Technology Development, Llc Line of sight initiated handshake

Also Published As

Publication number Publication date
IL243772B (en) 2018-03-29
US11106721B2 (en) 2021-08-31
EP3408846B1 (en) 2022-08-24
EP3408846A1 (en) 2018-12-05
EP3408846A4 (en) 2019-09-25
WO2017130198A1 (en) 2017-08-03
US20190042575A1 (en) 2019-02-07
CN109074772A (zh) 2018-12-21
IL243772A0 (en) 2016-07-31

Similar Documents

Publication Publication Date Title
CN109074772B (zh) 基于视线的内容共享动态自组织网络
US9589255B1 (en) Collaborative media capture and sharing system
US10531237B2 (en) Wirelessly receiving information related to a mobile device at which another mobile device is pointed
US10936537B2 (en) Depth sensing camera glasses with gesture interface
US11412171B2 (en) Tracking camera network
US9058565B2 (en) Opportunistic crowd-based service platform
US11477509B2 (en) Immersive cognitive reality system with real time surrounding media
GB2495699A (en) Sending activity information and location information from at least one mobile device to identify points of interest
US11496778B2 (en) Methods, systems, and devices for identifying viewed action of a live event and adjusting a group of resources to augment presentation of the action of the live event
US20180082436A1 (en) Image processing apparatus, image processing system, and image processing method
US20150227999A1 (en) Crowd-sourced computer-implemented methods and systems of collecting requested data
US11924397B2 (en) Generation and distribution of immersive media content from streams captured via distributed mobile devices
US11743526B1 (en) Video system
US10574975B1 (en) Method and apparatus for navigating through panoramic content
US20130057746A1 (en) Information processing apparatus, information processing method, program, recording medium, and information processing system
Irfan et al. Crowd analysis using visual and non-visual sensors, a survey
El Marai et al. Ar-based remote command and control service: Self-driving vehicles use case
US20200349977A1 (en) Point of view video processing and curation platform
JP7176792B1 (ja) 情報処理システム及び情報処理方法
US20240214543A1 (en) Multi-camera multiview imaging with fast and accurate synchronization
KR20150061478A (ko) 영상 제공 방법 및 시스템
WO2019012274A2 (en) MOBILE ELECTRONIC DEVICES WITH IDENTITY MATCHING
TOKARCHUK et al. Crowd Analysis using visual and non-visual sensors, a survey
WO2019176922A1 (ja) 視聴支援装置、視聴支援方法及びプログラム
WO2022130414A1 (en) Virtual presence device which uses trained humans to represent their hosts using man machine interface

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant