CN104936665B - 合作增强现实 - Google Patents

合作增强现实 Download PDF

Info

Publication number
CN104936665B
CN104936665B CN201280077916.6A CN201280077916A CN104936665B CN 104936665 B CN104936665 B CN 104936665B CN 201280077916 A CN201280077916 A CN 201280077916A CN 104936665 B CN104936665 B CN 104936665B
Authority
CN
China
Prior art keywords
augmented reality
electronic equipment
physical target
cooperation
presented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280077916.6A
Other languages
English (en)
Other versions
CN104936665A (zh
Inventor
S.布兰赫弗劳尔
T.哈尔伯特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Open Information Corp
Original Assignee
Open Information Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Open Information Corp filed Critical Open Information Corp
Publication of CN104936665A publication Critical patent/CN104936665A/zh
Application granted granted Critical
Publication of CN104936665B publication Critical patent/CN104936665B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • A63F13/10
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1438Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using more than one graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • G06F3/1462Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay with means for detecting differences between the image stored in the host and the images displayed on the remote displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5526Game data structure
    • A63F2300/5533Game data structure using program state or machine event data, e.g. server keeps track of the state of multiple players on in a multiple player game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

在各个电子设备处提供增强现实呈现。第一电子设备接收涉及在第二电子设备处对增强现实呈现做出的修改的信息,并且所述第一电子设备响应于所述信息修改第一增强现实呈现。

Description

合作增强现实
背景技术
增强现实提供被诸如音频数据、视频数据、图像数据、文本数据等等的附加信息增强的物理的、现实世界环境的呈现。例如,电子设备的照相机可以捕获物理目标的图像或视频。物理目标的增强现实呈现然后可以被电子设备显示,其中所述物理目标的增强现实呈现包括物理目标的图像或视频,连同诸如上文列出的那些数据中的任何数据的附加数据。
附图说明
关于以下附图描述了某些实施例。
图1图示了根据某些实施的示例布置,所述示例布置包括与可以显示合作增强现实会话的增强现实呈现的显示器相关联的多个电子设备;
图2是根据某些实施的能够显示合作增强现实呈现的电子设备的过程的流程图;
图3和4是根据某些实施的、由增强现实服务器执行以支持合作增强现实会话的过程的流程图;
图5是根据某些实施的电子设备的框图;以及
图6是根据某些实施的增强现实服务器的框图。
具体实施方式
一般地,可以响应于捕获现实世界物理目标的图像或视频来创建增强现实呈现。作为示例,物理目标可以是在杂志或报纸中的图像、在产品盒上的图像、地理地标等等。用户可以将电子设备的照相机指向所述物理目标,并且响应于捕获(图像捕获或视频捕获)物理目标,所述电子设备可以产生基于所述物理目标的增强现实呈现。
增强现实呈现可以包括视觉输出,所述视觉输出包含基于以附加信息增强的、所捕获的物理目标(此后称为“增强现实内容”)触发的图像或视频。所述增强现实内容可以包括被添加到所述视觉输出的音频数据、其他的视频数据、其他的图像数据、文本数据等等。所捕获的物理目标的视觉输出可以包括所捕获的物理目标(所捕获的物理目标的全部或者所捕获的物理目标的一部分)的图像或视频,或者所捕获的物理目标的再现,或者不同的视觉内容。在视觉输出包含所捕获的物理目标的图像或视频或者包含所捕获的物理目标的再现的情况下,其他视频数据、其他图像数据和/或文本数据可以覆盖视觉输出,而音频数据可以是连同所述视觉输出的作为声音的输出。因此,增强现实呈现可以是多媒体呈现的形式,其除增强现实内容之外还可以包括所捕获的物理目标的视觉输出。
作为示例,电子设备当指向在报纸或杂志中的给定图片时,可以使得在线电子游戏开始进行游戏。在报纸或杂志中的给定图像可以是游戏人物、广告或者与在线电子游戏相关联的其他信息。由电子设备的照相机捕获这样的游戏人物或其他游戏信息提供了对所述电子设备的触发以启动在线电子游戏。作为另一示例,所捕获的物理目标可以是地理地标。基于地理地标的捕获,可以触发增强现实呈现,所述增强现实呈现可以提供以解释所述地理地标的各方面的历史意义的图像或视频数据、音频数据和/或文本数据增强的地理地标的虚拟游览。
作为另一示例,电子设备可以捕获棋盘,其可以使得棋局在增强现实呈现中显得逼真,使得用户可以开始下棋。作为又一示例,电子设备可以捕获画布,其可以触发增强现实呈现,以允许在所述画布上虚拟地制作画笔。在其他示例中,其他类型的增强现实呈现可以被其他类型的物理目标的捕获触发。
传统上,尚未提供虑及在增强现实上下文中的多个用户之中的合作的有效机制。在某些情况下,多个用户可能必须共享相同的电子设备来观看特定的增强现实呈现。
根据某些实施,提供了合作增强现实技术或机制,以虑及在多个不同电子设备处的用户关于在所述电子设备中的每个处呈现的增强现实呈现彼此合作。图1描绘了包括电子设备102和104的示例布置。虽然在图1中仅描绘了两个电子设备,但是应注意在替代实施中,可以采用多于两个电子设备。电子设备102和104可以位于相同房间中,或者替代地,电子设备102和104可以彼此远程地定位,诸如在城市的不同位置中、在国家的不同城市中或者跨越世界的不同位置中。
在某些示例中,电子设备102和104可以包括任何以下内容:计算机(例如,平板计算机、笔记本计算机、台式计算机等等)、个人数据助理、智能电话等等。电子设备102和104可以具有各自的显示器106和108。在其他示例中,与各个电子设备相关联的显示器可以与所述电子设备分离。例如,电子设备可以是游戏器具、机顶盒或者连接到外部显示器的其他设备。
如在图1中进一步描绘的那样,电子设备102和104也包括各自的照相机110和112。照相机110和112可以被用于捕获物理目标的图像或视频以提供所述物理目标的视觉输出。电子设备102和104两者可以捕获相同的物理目标114。替代地,在电子设备102和104彼此远程地定位的实施中,电子设备102可以捕获物理目标114,而远程定位的电子设备104可以捕获物理目标114的复制品114-1。例如,如果物理目标是在报纸或杂志上的图片,则复制品114-1可以是在相同的报纸或杂志的另一副本上的相同图片。
在某些示例中,假设增强现实应用在电子设备102和104中的每个中运行,由各个照相机110或112捕获某些物理目标可以触发电子设备102或104来基于所捕获的物理目标呈现增强现实呈现116或118。
电子设备102和104可以存储涉及可以触发增强现实呈现的候选触发项目的信息。在捕获物理目标的图像或视频时,电子设备可以将所述图像或视频与候选触发项目比较以确定是否应该触发增强现实呈现。
涉及候选触发项目的信息可以从增强现实服务器120获得,所述增强现实服务器120能够访问存储关于候选触发项目的集合的信息的触发项目数据库125。电子设备102和104通过网络121耦合到增强现实服务器120。网络121可以是局域网(LAN)、广域网(WAN)、无线网络或者上述的某种组合。
在触发项目数据库125中的信息的至少一部分可以被传送到每个电子设备102或104,并且被本地存储在电子设备102或104处。电子设备102或104因此可以将物理目标的所捕获的图像或视频的特性与本地存储的候选触发项目信息比较以确定是否检测到匹配,使得触发相应的增强现实呈现。
在替代示例中,物理目标的所捕获的图像或视频与候选触发项目信息的比较可以在增强现实服务器120处执行。
在(电子设备或者增强现实服务器处)执行物理目标的所捕获的图像或视频与候选触发项目信息的比较中,可以提取来自所捕获的图像或视频的各种特征用于与被包含在候选触发项目信息中的候选触发项目的相应的特征进行匹配。与特定候选触发项目的匹配使得相应的增强现实呈现被呈现在电子设备102或104处。
在所触发的增强现实呈现中,呈现了物理目标114(或者复制品114-1)的视觉输出,连同相应的增强现实内容。可以从增强现实内容数据库123取回(retrieve)增强现实内容。在某些示例中,增强现实内容可以由增强现实服务器120从增强现实内容数据库123取回,并且被传送到电子设备102或104,用于包括在所触发的增强现实呈现116或118中。如上所述,增强现实内容可以包括以下内容的任何或某个组合:音频数据、视频数据、图像数据、文本数据等等。
在某些示例中,增强现实内容数据库123和触发项目数据库125被存储在增强现实服务器120的存储子系统中。替代地,增强现实内容数据库123和触发项目数据库125中的任一个或两者可以位于由增强现实服务器120或电子设备102和104通过网络121可访问的远程系统处。
根据某些实施,在检测到电子设备102和104已经捕获相同的物理目标的视频输出时(其中捕获相同的物理目标可以指电子设备102和104两者捕获相同的物理目标114,或者分别捕获物理目标114和所述物理目标的复制品114-1),可以发起合作增强现实会话。在合作增强现实会话中,电子设备102和104的多个用户能够关于增强现实呈现116和118彼此交互或合作。
响应于增强现实服务器120检测到电子设备102和104已经捕获相同的物理目标,可以由增强现实服务器120指示合作增强现实会话。在这样的检测时,增强现实服务器120可以向电子设备102和104提供指示:增强现实呈现116和118是相同的合作增强现实会话的一部分。
替代地,增强现实呈现116和118基于相同的物理目标的捕获的检测可以由电子设备102和104执行,而不是由增强现实服务器120执行。例如,电子设备102和104可以彼此通信,以传送关于物理目标的捕获的信息,使得电子设备102和104中的一个或两者可以比较所捕获的物理目标。当电子设备102和104定位得极接近时,电子设备102和104可以使用近场通信(在极接近的设备之间的无线电通信)、蓝牙通信、红外通信等等。当电子设备102和104彼此远程地定位时,电子设备102和104可以通过网络121或者通过另一较长距离通信链路通信。
在合作增强现实会话中,在电子设备102和104处的用户可以对各个增强现实呈现116和118进行可以引起各个增强现实呈现的修改的合作输入。作为示例,如果增强现实呈现116和118是在线电子游戏的呈现,则来自每个用户的合作输入可以是使得游戏片(gamepiece)执行目标动作的游戏控制输入。在玩在线电子游戏的过程期间,包括游戏片的移动和玩游戏的控制的激活的、在电子设备102和104处的与游戏的用户交互可以使用诸如近场通信、蓝牙通信、红外通信、通过网络121的通信、通过增强现实服务器120的通信等等的多个通信技术中的任何通信在电子设备102和104之间传送。
作为另一示例,如果增强现实呈现116和118是涉及在其上将绘制图画的画布的合作会话的一部分,则来自用户的合作输入可以包括在所述画布上的画笔笔划(stroke),其将被反映在增强现实呈现116和118两者中。可以存在针对其他类型的增强现实呈现的合作输入的各种其他示例。
可以通过在各个电子设备102和104处使用用户输入设备来完成合作输入。作为示例,显示器106和108可以是对用户触摸敏感的触摸屏显示器。作为进一步的示例,电子设备102和104可以包括各自的用户输入设备122和124,诸如鼠标设备、按钮、触摸板、键盘、语音或其他音频输入设备等等。
响应于引起各个增强现实呈现的修改的、在特定电子设备处接收到的合作输入,涉及所述修改的信息可以被传播到在相同的合作增强现实会话中的(一个或多个)其他电子设备,以引起在(一个或多个)其他电子设备处的增强现实呈现的相应的修改。如在图1中描绘的那样,如果响应于用户输入,对在电子设备102处的增强现实呈现116做出增强现实修改,则关于增强现实修改的信息可以(在130处)被传送到其他电子设备104。
关于增强现实修改的信息的传送可以被直接地提供在电子设备102和104之间,或者替代地,可以通过增强现实服务器120传递。类似地,当基于用户输入,在电子设备104处进行对增强现实呈现118的修改时,关于增强现实修改的信息可以(在132处)从电子设备104传送到电子设备102,以使得在电子设备102处对增强现实呈现116做出相应的修改。
在某些示例中,是相同的合作增强现实会话的一部分的增强现实呈现116和118可以提供物理目标114或复制品114-1的不同透视(perspective)。增强现实呈现116和118可以是所捕获的物理目标的虚拟三维(3D)呈现,如以各自的增强现实内容增强的那样。取决于电子设备102或104关于所捕获的物理目标的相应姿态(位置和角度),由增强现实呈现116和118中的每个提供的透视可以不同。
此外,对于用户而言可能在合作增强现实会话期间利用电子设备102或104四处移动(move around)。可以跟踪电子设备102或104的这样的移动。在正在四处移动的各个电子设备102或104处的合作增强现实呈现116或118可以基于相对于所捕获的目标的电子设备102或104的所检测的姿态来改变(例如,透视)。
图2是根据某些实施的、在第一电子设备(例如,102或104)处执行的过程200的流程图。过程200在与第一电子设备相关联的显示器处呈现(在202处)基于由第一电子设备的照相机捕获的物理目标的第一增强现实呈现。假设第一增强现实呈现是涉及多个电子设备(例如,102和104)的合作增强现实会话的一部分。
所述过程200进一步接收(在204处)在第二电子设备处做出的合作修改的指示,所述第二电子设备基于相同物理目标显示第二增强现实呈现(其是合作增强现实会话的一部分)。响应于引起第二增强现实呈现的修改的、在第二电子设备处的用户输入,提供合作修改的指示。
所述过程200然后响应于合作修改的指示来修改(在206处)第一增强现实呈现。
虽然参考了涉及两个电子设备的过程,但是应注意,类似的过程可以被扩展到涉及多于两个电子设备的合作增强现实会话。
图3是根据某些实施的、由增强现实服务器120执行的服务器过程300的流程图。服务器过程300从多个电子设备接收(在302处)涉及物理目标捕获的信息,其已经在相应的电子设备处触发了各个增强现实呈现的生成。在某些实施中,来自特定电子设备的涉及物理目标捕获的信息可以包括标识匹配所捕获的物理目标的触发项目的信息。
服务器过程300然后确定(在304处)来自多个电子设备的物理目标捕获是否涉及相同的物理目标。在某些示例中,这可以基于比较来自多个电子设备的标识的触发项目,并且确定标识的触发项目是否相同。
如果来自多个电子设备的物理目标捕获涉及相同的物理目标,则服务器过程300提供(在306处)在电子设备处的触发的增强现实呈现是公共合作增强现实会话的一部分的指示。所述指示可以被传送到多个电子设备。针对所指示的合作增强现实会话,多个电子设备将通过将关于修改的信息传送到是所指示的合作增强现实会话的一部分的(一个或多个)其他电子设备来响应于修改各个增强现实呈现的任何合作输入。
针对所指示的合作增强现实会话,服务器过程300获得(在308处)相同的增强现实内容以提供到多个电子设备中的每个,用于增强在多个电子设备处的增强现实呈现。所获得的增强现实内容然后被传送(在310处)到多个电子设备。
如果服务器过程300确定(在304处)来自多个电子设备的物理目标捕获涉及不同的物理目标,则服务器过程300获得(在312处)不同的增强现实内容以传送(在314处)到相应的多个电子设备。在这后一种场景中,在多个电子设备处的增强现实呈现不是相同的合作增强现实会话的一部分。
图4是可以由图1的增强现实服务器120执行的另一服务器过程400的流程图。在涉及多个电子设备的合作增强现实会话期间,服务器过程400可以接收(在402处)报告在各个电子设备处做出的合作修改的信息。服务器过程400可以将这样的修改信息存储(在404处)为涉及合作增强现实会话的状态信息。
服务器过程400也可以确定(在406处)附加电子设备是否已经被添加到合作增强现实会话。将附加电子设备添加到合作增强现实会话可以基于增强现实服务器120检测由附加电子设备捕获的物理目标与由已经是合作增强现实会话的一部分的多个电子设备捕获的物理目标相同或者是其复制品。
响应于这样的检测,服务器过程400可以将附加电子设备连接(在408处)到合作增强现实会话。服务器过程400然后可以向附加电子设备提供(在410处)(关于合作增强现实会话的)状态信息,使得附加电子设备可以呈现由也是相同的合作增强现实会话的一部分的电子设备看见的相同的增强现实呈现(可能具有不同的透视,取决于附加电子设备相对于所捕获的物理目标的姿态)。
虽然图3或4的任务已经被描述为是由增强现实服务器120执行的服务器过程的一部分,但是应注意,在其他实施中,图3或4的任务中的至少某些可以由电子设备102和104中的一个或多个执行。例如,电子设备102和104中的一个或多个可以被配置为增强现实服务器以执行增强现实服务器120的功能的部分或全部。
在替代实施中,不同的角色可以被分派到合作增强现实会话中所涉及的不同用户。作为示例,一个用户可以被分派管理者的角色,而剩余用户可以是参与者。可以分派不同角色的示例可以在在线桌游(board game)的上下文中,其中管理者可以在管理者的增强现实呈现中做出修改,并且所述修改被传送到参与者用户,所述参与者用户然后可以响应于所述修改。例如,具有管理者角色的用户可以在在线桌游中绘制图画,并且具有参与者角色的用户将猜测对应于正在绘制的图画的词语。
在其他类型的合作增强现实会话的上下文中,其他类型的角色可以被分派到用户。
图5是根据某些实施的示例电子设备500的框图。电子设备500可以是图1的电子设备102或104。电子设备500包括增强现实应用502,其在一个或多个处理器504上可执行。电子设备500也包括照相机506、显示器508、用户输入设备510、网络接口512以及(一个或多个)存储介质514。网络接口512允许电子设备500通过诸如图1的网络121的网络通信。
增强现实应用502可以执行图2的任务以及其他任务。例如,增强现实应用502可以检测由照相机506进行的物理目标的捕获。响应于物理目标的捕获,增强现实应用502将所捕获的物理目标的特征与候选触发项目信息比较,所述候选触发项目信息可以存储在(一个或多个)存储介质514中,或者可以从图1的触发项目数据库125取回。在检测到所捕获的物理目标与相应的候选触发项目的匹配时,增强现实应用502发起针对所匹配的候选触发项目的增强现实呈现以供在显示器508处查看。增强现实应用502可以进一步与图1的增强现实服务器120通信以获得增强现实内容来增强所述增强现实呈现。
另外,增强现实应用502也可以接收涉及增强现实呈现的修改的修改信息,所述增强现实呈现的修改被显示在是相同的合作增强现实会话的一部分的另一电子设备处。响应于所述修改信息,增强现实应用502可以修改由显示器508呈现的增强现实呈现。此外,响应于检测在电子设备500处修改增强现实呈现的用户输入,增强现实应用502可以将关于修改的信息发送到是相同的合作增强现实会话的一部分的(一个或多个)其他电子设备。
图6描绘了增强现实服务器120的示例部件。增强现实服务器120包括在一个或多个处理器604上可执行的增强现实应用602。增强现实服务器应用602可以执行例如在图3或4中描绘的任务。
增强现实服务器120进一步包括网络接口606以允许增强现实服务器120通过网络通信。另外,增强现实服务器120包括(一个或多个)存储介质608,其可以存储各种信息,包括图1的增强现实内容数据库123和触发项目数据库125。
增强现实应用502或602的机器可读指令可以被加载,用于在(一个或多个)相应的处理器(诸如在图5或6中的504或604)上执行。处理器可以包括微处理器、微控制器、处理器模块或子系统、可编程集成电路、可编程门阵列或者另一控制或计算设备。
(一个或多个)存储介质514或608可以被实现为一个或多个计算机可读或机器可读存储介质。存储介质包括不同形式的存储器,其包括:半导体存储器设备,诸如动态或静态的随机访问存储器(DRAM或SRAM)、可擦写和可编程的只读存储器(EPROM)、电可擦除和可编程的只读存储器(EEPROM)以及闪存;磁盘,诸如固定盘、软盘和可移除盘;包括带的其他磁介质;光介质,诸如压缩盘(CD)或数字视频盘(DVD);或者其他类型的存储设备。应注意,上文讨论的指令可以被提供在一个计算机可读或机器可读存储介质上,或者替代地,可以被提供在分布在可能具有多个节点的大型系统中的多个计算机可读或机器可读存储介质上。一个或多个这样的计算机可读或机器可读存储介质被认为是物品(或制品)的一部分。物品或制品可以指任何制造的单个部件或多个部件。一个或多个存储介质可以位于运行机器可读指令的机器中,或者位于远程站点处,从该远程站点处可以通过网络下载机器可读指令用于执行。
在上述描述中,记载了许多细节以提供对本文公开的主题的理解。然而,可以在没有这些细节的某些或全部的情况下实行实施。其他实施可以包括根据上文讨论的细节的修改和变型。所附权利要求书意图涵盖这样的修改和变型。

Claims (20)

1.一种方法,其包括:
在与第一电子设备相关联的显示器处呈现基于由第一电子设备的照相机捕获的物理目标的第一增强现实呈现;
由第一电子设备接收基于所述物理目标或者所述物理目标的复制品对在第二电子设备处显示的第二增强现实呈现做出的合作修改的指示,其中所述第一和第二电子设备处于当检测到所述第一和第二电子设备捕获到所述物理目标或所述物理目标的所述复制品的图像或视频时发起的合作增强现实会话中;以及
由第一电子设备响应于所述合作修改的指示来修改第一增强现实呈现。
2.如权利要求1所述的方法,其中呈现第一增强现实呈现包括呈现包含除所述物理目标或所述物理目标的所述复制品的所述图像或视频之外的附加内容的第一增强现实呈现。
3.如权利要求2所述的方法,其中所述附加内容包括音频数据、视频数据、图像数据或文本数据中的至少一个。
4.如权利要求1所述的方法,其中所述物理目标的所述图像包括对象的图片,并且所述物理目标的所述复制品包括同一图片或同一对象的副本的图片。
5.如权利要求1所述的方法,其中由于第一和第二电子设备对所述物理目标或者所述物理目标的复制品的不同的相对姿态,第一增强现实呈现具有与第二增强现实呈现不同的物理目标的透视。
6.如权利要求5所述的方法,还包括:
由第一电子设备跟踪第一电子设备关于所述物理目标的移动;以及
由于第一电子设备关于所述物理目标的位置的改变,修改第一增强现实呈现以更新在第一增强现实呈现中提供的物理目标的透视。
7.如权利要求1所述的方法,还包括:
存储涉及包括第一和第二增强现实呈现的合作增强现实会话的当前状态的状态信息;以及
在检测到将第三电子设备添加到合作增强现实会话时,向第三电子设备提供所述状态信息以允许第三电子设备显示具有与合作增强现实会话的当前状态一致的状态的增强现实呈现。
8.如权利要求1所述的方法,还包括:
在第一电子设备处接收用户输入以修改第一增强现实呈现;以及
由第一电子设备通过网络发送修改信息以将修改传送到第二电子设备来使得第二电子设备基于所述修改信息修改第二增强现实呈现。
9.如权利要求1所述的方法,还包括:
由第一电子设备接收关于与不同于被分派到第二电子设备的第二用户的第二角色的所述第一电子设备的第一用户的第一角色的信息。
10.一种服务器,其包括:
至少一个处理器;
非暂时性机器可读存储介质;以及
所存储的指令,其可由所述至少一个处理器转译以:
响应于接收到来自多个电子设备的、涉及物理目标的捕获的信息,获得用于增强在多个电子设备处的增强现实呈现的信息;
接收关于在多个电子设备中的相应的至少一个处的增强现实呈现中的至少一个的修改的信息,其中所述多个电子设备处于当检测到所述多个电子设备捕获到所述物理目标或所述物理目标的所述复制品的图像或视频时发起的合作增强现实会话中;以及
存储包括关于修改的信息的状态信息,所述状态信息涉及包括增强现实呈现的所述合作增强现实会话的当前状态。
11.如权利要求10所述的服务器,其中所存储的指令可由所述至少一个处理器进一步转译以:
检测附加电子设备到合作增强现实会话的添加;以及
将状态信息提供到附加电子设备,以使得所述附加电子设备显示在合作增强现实会话中的增强现实呈现,其与在多个电子设备处的增强现实呈现一致。
12.如权利要求11所述的服务器,其中对附加电子设备到合作增强现实会话的所述添加的检测基于至少一个处理器确定由所述附加电子设备捕获的物理目标与由多个电子设备捕获的物理目标匹配。
13.如权利要求10所述的服务器,其中所获得的信息包括音频数据、视频数据、图像数据或文本数据中的至少一个,获得的信息添加到在增强现实呈现中的每个中的所捕获的物理目标的视觉输出。
14.如权利要求10所述的服务器,其中所述至少一个处理器用以进一步:
确定由多个电子设备中的每个所捕获的物理目标是否是相同的物理目标;以及
响应于所述确定,指示在多个电子设备处的增强现实呈现是合作增强现实会话的一部分。
15.一种装置,包括:
用于在与第一电子设备相关联的显示器处呈现基于由第一电子设备的照相机捕获的物理目标的第一增强现实呈现的部件;
用于接收基于所述物理目标或者所述物理目标的复制品对在第二电子设备处显示的第二增强现实呈现做出的合作修改的指示的部件,其中所述多个电子设备处于当检测到所述多个电子设备捕获到所述物理目标或所述物理目标的所述复制品的图像或视频时发起的合作增强现实会话中;以及
用于响应于合作修改的指示来修改第一增强现实呈现的部件。
16.如权利要求15所述的装置,其中第一增强现实呈现包含除所述物理目标或所述物理目标的所述复制品的所述图像或视频之外的附加内容,并且其中所述附加内容包括音频数据、视频数据、图像数据或文本数据中的至少一个。
17.如权利要求15所述的装置,其中所述物理目标的所述图像包括对象的图片,并且所述物理目标的所述复制品包括同一图片或同一对象的副本的图片。
18.如权利要求15所述的装置,其中由于第一和第二电子设备对所述物理目标或者所述物理目标的复制品的不同的相对姿态,第一增强现实呈现具有与第二增强现实呈现不同的物理目标的透视。
19.如权利要求15所述的装置,其中所述指令当由所述至少一个处理器执行时进一步使得第一电子设备:
检测附加电子设备到合作增强现实会话的添加,其中对附加电子设备到合作增强现实会话的所述添加的检测基于至少一个处理器确定由所述附加电子设备捕获的物理目标与由第一电子设备捕获的物理目标匹配。
20.如权利要求15所述的装置,其中所述指令当由所述至少一个处理器执行时进一步使得第一电子设备:
确定由第二电子设备所捕获的物理目标是否是相同的物理目标;以及
响应于所述确定,指示在第二电子设备处的增强现实呈现是合作增强现实会话的一部分。
CN201280077916.6A 2012-10-22 2012-10-22 合作增强现实 Active CN104936665B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2012/070893 WO2014063724A1 (en) 2012-10-22 2012-10-22 Collaborative augmented reality

Publications (2)

Publication Number Publication Date
CN104936665A CN104936665A (zh) 2015-09-23
CN104936665B true CN104936665B (zh) 2017-12-26

Family

ID=47226114

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280077916.6A Active CN104936665B (zh) 2012-10-22 2012-10-22 合作增强现实

Country Status (4)

Country Link
US (7) US9607438B2 (zh)
EP (1) EP2908919A1 (zh)
CN (1) CN104936665B (zh)
WO (1) WO2014063724A1 (zh)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
EP2908919A1 (en) * 2012-10-22 2015-08-26 Longsand Limited Collaborative augmented reality
US9035771B2 (en) 2013-01-31 2015-05-19 Wal-Mart Stores, Inc. Theft detection system
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US20160112479A1 (en) * 2014-10-16 2016-04-21 Wipro Limited System and method for distributed augmented reality
CN105491416B (zh) * 2015-11-25 2020-03-03 腾讯科技(深圳)有限公司 增强现实的信息传输方法和装置
US10484643B2 (en) * 2016-11-10 2019-11-19 Avaya Inc. Intelligent contact recording in a virtual reality contact center
US10152738B2 (en) 2016-12-22 2018-12-11 Capital One Services, Llc Systems and methods for providing an interactive virtual environment
US11238526B1 (en) 2016-12-23 2022-02-01 Wells Fargo Bank, N.A. Product display visualization in augmented reality platforms
US10262464B2 (en) * 2016-12-30 2019-04-16 Intel Corporation Dynamic, local augmented reality landmarks
US11782669B2 (en) 2017-04-28 2023-10-10 Microsoft Technology Licensing, Llc Intuitive augmented reality collaboration on visual data
IT201700058961A1 (it) 2017-05-30 2018-11-30 Artglass S R L Metodo e sistema di fruizione di un contenuto editoriale in un sito preferibilmente culturale o artistico o paesaggistico o naturalistico o fieristico o espositivo
US10558861B2 (en) * 2017-08-02 2020-02-11 Oracle International Corporation Supplementing a media stream with additional information
US20190197312A1 (en) 2017-09-13 2019-06-27 Edward Rashid Lahood Method, apparatus and computer-readable media for displaying augmented reality information
WO2019055703A2 (en) * 2017-09-13 2019-03-21 Magical Technologies, Llc VIRTUAL DISPLAY PANEL, FACILITATION OF COLLABORATION, AND MESSAGE OBJECTS FOR FACILITATING COMMUNICATION SESSIONS IN AN INCREASED REALITY ENVIRONMENT
WO2019079826A1 (en) 2017-10-22 2019-04-25 Magical Technologies, Llc DIGITAL ASSISTANT SYSTEMS, METHODS AND APPARATUSES IN AN INCREASED REALITY ENVIRONMENT AND LOCAL DETERMINATION OF VIRTUAL OBJECT PLACEMENT AND SINGLE OR MULTIDIRECTIONAL OBJECTIVES AS GATEWAYS BETWEEN A PHYSICAL WORLD AND A DIGITAL WORLD COMPONENT OF THE SAME ENVIRONMENT OF INCREASED REALITY
CN107920202B (zh) * 2017-11-15 2020-02-21 阿里巴巴集团控股有限公司 基于增强现实的视频处理方法、装置及电子设备
US10904374B2 (en) 2018-01-24 2021-01-26 Magical Technologies, Llc Systems, methods and apparatuses to facilitate gradual or instantaneous adjustment in levels of perceptibility of virtual objects or reality object in a digital scene
US11398088B2 (en) 2018-01-30 2022-07-26 Magical Technologies, Llc Systems, methods and apparatuses to generate a fingerprint of a physical location for placement of virtual objects
US10803610B2 (en) 2018-03-06 2020-10-13 At&T Intellectual Property I, L.P. Collaborative visual enhancement devices
CN108334644B (zh) * 2018-03-30 2019-03-15 百度在线网络技术(北京)有限公司 图像识别方法和装置
US11677833B2 (en) * 2018-05-17 2023-06-13 Kaon Interactive Methods for visualizing and interacting with a three dimensional object in a collaborative augmented reality environment and apparatuses thereof
US10924586B2 (en) * 2018-05-30 2021-02-16 International Business Machines Corporation Aggregating virtual reality (VR) sessions
CN110166787B (zh) 2018-07-05 2022-11-29 腾讯数码(天津)有限公司 增强现实数据传播方法、系统和存储介质
CN109669541B (zh) * 2018-09-04 2022-02-25 亮风台(上海)信息科技有限公司 一种用于配置增强现实内容的方法与设备
CN109686444A (zh) * 2018-12-27 2019-04-26 上海联影智能医疗科技有限公司 用于医学图像分级的系统和方法
US11467656B2 (en) 2019-03-04 2022-10-11 Magical Technologies, Llc Virtual object control of a physical device and/or physical device control of a virtual object
US10789780B1 (en) 2019-03-29 2020-09-29 Konica Minolta Laboratory U.S.A., Inc. Eliminating a projected augmented reality display from an image
US20220222900A1 (en) * 2021-01-14 2022-07-14 Taqtile, Inc. Coordinating operations within an xr environment from remote locations
US11886767B2 (en) 2022-06-17 2024-01-30 T-Mobile Usa, Inc. Enable interaction between a user and an agent of a 5G wireless telecommunication network using augmented reality glasses

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2400464A2 (en) * 2010-06-25 2011-12-28 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1032886B1 (en) * 1997-11-14 2009-03-18 Microsoft Corporation Server operating system for supporting multiple client-server sessions and dynamic reconnection of users to previous sessions
JP4345353B2 (ja) * 2003-05-20 2009-10-14 株式会社日立製作所 コミュニケーション端末装置
EP2016562A4 (en) * 2006-05-07 2010-01-06 Sony Computer Entertainment Inc METHOD FOR IMPLEMENTING AFFECTIVE PROPERTIES IN A COMPUTER GENERATED AVATAR DURING A COMPUTER GAME
EP1887526A1 (en) * 2006-08-11 2008-02-13 Seac02 S.r.l. A digitally-augmented reality video system
EP2577607A1 (en) * 2010-05-28 2013-04-10 QUALCOMM Incorporated Dataset creation for tracking targets with dynamically changing portions
MX350182B (es) * 2010-06-15 2017-08-08 Ticketmaster L L C Metodo y sistemas para configuracion y modelado por computadora de lugares de eventos y mapas interactvos.
US9361729B2 (en) * 2010-06-17 2016-06-07 Microsoft Technology Licensing, Llc Techniques to present location information for social networks using augmented reality
GB2481612A (en) * 2010-06-30 2012-01-04 Skype Ltd Updating image regions in a shared image system
US8502659B2 (en) * 2010-07-30 2013-08-06 Gravity Jack, Inc. Augmented reality and location determination methods and apparatus
US20120038668A1 (en) * 2010-08-16 2012-02-16 Lg Electronics Inc. Method for display information and mobile terminal using the same
US8902254B1 (en) * 2010-09-02 2014-12-02 The Boeing Company Portable augmented reality
KR101444407B1 (ko) * 2010-11-02 2014-09-29 한국전자통신연구원 근거리 무선 통신을 이용한 증강현실 기반의 기기 제어 장치 및 그 방법
US8913085B2 (en) * 2010-12-22 2014-12-16 Intel Corporation Object mapping techniques for mobile augmented reality applications
KR101459175B1 (ko) * 2010-12-23 2014-11-07 주식회사 케이티 이동하는 가상 이미지를 공유하는 단말 장치 및 시스템과 그 방법
KR101329935B1 (ko) * 2011-01-27 2013-11-14 주식회사 팬택 이종 마커를 이용해서 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법
US9317835B2 (en) * 2011-03-08 2016-04-19 Bank Of America Corporation Populating budgets and/or wish lists using real-time video image analysis
US20120232966A1 (en) * 2011-03-08 2012-09-13 Bank Of America Corporation Identifying predetermined objects in a video stream captured by a mobile device
JP5776255B2 (ja) * 2011-03-25 2015-09-09 ソニー株式会社 端末装置、物体識別方法、プログラム及び物体識別システム
US8738754B2 (en) * 2011-04-07 2014-05-27 International Business Machines Corporation Systems and methods for managing computing systems utilizing augmented reality
US8493353B2 (en) * 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
US20150070347A1 (en) * 2011-08-18 2015-03-12 Layar B.V. Computer-vision based augmented reality system
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US9274595B2 (en) * 2011-08-26 2016-03-01 Reincloud Corporation Coherent presentation of multiple reality and interaction models
US20130249948A1 (en) * 2011-08-26 2013-09-26 Reincloud Corporation Providing interactive travel content at a display device
TWI544447B (zh) * 2011-11-29 2016-08-01 財團法人資訊工業策進會 擴增實境的方法及系統
US9063566B2 (en) * 2011-11-30 2015-06-23 Microsoft Technology Licensing, Llc Shared collaboration using display device
US8681179B2 (en) * 2011-12-20 2014-03-25 Xerox Corporation Method and system for coordinating collisions between augmented reality and real reality
US9563265B2 (en) * 2012-01-12 2017-02-07 Qualcomm Incorporated Augmented reality with sound and geometric analysis
KR101968641B1 (ko) * 2012-01-27 2019-04-12 삼성전자주식회사 화합물, 이를 포함하는 조성물, 이로부터 형성된 복합체, 이를 이용한 전극과 복합막 및 이를 채용한 연료전지
US9066200B1 (en) * 2012-05-10 2015-06-23 Longsand Limited User-generated content in a virtual reality environment
US9430876B1 (en) * 2012-05-10 2016-08-30 Aurasma Limited Intelligent method of determining trigger items in augmented reality environments
KR101317869B1 (ko) * 2012-06-04 2013-10-23 주식회사 이머시브코리아 메쉬데이터 생성장치, 그 방법, 도우미 서비스 제공 서버 그리고 스마트 단말기
US9389420B2 (en) * 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
US9292085B2 (en) * 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
CN103577788A (zh) * 2012-07-19 2014-02-12 华为终端有限公司 增强现实的实现方法和装置
US9514570B2 (en) * 2012-07-26 2016-12-06 Qualcomm Incorporated Augmentation of tangible objects as user interface controller
CN102821323B (zh) * 2012-08-01 2014-12-17 成都理想境界科技有限公司 基于增强现实技术的视频播放方法、系统及移动终端
KR101973934B1 (ko) * 2012-10-19 2019-04-30 한국전자통신연구원 증강현실 서비스 제공 방법, 이를 이용하는 사용자 단말 장치 및 액세스 포인트
EP2908919A1 (en) 2012-10-22 2015-08-26 Longsand Limited Collaborative augmented reality
US11103773B2 (en) * 2018-07-27 2021-08-31 Yogesh Rathod Displaying virtual objects based on recognition of real world object and identification of real world object associated location or geofence

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2400464A2 (en) * 2010-06-25 2011-12-28 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality

Also Published As

Publication number Publication date
CN104936665A (zh) 2015-09-23
US11074758B2 (en) 2021-07-27
US10068381B2 (en) 2018-09-04
US20180357830A1 (en) 2018-12-13
US11908092B2 (en) 2024-02-20
US20210319627A1 (en) 2021-10-14
US20200134928A1 (en) 2020-04-30
US20150279106A1 (en) 2015-10-01
US11508136B2 (en) 2022-11-22
EP2908919A1 (en) 2015-08-26
US9607438B2 (en) 2017-03-28
US20170154242A1 (en) 2017-06-01
WO2014063724A1 (en) 2014-05-01
US20240161426A1 (en) 2024-05-16
US10535200B2 (en) 2020-01-14
US20230045812A1 (en) 2023-02-16

Similar Documents

Publication Publication Date Title
CN104936665B (zh) 合作增强现实
KR101857946B1 (ko) 스크린샷의 생성
CN104081317B (zh) 信息处理设备和信息处理方法
CN102695032B (zh) 信息处理装置、信息共享方法以及终端设备
JP2022505998A (ja) 拡張現実データの提示方法、装置、電子機器及び記憶媒体
CN108710525A (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
WO2015102866A1 (en) Physical object discovery
US20160012612A1 (en) Display control method and system
CN106537326A (zh) 用于辅助显示器的移动设备输入控制器
CN112774203B (zh) 一种虚拟对象的位姿控制方法、装置以及计算机存储介质
CN106527887B (zh) 虚拟物体选取方法、装置及vr系统
CN108697934A (zh) 与目标图像有关的引导信息
CN106029187A (zh) 悬停敏感设备上的高级游戏结构
Chang et al. A dynamic fitting room based on microsoft kinect and augmented reality technologies
JP6721072B2 (ja) 計算処理実行方法、計算処理システム及びプログラム
CN106536004A (zh) 增强的游戏平台
US20220253808A1 (en) Virtual environment
Eriksson et al. Movement-based interaction in camera spaces: a conceptual framework
Roccetti et al. Day and night at the museum: intangible computer interfaces for public exhibitions
US11402910B2 (en) Tactile feedback array control
US20170169572A1 (en) Method and electronic device for panoramic video-based region identification
US10466818B2 (en) Pointing action
JP2016218830A (ja) 触覚提示システム、触覚提示方法、およびプログラム
Černeková et al. Single camera pointing gesture recognition for interaction in edutainment applications
CN114296551A (zh) 目标对象的呈现方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20151211

Address after: Bracknell

Applicant after: LONGSAND LIMITED

Address before: Cambridge County

Applicant before: LONGSAND LTD

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20161013

Address after: Ontario, Canada

Applicant after: Open Information Corporation

Address before: Bracknell

Applicant before: LONGSAND LIMITED

GR01 Patent grant