CN107016452A - 基于增强现实的线下交互方法及装置 - Google Patents
基于增强现实的线下交互方法及装置 Download PDFInfo
- Publication number
- CN107016452A CN107016452A CN201611089932.3A CN201611089932A CN107016452A CN 107016452 A CN107016452 A CN 107016452A CN 201611089932 A CN201611089932 A CN 201611089932A CN 107016452 A CN107016452 A CN 107016452A
- Authority
- CN
- China
- Prior art keywords
- user
- line
- under
- augmented reality
- request
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 77
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000002708 enhancing effect Effects 0.000 claims abstract description 24
- 230000002452 interceptive effect Effects 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 9
- 238000007405 data analysis Methods 0.000 claims description 6
- 239000007787 solid Substances 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000686 essence Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
- G06Q10/047—Optimisation of routes or paths, e.g. travelling salesman problem
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/083—Shipping
- G06Q10/0835—Relationships between shipper or supplier and carriers
- G06Q10/08355—Routing methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/087—Inventory or stock management, e.g. order filling, procurement or balancing against orders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0639—Item locations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Tourism & Hospitality (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Game Theory and Decision Science (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本申请提供一种基于增强现实的线下交互方法,包括:预判用户的线下用户需求;查找匹配用户的线下用户需求的线下场所;基于增强显示客户端上传的用户的定位位置确定匹配所述线下用户需求的最优线下场所;生成由所述用户的定位位置抵达所述最优线下场所的导航指引数据,并将所述导航指引数据下发至所述用户的增强现实客户端,以由所述增强显示客户端将所述导航指引数据在实时图像扫描到的实景图像中增强显示,并向所述用户输出导航提示。本申请可以基于增强现实技术将线上的多用户的社交模式与线下业务进行无缝结合,为用户提供了一种全新的LBS服务模式。
Description
技术领域
本申请涉及增强现实领域,尤其涉及一种基于增强现实的线下交互方法及装置。
背景技术
AR(Augmented Reality,增强现实)技术,是一种通过实时计算影像的位置及角度,在影像上叠加相应的图像、视频、3D模型,进而对虚拟世界与现实世界进行融合的技术,面向用户提供一种全新的交互体验。随着AR技术的不断发展,AR技术的应用场景也越来越丰富,因而如何利用AR技术将线上业务与线下业务进行更好的结合,对于提升用户体验将具有十分重要的意义。
发明内容
本申请提出一种基于增强现实的线下交互方法,应用于增强现实服务端,所述方法包括:
预判用户的线下用户需求;
查找匹配用户的线下用户需求的线下场所;
基于增强显示客户端上传的用户的定位位置确定匹配所述线下用户需求的最优线下场所;
生成由所述用户的定位位置抵达所述最优线下场所的导航指引数据,并将所述导航指引数据下发至所述用户的增强现实客户端,以由所述增强显示客户端将所述导航指引数据在实时图像扫描到的实景图像中增强显示。
本申请还提出一种基于增强现实的线下交互方法,应用于增强现实客户端,所述方法包括:
向增强现实服务端上传用户的定位位置;
接收增强现实服务端下发的由用户的定位位置抵达最优线下场所的导航指引数据;其中,所述最优线下场所匹配由增强现实服务端预判出的所述用户的线下用户需求;
响应于用户的实时图像扫描操作,将所述导航指引数据在实时图像扫描到的实景图像中增强显示,并向所述用户输出导航提示。
本申请还提出一种基于增强现实的线下交互装置,应用于增强现实服务端,所述装置包括:
预判模块,预判用户的线下用户需求;
查找模块,查找匹配用户的线下用户需求的线下场所;
确定模块,基于增强显示客户端上传的用户的定位位置确定匹配所述线下用户需求的最优线下场所;
下发模块,生成由所述用户的定位位置抵达所述最优线下场所的导航指引数据,并将所述导航指引数据下发至所述用户的增强现实客户端,以由所述增强显示客户端将所述导航指引数据在实时图像扫描到的实景图像中增强显示。
本申请还提出一种基于增强现实的线下交互装置,应用于增强现实客户端,所述装置包括:
上传模块,向增强现实服务端上传用户的定位位置;
接收模块,接收增强现实服务端下发的由用户的定位位置抵达最优线下场所的导航指引数据;其中,所述最优线下场所匹配由增强现实服务端预判出的所述用户的线下用户需求;
显示模块,响应于用户的实时图像扫描操作,将所述导航指引数据在实时图像扫描到的实景图像中增强显示,并向所述用户输出导航提示。
本申请中,提出了一种基于增强现实技术的将线上的LBS服务与用户的线下用户需求进行结合的线下交互模式,通过增强现实服务端来预判用户的线下用户需求,查找匹配用户的线下用户需求的线下场所,基于增强显示客户端上传的用户的定位位置确定匹配所述线下用户需求的最优线下场所,然后生成由所述用户的定位位置抵达所述最优线下场所的导航指引数据,并将所述导航指引数据下发至所述用户的增强现实客户端,使得该增强显示客户端可以将该导航指引数据在实时图像扫描到的实景图像中增强显示,并向用户输出导航提示,从而实现了可以基于增强现实技术将线上的LBS服务与预判出的用户的线下用户需求进行无缝结合,面向用户提供了一种全新的LBS服务模式,能够显著提升用户体验以及适应复杂的线下环境。
附图说明
图1是本申请一实施例示出的一种基于增强现实的线下交互方法的处理流程图;
图2是本申请一实施例示出的一种“就近借伞”的应用场景的示意图;
图3是本申请一实施例示出的另一种“就近借伞”的应用场景的示意图;
图4是本申请一实施例示出的一种基于增强现实的线下交互装置的逻辑框图;
图5是本申请一实施例提供的承载所述一种基于增强现实的线下交互装置的增强现实服务端所涉及的硬件结构图;
图6是本申请一实施例示出的另一种基于增强现实的线下交互装置的逻辑框图;
图7是本申请一实施例提供的承载所述另一种基于增强现实的线下交互装置的增强现实客户端所涉及的硬件结构图。
具体实施方式
本申请旨在提出一种基于AR技术的将线上的LBS(Location Based Service,基于位置的服务)服务与用户的线下用户需求进行结合,面向用户提供一种全新体验的LBS服务模式。
在实现时,通过增强现实服务端来预判用户的线下用户需求,查找匹配用户的线下用户需求的线下场所,基于增强显示客户端上传的用户的定位位置确定匹配所述线下用户需求的最优线下场所,然后生成由所述用户的定位位置抵达所述最优线下场所的导航指引数据,并将所述导航指引数据下发至所述用户的增强现实客户端,使得该增强显示客户端可以将该导航指引数据在实时图像扫描到的实景图像中增强显示,并向用户输出导航提示,从而实现了可以基于增强现实技术将线上的LBS服务与预判出的用户的线下用户需求进行无缝结合,面向用户提供了一种全新的LBS服务模式,能够显著提升用户体验以及适应复杂的线下环境。
例如,以上述线下用户需求为用户在线下的借伞服务为例,当AR服务端结合用户的定位位置信息,以及线上的天气预报等服务数据,预判出用户当前所处位置即将下雨,用户可能需要借伞服务,则可以调用线上的服务数据库(比如地图数据以及店铺数据),查找距离用户当前所处位置最近的能够提供雨伞借用服务的实体店铺,并为用户规划出一条从当前位置抵达该实体店铺的指引路线,然后将该指引路线作为需要在AR客户端上增强显示的虚拟数据发送至AR客户端,由AR客户端在AR场景中进行增强显示,向用户输出导航提示;从而用户通过佩戴的AR终端查看AR场景中输出的导航提示,就能够快速抵达最近的提供雨伞借用服务的实体店铺。
下面通过具体实施例并结合具体的应用场景对本申请进行描述。
请参考图1,图1是本申请一实施例提供的一种基于增强现实的线下交互方法,所述方法执行以下步骤:
步骤101,AR服务端预判用户的线下用户需求;
上述AR客户端,是指基于AR技术开发的客户端软件,用于对线下环境中的现实场景进行图像扫描,并将扫描得到的图像数据实时传输至AR服务端;以及,通过上述AR客户端前台的AR引擎,对后台的AR服务端推送的虚拟数据进行可视化渲染,将其与扫描到的现实场景的图像数据(比如实景图像)进行叠加融合。
上述AR服务端,包括面向上述AR客户端提供服务的服务器、服务器集群或者基于服务器集群构建的云平台,用于基于后台的AR引擎,对上述AR客户端扫描到的图像进行图像识别;以及,对与线下业务相关的虚拟数据进行内容管理,并基于上述图像识别的结果向上述AR客户端推送相关的虚拟数据(比如导航指引数据)。
在实际应用中,用户可以使用佩戴的AR终端(比如AR眼镜或者头盔),或者直接使用安装于移动终端(比如智能手机)上的AR客户端,对线下环境中的任意目标对象(可以包括已在服务端定义的任意对象;比如图片、文字以及立体物品等)进行图像扫描;当扫描完成后,上述AR客户端可以将扫描到的图像信息上传至后台服务端,由后台服务端基于后台的AR引擎进行图像识别,并在成功识别出上述目标对象后,向上述AR客户端推送与该目标对象相关的虚拟数据。
AR客户端在接收到AR服务端推送的与上述目标对象对应的虚拟数据后,可以通过前台的AR引擎,对该虚拟数据进行可视化渲染,创建AR场景模型,并将该虚拟数据在该AR场景模型中进行增强显示,从而将线下环境与AR服务端推送的虚拟数据进行叠加融合。
上述线下用户需求,可以包括AR服务端可以基于LBS面向用户进行服务推送的任意类型的线下需求;
例如,上述线下用户需求可以包括用户在线下环境中抵达最近的具有提供借伞服务的实体店铺的需求,抵达最近的餐厅用餐的餐厅推荐需求,或者,用户抵达最近的加油站或者充电站的需求,在本例中不再进行一一列举。
在本例中,用户在使用AR客户端与AR服务端进行交互的过程中,AR服务端可以预判该用户的线下用户需求,然后基于预判出的线下用户需求,向该用户进行精准的基于LBS的服务推送。
其中,AR服务端在预判用户的线下用户需求时,可以结合后台存储的服务数据采用大数据分析的进行主动预判,也可以通过AR客户端进行线下图像扫描后上传的图像数据进行识别来预判。
在示出的一种实施方式中,用户在使用AR客户端与AR服务端进行交互的过程中,AR服务端可以调用后台存储的与用户需求相关的线上服务数据进行大数据分析,来预判用户的线下用户需求;
其中,上述线上服务数据,具体可以包括任意类型的能够表征用户的线下需求的线上数据;例如,上述线上服务数据,具体可以包括地图数据、社交数据、环境数据,等等。
上述与用户需求相关的线上服务数据,则可以包括与用户关联的服务数据,以及与用户的位置关联的服务数据。
例如,与用户关联的数据,可以是AR服务端在后台存储的与用户的标识信息(比如用户登录AR客户端所使用的登录账号)建立了关联的线上数据;比如,与用户关联的线上数据,可以包括与用户的登录账号关联的用户的社交数据,业务数据等;而与用户位置关联的数据,则可以是AR服务端在后台存储的与用户的定位位置建立了关联的线上数据;比如,与用户当前所处的位置关联的线上数据,可以包括天气预报数据,地图数据等。
AR服务端在预判用户的线下用户需求时,可以基于用户的用户标识调用后台存储的与用户关联的线上数据,或者基于AR客户端上报的用户的定位位置调用后台存储的与用户的定位位置关联的线上数据,进行基于大数据分析方法的需求分析,来预判出用户的线下用户需求;
例如,在一种场景下,假设与用户的定位位置关联的线上数据,为天气预报数据,在这种情况下,AR服务端可以基于AR客户端上报的用户的定位位置,并结合线上的天气预报数据进行分析,确定出用户当前位置是否即将下雨,进而提前预判出用户当前是否具有雨伞借用的线下需求。
又如,在另一种场景下,假设与用户关联的线上数据,为与用户的账号信息关联的历史订餐数据,在这种情况下,AR服务端可以结合线上的用户的历史订餐数据分析出用户就餐的时间规律,进而结合当前的时刻提前预判出用户当前是否具有就餐的线下需求。
在示出的另一种实施方式中,用户在使用AR客户端与AR服务端进行交互的过程中,用户可以使用AR客户端主动扫描线下环境中的目标对象,并通过AR客户端将扫描得到的图像信息主动上报至AR服务端,来表达自身的线下需求;
其中,上述目标对象,包括线下环境中能够表达出用户的线下需求的任意对象;
例如,当室外即将下雨,用户未携带雨具,此时用户可以通过AR客户端主动扫描线下环境中的雨伞形状的任意图片,然后由AR客户端将扫描到的雨伞形状的图片上报至AR服务端,来表达自己具有雨伞借用这一线下需求。
需要说明的是,在实际应用中,为了充分利用AR服务端后台的AR引擎的图像识别能力,上述目标对象也可以是用户手绘的一个能够表达自己的线下需求的图形标识;
例如,当室外即将下雨,用户未携带雨具,此时用户可以手绘一个雨伞形状的图片,然后通过AR客户端主动扫描该图片,然后由AR客户端将扫描到的该雨伞形状的图片上报至AR服务端,来表达自己具有雨伞借用这一线下需求。
通过这种方式,由于用户可以通过手绘任意形状的图形标识,来向AR服务端表达自己的线下用户需求,因此能够显著的提升用户体验。
在本例中,AR服务端可以预先定义若干预设对象,并为定义的各预设对象分别关联一个对应的线下用户需求;
例如,AR服务端可以预先定义的预设对象可以包含伞形图片、餐具图片、电池图片等;对于伞形图片,可以预先关联“就近借伞”这一线下用户需求;对于“餐具图片”,可以预先关联“就近用餐”这一线下用户需求;而电池图片,则可以预先关联“就近充电”这一线下用户需求。当然,以上列举的预设对象仅为示例性的,在实际应用中,本领域技术人员可以基于用户的线下需求的类型进行自定义。
当AR服务端接收到AR客户端对上述目标对象执行图像扫描后,上传的对应于上述目标对象的图像信息后,可以基于预设的图像识别算法针对该图像信息执行图像识别;
其中,上述图像识别算法的类型,在本例中不进行特别限定,本领域技术人员在将本申请的技术方案付诸实施时,可以参考相关技术中的记载;例如,在实现时,上述图像识别算法,可以是AR技术中采用最为广泛的神经网络算法,在AR服务端上可以基于神经网络算法构建图像识别模型,来对接收到的图像数据进行图像识别。
当AR服务端从接收到的图像数据中成功识别出上述目标对象时,可以将该目标对象与预先自定义的预设对象进行匹配,进一步确定识别出的目标对象是否为预设对象;
如果识别出的该目标对象为预设对象,由于预先定义的该预设对象已经关联了对应的线下用户需求,此时AR服务端可以直接将与该预设对象关联的线下用户需求,确定为该用户的线下用户需求。
例如,假设用户通过AR客户端扫描手绘的一个雨伞形状的图片,来表达自己“就近借伞”这一线下需求,AR服务端在成功识别出该图片为雨伞形状的图片时,可以直接确定出该用户所要表达的线下需求为“就近借伞”,并对用户的该需求进行响应,调用线下的地图数据查找与用户当前位置距离最近的提供借伞服务的实体店铺。
需要说明的是,由于不同的用户通过手绘图形标识,来向AR服务端表达自己的线下用户需求时,即便不同的用户所表达的线下用户需求相同,其所绘制的图形标识通常也会存在一些明显的差异,因此AR服务端在通过预设的图像识别算法,成功识别出AR客户端上传的手绘图形标识为预设对象,并预判出用户的线下业务需求后,可以建立该手绘的图形标识,与该线下业务需求之间的关联关系。
通过这种方式,AR服务端可以收集各用户在通过AR客户端所扫描的手绘的图形标识,并建立该图形标识与其对应的识别结果之间的关联关系,进而可以不断的对预先定义的预设对象进行完善,使得用户在通过AR客户端扫描手绘的图形标识向AR客户端表达自己的线下需求时,AR服务端通过将用户手绘的图形标识与预设对象进行匹配,就能够获知用户的线下需求,而不再需要通过预设的图像识别算法对用户手绘的图形标识进行识别,因此可以提升用户手绘标识的识别精准度,从而可以避免由于不同用户手绘的图形标识之间的差异,通过算法识别可能造成的识别错误,无法预判出用户的线下用户需求的问题。
在本例中,当AR服务端成功预判出用户的线下业务需求时,还可以将预判结果推送至用户的AR客户端;用户的AR客户端在接收到AR服务端推送的预判结果后,可以将该预判结果在AR场景中向用户显示,由用户进行确认,并由AR客户端将用户的确认结果反馈给AR服务端;
例如,假设AR服务端结合用户当前的定位位置,以及线上的天气预报数据,预判出用户具有“就近借伞”这一线下需求,则可以向AR客户端推送一条“即将下雨,是否需要前往最近的雨伞?”的提示信息,由AR客户端在AR场景中向用户输出;AR客户端将该提示信息在AR场景中向用户输出时,还可以提供“是”和“否”两个可供用户选择确认的用户选项,用户可以在AR场景中选择“是”和“否”对该提示信息进行确认,然后由AR客户端将用户选择确认的结果反馈至AR服务端。
步骤102,AR服务端查找匹配用户的线下用户需求的线下场所;
在本例中,当AR服务端预判出用户的线下用户需求后,此时可以调用整合了线下场所的信息的线上地图数据,来查找匹配用户的该线下用户需求的线下场所;
例如,假设AR服务端预判出用户具有“就近借伞”这一线下需求,则可以调用整合了线下实体店铺的信息的线上地图数据,来查找与用户当前的位置距离最近的提供雨伞借用服务的实体店铺。
步骤103,AR服务端基于AR客户端上传的用户的定位位置确定匹配所述线下用户需求的最优线下场所;
在本例中,AR客户端可以实时的对用户的位置进行定位,并将用户的定位位置实时上传至AR服务端。AR服务端在接收到AR按客户端上传的定位位置后,可以基于已经查找到的能够匹配用户的线下用户需求的线下场所中,查找出一个最优线下场所。
在示出的一种实施方式中,上述最优线下场所,可以是指匹配用户的线下用户需求,且与用户当前位置距离最近的线下场所;
在这种情况下,AR服务端可以将AR客户端上报的该用户的定位位置作为基准,查找匹配用户的线下业务需求的各线下场所中,与用户当前位置距离最近的线下场所,作为最优线下场所。
当然,除了可以基于用户当前所处的位置与线下场所之前的距离作为参考,来确定最优线下场所以外,在实际应用中,也可以综合考虑其它因素,比如,用户是否经常光顾,用户的满意度,以及用户的习惯等因素,来衡量查找到的线下场所是否为最优线下场所;
例如,以上述线下用户需求为“附近就餐”,上述线下场所为用户附近的餐厅为例,在这种情况下,在确定上述最优线下场所时,可以综合考虑用户是否经常光顾,用户的满意度,以及用户的口味习惯等,而不仅仅是将距离用户最近的餐厅确定为最优餐厅。
步骤104,AR服务端生成由所述用户的定位位置抵达所述最优线下场所的导航指引数据,并将所述导航指引数据下发至所述AR客户端;
在本例中,当AR服务端为用户确定出最优线下场所后,可以调用线上的地图数据,为用户生成由用户的定位位置抵达该最优线下场所的导航指引数据;
其中,该导航指引数据,可以是AR服务端结合从用户的定位位置,抵达该最优线下场所的路线上的三维图像(比如街景图像),进行整合后生成的导航数据。
当AR服务端基于用户的定位位置,为用户生成了由用户的定位位置抵达该最优线下场所的导航指引数据后,如果用户通过AR客户端对在AR场景中输出的预判结果进行了确认,此时AR服务端可以将该导航指引数据作为AR服务端与AR客户端之间实时交互的虚拟数据,下发至该AR客户端。
步骤105,AR客户端响应于用户的实时图像扫描操作,将所述导航指引数据在实时图像扫描到的实景图像中增强显示,并向所述用户输出导航提示。
在本例中,当用户通过AR客户端对在AR场景中输出的预判结果进行了确认后,此时用户可以通过AR客户端对线下环境进行实时的图像扫描,并将而AR客户端在接收到AR服务端下发的导航指引数据后,可以基于前台的AR引擎,对后台的AR服务端推送的导航指引数据进行可视化渲染,创建AR场景模型,然后将该导航指引数据在AR场景模型中进行增强显示,并通过用户的AR客户端,或者通过与用户佩戴的AR终端,向用户输出,并在AR场景中向用户输出导航提示。此时用户在用户视野中输出的导航提示的指引下,能够快速抵达上述最优线下场所。
可见,通过这种方式,AR服务端通过对用户基于AR客户端的日常扫描行为产生的图像数据、以及线上的服务数据进行搜集,由AR服务端对用户的线下需求进行预判断,并基于线上的服务数据查找能够匹配用户的线下需求的最佳线下场所生成导航指引数据,然后基于AR技术结合生成的导航指引数据进行AR场景的建模,并向用户进行输出,从而可以将用户引导到能够匹配用户的线下需求的最佳线下场所,实现了可以基于AR技术将线上的LBS服务与预判出的用户的线下用户需求进行无缝结合,面向用户提供了一种全新的LBS服务模式,能够显著提升用户体验以及适应复杂的线下环境。
以下结合具体的应用场景对本申请的技术方案进行详细描述。
在本例中,将以上述线下用户需求为“就近借伞”为例进行说明。
在该场景下,假设用户当前所处位置即将下雨,用户可以通过手绘一个雨伞形状的图形标识,并通过佩戴的AR终端上安装的AR客户端主动扫描该图形标识,将扫描到的对应于该图形标识的图像信息上传至AR服务端,来向AR服务端表达自己具有“就近借伞”这一线下用户需求。
而在AR服务端一侧,可以预先定义雨伞形状的图形标识,并为该图形标识关联“就近借伞”这一线下用户需求。当AR服务端在接收到AR客户端上传的图像信息后,可以通过算法对该图像信息进行识别:
一方面,AR服务端在成功识别出该图像信息与预先定义的雨伞形状的图形标识匹配后,可以将“就近借伞”确定为用户当前的线下用户需求,并向用户的AR客户端推送一条“是否需要前往最近的雨伞?”的提示信息;
请参见图2,用户的AR客户端在接收到AR服务端推送的上述“是否需要前往最近的雨伞?”的提示信息后,可以在AR场景中向用户输出,并向用户提供“是”和“否”两个可供用户选择确认的用户选项;此时用户可以选择“是”来触发AR客户端开启实时的实景扫描。
另一方面,AR服务端在成功识别出该图像信息与预先定义的雨伞形状的图形标识匹配后,可以调用线上的地图数据,查找用户当前位置附近所有能够提供雨伞借用服务的实体店铺,并确定距离用户当前位置最近的实体店铺,然后基于从用户当前位置抵达该实体店铺的路线上的街景图片,生成导航指引数据,并下发给AR客户端。
请参见图3,AR客户端在接收到AR服务端下发的导航指引数据后,可以基于前台的AR引擎进行可视化渲染,创建雨伞借用的AR场景模型,并将该导航指引数据在AR场景模型中进行增强显示,然后通过用户佩戴的AR终端向用户输出,同时还可以在AR场景中向用户输出导航提示。
如图3所示,该导航提示具体可以包括在AR客户端扫描到的实景图像中显示的一个抵达距离最近的提供借伞服务的实体店铺的指引箭头,以及在该实体店铺的画面上方增强显示的一个“伞在这里”的虚拟雨伞图标。用户佩戴的AR终端上安装的上述AR客户端,可以与AR服务端实时的进行交互,基于用户的位置变化,不断对上述导航提示进行更新,从而指引用户快速抵达距离最近的提供借伞服务的实体店铺借伞。
需要指出的是,在以上实施例中,以上述线下用户需求为“就近借伞”为例进行了说明;显然,如步骤101至步骤105所示出的技术方案,也可以应用在对应于用户其它类似的线下需求的应用场景。
例如,在示出的一个“就近用餐”的应用场景中,用户可以通过手绘一个餐具形状的图形标识,并通过佩戴的AR终端上安装的AR客户端主动扫描该图形标识,将扫描到的对应于该图形标识的图像信息上传至AR服务端,来向AR服务端表达自己具有“就近就餐”这一线下用户需求。而AR服务端在通过识别AR客户端上传的图像信息预判出用户的这一线下需求后,可以查找距离用户最近的餐厅,并为用户生成从用户当前的位置抵达该距离最近的餐厅的导航指引数据,然后下发给AR客户端在AR场景中进行增强显示,并在AR场景中向用户输出导航提示,指引用户前往该餐厅用餐。
又如,在示出的另一个“就近充电”的应用场景中,用户可以通过手绘一个电池形状的图形标识,并通过佩戴的AR终端上安装的AR客户端主动扫描该图形标识,将扫描到的对应于该图形标识的图像信息上传至AR服务端,来向AR服务端表达自己具有“就近充电”这一线下用户需求。而AR服务端在通过识别AR客户端上传的图像信息预判出用户的这一线下需求后,可以查找距离用户最近的充电站,并为用户生成从用户当前的位置抵达该距离最近的充电站的导航指引数据,然后下发给AR客户端在AR场景中进行增强显示,并在AR场景中向用户输出导航提示,指引用户前往该充电站对驾驶的电动车辆进行充电。
在本例中不再针对本申请适用的应用场景进行一一列举。
通过以上实施例可见,提出了一种基于增强现实技术的将线上的LBS服务与用户的线下用户需求进行结合的线下交互模式,通过增强现实服务端来预判用户的线下用户需求,查找匹配用户的线下用户需求的线下场所,基于增强显示客户端上传的用户的定位位置确定匹配所述线下用户需求的最优线下场所,然后生成由所述用户的定位位置抵达所述最优线下场所的导航指引数据,并将所述导航指引数据下发至所述用户的增强现实客户端,使得该增强显示客户端可以将该导航指引数据在实时图像扫描到的实景图像中增强显示,并向用户输出导航提示,从而实现了可以基于增强现实技术将线上的LBS服务与预判出的用户的线下用户需求进行无缝结合,面向用户提供了一种全新的LBS服务模式,能够显著提升用户体验以及适应复杂的线下环境。
与上述方法实施例相对应,本申请还提供了装置的实施例。
请参见图4,本申请提出一种基于增强现实的线下交互装置40,应用于AR服务端;请参见图5,作为承载所述基于增强现实的线下交互装置40的AR服务端所涉及的硬件架构中,通常包括CPU、内存、非易失性存储器、网络接口以及内部总线等;以软件实现为例,所述基于增强现实的线下交互装置40通常可以理解为加载在内存中的计算机程序,通过CPU运行之后形成的软硬件相结合的逻辑装置,所述装置40包括:
预判模块401,预判用户的线下用户需求;
查找模块402,查找匹配用户的线下用户需求的线下场所;
确定模块403,基于增强显示客户端上传的用户的定位位置确定匹配所述线下用户需求的最优线下场所;
下发模块404,生成由所述用户的定位位置抵达所述最优线下场所的导航指引数据,并将所述导航指引数据下发至所述用户的增强现实客户端,以由所述增强显示客户端将所述导航指引数据在实时图像扫描到的实景图像中增强显示。
在本例中,所述预判模块401:
调用与所述用户关联的服务数据;
或者,调用与所述用户的定位位置关联的服务数据;
针对调用的所述服务数据执行大数据分析,以确定所述用户的线下用户需求。
在本例中,所述预判模块401:
接收增强现实客户端对线下环境中的目标对象执行图像扫描后,上传的对应于所述目标对象的图像信息;
基于预设的图像识别算法针对所述图像信息执行图像识别,并确定识别出的所述目标对象是否为预设对象;其中,所述预设对象关联了对应的线下用户需求;
如果所述目标对象为预设对象,则将与所述预设对象关联的线下用户需求确定为所述用户的线下用户需求。
在本例中,所述目标对象为所述用户手绘的图形标识;
所述预判模块401进一步:
如果识别出所述目标对象为预设对象,建立该目标对象与所述线下用户需求之间的关联关系。
在本例中,所述最优线下场为匹配所述线下用户需求,且与所述用户的定位位置最近的线下场所。
请参见图6,本申请提出一种基于增强现实的线下交互装置60,应用于AR客户端;请参见图7,作为承载所述基于增强现实的线下交互装置60的AR客户端所涉及的硬件架构中,通常包括CPU、内存、非易失性存储器、网络接口以及内部总线等;以软件实现为例,所述基于增强现实的线下交互装置60通常可以理解为加载在内存中的计算机程序,通过CPU运行之后形成的软硬件相结合的逻辑装置,所述装置60包括:
上传模块601,向增强现实服务端上传用户的定位位置;
接收模块602,接收增强现实服务端下发的由用户的定位位置抵达最优线下场所的导航指引数据;其中,所述最优线下场所匹配由增强现实服务端预判出的所述用户的线下用户需求;
显示模块603,响应于用户的实时图像扫描操作,将所述导航指引数据在实时图像扫描到的实景图像中增强显示,并向所述用户输出导航提示。
在本例中,所述上传模块601进一步:
响应于用户针对线下环境中的目标对象执行的图像扫描操作,将扫描得到的对应于所述目标对象的图像信息上传至所述增强现实服务端,以由所述增强现实服务端针对所述图像信息执行图像识别后,预判所述用户的线下用户需求。
在本例中,所述目标对象为所述用户手绘的图形标识。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
上述实施例阐明的装置、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (16)
1.一种基于增强现实的线下交互方法,其特征在于,应用于增强现实服务端,所述方法包括:
预判用户的线下用户需求;
查找匹配用户的线下用户需求的线下场所;
基于增强显示客户端上传的用户的定位位置确定匹配所述线下用户需求的最优线下场所;
生成由所述用户的定位位置抵达所述最优线下场所的导航指引数据,并将所述导航指引数据下发至所述用户的增强现实客户端,以由所述增强显示客户端将所述导航指引数据在实时图像扫描到的实景图像中增强显示,并向所述用户输出导航提示。
2.根据权利要求1所述的方法,其特征在于,所述预判用户的线下用户需求,包括:
调用与所述用户关联的服务数据;
或者,调用与所述用户的定位位置关联的服务数据;
针对调用的所述服务数据执行大数据分析,以确定所述用户的线下用户需求。
3.根据权利要求1所述的方法,其特征在于,所述预判用户的线下用户需求,包括:
接收增强现实客户端对线下环境中的目标对象执行图像扫描后,上传的对应于所述目标对象的图像信息;
基于预设的图像识别算法针对所述图像信息执行图像识别,并确定识别出的所述目标对象是否为预设对象;其中,所述预设对象关联了对应的线下用户需求;
如果所述目标对象为预设对象,则将与所述预设对象关联的线下用户需求确定为所述用户的线下用户需求。
4.根据权利要求3所述的方法,其特征在于,所述目标对象为所述用户手绘的图形标识;
所述方法还包括:
如果识别出所述目标对象为预设对象,建立该目标对象与所述线下用户需求之间的关联关系。
5.根据权利要求1所述的方法,其特征在于,所述最优线下场为匹配所述线下用户需求,且与所述用户的定位位置最近的线下场所。
6.一种基于增强现实的线下交互方法,其特征在于,应用于增强现实客户端,所述方法包括:
向增强现实服务端上传用户的定位位置;
接收增强现实服务端下发的由用户的定位位置抵达最优线下场所的导航指引数据;其中,所述最优线下场所匹配由增强现实服务端预判出的所述用户的线下用户需求;
响应于用户的实时图像扫描操作,将所述导航指引数据在实时图像扫描到的实景图像中增强显示,并向所述用户输出导航提示。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于用户针对线下环境中的目标对象执行的图像扫描操作,将扫描得到的对应于所述目标对象的图像信息上传至所述增强现实服务端,以由所述增强现实服务端针对所述图像信息执行图像识别后,预判所述用户的线下用户需求。
8.根据权利要求1所述的方法,其特征在于,所述目标对象为所述用户手绘的图形标识。
9.一种基于增强现实的线下交互装置,其特征在于,应用于增强现实服务端,所述装置包括:
预判模块,预判用户的线下用户需求;
查找模块,查找匹配用户的线下用户需求的线下场所;
确定模块,基于增强显示客户端上传的用户的定位位置确定匹配所述线下用户需求的最优线下场所;
下发模块,生成由所述用户的定位位置抵达所述最优线下场所的导航指引数据,并将所述导航指引数据下发至所述用户的增强现实客户端,以由所述增强显示客户端将所述导航指引数据在实时图像扫描到的实景图像中增强显示。
10.根据权利要求9所述的装置,其特征在于,所述预判模块:
调用与所述用户关联的服务数据;
或者,调用与所述用户的定位位置关联的服务数据;
针对调用的所述服务数据执行大数据分析,以确定所述用户的线下用户需求。
11.根据权利要求9所述的装置,其特征在于,所述预判模块:
接收增强现实客户端对线下环境中的目标对象执行图像扫描后,上传的对应于所述目标对象的图像信息;
基于预设的图像识别算法针对所述图像信息执行图像识别,并确定识别出的所述目标对象是否为预设对象;其中,所述预设对象关联了对应的线下用户需求;
如果所述目标对象为预设对象,则将与所述预设对象关联的线下用户需求确定为所述用户的线下用户需求。
12.根据权利要求11所述的装置,其特征在于,所述目标对象为所述用户手绘的图形标识;
所述预判模块进一步:
如果识别出所述目标对象为预设对象,建立该目标对象与所述线下用户需求之间的关联关系。
13.根据权利要求9所述的装置,其特征在于,所述最优线下场为匹配所述线下用户需求,且与所述用户的定位位置最近的线下场所。
14.一种基于增强现实的线下交互装置,其特征在于,应用于增强现实客户端,所述装置包括:
上传模块,向增强现实服务端上传用户的定位位置;
接收模块,接收增强现实服务端下发的由用户的定位位置抵达最优线下场所的导航指引数据;其中,所述最优线下场所匹配由增强现实服务端预判出的所述用户的线下用户需求;
显示模块,响应于用户的实时图像扫描操作,将所述导航指引数据在实时图像扫描到的实景图像中增强显示,并向所述用户输出导航提示。
15.根据权利要求14所述的装置,其特征在于,所述上传模块进一步:
响应于用户针对线下环境中的目标对象执行的图像扫描操作,将扫描得到的对应于所述目标对象的图像信息上传至所述增强现实服务端,以由所述增强现实服务端针对所述图像信息执行图像识别后,预判所述用户的线下用户需求。
16.根据权利要求14所述的装置,其特征在于,所述目标对象为所述用户手绘的图形标识。
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611089932.3A CN107016452A (zh) | 2016-11-30 | 2016-11-30 | 基于增强现实的线下交互方法及装置 |
TW106132577A TWI715804B (zh) | 2016-11-30 | 2017-09-22 | 基於擴增實境的離線互動方法及裝置 |
EP17875723.3A EP3550479A4 (en) | 2016-11-30 | 2017-11-23 | OFFLINE INTERACTION METHOD AND APPARATUS BASED ON INCREASED REALITY |
JP2019529219A JP6905061B2 (ja) | 2016-11-30 | 2017-11-23 | 拡張現実ベースのオフライン対話の方法および装置 |
PCT/CN2017/112629 WO2018099320A1 (zh) | 2016-11-30 | 2017-11-23 | 基于增强现实的线下交互方法及装置 |
KR1020197018190A KR20190089019A (ko) | 2016-11-30 | 2017-11-23 | 증강 현실 기반의 오프라인 상호작용 방법 및 장치 |
US16/427,087 US20190279425A1 (en) | 2016-11-30 | 2019-05-30 | Augmented-reality-based offline interaction method and apparatus |
PH12019501201A PH12019501201A1 (en) | 2016-11-30 | 2019-05-30 | Augmented-reality based offline interaction method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611089932.3A CN107016452A (zh) | 2016-11-30 | 2016-11-30 | 基于增强现实的线下交互方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107016452A true CN107016452A (zh) | 2017-08-04 |
Family
ID=59439551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611089932.3A Pending CN107016452A (zh) | 2016-11-30 | 2016-11-30 | 基于增强现实的线下交互方法及装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20190279425A1 (zh) |
EP (1) | EP3550479A4 (zh) |
JP (1) | JP6905061B2 (zh) |
KR (1) | KR20190089019A (zh) |
CN (1) | CN107016452A (zh) |
PH (1) | PH12019501201A1 (zh) |
TW (1) | TWI715804B (zh) |
WO (1) | WO2018099320A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107547359A (zh) * | 2017-08-16 | 2018-01-05 | 华南理工大学 | 基于lbs与ar技术的旅游景点信息服务系统 |
WO2018099320A1 (zh) * | 2016-11-30 | 2018-06-07 | 阿里巴巴集团控股有限公司 | 基于增强现实的线下交互方法及装置 |
CN111027734A (zh) * | 2018-10-10 | 2020-04-17 | 阿里巴巴集团控股有限公司 | 信息处理方法、信息显示方法、装置、电子设备及服务器 |
CN112019487A (zh) * | 2019-05-31 | 2020-12-01 | 浙江口碑网络技术有限公司 | 线下活动权限确认方法、装置、存储介质及计算机设备 |
CN113188545A (zh) * | 2021-04-29 | 2021-07-30 | 武汉依迅北斗时空技术股份有限公司 | 一种离线移动端ar室内导航方法及系统 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019161267A1 (en) | 2018-02-19 | 2019-08-22 | Dakiana Research Llc | Method and devices for presenting and manipulating conditionally dependent synthesized reality content threads |
TWI691205B (zh) * | 2019-01-18 | 2020-04-11 | 荔枝位元有限公司 | 擴增實境影像處理方法 |
CN111582965A (zh) * | 2019-02-18 | 2020-08-25 | 荔枝位元有限公司 | 扩增实境影像的处理方法 |
US11055930B1 (en) * | 2019-05-06 | 2021-07-06 | Apple Inc. | Generating directives for objective-effectuators |
US11573626B2 (en) * | 2019-06-19 | 2023-02-07 | Kyndryl, Inc. | Identifying electrical power ports utilizing IoT information and augmented reality |
TWI733245B (zh) * | 2019-11-07 | 2021-07-11 | 南開科技大學 | 依互動過程在擴增實境與虛擬實境間切換之系統及方法 |
US20220335698A1 (en) * | 2019-12-17 | 2022-10-20 | Ashley SinHee Kim | System and method for transforming mapping information to an illustrated map |
CN115499775A (zh) * | 2019-12-31 | 2022-12-20 | 北京骑胜科技有限公司 | 一种设备离线处理方法及装置 |
CN111369192B (zh) * | 2020-03-04 | 2023-08-08 | 海南金盘智能科技股份有限公司 | 仓储信息的采集方法及信息采集终端、后端设备 |
CN113222673A (zh) * | 2021-05-31 | 2021-08-06 | 中国银行股份有限公司 | 基于ar的优惠活动推荐方法及系统 |
CN113483781B (zh) * | 2021-06-02 | 2024-06-14 | 深圳市御嘉鑫科技股份有限公司 | 智能多维立体空间gps导航系统及方法 |
CN113570664B (zh) * | 2021-07-22 | 2023-03-24 | 北京百度网讯科技有限公司 | 增强现实导航显示方法和装置、电子设备、计算机介质 |
CN113873200B (zh) * | 2021-09-26 | 2024-02-02 | 珠海研果科技有限公司 | 一种图像标识方法及系统 |
CN113923252B (zh) * | 2021-09-30 | 2023-11-21 | 北京蜂巢世纪科技有限公司 | 图像显示装置、方法和系统 |
KR102474122B1 (ko) * | 2022-05-12 | 2022-12-06 | 주식회사 윗유 | 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103813044A (zh) * | 2012-11-06 | 2014-05-21 | 柯尼卡美能达株式会社 | 引导信息显示装置 |
US20150248651A1 (en) * | 2014-02-28 | 2015-09-03 | Christine E. Akutagawa | Social networking event planning |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5280475B2 (ja) * | 2010-03-31 | 2013-09-04 | 新日鉄住金ソリューションズ株式会社 | 情報処理システム、情報処理方法及びプログラム |
SG10201400949SA (en) * | 2010-03-30 | 2014-05-29 | Ns Solutions Corp | Information Processing System, Information Processing Method And Program, Information Processing Apparatus, Vacant Space Guidance System, Vacant Space Guidance Method And Program, Image Display System, And Image Display Method And Program |
GB2501567A (en) * | 2012-04-25 | 2013-10-30 | Christian Sternitzke | Augmented reality information obtaining system |
CN105976636B (zh) * | 2016-05-31 | 2020-01-31 | 上海美迪索科电子科技有限公司 | 一种利用增强现实技术的停车场寻车系统及其寻车方法 |
CN106503503A (zh) * | 2016-10-20 | 2017-03-15 | 宁波江东大金佰汇信息技术有限公司 | 一种基于计算机大数据的用户行为加密方法及系统 |
CN107016452A (zh) * | 2016-11-30 | 2017-08-04 | 阿里巴巴集团控股有限公司 | 基于增强现实的线下交互方法及装置 |
-
2016
- 2016-11-30 CN CN201611089932.3A patent/CN107016452A/zh active Pending
-
2017
- 2017-09-22 TW TW106132577A patent/TWI715804B/zh active
- 2017-11-23 KR KR1020197018190A patent/KR20190089019A/ko not_active IP Right Cessation
- 2017-11-23 JP JP2019529219A patent/JP6905061B2/ja active Active
- 2017-11-23 EP EP17875723.3A patent/EP3550479A4/en not_active Ceased
- 2017-11-23 WO PCT/CN2017/112629 patent/WO2018099320A1/zh unknown
-
2019
- 2019-05-30 US US16/427,087 patent/US20190279425A1/en not_active Abandoned
- 2019-05-30 PH PH12019501201A patent/PH12019501201A1/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103813044A (zh) * | 2012-11-06 | 2014-05-21 | 柯尼卡美能达株式会社 | 引导信息显示装置 |
US20150248651A1 (en) * | 2014-02-28 | 2015-09-03 | Christine E. Akutagawa | Social networking event planning |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018099320A1 (zh) * | 2016-11-30 | 2018-06-07 | 阿里巴巴集团控股有限公司 | 基于增强现实的线下交互方法及装置 |
CN107547359A (zh) * | 2017-08-16 | 2018-01-05 | 华南理工大学 | 基于lbs与ar技术的旅游景点信息服务系统 |
CN107547359B (zh) * | 2017-08-16 | 2020-11-24 | 华南理工大学 | 基于lbs与ar技术的旅游景点信息服务系统 |
CN111027734A (zh) * | 2018-10-10 | 2020-04-17 | 阿里巴巴集团控股有限公司 | 信息处理方法、信息显示方法、装置、电子设备及服务器 |
CN111027734B (zh) * | 2018-10-10 | 2023-04-28 | 阿里巴巴集团控股有限公司 | 信息处理方法、信息显示方法、装置、电子设备及服务器 |
CN112019487A (zh) * | 2019-05-31 | 2020-12-01 | 浙江口碑网络技术有限公司 | 线下活动权限确认方法、装置、存储介质及计算机设备 |
CN113188545A (zh) * | 2021-04-29 | 2021-07-30 | 武汉依迅北斗时空技术股份有限公司 | 一种离线移动端ar室内导航方法及系统 |
CN113188545B (zh) * | 2021-04-29 | 2023-07-11 | 武汉依迅北斗时空技术股份有限公司 | 一种离线移动端ar室内导航方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20190279425A1 (en) | 2019-09-12 |
TWI715804B (zh) | 2021-01-11 |
KR20190089019A (ko) | 2019-07-29 |
WO2018099320A1 (zh) | 2018-06-07 |
TW201821949A (zh) | 2018-06-16 |
EP3550479A1 (en) | 2019-10-09 |
EP3550479A4 (en) | 2019-10-09 |
JP2020513620A (ja) | 2020-05-14 |
JP6905061B2 (ja) | 2021-07-21 |
PH12019501201A1 (en) | 2019-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107016452A (zh) | 基于增强现实的线下交互方法及装置 | |
CN110209952B (zh) | 信息推荐方法、装置、设备及存储介质 | |
CN108305317B (zh) | 一种图像处理方法、装置及存储介质 | |
CN106920079B (zh) | 基于增强现实的虚拟对象分配方法及装置 | |
TWI718348B (zh) | 基於擴增實境的線下互動方法及裝置 | |
CN106981000A (zh) | 基于增强现实的多人线下交互、点餐方法及系统 | |
KR101662048B1 (ko) | 맞춤형 운송 서비스 제공 방법 및 시스템 | |
CN105530607B (zh) | 用户推荐方法、装置和系统 | |
CN110827379A (zh) | 虚拟形象的生成方法、装置、终端及存储介质 | |
CN102819607A (zh) | 一种推荐用户的方法和装置 | |
CN107168672A (zh) | 显示方法和装置 | |
CN109937393A (zh) | 支持增强现实软件应用 | |
CN105117399A (zh) | 一种图像搜索方法和装置 | |
CN110377574A (zh) | 图片的协作处理方法及装置、存储介质、电子装置 | |
CN109102327A (zh) | 一种物品回收的方法、便携式终端及存储介质 | |
CN109697091A (zh) | 页面的处理方法、装置、存储介质和电子装置 | |
CN108197203A (zh) | 一种门脸头图挑选方法、装置、服务器和存储介质 | |
CN112669271A (zh) | 物体表面缺陷检测方法、相关装置及计算机存储介质 | |
CN105183739A (zh) | 图像处理方法 | |
CN110457602A (zh) | 一种基于人脸识别的交友方法与装置 | |
JP2004127206A (ja) | 機能オブジェクトデータ、機能オブジェクト表象システム、機能オブジェクト表象システムにおけるオブジェクトデータ送信側機器及びオブジェクトデータ受信側機器及び管理用機器 | |
CN112381929A (zh) | 一种三维电力设备模型建模方法 | |
CN112818733A (zh) | 信息处理方法、装置、存储介质及终端 | |
US20240157240A1 (en) | System and method for generating notifications for an avatar to conduct interactions within a metaverse | |
CN113819913A (zh) | 一种路径规划方法及装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1241108 Country of ref document: HK |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170804 |