CN110999279A - 可穿戴终端显示系统、可穿戴终端显示方法以及程序 - Google Patents
可穿戴终端显示系统、可穿戴终端显示方法以及程序 Download PDFInfo
- Publication number
- CN110999279A CN110999279A CN201780093375.9A CN201780093375A CN110999279A CN 110999279 A CN110999279 A CN 110999279A CN 201780093375 A CN201780093375 A CN 201780093375A CN 110999279 A CN110999279 A CN 110999279A
- Authority
- CN
- China
- Prior art keywords
- wearable terminal
- guide
- map
- display
- display panel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3885—Transmission of map data to client devices; Reception of map data by client devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3885—Transmission of map data to client devices; Reception of map data by client devices
- G01C21/3889—Transmission of selected map data, e.g. depending on route
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
从可穿戴终端的视野的图像确定引导对象,将根据引导对象收集到的引导图设为增强现实显示于可穿戴终端的显示板。提供一种可穿戴终端显示系统,在可穿戴终端的显示板显示引导对象的引导图,该可穿戴终端显示系统具备:图像获取单元,获取进入可穿戴终端的视野的引导对象的图像;确定单元,对所述图像进行图像解析,确定所述引导对象;收集单元,收集所述引导对象的引导图;以及引导图显示单元,对于能透过所述显示板看到的所述引导对象,将所述引导图设为增强现实显示于所述可穿戴终端的显示板。
Description
技术领域
本发明涉及一种可穿戴终端显示系统、可穿戴终端显示方法以及程序,对能透过可穿戴终端的显示板看到的引导对象,将收集到的引导对象的引导图设为增强现实显示于可穿戴终端的显示板。
背景技术
近年,引导图的IT化正在推进。例如,提供一种引导系统,与IC标识联动,将引导图、地图显示于便携电话(专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2005-180967号公报
发明内容
发明所要解决的问题
然而,专利文献1的系统存在为了进行引导而必须设置IC标识的问题。
本发明是鉴于上述问题而完成的,其目的在于,提供一种可穿戴终端显示系统、可穿戴终端显示方法以及程序,从可穿戴终端的视野的图像确定引导对象,将根据引导对象收集到的引导图设为增强现实显示于可穿戴终端的显示板。
用于解决问题的方案
在本发明中,提供以下这样的解决方式。
第一特征的发明提供一种可穿戴终端显示系统,在可穿戴终端的显示板显示引导对象的引导图,该可穿戴终端显示系统具备:图像获取单元,获取进入可穿戴终端的视野的引导对象的图像;确定单元,对所述图像进行图像解析,确定所述引导对象;收集单元,收集所述引导对象的引导图;以及引导图显示单元,对于能透过所述显示板看到的所述引导对象,将所述引导图设为增强现实显示于所述可穿戴终端的显示板。
第一特征的发明提供一种可穿戴终端显示方法,在可穿戴终端的显示板显示引导对象的引导图,该可穿戴终端显示方法具备以下步骤:图像获取步骤,获取进入可穿戴终端的视野的引导对象的图像;确定步骤,对所述图像进行图像解析,确定所述引导对象;收集步骤,收集所述引导对象的引导图;以及引导图显示步骤,对于能透过所述显示板看到的所述引导对象,将所述引导图设为增强现实显示于所述可穿戴终端的显示板。
第一特征的发明提供一种程序,用于使计算机执行以下步骤:图像获取步骤,获取进入可穿戴终端的视野的引导对象的图像;确定步骤,对所述图像进行图像解析,确定所述引导对象;收集步骤,收集所述引导对象的引导图;引导图显示步骤,对于能透过所述可穿戴终端的显示板看到的所述引导对象,将所述引导图设为增强现实显示于所述可穿戴终端的显示板。
发明效果
只要使引导对象进入可穿戴终端的视野,就能在可穿戴终端的显示板显示引导对象的引导图。
附图说明
图1是可穿戴终端显示系统的概要图。
图2是收集引导对象的引导图并显示于可穿戴终端的显示板的一个例子。
具体实施方式
以下,对用于实施本发明的最佳方式进行说明。需要说明的是,这仅是一个例子,本发明的技术的范围不限于此。
本发明的可穿戴终端显示系统是对于能透过可穿戴终端的显示板看到的引导对象,将收集到的引导图设为增强现实显示于可穿戴终端的显示板的系统。可穿戴终端是指智能眼镜、头戴显示器等有视野的终端。
基于图1,对本发明的优选的实施方式的概要进行说明。图1是作为本发明的优选的实施方式的可穿戴终端显示系统的概要图。
像图1那样,可穿戴终端显示系统具备通过控制部读取规定的程序而实现的图像获取单元、确定单元、收集单元以及引导图显示单元。此外,虽未图示,但同样也可以具备:判定单元、变更单元、检测单元、动作结果显示单元、位置方向获取单元、推测单元、引导线(Guideline)显示单元以及选择受理单元。这些单元也可以是应用程序型、云型或其他型。上述的各单元既可以用单独的计算机实现,也可以用两台以上的计算机(例如,服务器和终端这样的情况)实现。
图像获取单元获取进入可穿戴终端的视野的引导对象的图像。也可以获取用可穿戴终端的照相机拍摄到的图像。此外,即使是可穿戴终端以外的设备,只要能获取像这样的图像就可以。图像既可以是运动图像,也可以是静止图像。为了实时地显示引导图,优选实时的图像。
确定单元对图像进行图像解析,确定引导对象。例如,确定引导对象是否为特定的店铺名(例如,伊势丹、丸井、三井奥特莱斯购物城)。具体而言,从外观、招牌、标牌等图像确定引导对象。此外,在要确定完映现的全部引导对象耗费时间的情况下,也可以仅确定处于可穿戴终端的视野的中央的引导对象。通过仅确定处于视野的中央的引导对象,能大幅度地缩短确定所需要的时间。也可以通过机器学习来提高图像解析的精度。例如,将引导对象的过去图像作为教师数据来进行机器学习。
收集单元收集对应于引导对象的引导图。也可以参照预先登记有引导图的数据库来收集对应于引导对象的引导图。此外,也可以访问预先与引导对象建立有关联的Web(网络)内容来收集引导图。例如,能通过分配将引导对象与引导图建立关联的URL(UniformResource Locator:统一资源定位符)等来从Web内容进行获取。此外,也可以在互联网检索引导对象,从检索到的Web内容收集引导图。例如,存在引导对象的主页登载有引导图的情况,因此能由互联网检索来收集。此外,也存在能从SNS(social networking service:社交网络服务)、口碑网站等收集引导图的情况。
引导图显示单元对于能透过可穿戴终端的显示板看到的引导对象,将引导图设为增强现实显示于可穿戴终端的显示板。例如图2那样,对于能透过可穿戴终端的显示板看到的用实线描绘的引导对象,将用虚线描绘的引导图设为增强现实显示于可穿戴终端的显示板。在此为便于理解,设为:实线为实物,虚线为增强现实。对于能透过显示板看到的用实线描绘的引导对象用增强现实显示引导图,由此能视觉上地掌握关于引导对象存在什么样的引导图。设为增强现实进行显示的引导图也可以以重叠于能透过显示板看到的引导对象的方式显示,但会使引导对象不易被看到,因此也可以设为能切换引导图的显示ON/OFF(开/关)。
判定单元,对显示的引导图是否已被阅览进行判定。也可以通过获取阅览中的图像并进行图像解析来判定引导图是否已被阅览。此外,也可以根据可穿戴终端的传感器信息、阅览者所装备的传感器信息等,对引导图是否已被阅览进行判定。例如,感测视线的传感器、运动传感器以及加速度传感器等。
变更单元,在判定为已被阅览的情况下,将引导图变更为阅览完成,在判定为未被阅览的情况下,变更醒目度以使引导图被阅览。通过这样,能视觉上地掌握哪个引导图已被阅览或未被阅览。例如,也可以通过勾选引导图的复选框来设为已阅览。例如,也可以通过在引导图中按压印记(stamp)来设为已阅览。此外,醒目度的变更可以是变更引导图的颜色、尺寸,或以使引导图显眼的方式按压印记。
检测单元,检测对显示的引导图的动作。动作为例如手势、手的运动以及视线的运动等。通过获取阅览中的图像并进行图像解析,能检测对引导图的动作。此外,也可以根据可穿戴终端的传感器信息、阅览者所装备的传感器信息等,检测对引导图的动作。例如,感测视线的传感器、运动传感器以及加速度传感器等。
动作结果显示单元对于能透过可穿戴终端的显示板看到的引导对象,将对应于动作的结果设为增强现实显示于可穿戴终端的显示板。例如,可以是如果检测到消除引导图的动作,则消除引导图的显示。例如,可以是如果检测到打开附加于引导图的链接的动作,则打开链接。当然也可是其他动作。
位置方向单元获取可穿戴终端的终端位置和拍摄方向。例如,终端位置能从可穿戴终端的GPS(Global Positioning System:全球定位系统)获取。例如,在用可穿戴终端进行拍摄的情况下,能从可穿戴终端的地磁传感器、加速度传感器获取拍摄方向。也可以从这些以外的设备获取。
推测单元基于终端位置和拍摄方向推测引导对象的引导对象位置。只要知道终端位置和拍摄方向,便能推测拍摄到的引导对象的引导对象位置。
此外,确定单元也可以根据引导对象位置和图像解析确定引导对象。例如,存在即使是相同的连锁店的引导对象,引导图也会根据店铺而不同的情况,因此有时如果不推测引导对象位置,便不能唯一地确定。例如,如果能确定是东京都港区店,便能显示东京都港区店的引导图。
引导线显示单元将用于拍摄引导对象的引导线设为增强现实显示于可穿戴终端的显示板。例如,可以显示框、十字等引导线。使人沿引导线进行拍摄,由此进行图像解析变得容易。
此外,获取单元也可以获取沿引导线拍摄到的图像。通过仅获取沿引导线拍摄到的图像并进行图像解析,能高效地确定引导对象。
选择受理单元对于能透过可穿戴终端的显示板看到的引导对象受理选择对象的选择。例如,可以通过观察能透过可穿戴终端的显示板看到的引导对象一定时间来受理选择对象的选择。例如,也可以触摸能透过可穿戴终端的显示板看到的引导对象来受理选择对象的选择。例如,也可以通过使能透过可穿戴终端的显示板看到的引导对象与光标对准来受理选择对象的选择。例如,感测视线的传感器、运动传感器以及加速度传感器等。
此外,也可以仅与能透过显示板看到的选择对象匹配地将引导图设为增强现实显示于可穿戴终端的显示板。仅与选择的选择对象匹配地将引导图设为增强现实进行显示,因此能在目标点(pinpoint)掌握引导图。如果对确定的全部的引导对象显示引导图,存在显示板的画面烦杂的情况。
(动作的说明)
接着,对可穿戴终端显示方法进行说明。本发明的可穿戴终端显示方法是对于能透过可穿戴终端的显示板看到的引导对象,将收集到的引导图设为增强现实显示于可穿戴终端的显示板的方法。
可穿戴终端显示方法具备:图像获取步骤、确定步骤、收集步骤以及引导图显示步骤。此外,虽未进行图示,但同样也可以具备:判定步骤、变更步骤、检测步骤、动作结果显示步骤、位置方向获取步骤、推测步骤、引导线显示步骤以及选择受理步骤。
图像获取步骤获取进入可穿戴终端的视野的引导对象的图像。也可以获取用可穿戴终端的照相机拍摄到的图像。此外,即使是可穿戴终端以外的设备,只要能获取像这样的图像就可以。图像既可以是运动图像,也可以是静止图像。为了实时地显示引导图,优选实时的图像。
在确定步骤中,对图像进行图像解析,确定引导对象。例如,确定引导对象是否为特定的店铺名(例如,伊势丹、丸井、三井奥特莱斯购物城等)等。关于这一点,能从外观、招牌、标牌等图像确定引导对象。引导对象不限于这些。此外,在要确定完映现的全部引导对象耗费时间的情况下,也可以仅确定处于可穿戴终端的视野的中央的引导对象。通过仅确定处于视野的中央的引导对象,能大幅度地缩短确定所需要的时间。也可以通过机器学习来提高图像解析的精度。例如,将引导对象的过去图像作为教师数据来进行机器学习。
在收集步骤中,收集对应于引导对象的引导图。也可以参照预先登记有引导图的数据库来收集对应于引导对象的引导图。此外,也可以访问预先与引导对象建立有关联的Web内容来收集引导图。例如,能通过分配将引导对象与引导图建立关联的URL等来从Web内容进行获取。此外,也可以在互联网检索引导对象,从检索到的Web内容收集引导图。例如,存在引导对象的主页登载有引导图的情况,因此能由互联网检索来收集。此外,也存在能从SNS(social networking service:社交网络服务)、口碑网站等收集引导图的情况
在引导图显示步骤中,对于能透过可穿戴终端的显示板看到的引导对象,将引导图设为增强现实显示于可穿戴终端的显示板。例如图2那样,对于能透过可穿戴终端的显示板看到的用实线描绘的引导对象,将用虚线描绘的引导图设为增强现实显示于可穿戴终端的显示板。在此为便于理解,设为:实线为实物,虚线为增强现实。对于能透过显示板看到的用实线描绘的引导对象用增强现实显示引导图,由此能视觉上地掌握关于引导对象存在什么样的引导图。设为增强现实进行显示的引导图也可以以重叠于能透过显示板看到的引导对象的方式显示,但会使引导对象不易被看到,因此也可以设为能切换引导图的显示ON/OFF(开/关)。
在判定步骤中,对显示的引导图是否已被阅览进行判定。也可以通过获取阅览中的图像并进行图像解析来判定引导图是否已被阅览。此外,也可以根据可穿戴终端的传感器信息、阅览者所装备的传感器信息等,对引导图是否已被阅览进行判定。例如,感测视线的传感器、运动传感器以及加速度传感器等。
在变更步骤中,在判定为已被阅览的情况下,将引导图变更为阅览完成,在判定为未被阅览的情况下,变更醒目度以使引导图被阅览。通过这样,能视觉上地掌握哪个引导图已被阅览或未被阅览。例如,也可以通过勾选引导图的复选框来设为已阅览。例如,也可以通过在引导图中按压印记(stamp)来设为已阅览。此外,醒目度的变更可以是变更引导图的颜色、尺寸,或以使引导图显眼的方式按压印记。
在检测步骤中,检测对显示的引导图的动作。动作为例如手势、手的运动以及视线的运动等。通过获取阅览中的图像并进行图像解析,能检测对引导图的动作。此外,也可以根据可穿戴终端的传感器信息、阅览者所装备的传感器信息等,检测对引导图的动作。例如,可以是感测视线的传感器、运动传感器以及加速度传感器等。
在动作结果显示步骤中,对于能透过可穿戴终端的显示板看到的引导对象,将对应于动作的结果设为增强现实显示于可穿戴终端的显示板。例如,可以是如果检测到消除引导图的动作,则消除引导图的显示。例如,可以是如果检测到打开附加于引导图的链接的动作,则打开链接。当然也可是其他动作。
在位置方向步骤中,获取可穿戴终端的终端位置和拍摄方向。例如,终端位置能从可穿戴终端的GPS(Global Positioning System:全球定位系统)获取。例如,在用可穿戴终端进行拍摄的情况下,能从可穿戴终端的地磁传感器、加速度传感器获取拍摄方向。也可以从这些以外的设备获取。
在推测步骤中,基于终端位置和拍摄方向推测引导对象的引导对象位置。只要知道终端位置和拍摄方向,便能推测拍摄到的引导对象的引导对象位置。
此外,在确定步骤中,也可以根据引导对象位置和图像解析确定引导对象。例如,存在即使是相同的连锁店的引导对象,引导图也会根据店铺而不同的情况,因此有时如果不推测引导对象位置,便不能唯一地确定。例如,如果能确定是东京都港区店,便能显示东京都港区店的引导图。
在引导线显示步骤中,将用于拍摄引导对象的引导线设为增强现实显示于可穿戴终端的显示板。例如,可以显示框、十字等引导线。使人沿引导线进行拍摄,由此进行图像解析变得容易。
此外,在获取步骤中,也可以获取沿引导线拍摄到的图像。通过仅获取沿引导线拍摄到的图像并进行图像解析,能高效地确定引导对象。
在选择受理步骤中,对于能透过可穿戴终端的显示板看到的引导对象,受理选择对象的选择。例如,可以通过观察能透过可穿戴终端的显示板看到的引导对象一定时间来受理选择对象的选择。例如,也可以触摸能透过可穿戴终端的显示板看到的引导对象来受理选择对象的选择。例如,也可以通过使能透过可穿戴终端的显示板看到的引导对象与光标对准来受理选择对象的选择。例如,感测视线的传感器、运动传感器以及加速度传感器等。
此外,在引导图显示步骤中,也可以仅与能透过显示板看到的选择对象匹配地将引导图设为增强现实显示于可穿戴终端的显示板。仅与选择的选择对象匹配地将引导图设为增强现实进行显示,因此能在目标点掌握引导图。如果对确定的全部的引导对象显示引导图,存在显示板的画面烦杂的情况。
上述的单元、功能通过计算机(包括CPU、信息处理装置以及各种终端)读取规定的程序并执行来实现。程序可以用以下方式提供:例如可以是安装于计算机的应用,也可以是从计算机经由网络提供的SaaS(软件即服务)方式,也可以是例如用记录于软盘、CD(CD-ROM等)、DVD(DVD-ROM、DVD-RAM等)等计算机可读取的记录介质的方式。在该情况下,计算机从该记录介质读取程序,传输至内部存储装置或外部存储装置,存储并执行。此外,也可以将该程序预先记录于例如磁盘、光盘以及磁光光盘等存储装置(记录媒体介质),从该存储装置经由通信线路向计算机提供。
作为上述的机器学习的具体的算法,可以利用最临近法、朴素贝叶斯法、决策树、支持向量机、强化学习等。另外,也可以是利用神经网络,自己生成用于学习的特征量的深度学习(deep learning)。
以上,对本发明的实施方式进行了说明,但本发明不限于上述的这些实施方式。此外,本发明的实施方式所述的效果不过是对本发明产生的最合适的效果的列举,本发明的效果不限于本发明的实施方式所记载的效果。
Claims (13)
1.一种可穿戴终端显示系统,在可穿戴终端的显示板显示引导对象的引导图,该可穿戴终端显示系统具备:
图像获取单元,获取进入可穿戴终端的视野的引导对象的图像;
确定单元,对所述图像进行图像解析,确定所述引导对象;
收集单元,收集所述引导对象的引导图;以及
引导图显示单元,对于能透过所述显示板看到的所述引导对象,将所述引导图设为增强现实显示于所述可穿戴终端的显示板。
2.根据权利要求1所述的可穿戴终端显示系统,其中,
所述确定单元仅确定处于所述可穿戴终端的视野的中央的引导对象。
3.根据权利要求1所述的可穿戴终端显示系统,其中,
所述收集单元参照预先登录有引导图的数据库,收集所述引导对象的引导图。
4.根据权利要求1所述的可穿戴终端显示系统,其中,
所述收集单元访问预先与所述引导对象建立有关联的网络Web内容,收集所述引导图。
5.根据权利要求1所述的可穿戴终端显示系统,其中,
所述收集单元在互联网检索所述引导对象,从检索到的网络Web内容收集所述引导图。
6.根据权利要求1所述的可穿戴终端显示系统,其中,具备:
判定单元,对所述显示的引导图是否已被阅览进行判定;以及
变更单元,在判定为已被所述阅览的情况下,将引导图变更为阅览完成。
7.根据权利要求1所述的可穿戴终端显示系统,其中,具备:
判定单元,对所述显示的引导图是否已被阅览进行判定;以及
变更单元,在判定为未被所述阅览的情况下,变更醒目度以使引导图被阅览。
8.根据权利要求1所述的可穿戴终端显示系统,其中,具备:
检测单元,检测对所述显示的引导图的动作;以及
动作结果显示单元,对于能透过所述显示板看到的所述引导对象,将对应于所述动作的结果设为增强现实显示于所述可穿戴终端的显示板。
9.根据权利要求1所述的可穿戴终端显示系统,其中,具备:
位置方向获取单元,获取所述可穿戴终端的终端位置和拍摄方向;以及
推测单元,基于所述终端位置和所述拍摄方向,推测所述引导对象的引导对象位置,
所述确定单元根据所述引导对象位置和所述图像解析确定所述引导对象。
10.根据权利要求1所述的可穿戴终端显示系统,其中,具备:
引导线显示单元,将用于拍摄所述引导对象的引导线设为增强现实显示于所述可穿戴终端的显示板,
所述获取单元获取沿所述引导线拍摄到的所述图像。
11.根据权利要求1所述的可穿戴终端显示系统,其中,具备:
选择受理单元,对能透过所述可穿戴终端的显示板看到的所述引导对象,受理选择对象的选择,
所述引导图显示单元仅与能透过所述显示板看到的所述选择对象匹配地将所述引导图设为增强现实显示于所述可穿戴终端的显示板。
12.一种可穿戴终端显示方法,在可穿戴终端的显示板显示引导对象的引导图,该可穿戴终端显示方法具备以下步骤:
图像获取步骤,获取进入可穿戴终端的视野的引导对象的图像;
确定步骤,对所述图像进行图像解析,确定所述引导对象;
收集步骤,收集所述引导对象的引导图;以及
引导图显示步骤,对于能透过所述显示板看到的所述引导对象,将所述引导图设为增强现实显示于所述可穿戴终端的显示板。
13.一种程序,用于使计算机执行以下步骤:
图像获取步骤,获取进入可穿戴终端的视野的引导对象的图像;
确定步骤,对所述图像进行图像解析,确定所述引导对象;
收集步骤,收集所述引导对象的引导图;以及
引导图显示步骤,对于能透过所述可穿戴终端的显示板看到的所述引导对象,将所述引导图设为增强现实显示于所述可穿戴终端的显示板。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/019808 WO2018216220A1 (ja) | 2017-05-26 | 2017-05-26 | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110999279A true CN110999279A (zh) | 2020-04-10 |
Family
ID=64395504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780093375.9A Withdrawn CN110999279A (zh) | 2017-05-26 | 2017-05-26 | 可穿戴终端显示系统、可穿戴终端显示方法以及程序 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210278242A1 (zh) |
JP (1) | JPWO2018216220A1 (zh) |
CN (1) | CN110999279A (zh) |
WO (1) | WO2018216220A1 (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119297A (ja) * | 2004-10-20 | 2006-05-11 | Olympus Corp | 情報端末装置 |
JP2012008290A (ja) * | 2010-06-23 | 2012-01-12 | Softbank Mobile Corp | 眼鏡型表示装置及びサーバ |
JP2012078224A (ja) * | 2010-10-01 | 2012-04-19 | Olympus Corp | 画像生成システム、プログラム及び情報記憶媒体 |
JP2013038668A (ja) * | 2011-08-10 | 2013-02-21 | Casio Comput Co Ltd | 表示装置、表示方法及びプログラム |
CN103873840A (zh) * | 2012-12-12 | 2014-06-18 | 联想(北京)有限公司 | 显示方法及显示设备 |
US20140368539A1 (en) * | 2013-06-13 | 2014-12-18 | Arsenz Co., Ltd. | Head wearable electronic device for augmented reality and method for generating augmented reality using the same |
CN104883556A (zh) * | 2015-05-25 | 2015-09-02 | 深圳市虚拟现实科技有限公司 | 基于增强现实的三维显示方法和增强现实眼镜 |
WO2015155841A1 (ja) * | 2014-04-08 | 2015-10-15 | 日立マクセル株式会社 | 情報表示方法および情報表示端末 |
JP2015219850A (ja) * | 2014-05-21 | 2015-12-07 | シャープ株式会社 | 情報管理システム |
WO2016048633A1 (en) * | 2014-09-26 | 2016-03-31 | Intel Corporation | Systems, apparatuses, and methods for gesture recognition and interaction |
-
2017
- 2017-05-26 US US16/616,850 patent/US20210278242A1/en not_active Abandoned
- 2017-05-26 CN CN201780093375.9A patent/CN110999279A/zh not_active Withdrawn
- 2017-05-26 JP JP2019519941A patent/JPWO2018216220A1/ja active Pending
- 2017-05-26 WO PCT/JP2017/019808 patent/WO2018216220A1/ja active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119297A (ja) * | 2004-10-20 | 2006-05-11 | Olympus Corp | 情報端末装置 |
JP2012008290A (ja) * | 2010-06-23 | 2012-01-12 | Softbank Mobile Corp | 眼鏡型表示装置及びサーバ |
JP2012078224A (ja) * | 2010-10-01 | 2012-04-19 | Olympus Corp | 画像生成システム、プログラム及び情報記憶媒体 |
JP2013038668A (ja) * | 2011-08-10 | 2013-02-21 | Casio Comput Co Ltd | 表示装置、表示方法及びプログラム |
CN103873840A (zh) * | 2012-12-12 | 2014-06-18 | 联想(北京)有限公司 | 显示方法及显示设备 |
US20140368539A1 (en) * | 2013-06-13 | 2014-12-18 | Arsenz Co., Ltd. | Head wearable electronic device for augmented reality and method for generating augmented reality using the same |
WO2015155841A1 (ja) * | 2014-04-08 | 2015-10-15 | 日立マクセル株式会社 | 情報表示方法および情報表示端末 |
JP2015219850A (ja) * | 2014-05-21 | 2015-12-07 | シャープ株式会社 | 情報管理システム |
WO2016048633A1 (en) * | 2014-09-26 | 2016-03-31 | Intel Corporation | Systems, apparatuses, and methods for gesture recognition and interaction |
CN104883556A (zh) * | 2015-05-25 | 2015-09-02 | 深圳市虚拟现实科技有限公司 | 基于增强现实的三维显示方法和增强现实眼镜 |
Non-Patent Citations (1)
Title |
---|
尤众喜: "《以谷歌眼镜为代表的可穿戴设备的教学应用现状与前景》", 《中国信息技术教育》 * |
Also Published As
Publication number | Publication date |
---|---|
WO2018216220A1 (ja) | 2018-11-29 |
US20210278242A1 (en) | 2021-09-09 |
JPWO2018216220A1 (ja) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11227326B2 (en) | Augmented reality recommendations | |
US10839605B2 (en) | Sharing links in an augmented reality environment | |
US9761054B2 (en) | Augmented reality computing with inertial sensors | |
CN107690657B (zh) | 根据影像发现商户 | |
JP6296056B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US10606824B1 (en) | Update service in a distributed environment | |
US10147399B1 (en) | Adaptive fiducials for image match recognition and tracking | |
US20180247361A1 (en) | Information processing apparatus, information processing method, wearable terminal, and program | |
Anagnostopoulos et al. | Gaze-Informed location-based services | |
JP2013080326A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN105210009A (zh) | 显示控制装置、显示控制方法和记录介质 | |
CN111340015B (zh) | 定位方法和装置 | |
JP2016045678A (ja) | 価格表示システム、価格判定装置、表示装置、価格判定方法、および、価格判定プログラム | |
CN110832438A (zh) | 可穿戴终端显示系统、可穿戴终端显示方法以及程序 | |
WO2018198320A1 (ja) | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム | |
US9911237B1 (en) | Image processing techniques for self-captured images | |
CN110999279A (zh) | 可穿戴终端显示系统、可穿戴终端显示方法以及程序 | |
WO2019021446A1 (ja) | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム | |
CN110287872A (zh) | 一种基于移动终端的兴趣点视线方向识别方法及装置 | |
WO2018216221A1 (ja) | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム | |
JP6762470B2 (ja) | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム | |
CN112634469A (zh) | 用于处理图像的方法和装置 | |
WO2019003359A1 (ja) | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム | |
WO2019021447A1 (ja) | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム | |
Pourazar et al. | A Comprehensive Framework for Evaluation of Stereo Correspondence Solutions in Immersive Augmented and Virtual Realities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200410 |
|
WW01 | Invention patent application withdrawn after publication |