CN110910508A - 一种图像显示方法、装置和系统 - Google Patents
一种图像显示方法、装置和系统 Download PDFInfo
- Publication number
- CN110910508A CN110910508A CN201911139884.8A CN201911139884A CN110910508A CN 110910508 A CN110910508 A CN 110910508A CN 201911139884 A CN201911139884 A CN 201911139884A CN 110910508 A CN110910508 A CN 110910508A
- Authority
- CN
- China
- Prior art keywords
- image
- image display
- real scene
- display range
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Abstract
本发明实施方式公开了一种图像显示方法、装置和系统。该方法适用于增强现实(AR)眼镜,包括:获取真实场景模型;设置所述真实场景模型中的图像显示范围;当检测到用户视线位于真实场景中的所述图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令;基于所述图像显示命令从图像源接收图像信息,并将所述图像信息叠加显示在真实场景中的所述图像显示范围中。无需电视机等设备即可显示图像,还实现了多人同时观看不同内容,多样化的控制播放还提高了用户体验。
Description
技术领域
本发明涉及增强现实(Augmented Reality,AR)技术技术领域,更具体的说,涉及一种图像显示方法、装置和系统。
背景技术
AR技术是一种将虚拟信息与真实世界融合的技术,广泛运用多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。AR眼镜可以实现诸多功能,可以看作是一台微型的手机,通过跟踪眼球视线轨迹判断用户状态,并且开启相应功能。
在目前的AR技术中,一般是在现实环境中的物品加上虚拟的标识,以方便用户理解或者做出某些控制,以此将现实与虚拟相结合。
另外,目前看电视节目需要采购并安装电视等播放设备,而且采用遥控器控制电视。当家里多个人都想同时看不同电视节目的时候,无法满足每个人的需求。
发明内容
本发明提出一种图像显示方法、装置和系统,可以节省播放设备的成本。
本发明实施方式的技术方案如下:
一种图像显示方法,该方法适用于AR眼镜,该方法包括:
获取真实场景模型;
设置所述真实场景模型中的图像显示范围;
当检测到用户视线位于真实场景中的所述图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令;
基于所述图像显示命令从图像源接收图像信息,并将所述图像信息叠加显示在真实场景中的所述图像显示范围中。
在一个实施方式中,所述设置真实场景模型中的图像显示范围包括:
呈现所述真实场景模型;
检测用户在所述真实场景模型中的手势运动轨迹;
基于所述用户手势运动轨迹确定所述图像显示范围。
在一个实施方式中,所述设置真实场景模型中的图像显示范围包括:
呈现所述真实场景模型;
在所述真实场景模型中显示原始图像显示范围;
检测用户的手势运动轨迹,基于所述用户手势运动轨迹调整所述原始图像显示范围,将调整后的原始图像显示范围确定为所述图像显示范围。
在一个实施方式中,该方法还包括:
当检测到预定的手势运动轨迹后,在除了所述图像显示范围之外的真实场景中叠加显示控制界面;
检测用户在所述控制界面中发出的控制指令,确定对应于所述控制指令的图像控制命令;
基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示。
在一个实施方式中,该方法还包括:
从控制设备接收图像控制命令,基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示;或
向控制设备发送包含在所述图像信息中的音频数据,以由所述控制设备播放所述音频数据。
在一个实施方式中,所述图像控制命令包括下列中的至少一个:
暂停播放指令;快进播放指令;画面放大指令;画面缩小指令;回放指令;停止播放指令;音量调节指令。
在一个实施方式中,该方法还预先包括:
向图像源发送注册指令;
从图像源接收包含唯一标识的注册响应;
其中所述基于图像显示命令从图像源接收图像信息包括:
基于所述图像显示命令,向图像源发送包含所述唯一标识的图像获取请求;
从所述图像源接收经由所述唯一标识被图像源认证成功所发送的图像信息。
一种图像显示装置,该装置适用于AR眼镜,该装置包括:
模型获取模块,用于获取真实场景模型;
范围设置模块,用于设置所述真实场景模型中的图像显示范围;
命令生成模块,用于当检测到用户视线位于真实场景中的所述图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令;
显示模块,用于基于所述图像显示命令从图像源接收图像信息,并将所述图像信息叠加显示在真实场景中的所述图像显示范围中。
在一个实施方式中,范围设置模块,用于呈现所述真实场景模型;检测用户在所述真实场景模型中的手势运动轨迹;基于所述用户手势运动轨迹确定所述图像显示范围。
在一个实施方式中,范围设置模块,用于呈现所述真实场景模型;在所述真实场景模型中显示原始图像显示范围;检测用户的手势运动轨迹,基于所述用户手势运动轨迹调整所述原始图像显示范围,将调整后的原始图像显示范围确定为所述图像显示范围。
在一个实施方式中,显示模块,还用于当检测到预定的手势运动轨迹后,在除了所述图像显示范围之外的真实场景模型中叠加显示控制界面;检测用户在所述控制界面中发出的控制指令,确定对应于所述控制指令的图像控制命令;基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示。
在一个实施方式中,还包括:
交互模块,用于从控制设备接收图像控制命令,基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示;或向控制设备发送包含在所述图像信息中的音频数据,以由所述控制设备播放所述音频数据。
在一个实施方式中,还包括:
注册模块,用于向图像源发送注册指令;从图像源接收包含唯一标识的注册响应;
其中显示模块,用于基于所述图像显示命令,向图像源发送包含所述唯一标识的图像获取请求;从所述图像源接收经由所述唯一标识被图像源认证成功所发送的图像信息。
一种图像显示系统,包括AR眼镜和图像源,其中:
所述AR眼镜,用于获取真实场景模型;设置所述真实场景模型中的图像显示范围;当检测到用户视线位于真实场景中的所述图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令;基于所述图像显示命令从图像源接收图像信息,并将所述图像信息叠加显示在真实场景中的所述图像显示范围中。
所述图像源,用于向所述AR眼镜发送所述图像信息。
在一个实施方式中,还包括:
控制设备,用于向所述AR眼镜发送图像控制命令,以由所述AR眼镜基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示;或,从所述AR眼镜接收包含在所述图像信息中的音频数据,播放所述音频数据。
在一个实施方式中,所述图像源,还用于从所述AR眼镜接收注册指令,向所述AR眼镜发送包含唯一标识的注册响应;
所述AR眼镜,用于基于所述图像显示命令,向图像源发送包含所述唯一标识的图像获取请求,从所述图像源接收经由所述唯一标识被图像源认证成功所发送的图像信息。
一种图像显示装置,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上任一项所述的图像显示方法。
一种计算机可读存储介质,其中存储有计算机可读指令,该计算机可读指令用于执行如上任一项所述的图像显示方法。
从上述技术方案可以看出,在本发明实施方式中,获取真实场景模型;设置真实场景模型中的图像显示范围;当检测到用户视线位于真实场景中的图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令;基于图像显示命令从图像源接收图像信息,并将图像信息叠加显示在真实场景中的所述图像显示范围中。由此可见,无需电视机等图像显示设备即可显示图像,从而节约了成本。
另外,本发明实施方式还实现了多人同时观看不同内容。而且,本发明实施方式的多样化控制播放还提高了用户体验。
附图说明
图1为根据本发明的图像显示方法的流程图。
图2为根据本发明图像显示范围的示意图。
图3为根据本发明图像显示装置的结构图。
图4为根据本发明图像显示系统的结构图。
图5为根据本发明设置图像显示范围的示意图。
图6为根据本发明利用语音控制视频播放的示意图。
图7为根据本发明播放音频的示意图。
图8为根据本发明具有存储器-处理器架构的图像显示装置的结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明作进一步的详细描述。
为了描述上的简洁和直观,下文通过描述若干代表性的实施方式来对本发明的方案进行阐述。实施方式中大量的细节仅用于帮助理解本发明的方案。但是很明显,本发明的技术方案实现时可以不局限于这些细节。为了避免不必要地模糊了本发明的方案,一些实施方式没有进行细致地描述,而是仅给出了框架。下文中,“包括”是指“包括但不限于”,“根据……”是指“至少根据……,但不限于仅根据……”。由于汉语的语言习惯,下文中没有特别指出一个成分的数量时,意味着该成分可以是一个也可以是多个,或可理解为至少一个。
申请人发现,在以电视为例的图像显示应用中,存在有诸多技术问题。这些技术问题包括且不限于:
(1)、需要采购并安装电视等设备,存在采购成本和安装空间问题;
(2)、需要利用遥控器控制电视;
(3)、当家里多个人同时看电视的时候,无法满足每个人对节目的不同需求;
(4)、看电视时候,当在客厅观看一会儿,想回房间继续观看时候,需要重新打开电视进行调台观看;
(5)、大人想看电视,但不希望孩子一起看电视的时候,无法两全;
(6)、电视的尺寸是固定大小的,等等。
而且,申请人还发现:在目前的AR技术中,通过在现实环境中物品上叠加虚拟标识,以方便用户理解或者控制,而并不存在利用AR眼镜展示图像(比如,电视内容)的相应披露。
本发明提出一种图像显示方法,基于AR眼镜可以实现脱离于具有物理显示屏的播放设备的图像显示。其中,本发明实施方式中提到的图像可以包括静态图像或动态图像,比如动态图像可以实施为电视节目、网络短视频或网络长视频,等等。
图1为根据本发明的图像显示方法的流程图。该方法适用于AR眼镜。
如图1所示,该方法包括:
步骤101:获取真实场景模型。
在这里,可以利用AR眼镜的摄像头拍摄获取真实场景图片,并利用真实场景图片基于建模技术建立真实场景模型。优选地,真实场景模型为三维(3D)模型。
步骤102:设置真实场景模型中的图像显示范围。
在一个实施方式中,步骤102中设置真实场景模型中的图像显示范围包括:呈现真实场景模型;检测用户在真实场景模型中的手势运动轨迹;基于用户手势运动轨迹确定图像显示范围。
在这个实施方式中,用户戴上AR眼镜可以观察到真实场景模型,AR眼镜还基于手势识别算法,检测出用户在真实场景模型中的手势运动轨迹(比如,利用手势画出显示范围的轨迹),再将用户手势运动轨迹画出的范围确定为图像显示范围。
在一个实施方式中,步骤102中设置真实场景模型中的图像显示范围包括:显示真实场景模型;在真实场景模型中显示原始图像显示范围;检测用户的手势运动轨迹,基于用户手势运动轨迹调整原始图像显示范围,将调整后的原始图像显示范围确定为图像显示范围。
在这个实施方式中,用户戴上AR眼镜可以观察到真实场景模型,而且在真实场景模型中显示有原始图像显示范围(比如,以虚框标识出原始图像显示范围)。而且,AR眼镜还基于手势识别算法,检测出用户的手势运动轨迹(比如,缩放手势),基于用户手势运动轨迹调整原始图像显示范围的尺寸大小,将调整后的原始图像显示范围确定为图像显示范围。比如,当用户手势运动轨迹为缩放手势时,缩小原始图像显示范围;当用户手势运动轨迹为左滑手势时,向左移动原始图像显示范围,等等。
图2为根据本发明图像显示范围的示意图。
在图2中,线A和线B限定出AR眼镜的最大视角,图像显示范围为线A和线B之间、由线C和线D所限定的视角。
以上示范性描述了设置真实场景模型中的图像显示范围的典型实例,本领域技术人员可以意识到,这种描述仅是示范性的,并不用于限定本发明实施方式的保护范围。
至此,利用步骤101~步骤102实现了设置真实场景模型中的图像显示范围。在完成图像显示范围的设置后,AR眼镜为用户呈现真实场景,并继续执行后续步骤。
步骤103:当检测到用户视线位于真实场景中的图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令。
在这里,AR眼镜检测用户视线(比如,采用眼球跟踪技术)。当AR眼镜检测到用户视线位于真实场景中的图像显示范围且视线停留时间大于预定门限值(比如,3秒)时,生成图像显示命令。
举例,在步骤102中通过卡尔曼滤波算法得到用户在真实场景模型中的手势运动轨迹,然后在步骤102对运动轨迹进行边缘检测,规划出视频可视范围,即为图像显示范围(AR眼镜视频播放的可见区域)。然后,在步骤103中针对用户执行眼球跟踪,当发现用户的视线落点在真实场景中的、对应于该真实场景模型中的图像显示范围时,并且用户视线停留时间大于阈值,例如3秒,则AR眼镜生成图像显示命令,准备进行视频的播放,否则如果用户的视线不在该图像显示范围之内,则不生成图像显示命令,后续用户看到的与不戴眼镜看到的场景保持一致。
在这里,示范性描述了用户视线检测方式和预定门限值的典型实例,本领域技术人员可以意识到,还可以采用其他的用户视线检测方式且门限值也是可调整的,本发明实施方式对此并无限定。
步骤104:基于图像显示命令从图像源接收图像信息,并将所述图像信息叠加显示在真实场景中的所述图像显示范围中。
在这里,AR眼镜基于图像显示命令从图像源接收图像信息。优选的,图像源可以实施为机顶盒。机顶盒可以通过有线(比如,有线光纤)或无线方式(比如,第五代移动通信技术)从远端获取图像信息,并基于无线方式(比如,家庭无线局域网)将图像信息发送到AR眼镜。然后,AR眼镜将图像信息叠加显示在图像显示范围中,从而实现了增强现实。
比如,假定用户位于卧室中,步骤101中获取的真实场景模型为卧室的三维模型,步骤102中设置的图像显示范围为卧室的三维模型中的墙壁中间。那么,当在步骤103中AR眼镜检测到用户视线位于卧室的墙壁中间(即,AR眼镜检测到用户在观看卧室的墙壁中间)且视线停留时间大于预定门限值时,AR眼镜生成图像显示命令。而且,AR眼镜基于图像显示命令从机顶盒获取电视图像,并将电视图像叠加显示在用户基于AR眼镜所看到的卧室的墙壁中间。
在一个实施方式中,该方法还包括:当检测到预定的手势运动轨迹后,在除了图像显示范围之外的真实场景模型中叠加显示控制界面;检测用户在控制界面中发出的控制指令,确定对应于所述控制指令的图像控制命令;基于图像控制命令控制图像信息在所述图像显示范围中的叠加显示。
可见,可以基于AR眼镜检测用户手势,以控制图像信息在图像显示范围中的叠加显示。比如,可以基于不同的用户手势,分别执行暂停播放、快进播放、画面放大、画面缩小、回放、停止播放、音量调节等控制操作。
在一个实施方式中,该方法还包括:从控制设备接收图像控制命令,基于图像控制命令控制图像信息在图像显示范围中的叠加显示;还包括:向控制设备发送包含在图像信息中的音频数据,以由控制设备播放音频数据。
比如,控制设备可以具有音频采集和语音识别功能,以采集用户语音,从用户语音中识别出图像控制命令,并向AR眼镜发送该图像控制命令,从而实现基于用户语音控制图像显示。
可见,AR眼镜基于与控制设备的交互可以接受控制设备的控制,以在图像显示范围中叠加显示图像信息。比如,基于从控制设备接收到的图像控制命令,分别执行暂停播放、快进播放、画面放大、画面缩小、回放、停止播放、音量调节等控制操作。
另外,考虑到AR眼镜的体积限制或私密性等原因,通常不便于直接播放音频数据,因此AR眼镜可以将图像信息中的音频数据发送到控制设备,以由控制设备播放音频数据。
其中,控制设备具体可以实施为与AR眼镜具有通信连接(比如,基于家庭局域网连接)的物联网(IOT)设备,比如音箱或耳机,等等。当控制设备实施为音箱或耳机时,可以接收用户语音以向AR眼镜图像控制命令。
在一个实施方式中,该方法还预先包括:向图像源发送注册指令;从图像源接收包含唯一标识的注册响应;其中步骤104中基于图像显示命令从图像源接收图像信息包括:基于所述图像显示命令,向图像源发送包含唯一标识的图像获取请求;从图像源接收经由所述唯一标识被图像源认证成功所发送的图像信息。
可见,基于AR眼镜的注册操作,图像源可以识别出多个AR眼镜,从而支持图像源为多个AR眼镜提供各自的图像。当多个AR眼镜分别与机顶盒配对时,机顶盒根据接入的AR眼镜总数为AR眼镜分配对应的唯一标识(即用户标识),当某用户使用AR眼镜的时候,机顶盒判断该用户的用户标识是否激活,激活则传输视频流给AR眼镜,否则回收空间,如果发现新的AR眼镜,则重新进行录入配对,分配用户标识。优选地,AR眼镜收集用户的习惯,可以根据用户的不同年龄、性别、爱好、习惯等信息习惯分配定制化的内容给用户,比如儿童的AR眼镜只能观看儿童节目等。
本发明实施方式尤其适用于电视播放。下面描述基于本发明实施方式实现AR眼镜观看电视节目的可能场景。
在传统看电视的方法中,需要采购电视实体,并采用遥控器来控制,这往往比较占用空间,而且场地比较局限,观看电视的范围也受限,这无疑降低了用户的体验。
在应用本发明实施方式的可能场景中,打破传统看电视的方法,通过机顶盒为AR眼镜分配唯一的用户标识,支持多个AR眼镜连接到机顶盒。每个AR眼镜各自地将视频播放范围预设在某个范围之内。云端通过5G网络将包含多种节目的电视信号传给AR机顶盒,AR机顶盒将各自的节目信号分别传给对应用户标识的AR眼镜。每个AR眼镜分离节目信号为视频数据和音频数据,在各自的观看范围之内展示各自的视频数据,然后将音频数据传输给音响或者耳机等设备容,以此让每个用户可以采用AR眼镜在预设范围内观看视频的过程。在预设范围之外,用户相当于没有戴眼镜一样,看到的就是平时双眼看到的场景。而且,AR眼镜还可以结合IOT设备进行调台、调音量等控制,从而满足不同用户观看不同节目的需求。
可见,无需实体电视作为媒介,有效避免了多人无法同时观看不同内容的情况。而且,用户想看电视时,眼睛只需要看预设观看范围内就行,否则就可以不看电视,还免去了人们开关电视的麻烦。另外,实现了以AR眼镜为中心,结合IOT设备和机顶盒来控制播放的方式,多样化的控制播放的方式使得用户可以获得更好的体验,免去了对传统遥控器的需求。
以上详细描述了利用AR眼镜观看电视节目的场景,实际上,还可以利用AR眼镜观看图片、广告、照片等数据,本发明实施方式对此并无限定。
图3为根据本发明图像显示装置的结构图。该装置适用于增强现实眼镜。
如图3所示,该装置包括:
模型获取模块301,用于获取真实场景模型;
范围设置模块302,用于设置所述真实场景模型中的图像显示范围;
命令生成模块303,用于当检测到用户视线位于真实场景中的所述图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令;
显示模块304,用于基于所述图像显示命令从图像源接收图像信息,并将所述图像信息叠加显示在真实场景中的所述图像显示范围中。
在一个实施方式中,范围设置模块302,用于呈现所述真实场景模型;检测用户在所述真实场景模型中的手势运动轨迹;基于所述用户手势运动轨迹确定所述图像显示范围。
在一个实施方式中,范围设置模块302,用于呈现所述真实场景模型;在所述真实场景模型中显示原始图像显示范围;检测用户的手势运动轨迹,基于所述用户手势运动轨迹调整所述原始图像显示范围,将调整后的原始图像显示范围确定为所述图像显示范围。
在一个实施方式中,显示模块304,还用于当检测到预定的手势运动轨迹后,在除了所述图像显示范围之外的真实场景模型中叠加显示控制界面;检测用户在所述控制界面中发出的控制指令,确定对应于所述控制指令的图像控制命令;基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示。
在一个实施方式中,还包括交互模块305,用于从控制设备接收图像控制命令,基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示;或向控制设备发送包含在所述图像信息中的音频数据,以由所述控制设备播放所述音频数据。
在一个实施方式中,该装置还包括注册模块306,用于向图像源发送注册指令;从图像源接收包含唯一标识的注册响应;其中显示模块304,用于基于所述图像显示命令,向图像源发送包含所述唯一标识的图像获取请求;从所述图像源接收经由所述唯一标识被图像源认证成功所发送的图像信息。
图4为根据本发明图像显示系统的结构图。
如图4所示,图像显示系统包括AR眼镜401和图像源402,其中:
AR眼镜401,用于获取真实场景模型;设置所述真实场景模型中的图像显示范围;当检测到用户视线位于真实场景中的所述图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令;基于所述图像显示命令从图像源402接收图像信息,并将所述图像信息叠加显示在真实场景中的所述图像显示范围中。
图像源402,用于向AR眼镜401发送图像信息。
在一个实施方式中,还包括控制设备403,用于向AR眼镜401发送图像控制命令,以由AR眼镜401基于图像控制命令控制图像信息在所述图像显示范围中的叠加显示;或,从AR眼镜401接收包含在图像信息中的音频数据,播放音频数据。
在一个实施方式中,图像源402,还用于从AR眼镜401接收注册指令,向AR眼镜401发送包含唯一标识的注册响应;AR眼镜401,用于基于图像显示命令,向图像源402发送包含唯一标识的图像获取请求,从图像源402接收经由唯一标识被图像源认证成功所发送的图像信息。
基于图4所示的图像显示系统,图5为根据本发明设置图像显示范围的示意图。
在图5中,直线A和直线B限定出AR眼镜的最大视角。用户佩戴AR眼镜401以期望设置图像显示范围。AR眼镜呈现真实场景模型。AR眼镜401还基于手势识别算法,检测出用户在真实场景模型中的手势运动轨迹(比如,利用手势画出显示范围的轨迹),再基于用户手势运动轨迹画出的范围确定为图像显示范围。比如,AR眼镜401检测到用户手势运动轨迹分别在真实场景模型画出直线C和直线D,则将直线C和直线D所限定的视角范围确定为图像显示范围。
下面描述本发明实施方式的典型应用场景。
应用场景一:在家看电视
当用户期望在家看电视时,无需安装电视机,需要戴上本发明实施方式的AR眼镜。通过AR眼镜的手势识别功能设定图像显示范围。当AR眼镜检测到用户观看距离在该范围内时,接收机顶盒发来的视频数据,结合AR技术进行视频播放。此时,用户还可以通过音箱接收声音。当用户观看距离不在设定范围之内的时候,则AR眼镜不成像,用户看到的场景与不戴眼镜看到的场景一样。
应用场景二:不让未成年人一起看电视
当用户在家想看电视的时候,但是家里有未成年人,自己想看电视但是不希望未成年人也看电视的时候,戴上本发明实施方式的AR眼镜,并采用耳机接收声音即可,这样未成年人无法看到电视,只有戴眼镜的用户可以看到电视。
应用场景三:多人同时看不同的节目
当多人在家都想看电视的时候,只需要每人戴上各自的本发明实施方式的AR眼镜,就可以实现在同一个空间观看不同的节目,相互不干扰,同时可以根据不同年龄、性别、爱好、习惯等信息,实现用户的定制化。比如,儿童戴上眼镜只能观看儿童节目等。
应用场景四:看电视场地自由切换
用户在客厅看了一会儿电视后,想去卧室继续看电视,只需要重新设定图像显示范围即可。而且,用户可以不坐着看电视,而是躺着看电视,只需要调节图像显示范围即可。
应用场景五:换台操作
当用户观看视频的时候,想对画面进行操作的时候,可以通过两种方式进行控制:方式(1):利用AR眼镜的手势识别功能呈现菜单,随即用户可以调到自己想看的节目中。(2)、用户发出关于换台操作的语音命令,音箱识别出相应的换台指令,并将换台指令传给机顶盒,最终机顶盒将更新的节目内容发送到AR眼镜。
应用场景六:屏幕尺寸可根据需要调节
用户可以根据自己的需要设定不同尺寸的显示区域,由此可以获得不同尺寸的观看屏幕,不局限于一种尺寸大小,例如,用户对于4K和8K视频设置不同的观看尺寸。
以上示范性描述了本发明实施方式的典型应用场景,本领域技术人员可以意识到,这种描述仅是示范性的,并不用于限定本发明实施方式的保护范围。
在基于图5设置图像显示范围之后,可以利用语音控制AR眼镜的视频播放。
图6为根据本发明利用语音控制视频播放的示意图。
在图6中,用户佩戴AR眼镜401。AR眼镜401为用户呈现真实场景。然后,用户发出语音,内容为:“我想看频道10”。AR眼镜401将该用户语音数据发送到控制设备403。控制设备403从该用户语音数据中识别出文字“我想看频道10”,并转换为控制命令发送到图像源402以请求频道10的图像数据。图像源402基于控制设备403发送的控制命令,向AR眼镜401发送频道10的图像数据。然后,AR眼镜401在之前设置好的图像显示范围上展示频道10的图像数据。
可选地,用户佩戴AR眼镜401。AR眼镜401为用户呈现真实场景。然后,用户发出语音,内容为:“我想看频道10”。控制设备403采集该语音,并从该用户语音数据中识别出文字“我想看频道10”,并转换为控制命令发送到AR眼镜401。AR眼镜401基于该控制命令向图像源402请求频道10的图像数据。图像源402向AR眼镜401发送频道10的图像数据。然后,AR眼镜401在之前设置好的图像显示范围上展示频道10的图像数据。在这种实施方式中,控制设备403与图像源402不需要具有通信连接。
而且,可以由独立于AR眼镜401的控制设备播放图像信息中的音频数据。
图7为根据本发明播放音频的示意图。
在图7中,用户佩戴AR眼镜401。AR眼镜401为用户呈现真实场景。图像源402向AR眼镜401发送包含音频数据的图像信息。AR眼镜401从图像信息中分离视频数据和音频数据,将视频数据叠加显示在真实场景中的图像显示范围中,并将音频数据发送到控制设备403,以由控制设备403播放该音频数据。比如,控制设备403实施为耳机或音箱。
本发明实施方式还提出了具有存储器-处理器架构的图像显示装置。
图8为根据本发明具有存储器-处理器架构的图像显示装置的结构图。
如图8所示,具有存储器-处理器架构的图像显示装置包括:处理器801和存储器802;其中存储器802中存储有可被处理器801执行的应用程序,用于使得处理器801执行如上任一项所述的图像显示方法。
其中,存储器802具体可以实施为电可擦可编程只读存储器(EEPROM)、快闪存储器(Flash memory)、可编程程序只读存储器(PROM)等多种存储介质。处理器801可以实施为包括一或多个中央处理器或一或多个现场可编程门阵列,其中现场可编程门阵列集成一或多个中央处理器核。具体地,中央处理器或中央处理器核可以实施为CPU或MCU。
需要说明的是,上述各流程和各结构图中不是所有的步骤和模块都是必须的,可以根据实际的需要忽略某些步骤或模块。各步骤的执行顺序不是固定的,可以根据需要进行调整。各模块的划分仅仅是为了便于描述采用的功能上的划分,实际实现时,一个模块可以分由多个模块实现,多个模块的功能也可以由同一个模块实现,这些模块可以位于同一个设备中,也可以位于不同的设备中。
各实施方式中的硬件模块可以以机械方式或电子方式实现。例如,一个硬件模块可以包括专门设计的永久性电路或逻辑器件(如专用处理器,如FPGA或ASIC)用于完成特定的操作。硬件模块也可以包括由软件临时配置的可编程逻辑器件或电路(如包括通用处理器或其它可编程处理器)用于执行特定操作。至于具体采用机械方式,或是采用专用的永久性电路,或是采用临时配置的电路(如由软件进行配置)来实现硬件模块,可以根据成本和时间上的考虑来决定。
本发明还提供了一种机器可读的存储介质,存储用于使一机器执行如本申请所述方法的指令。具体地,可以提供配有存储介质的系统或者装置,在该存储介质上存储着实现上述实施例中任一实施方式的功能的软件程序代码,且使该系统或者装置的计算机(或CPU或MPU)读出并执行存储在存储介质中的程序代码。此外,还可以通过基于程序代码的指令使计算机上操作的操作系统等来完成部分或者全部的实际操作。还可以将从存储介质读出的程序代码写到插入计算机内的扩展板中所设置的存储器中或者写到与计算机相连接的扩展单元中设置的存储器中,随后基于程序代码的指令使安装在扩展板或者扩展单元上的CPU等来执行部分和全部实际操作,从而实现上述实施方式中任一实施方式的功能。
用于提供程序代码的存储介质实施方式包括软盘、硬盘、磁光盘、光盘(如CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、DVD+RW)、磁带、非易失性存储卡和ROM。可选择地,可以由通信网络从服务器计算机或云上下载程序代码。
在本文中,“示意性”表示“充当实例、例子或说明”,不应将在本文中被描述为“示意性”的任何图示、实施方式解释为一种更优选的或更具优点的技术方案。为使图面简洁,各图中的只示意性地表示出了与本发明相关部分,而并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。在本文中,“一个”并不表示将本发明相关部分的数量限制为“仅此一个”,并且“一个”不表示排除本发明相关部分的数量“多于一个”的情形。在本文中,“上”、“下”、“前”、“后”、“左”、“右”、“内”、“外”等仅用于表示相关部分之间的相对位置关系,而非限定这些相关部分的绝对位置。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (18)
1.一种图像显示方法,其特征在于,该方法适用于增强现实眼镜,该方法包括:
获取真实场景模型;
设置所述真实场景模型中的图像显示范围;
当检测到用户视线位于真实场景中的所述图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令;
基于所述图像显示命令从图像源接收图像信息,并将所述图像信息叠加显示在真实场景中的所述图像显示范围中。
2.根据权利要求1所述的图像显示方法,其特征在于,所述设置真实场景模型中的图像显示范围包括:
呈现所述真实场景模型;
检测用户在所述真实场景模型中的手势运动轨迹;
基于所述用户手势运动轨迹确定所述图像显示范围。
3.根据权利要求1所述的图像显示方法,其特征在于,所述设置真实场景模型中的图像显示范围包括:
呈现所述真实场景模型;
在所述真实场景模型中显示原始图像显示范围;
检测用户的手势运动轨迹,基于所述用户手势运动轨迹调整所述原始图像显示范围,将调整后的原始图像显示范围确定为所述图像显示范围。
4.根据权利要求1所述的图像显示方法,其特征在于,该方法还包括:
当检测到预定的手势运动轨迹后,在除了所述图像显示范围之外的真实场景中叠加显示控制界面;
检测用户在所述控制界面中发出的控制指令,确定对应于所述控制指令的图像控制命令;
基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示。
5.根据权利要求1所述的图像显示方法,其特征在于,该方法还包括:
从控制设备接收图像控制命令,基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示;或
向控制设备发送包含在所述图像信息中的音频数据,以由所述控制设备播放所述音频数据。
6.根据权利要求4或5所述的图像显示方法,其特征在于,所述图像控制命令包括下列中的至少一个:
暂停播放指令;快进播放指令;画面放大指令;画面缩小指令;回放指令;停止播放指令;音量调节指令。
7.根据权利要求1-5中任一项所述的图像显示方法,其特征在于,该方法还预先包括:
向图像源发送注册指令;
从图像源接收包含唯一标识的注册响应;
其中所述基于图像显示命令从图像源接收图像信息包括:
基于所述图像显示命令,向图像源发送包含所述唯一标识的图像获取请求;
从所述图像源接收经由所述唯一标识被图像源认证成功所发送的图像信息。
8.一种图像显示装置,其特征在于,该装置适用于增强现实眼镜,该装置包括:
模型获取模块,用于获取真实场景模型;
范围设置模块,用于设置所述真实场景模型中的图像显示范围;
命令生成模块,用于当检测到用户视线位于真实场景中的所述图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令;
显示模块,用于基于所述图像显示命令从图像源接收图像信息,并将所述图像信息叠加显示在真实场景中的所述图像显示范围中。
9.根据权利要求8所述的图像显示装置,其特征在于,
范围设置模块,用于呈现所述真实场景模型;检测用户在所述真实场景模型中的手势运动轨迹;基于所述用户手势运动轨迹确定所述图像显示范围。
10.根据权利要求8所述的图像显示装置,其特征在于,
范围设置模块,用于呈现所述真实场景模型;在所述真实场景模型中显示原始图像显示范围;检测用户的手势运动轨迹,基于所述用户手势运动轨迹调整所述原始图像显示范围,将调整后的原始图像显示范围确定为所述图像显示范围。
11.根据权利要求8所述的图像显示装置,其特征在于,
显示模块,还用于当检测到预定的手势运动轨迹后,在除了所述图像显示范围之外的真实场景模型中叠加显示控制界面;检测用户在所述控制界面中发出的控制指令,确定对应于所述控制指令的图像控制命令;基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示。
12.根据权利要求8所述的图像显示装置,其特征在于,还包括:
交互模块,用于从控制设备接收图像控制命令,基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示;或向控制设备发送包含在所述图像信息中的音频数据,以由所述控制设备播放所述音频数据。
13.根据权利要求8-12中任一项所述的图像显示装置,其特征在于,还包括:
注册模块,用于向图像源发送注册指令;从图像源接收包含唯一标识的注册响应;
其中显示模块,用于基于所述图像显示命令,向图像源发送包含所述唯一标识的图像获取请求;从所述图像源接收经由所述唯一标识被图像源认证成功所发送的图像信息。
14.一种图像显示系统,其特征在于,包括增强现实眼镜和图像源,其中:
所述增强现实眼镜,用于获取真实场景模型;设置所述真实场景模型中的图像显示范围;当检测到用户视线位于真实场景中的所述图像显示范围且视线停留时间大于预定门限值时,生成图像显示命令;基于所述图像显示命令从图像源接收图像信息,并将所述图像信息叠加显示在真实场景中的所述图像显示范围中。
所述图像源,用于向所述增强现实眼镜发送所述图像信息。
15.根据权利要求14所述的图像显示系统,其特征在于,还包括:
控制设备,用于向所述增强现实眼镜发送图像控制命令,以由所述增强现实眼镜基于所述图像控制命令控制所述图像信息在所述图像显示范围中的叠加显示;或,从所述增强现实眼镜接收包含在所述图像信息中的音频数据,播放所述音频数据。
16.根据权利要求14所述的图像显示系统,其特征在于,
所述图像源,还用于从所述增强现实眼镜接收注册指令,向所述增强现实眼镜发送包含唯一标识的注册响应;
所述增强现实眼镜,用于基于所述图像显示命令,向图像源发送包含所述唯一标识的图像获取请求,从所述图像源接收经由所述唯一标识被图像源认证成功所发送的图像信息。
17.一种图像显示装置,其特征在于,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如权利要求1至7中任一项所述的图像显示方法。
18.一种计算机可读存储介质,其特征在于,其中存储有计算机可读指令,该计算机可读指令用于执行如权利要求1至7中任一项所述的图像显示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911139884.8A CN110910508B (zh) | 2019-11-20 | 2019-11-20 | 一种图像显示方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911139884.8A CN110910508B (zh) | 2019-11-20 | 2019-11-20 | 一种图像显示方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110910508A true CN110910508A (zh) | 2020-03-24 |
CN110910508B CN110910508B (zh) | 2023-04-25 |
Family
ID=69817970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911139884.8A Active CN110910508B (zh) | 2019-11-20 | 2019-11-20 | 一种图像显示方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110910508B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022040954A1 (zh) * | 2020-08-26 | 2022-03-03 | 南京智导智能科技有限公司 | 一种通过手势控制的ar空间可视三维重建方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107506037A (zh) * | 2017-08-23 | 2017-12-22 | 三星电子(中国)研发中心 | 一种基于增强现实的控制设备的方法和装置 |
CN109213307A (zh) * | 2017-06-30 | 2019-01-15 | 中兴通讯股份有限公司 | 一种手势识别方法及装置、系统 |
CN109298780A (zh) * | 2018-08-24 | 2019-02-01 | 百度在线网络技术(北京)有限公司 | 基于ar的信息处理方法、装置、ar设备及存储介质 |
-
2019
- 2019-11-20 CN CN201911139884.8A patent/CN110910508B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109213307A (zh) * | 2017-06-30 | 2019-01-15 | 中兴通讯股份有限公司 | 一种手势识别方法及装置、系统 |
CN107506037A (zh) * | 2017-08-23 | 2017-12-22 | 三星电子(中国)研发中心 | 一种基于增强现实的控制设备的方法和装置 |
CN109298780A (zh) * | 2018-08-24 | 2019-02-01 | 百度在线网络技术(北京)有限公司 | 基于ar的信息处理方法、装置、ar设备及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022040954A1 (zh) * | 2020-08-26 | 2022-03-03 | 南京智导智能科技有限公司 | 一种通过手势控制的ar空间可视三维重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110910508B (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102063895B1 (ko) | 서버, 사용자 단말 장치 및 그 제어 방법 | |
EP3391658B1 (en) | Personalized presentation enhancement using augmented reality | |
US9842433B2 (en) | Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality | |
CN109416931A (zh) | 用于视线跟踪的装置和方法 | |
US20140132630A1 (en) | Apparatus and method for providing social network service using augmented reality | |
KR102431712B1 (ko) | 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품 | |
KR20190140946A (ko) | 가상 현실 비디오에서 시간 지정 텍스트 및 그래픽을 렌더링하는 방법 및 장치 | |
KR20140068431A (ko) | 스마트 글래스 기반 영상 처리 장치 및 방법 | |
KR20130010424A (ko) | 콘텐츠 재생 방법 및 장치 | |
KR20180051202A (ko) | 디스플레이장치 및 그 제어방법 | |
US20240077941A1 (en) | Information processing system, information processing method, and program | |
CN113655887A (zh) | 一种虚拟现实设备及静态录屏方法 | |
US20130265488A1 (en) | Multi-screen video playback system and related computer program product | |
CN108989784A (zh) | 虚拟现实设备的图像显示方法、装置、设备及存储介质 | |
WO2020206647A1 (zh) | 跟随用户运动控制播放视频内容的方法和装置 | |
CN114092671A (zh) | 虚拟直播的场景处理方法及装置、存储介质、电子设备 | |
AU2017255567A1 (en) | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment | |
CN110910508B (zh) | 一种图像显示方法、装置和系统 | |
KR102140077B1 (ko) | 서버, 사용자 단말 장치 및 그 제어 방법 | |
KR102606116B1 (ko) | 헤드 마운티드 디스플레이 및 그 제어 방법 | |
US11187895B2 (en) | Content generation apparatus and method | |
CN115129280A (zh) | 一种虚拟现实设备及投屏媒资播放方法 | |
KR20150044474A (ko) | 감성광고 기반의 광고 제공 기능을 구비한 스마트 tv | |
KR20150044456A (ko) | 감성광고 기능을 구비한 스마트 tv 기반의 광고 제공 방법 | |
US20220414991A1 (en) | Video generation apparatus, method for generating video, and program of generating video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |