CN108924529A - 图像显示的控制方法及装置 - Google Patents

图像显示的控制方法及装置 Download PDF

Info

Publication number
CN108924529A
CN108924529A CN201810828904.1A CN201810828904A CN108924529A CN 108924529 A CN108924529 A CN 108924529A CN 201810828904 A CN201810828904 A CN 201810828904A CN 108924529 A CN108924529 A CN 108924529A
Authority
CN
China
Prior art keywords
image
target object
target
shooting direction
obtains
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810828904.1A
Other languages
English (en)
Other versions
CN108924529B (zh
Inventor
季佳松
林形省
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201810828904.1A priority Critical patent/CN108924529B/zh
Publication of CN108924529A publication Critical patent/CN108924529A/zh
Priority to US16/513,142 priority patent/US11265529B2/en
Priority to EP19187910.5A priority patent/EP3599763A3/en
Application granted granted Critical
Publication of CN108924529B publication Critical patent/CN108924529B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

本公开是关于一种图像显示的控制方法及装置,用以降低图像的传输成本。所述方法包括:接收用户端发送的图像采集指令;图像采集指令携带拍摄方向;拍摄方向由用户端根据用户端的位置与用户指定的显示位置之间的相对位置关系确定;根据拍摄方向控制图像采集设备进行图像采集,获得包括目标物体的深度图像;对包括目标物体的深度图像中的目标物体进行提取,获得目标图像;将目标图像发送给用户端,以使用户端将目标图像显示于显示位置。本公开技术方案可以降低图像的传输成本。

Description

图像显示的控制方法及装置
技术领域
本公开涉及互联网技术领域,尤其涉及一种图像显示的控制方法及装置。
背景技术
随着科学技术的发展,人们对图像显示的视觉效果提出了更高的要求,立体显示技术应运而生。立体显示技术可以显示深度图像,得到三维视觉效果。相较于二维图像,深度图像的显示效果更加详细、逼真,同时数据量也比二维图像的数据量大。
发明内容
为克服相关技术中存在的问题,本公开实施例提供一种图像显示的控制方法及装置,用以降低图像的传输成本。
根据本公开实施例的第一方面,提供一种图像显示的控制方法,包括:
接收用户端发送的图像采集指令;所述图像采集指令携带拍摄方向;所述拍摄方向由所述用户端根据用户端的位置与用户指定的显示位置之间的相对位置关系确定;
根据所述拍摄方向控制图像采集设备进行图像采集,获得包括目标物体的深度图像;
对所述包括目标物体的深度图像中的所述目标物体进行提取,获得所述目标图像;
将所述目标图像发送给所述用户端,以使所述用户端将所述目标图像显示于所述显示位置。
在一个实施例中,所述图像采集设备可包括至少一个摄像头;所述方法还可包括:
预先存储所述至少一个摄像头的设备标识与对应的拍摄方向的第一对应关系;
所述根据所述拍摄方向控制图像采集设备进行图像采集,获得包括目标物体的深度图像,可包括:
根据所述拍摄方向查询所述第一对应关系,获得一个设备标识;
根据所述设备标识控制对应的摄像头对所述目标物体进行图像采集,获得一幅所述包括目标物体的深度图像。
在一个实施例中,所述对所述包括目标物体的深度图像中的所述目标物体进行提取,获得所述目标图像,可包括:
根据所述拍摄方向获得所述深度图像中对应的图像区域;
提取所述图像区域中的目标物体,得到所述目标图像。
在一个实施例中,所述图像采集设备包括至少一个摄像头;所述方法还可包括:
预先存储所述至少一个摄像头的设备标识与对应的拍摄方向的第一对应关系;
所述根据所述拍摄方向控制图像采集设备进行图像采集,获得包括目标物体的深度图像,可包括:
根据所述拍摄方向查询所述第一对应关系,获得至少两个设备标识;
根据所述至少两个设备标识控制对应的摄像头对所述目标物体进行图像采集,获得至少两幅包括目标物体的深度图像;
所述对所述包括目标物体的深度图像中的所述目标物体进行提取,获得所述目标图像,可包括:
对至少两幅包括目标物体的深度图像中的所述目标物体进行提取,获得至少两个目标物体;
对至少两个目标物体进行拼接处理,获得所述目标图像。
在一个实施例中,所述对至少两幅包括目标物体的深度图像中的所述目标物体进行提取,获得至少两个目标物体,可包括:
根据所述至少两幅深度图像各自对应的拍摄方向,获得至少两幅深度图像中对应的图像区域;
提取所述至少两幅深度图像中对应的图像区域中的所述目标物体,获得至少两个目标物体。
在一个实施例中,所述图像采集指令可包括用户指定的目标物体的身份标识;所述方法,还可包括:
预先存储身份标识与识别模型的第二对应关系;
所述对所述包括目标物体的深度图像中的所述目标物体进行提取,获得所述目标图像,包括:
根据所述目标物体的身份标识查询所述第二对应关系,获得所述目标物体的识别模型;
根据所述目标物体的识别模型对所述深度图像进行图像识别,定位所述深度图像中的所述目标物体;
从所述深度图像中提取出所述目标物体,获得所述目标图像。
在一个实施例中,所述方法,还可包括:
预先存储用于识别所述目标物体的识别模型;
所述对所述包括目标物体的深度图像中的所述目标物体进行提取,获得所述目标图像,可包括:
根据所述目标物体的识别模型对所述深度图像进行图像识别,定位所述深度图像中的所述目标物体;
从所述深度图像中提取出所述目标物体,获得所述目标图像。
根据本公开实施例的第二方面,提供一种图像显示的控制方法,所述方法包括:
接收用户指定显示位置的控制指令;
根据所述显示位置查询显示位置与拍摄方向的对应关系,获得用于拍摄目标物体的拍摄方向;所述拍摄方向根据用户端的位置与所述显示位置之间的相对位置关系确定;
根据所述拍摄方向给服务器发送图像采集指令,以使所述服务器根据所述图像采集指令获得包括所述目标物体的深度图像,并对所述深度图像中的所述目标物体进行提取,获得目标图像;
接收所述服务器发送的所述目标图像,并将所述目标图像显示于所述显示位置。
在一个实施例中,所述控制指令还包括用户指定的目标物体的身份标识,所述图像采集指令还包括所述目标物体的身份标识,以使服务器根据所述目标物体的身份标识对所述深度图像中的所述目标物体进行提取,获得所述目标图像。
根据本公开实施例的第三方面,提供一种图像显示的控制装置,包括:处理器和存储器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述存储器上所存储的计算机程序,实现上述第一方面所述的方法。
根据本公开实施例的第四方面,提供一种图像显示的控制装置,包括:处理器和存储器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述存储器上所存储的计算机程序,实现上述第二方面所述的方法。
根据本公开实施例的第五方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的方法。
根据本公开实施例的第六方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第二方面所述的方法。
本公开的实施例提供的技术方案可以包括以下有益效果:通过用户端根据用户指定的显示位置查询显示位置与拍摄方向的对应关系,获得用于拍摄目标物体的拍摄方向,并根据拍摄方向给服务器发送图像采集指令。服务器根据用户端发送的图像采集指令中携带的拍摄方向采集包括目标物体的深度图像,并从深度图像中提取出目标物体,得到目标图像,发给用户端。用户端将目标图像显示于用户指定的显示位置。由于是从用户端的位置与用户指定的显示位置之间的相对位置关系确定的拍摄方向采集包括目标物体的深度图像,而非是对目标物体采集360°全方位的深度图像,减少了深度图像的数据量,而且,是将从采集的深度图像中提取出的目标物体的目标图像发给用户端,这样,既可以保持目标物体的立体显示效果,又可以减小图像的数据传输量,减低图像的传输成本。同时,根据用户端的位置与用户指定的显示位置之间的相对位置关系确定拍摄方向,使得目标图像体现了显示位置与用户端的位置之间的相对位置关系,可以使显示效果更加逼真,使用户产生身临其境的感觉,提升用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的图像显示的控制方法的应用场景图。
图2是根据一示例性实施例示出的服务器11执行的图像显示的控制方法的流程图。
图3是根据一示例性实施例示出的用户端12执行的图像显示的控制方法的流程图。
图4是根据一示例性实施例示出的图像显示的控制方法的应用场景图。
图5~图6是根据另一示例性实施例示出的服务器11执行的图像显示的控制方法的流程图。
图7是根据另一示例性实施例示出的服务器11执行的图像显示的控制方法的流程图。
图8是根据另一示例性实施例示出的服务器11执行的图像显示的控制方法的流程图。
图9是根据一示例性实施例示出的一种图像显示的控制装置的框图。
图10是根据一示例性实施例示出的一种图像显示的控制装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的图像显示的控制方法的应用场景图。在图1所示的应用场景中,用户端12与服务器11通信连接,服务器11与图像采集设备13通信连接。用户可以通过用户端12向服务器11发送控制指令,服务器11根据从用户端12接收的控制指令控制图像采集设备13对目标物体14进行图像采集,获得包括目标物体的深度图像。图像采集设备13将采集的深度图像上传至服务器11,服务器11从深度图像中提取出目标物体,得到目标图像,并发送给用户端12进行显示。
图2是根据一示例性实施例示出的服务器11执行的图像显示的控制方法的流程图,图3是根据一示例性实施例示出的用户端12执行的图像显示的控制方法的流程图,如图2与图3所示,该图像显示的控制方法包括以下步骤S201~S204以及S301~S304:
在步骤S201中,接收用户端发送的图像采集指令;所述图像采集指令携带拍摄方向;所述拍摄方向由所述用户端根据用户端的位置与用户指定的显示位置之间的相对位置关系确定。
在步骤S202中,根据所述拍摄方向控制图像采集设备进行图像采集,获得包括目标物体的深度图像。
在步骤S203中,对所述包括目标物体的深度图像中的所述目标物体进行提取,获得所述目标图像。
在步骤S204中,将所述目标图像发送给所述用户端,以使所述用户端将所述目标图像显示于所述显示位置。
在步骤S301中,接收用户指定显示位置的控制指令。
在步骤S302中,根据所述显示位置查询显示位置与拍摄方向的对应关系,获得用于拍摄目标物体的拍摄方向;所述拍摄方向根据用户端的位置与所述显示位置之间的相对位置关系确定。
在步骤S303中,根据所述拍摄方向给服务器发送图像采集指令,以使所述服务器根据所述图像采集指令获得包括所述目标物体的深度图像,并对所述深度图像中的所述目标物体进行提取,获得目标图像。
在步骤S304中,接收所述服务器发送的所述目标图像,并将所述目标图像显示于所述显示位置。
在一个实施例中,用户端12可以提供用于显示目标图像的显示场景,用户可以通过用户端设置目标图像在显示场景中的显示位置。在一个示例性实施例中,显示场景可以为采集的用户所处场所的图像,显示位置既为显示场景中用户指定显示目标图像的显示位置,又对应于用户所处场所中对应的实际位置。例如,目标图像为一个报告厅中的演讲者的深度图像(全息图像),用户端12为AR(增强现实)眼镜,用户佩戴AR眼镜后坐在另一个报告厅的一个座位上面对讲台时,AR眼镜可以获取讲台及其周围场景的图像作为上述的显示场景。用户可以通过用户端指定显示位置为讲台位置,该讲台位置既对应于显示场景中的讲台位置,又对应于用户所处报告厅的讲台位置。用户可以通过AR眼镜设置演讲者的深度图像在显示场景中的显示位置,例如,显示位置可以为讲台位置。
在本实施例中,用户端12可以接收用户指定显示位置的控制指令。在一个示例性实施例中,用户端12可以提供上述显示场景中的多个候选的显示位置供用户选择,当用户选定其中一个候选的显示位置时,视为接收到用户指定显示位置的控制指令,并将用户选定的显示位置确定为用户指定的显示位置。在另一个示例性实施例中,用户端12可以提供上述显示场景,并在显示场景上提供一个用于圈出显示位置的矩形框,用户可以通过拖动矩形框与用户端12上的“确定”键向用户端12发出指定显示位置的控制指令。例如,当用户将矩形框拖到显示场景中的一个位置后,可以按下用户端12上的“确定”键,将矩形框当前圈出的位置确定为显示位置。当然,在实际应用时,用户端12可以通过其他方式接收用户指定显示位置的控制指令,不限于本公开实施例中所公开的实施方式。
在本实施例中,用户端12在接收到用户指定显示位置的控制指令后,可以根据用户指定的显示位置查询预先存储的显示位置与拍摄方向的对应关系,获得用于拍摄目标物体的拍摄方向。其中,显示位置与拍摄方向的对应关系中,每个拍摄方向根据用户端的位置与对应的显示位置之间的相对位置关系确定。也就是,显示位置与拍摄方向的对应关系中,显示位置与拍摄方向一一对应,一个显示位置对应的一个拍摄方向由该显示位置与用户端的位置之间的相对位置关系确定。在上述的示例性实施例中,拍摄方向可以根据用户端的位置与用户指定的显示位置所对应的实际位置之间的相对位置关系确定。
表1
显示位置 拍摄方向
候选位置43 D1
候选位置44 D2
在一个示例性场景中,如图4所示,用户坐在报告厅41中的座位42上,座位42对应的用户端可为上述的用户端12。用户可从候选的显示位置43、显示位置44中选择一个作为显示位置,其中,显示位置44为讲台位置,例如用户可选显示位置44作为指定的显示位置。用户端12中预先存储有显示位置43、显示位置44与拍摄方向的对应关系,具体可如表1所示。其中,D1根据用户端的位置与显示位置43之间的相对位置关系确定,D2根据用户端的位置与显示位置44之间的相对位置关系确定。用户端12在接到控制指令后可根据用户指定的显示位置44查询表1,得到对应的拍摄方向D2。
在本实施例中,用户端12可以根据上述的拍摄方向生成图像采集指令,并向服务器11发送图像采集指令,以供服务器11根据拍摄方向控制图像采集设备13进行图像采集,获得包括所述目标物体14的深度图像,进而对所述深度图像中的所述目标物体进行提取,获得目标图像。
在本实施例中,服务器11在接收到来自用户端12的图像采集指令后,可以根据图像采集指令中携带的拍摄方向控制图像采集设备13进行图像采集,获得包括目标物体14的深度图像。在一个示例性实施例中,图像采集设备13包括至少一个摄像头;服务器11可以预先存储所述至少一个摄像头的设备标识与对应的拍摄方向的第一对应关系。服务器11根据图像采集指令中携带的拍摄方向查询第一对应关系,获得对应的摄像头的设备标识,并根据获得的摄像头的设备标识控制摄像头对目标物体进行图像采集,获得包括目标物体14的深度图像。
在一个示例性场景中,如图1所示,图像采集设备13包括3个摄像头131、132以及133。摄像头131、132以及133可以是双目摄像头,用于采集深度图像。服务器11中预先存储摄像头131、132以及133的设备标识C01、C02、C03与拍摄方向的对应关系,具体可如表2所示。其中,按照D1拍摄可获取目标物体正面的图像,按照D2拍摄可获取目标物体正面偏左的图像,按照D3拍摄可获取目标物体正右侧的图像,按照D4拍摄可获取目标物体正左侧的图像,按照D5拍摄可获取目标物体正面偏右的图像,按照D6拍摄可获取包括目标物体左侧、正面以及右侧的图像。如果用户坐在如图4所示的报告厅41中的座位42上,用户指定的显示位置为显示位置43,那么用户端12向服务器11发送的图像采集指令中携带的拍摄方向为D1,服务器11根据D1查询表2,可获得对应的设备标识C01。服务器11控制设备标识为C01的摄像头进行图像采集,获得一幅包括目标物体的深度图像。
表2
设备标识 拍摄方向
C01 D1
C02 D3
C03 D4
C01、C02 D5
C01、C03 D2
C01、C02、C03 D6
在本实施例中,图像采集设备可以将采集的包括目标物体的深度图像上传至服务器,服务器可以对包括目标物体的深度图像中的目标物体进行提取,获得目标图像。在一个示例性实施例中,服务器可以根据深度图像的拍摄方向获得深度图像中对应的图像区域,并提取该图像区域中的目标物体,得到上述的目标图像。继续上述的示例性实施例,服务器11可以获取深度图像中拍摄方向D1对应的图像区域,并从该图像区域中提取目标图像。这样,目标图像相当于位于讲台位置43处的目标物体在位于用户端处(在座位42处)的用户的眼底所形成的图像,提高了目标图像的空间感。
在本实施例中,服务器将获得的目标图像发送给用户端,用户端接收服务器发送的目标图像后,将目标图像显示于用户指定的显示位置。在上述的示例性实施例中,用户端可以将接收的目标图像按照显示位置与显示场景进行合成,得到合成图像,然后显示合成图像。
本实施例中,由于是从用户端的位置与用户指定的显示位置之间的相对位置关系确定的拍摄方向采集包括目标物体的深度图像,而非是对目标物体采集360°全方位的深度图像,减少了深度图像的数据量,而且,是将从采集的深度图像中提取出的目标物体的目标图像发给用户端,这样,既可以保持目标物体的立体显示效果,又可以减小图像的数据传输量,减低图像的传输成本。同时,根据用户端的位置与用户指定的显示位置之间的相对位置关系确定拍摄方向,使得目标图像体现了显示位置与用户端的位置之间的相对位置关系,可以使显示效果更加逼真,使用户产生身临其境的感觉,提升用户体验。
当然,在实际应用中,对于目标物体的同一拍摄方向,可以存在至少两个不同拍摄距离的摄像头。用户端中可预先存储显示位置与拍摄方向、拍摄距离的对应关系。用户端可以根据用户指定的显示位置查询显示位置与拍摄方向、拍摄距离的对应关系,获得对应的拍摄方向与拍摄距离,并根据拍摄方向与拍摄距离向给服务器发送图像采集指令。服务器也可预先存储拍摄方向、拍摄距离与设备标识的对应关系。服务器可以根据图像采集指令中携带的拍摄方向、拍摄距离查询拍摄方向、拍摄距离与设备标识的对应关系,得到对应的设备标识,并控制对应的摄像头对目标物体进行图像采集。
图5~图6是根据另一示例性实施例示出的服务器11执行的图像显示的控制方法的流程图。在图2所示的实施例的基础上,上述的步骤S202包括以下步骤S501~S502、上述的步骤S203包括以下步骤S601~S602:
在步骤S501中,根据所述拍摄方向查询所述第一对应关系,获得至少两个设备标识。
在步骤S502中,根据所述至少两个设备标识控制对应的摄像头对所述目标物体进行图像采集,获得至少两幅包括目标物体的深度图像。
在步骤S601中,对至少两幅包括目标物体的深度图像中的所述目标物体进行提取,获得至少两个目标物体。
在步骤S602中,对至少两个目标物体进行拼接处理,获得所述目标图像。
在本实施例中,服务器根据拍摄方向查询第一对应关系,可以获得至少两个设备标识,并根据至少两个设备标识控制对应的摄像头对目标物体进行图像采集,可以获得至少两幅包括目标物体的深度图像。继续上述的示例性实施例,如果用户坐在如图4所示的报告厅41中的座位42上,用户指定的显示位置为显示位置44,那么用户端12向服务器11发送的图像采集指令中携带的拍摄方向为D2,服务器11根据D2查询表2,可获得对应的设备标识C01、C03。服务器11控制设备标识为C01、C03的摄像头进行图像采集,获得包括目标物体的深度图像P01与深度图像P02,深度图像P01由设备标识为C01的摄像头采集,深度图像P02由设备标识为C03的摄像头采集。
在本实施例中,服务器在获得至少两幅包括目标物体的深度图像后,对所述至少两幅包括目标物体的深度图像中的所述目标物体进行提取,获得至少两个目标物体,再对至少两个目标物体进行拼接处理,获得目标图像。继续上述的示例性实施例,服务器11对深度图像P01与深度图像P02中的目标物体进行提取,获得目标物体1与目标物体2。然后,服务器11对目标物体1与目标物体2进行拼接处理,可获得目标图像。
在一个示例性实施例中,服务器11对至少两幅包括目标物体的深度图像中的目标物体进行提取,获得至少两个目标物体的具体方法如下:根据至少两幅深度图像各自对应的拍摄方向,获得至少两幅深度图像中对应的图像区域,提取至少两幅深度图像中对应的图像区域中的所述目标物体,获得至少两个目标物体。继续上述的示例性实施例,服务器11根据设备标识为C01、C03查询表2,得到对应的拍摄方向分别为D1、D4,即得到深度图像P01与深度图像P02对应的拍摄方向分别为D1、D4,服务器11获取深度图像P01中D1对应的图像区域A1,获取深度图像P02中D4对应的图像区域A2,然后,提取出图像区域A1中的目标物体,获得目标物体1,提取出图像区域A2中的目标物体,获得目标物体2。
在本实施例中,根据用户指定的显示位置确定需要至少两个摄像头对目标物体进行图像采集,并得到至少两幅包括目标物体的深度图像时,对得到的至少两幅包括目标物体的深度图像按照对应的拍摄方向提取出对应的目标物体,然后对得到的目标物体进行拼接处理,获得目标图像。这样,可以扩大用户指定显示位置的范围,实用性强。
图7是根据另一示例性实施例示出的服务器11执行的图像显示的控制方法的流程图。在本实施例中,在图2所示的实施例的基础上,控制指令还包括用户指定的目标物体的身份标识,图像采集指令还包括用户指定的目标物体的身份标识。服务器还预先存储身份标识与识别模型的第二对应关系。上述的步骤S203还包括以下步骤S701~S703:
在步骤S701中,根据所述目标物体的身份标识查询所述第二对应关系,获得所述目标物体的识别模型。
在步骤S702中,根据所述目标物体的识别模型对所述深度图像进行图像识别,定位所述深度图像中的所述目标物体。
在步骤S703中,从所述深度图像中提取出所述目标物体,获得所述目标图像。
在本实施例中,用户还可以通过用户端指定目标物体,具体是,用户端可以接收用户指定显示位置与目标物体的控制指令,该控制指令包括用户指定的显示位置与目标物体的身份标识。用户端根据用户指定的显示位置可以确定拍摄方向,并根据拍摄方向与目标物体的身份标识给服务器发送图像采集指令。
在本实施例中,服务器预先存储身份标识与识别模型的第二对应关系。服务器根据图像采集指令中的目标物体的身份标识查询第二对应关系,可以获得对应的识别模型,并根据获得的识别模型对深度图像进行图像识别,定位深度图像中的目标物体,然后从深度图像中提取出目标物体,获得目标图像。这样,可以从深度图像中提取出用户指定的目标物体,获得目标图像,提高了目标图像的针对性。
图8是根据另一示例性实施例示出的服务器11执行的图像显示的控制方法的流程图。在本实施例中,服务器预先存储用于识别目标物体的识别模型。在图2所示的实施例的基础上,上述的步骤S203包括以下步骤S801~S802:
在步骤S801中,根据所述目标物体的识别模型对所述深度图像进行图像识别,定位所述深度图像中的所述目标物体。
在步骤S802中,从所述深度图像中提取出所述目标物体,获得所述目标图像。
在本实施例中,服务器中预先存储有识别目标物体的识别模型,作为默认的识别模型。服务器在获得包括目标物体的深度图像后,可以根据上述默认的识别模型对深度图像进行图像识别,定位深度图像中的目标物体,并从深度图像中提取出目标物体,获得目标图像。这样,用户只需指定显示位置即可,简化了用户操作,提高了便利性。
图9是根据一示例性实施例示出的一种图像显示的控制装置的框图。例如,装置900可以被提供为一服务器。参照图9,装置900包括处理组件922,其进一步包括一个或多个处理器,以及由存储器932所代表的存储器资源,用于存储可由处理部件922的执行的指令,例如应用程序。存储器932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件922被配置为执行指令,以执行上述用于控制图像显示的控制方法。
装置900还可以包括一个电源组件926被配置为执行装置900的电源管理,一个有线或无线网络接口950被配置为将装置900连接到网络,和一个输入输出(I/O)接口958。装置900可以操作基于存储在存储器932的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器932,上述指令可由装置900的处理组件922执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图10是根据一示例性实施例示出的一种图像显示的控制装置的框图。例如,装置1000可以是AR眼镜、移动电话,计算机,平板设备,医疗设备,健身设备,个人数字助理等。
参照图10,装置1000可以包括以下一个或多个组件:处理组件1002,存储器1004,电源组件1006,多媒体组件1008,音频组件1010,输入/输出(I/O)的接口1012,传感器组件1014,以及通信组件1016。
处理组件1002通常控制装置1000的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件1002可以包括一个或多个处理器1020来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1002可以包括一个或多个模块,便于处理组件1002和其他组件之间的交互。例如,处理部件1002可以包括多媒体模块,以方便多媒体组件1008和处理组件1002之间的交互。
存储器1004被配置为存储各种类型的数据以支持在设备1000的操作。这些数据的示例包括用于在装置1000上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1004可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件1006为装置1000的各种组件提供电力。电力组件1006可以包括电源管理系统,一个或多个电源,及其他与为装置1000生成、管理和分配电力相关联的组件。
多媒体组件1008包括在所述装置1000和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1008包括一个前置摄像头和/或后置摄像头。当设备1000处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1010被配置为输出和/或输入音频信号。例如,音频组件1010包括一个麦克风(MIC),当装置1000处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1004或经由通信组件1016发送。在一些实施例中,音频组件1010还包括一个扬声器,用于输出音频信号。
I/O接口1012为处理组件1002和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1014包括一个或多个传感器,用于为装置1000提供各个方面的状态评估。例如,传感器组件1014可以检测到设备1000的打开/关闭状态,组件的相对定位,例如所述组件为装置1000的显示器和小键盘,传感器组件1014还可以检测装置1000或装置1000一个组件的位置改变,用户与装置1000接触的存在或不存在,装置1000方位或加速/减速和装置1000的温度变化。传感器组件1014可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1014还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1014还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1016被配置为便于装置1000和其他设备之间有线或无线方式的通信。装置1000可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件1016经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件1016还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置1000可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1004,上述指令可由装置1000的处理器1020执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (13)

1.一种图像显示的控制方法,其特征在于,所述方法,包括:
接收用户端发送的图像采集指令;所述图像采集指令携带拍摄方向;所述拍摄方向由所述用户端根据用户端的位置与用户指定的显示位置之间的相对位置关系确定;
根据所述拍摄方向控制图像采集设备进行图像采集,获得包括目标物体的深度图像;
对所述深度图像中的所述目标物体进行提取,获得目标图像;
将所述目标图像发送给所述用户端,以使所述用户端将所述目标图像显示于所述显示位置。
2.根据权利要求1所述的方法,其特征在于,所述图像采集设备包括至少一个摄像头;所述方法还包括:
预先存储所述至少一个摄像头的设备标识与对应的拍摄方向的第一对应关系;
所述根据所述拍摄方向控制图像采集设备进行图像采集,获得包括目标物体的深度图像,包括:
根据所述拍摄方向查询所述第一对应关系,获得一个设备标识;
根据所述设备标识控制对应的摄像头对所述目标物体进行图像采集,获得一幅所述包括目标物体的深度图像。
3.根据权利要求2所述的方法,其特征在于,所述对所述包括目标物体的深度图像中的所述目标物体进行提取,获得所述目标图像,包括:
根据所述拍摄方向获得所述深度图像中对应的图像区域;
提取所述图像区域中的目标物体,得到所述目标图像。
4.根据权利要求1所述的方法,其特征在于,所述图像采集设备包括至少一个摄像头;所述方法还包括:
预先存储所述至少一个摄像头的设备标识与对应的拍摄方向的第一对应关系;
所述根据所述拍摄方向控制图像采集设备进行图像采集,获得包括目标物体的深度图像,包括:
根据所述拍摄方向查询所述第一对应关系,获得至少两个设备标识;
根据所述至少两个设备标识控制对应的摄像头对所述目标物体进行图像采集,获得至少两幅包括目标物体的深度图像;
所述对所述包括目标物体的深度图像中的所述目标物体进行提取,获得所述目标图像,包括:
对至少两幅包括目标物体的深度图像中的所述目标物体进行提取,获得至少两个目标物体;
对至少两个目标物体进行拼接处理,获得所述目标图像。
5.根据权利要求4所述的方法,其特征在于,所述对至少两幅包括目标物体的深度图像中的所述目标物体进行提取,获得至少两个目标物体,包括:
根据所述至少两幅深度图像各自对应的拍摄方向,获得至少两幅深度图像中对应的图像区域;
提取所述至少两幅深度图像中对应的图像区域中的所述目标物体,获得至少两个目标物体。
6.根据权利要求1所述的方法,其特征在于,所述图像采集指令包括用户指定的目标物体的身份标识;所述方法还包括:
预先存储身份标识与识别模型的第二对应关系;
所述对所述包括目标物体的深度图像中的所述目标物体进行提取,获得所述目标图像,包括:
根据所述目标物体的身份标识查询所述第二对应关系,获得所述目标物体的识别模型;
根据所述目标物体的识别模型对所述深度图像进行图像识别,定位所述深度图像中的所述目标物体;
从所述深度图像中提取出所述目标物体,获得所述目标图像。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
预先存储用于识别所述目标物体的识别模型;
所述对所述包括目标物体的深度图像中的所述目标物体进行提取,获得所述目标图像,包括:
根据所述目标物体的识别模型对所述深度图像进行图像识别,定位所述深度图像中的所述目标物体;
从所述深度图像中提取出所述目标物体,获得所述目标图像。
8.一种图像显示的控制方法,其特征在于,所述方法包括:
接收用户指定显示位置的控制指令;
根据所述显示位置查询显示位置与拍摄方向的对应关系,获得用于拍摄目标物体的拍摄方向;所述拍摄方向根据用户端的位置与所述显示位置之间的相对位置关系确定;
根据所述拍摄方向给服务器发送图像采集指令,以使所述服务器根据所述图像采集指令获得包括所述目标物体的深度图像,并对所述深度图像中的所述目标物体进行提取,获得目标图像;
接收所述服务器发送的所述目标图像,并将所述目标图像显示于所述显示位置。
9.根据权利要求8所述的方法,其特征在于,所述控制指令还包括用户指定的目标物体的身份标识,所述图像采集指令还包括所述目标物体的身份标识,以使服务器根据所述目标物体的身份标识对所述深度图像中的所述目标物体进行提取,获得所述目标图像。
10.一种图像显示的控制装置,其特征在于,所述装置包括:处理器和存储器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述存储器上所存储的计算机程序,实现权利要求1至7任一项所述的方法。
11.一种图像显示的控制装置,其特征在于,所述装置包括:处理器和存储器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述存储器上所存储的计算机程序,实现权利要求8至9任一项所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求8至9任一项所述的方法。
CN201810828904.1A 2018-07-25 2018-07-25 图像显示的控制方法及装置 Active CN108924529B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201810828904.1A CN108924529B (zh) 2018-07-25 2018-07-25 图像显示的控制方法及装置
US16/513,142 US11265529B2 (en) 2018-07-25 2019-07-16 Method and apparatus for controlling image display
EP19187910.5A EP3599763A3 (en) 2018-07-25 2019-07-23 Method and apparatus for controlling image display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810828904.1A CN108924529B (zh) 2018-07-25 2018-07-25 图像显示的控制方法及装置

Publications (2)

Publication Number Publication Date
CN108924529A true CN108924529A (zh) 2018-11-30
CN108924529B CN108924529B (zh) 2020-03-17

Family

ID=64417848

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810828904.1A Active CN108924529B (zh) 2018-07-25 2018-07-25 图像显示的控制方法及装置

Country Status (3)

Country Link
US (1) US11265529B2 (zh)
EP (1) EP3599763A3 (zh)
CN (1) CN108924529B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114895811A (zh) * 2022-03-22 2022-08-12 中国民航大学 一种基于增强现实技术的对象管理方法、装置及设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102260193B1 (ko) * 2019-12-30 2021-06-03 주식회사 버넥트 3차원 공간에 대한 보안기능을 제공하는 증강현실 원격 통신방법 및 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102891915A (zh) * 2011-07-18 2013-01-23 上海盛畅网络科技有限公司 移动终端的虚实互动娱乐系统和方法
CN103337079A (zh) * 2013-07-09 2013-10-02 广州新节奏智能科技有限公司 一种虚拟增强现实的教学方法及装置
CN104102678A (zh) * 2013-04-15 2014-10-15 腾讯科技(深圳)有限公司 增强现实的实现方法以及实现装置
CN104735542A (zh) * 2015-03-30 2015-06-24 北京奇艺世纪科技有限公司 一种视频播放方法及装置
CN105955456A (zh) * 2016-04-15 2016-09-21 深圳超多维光电子有限公司 虚拟现实与增强现实融合的方法、装置及智能穿戴设备
CN106170082A (zh) * 2016-06-30 2016-11-30 深圳市虚拟现实科技有限公司 远程全景图像实时全方位传输和显示方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157607A (ja) 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
US6583808B2 (en) * 2001-10-04 2003-06-24 National Research Council Of Canada Method and system for stereo videoconferencing
JP5243612B2 (ja) 2008-10-02 2013-07-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 中間画像合成およびマルチビューデータ信号抽出
KR101471488B1 (ko) 2012-03-23 2014-12-10 경북대학교 산학협력단 시선 추적 장치 및 방법
US9602767B2 (en) 2014-10-10 2017-03-21 Microsoft Technology Licensing, Llc Telepresence experience
US10586102B2 (en) 2015-08-18 2020-03-10 Qualcomm Incorporated Systems and methods for object tracking
CN108377355A (zh) * 2016-11-28 2018-08-07 中兴通讯股份有限公司 一种视频数据处理方法、装置及设备
US20190339840A1 (en) * 2018-05-01 2019-11-07 Samsung Electronics Co., Ltd. Augmented reality device for rendering a list of apps or skills of artificial intelligence system and method of operating the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102891915A (zh) * 2011-07-18 2013-01-23 上海盛畅网络科技有限公司 移动终端的虚实互动娱乐系统和方法
CN104102678A (zh) * 2013-04-15 2014-10-15 腾讯科技(深圳)有限公司 增强现实的实现方法以及实现装置
CN103337079A (zh) * 2013-07-09 2013-10-02 广州新节奏智能科技有限公司 一种虚拟增强现实的教学方法及装置
CN104735542A (zh) * 2015-03-30 2015-06-24 北京奇艺世纪科技有限公司 一种视频播放方法及装置
CN105955456A (zh) * 2016-04-15 2016-09-21 深圳超多维光电子有限公司 虚拟现实与增强现实融合的方法、装置及智能穿戴设备
CN106170082A (zh) * 2016-06-30 2016-11-30 深圳市虚拟现实科技有限公司 远程全景图像实时全方位传输和显示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114895811A (zh) * 2022-03-22 2022-08-12 中国民航大学 一种基于增强现实技术的对象管理方法、装置及设备

Also Published As

Publication number Publication date
EP3599763A3 (en) 2020-05-20
CN108924529B (zh) 2020-03-17
US11265529B2 (en) 2022-03-01
US20200036957A1 (en) 2020-01-30
EP3599763A2 (en) 2020-01-29

Similar Documents

Publication Publication Date Title
KR102194094B1 (ko) 가상과 실제 물체의 합성 방법, 장치, 프로그램 및 기록매체
EP3929922A1 (en) Method and device for generating multimedia resources
CN105828201B (zh) 视频处理方法及装置
JP6348611B2 (ja) 自動ピント合わせ方法、装置、プログラム及び記録媒体
JP2016531362A (ja) 肌色調整方法、肌色調整装置、プログラム及び記録媒体
US20140038560A1 (en) System for and method of transmitting communication information
CN105117111B (zh) 虚拟现实交互画面的渲染方法和装置
CN104112129A (zh) 图像识别方法及装置
CN105100634B (zh) 图像拍摄方法及装置
CN108154466A (zh) 图像处理方法及装置
CN105141942A (zh) 3d图像合成方法及装置
CN104933419A (zh) 获取虹膜图像的方法、装置及红膜识别设备
EP3260994A1 (en) Method and apparatus for sharing photo
CN105631804A (zh) 图片处理方法及装置
CN114009003A (zh) 图像采集方法、装置、设备及存储介质
CN104035674A (zh) 图片显示方法和装置
CN112788359A (zh) 直播处理方法、装置、电子设备及存储介质
CN109726614A (zh) 3d立体成像方法及装置、可读存储介质、电子设备
JP5547356B2 (ja) 撮影装置、方法、記憶媒体及びプログラム
CN109542285A (zh) 图像处理方法及装置
CN108848303A (zh) 拍摄提示方法及装置
CN109218709B (zh) 全息内容的调整方法及装置和计算机可读存储介质
CN108924529A (zh) 图像显示的控制方法及装置
CN112004020B (zh) 图像处理方法、装置、电子设备及存储介质
CN108509863A (zh) 信息提示方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant