CN115379125B - 交互信息发送方法、装置、服务器和介质 - Google Patents

交互信息发送方法、装置、服务器和介质 Download PDF

Info

Publication number
CN115379125B
CN115379125B CN202211322240.4A CN202211322240A CN115379125B CN 115379125 B CN115379125 B CN 115379125B CN 202211322240 A CN202211322240 A CN 202211322240A CN 115379125 B CN115379125 B CN 115379125B
Authority
CN
China
Prior art keywords
information
camera
video
virtual reality
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211322240.4A
Other languages
English (en)
Other versions
CN115379125A (zh
Inventor
曹有龙
林哲
王清杰
李旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Defeng Xinzheng Technology Co ltd
Original Assignee
Beijing Defeng New Journey Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Defeng New Journey Technology Co ltd filed Critical Beijing Defeng New Journey Technology Co ltd
Priority to CN202211322240.4A priority Critical patent/CN115379125B/zh
Publication of CN115379125A publication Critical patent/CN115379125A/zh
Application granted granted Critical
Publication of CN115379125B publication Critical patent/CN115379125B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本公开的实施例公开了交互信息发送方法、装置、服务器和介质。该方法的一具体实施方式包括:接收第一实时全景视频;接收虚拟现实可佩戴设备发送的摄像机角度调整语音;将摄像机角度调整语音发送至安检客户端,接收安检客户端发送的、针对摄像机角度调整语音的回复语音;接收全景摄像机调整角度后所拍摄的第二实时全景视频;接收针对第二实时全景视频的视频识别结果;生成针对虚拟现实可佩戴设备和安检客户端的交互记录;将视频识别结果、摄像机角度调整语音、回复语音和交互记录发送至交互信息展示客户端。该实施方式可以实时实现虚拟现实可佩戴设备的相关人员查看摄像机角度调整后拍摄的局部视频,以了解到安全检查区域的当前情况。

Description

交互信息发送方法、装置、服务器和介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及交互信息发送方法、装置、服务器和介质。
背景技术
相关负责人需要对安全检查区域的当前状况有实时的了解,需要对安全检查区域的安全进行检查,在对安全检查区域的安全检查时,通常采用的方式为:首先,由相关检查负责人去现场与地方负责人沟通。其次,控制手机来拍摄现场视频,以供相关检查负责人对手机拍摄的现场视频进行识别,得到现场视频的视频识别结果。最后,现场视频和视频识别结果,生成交互信息并发送至交互信息展示客户端。
然而,发明人发现,当采用上述方式在对安全检查区域的安全检查时,经常会存在如下技术问题:
第一,相关检查负责人不能实时对安全检查区域的安全进行检查,以了解到当前的状况。
第二,摄像设备拍摄的现场视频需要相关检查负责人进行识别,得到现场视频的视频识别结果。导致相关检查负责人这种识别方法的实用性不高。
第三,针对相关检查负责人去现场与地方负责人沟通并录音和相关负责人到现场才可以拍摄现场视频,会导致浪费时间和消耗人力。
该背景技术部分中所公开的以上信息仅用于增强对本发明构思的背景的理解,并因此,其可包含并不形成本国的本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了交互信息发送方法、装置、服务器和介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种交互信息发送方法,该方法包括:接收第一实时全景视频;响应于确定接收到虚拟现实可佩戴设备的状态为表征虚拟现实可佩戴设备和安检客户端进行语音交互的状态,接收上述虚拟现实可佩戴设备发送的摄像机角度调整语音;将上述摄像机角度调整语音发送至安检客户端,以供上述安检客户端相关用户针对摄像机角度调整语音对全景摄像机进行角度调整;接收上述安检客户端发送的、针对上述摄像机角度调整语音的回复语音;响应于确定上述全景摄像机角度调整完成,接收上述全景摄像机调整角度后所拍摄的第二实时全景视频;接收针对上述第二实时全景视频的视频识别结果;根据上述视频识别结果、上述摄像机角度调整语音和上述回复语音,生成针对上述虚拟现实可佩戴设备和安检客户端的交互记录;将上述视频识别结果、上述摄像机角度调整语音、上述回复语音和交互记录发送至交互信息展示客户端。
第二方面,本公开的一些实施例提供了一种交互信息发送装置,装置包括:第一接收单元,被配置成接收第一实时全景视频;第二接收单元,被配置成响应于确定接收到虚拟现实可佩戴设备的状态为表征虚拟现实可佩戴设备和安检客户端进行语音交互的状态,接收上述虚拟现实可佩戴设备发送的摄像机角度调整语音;第一发送单元,被配置成将上述摄像机角度调整语音发送至安检客户端,以供上述安检客户端相关用户针对摄像机角度调整语音对全景摄像机进行角度调整;第三接收单元,被配置成接收上述安检客户端发送的、针对上述摄像机角度调整语音的回复语音;第四接收单元,被配置成响应于确定上述全景摄像机角度调整完成,接收上述全景摄像机调整角度后所拍摄的第二实时全景视频;第五接收单元,被配置成接收针对上述第二实时全景视频的视频识别结果;生成单元,被配置成根据上述视频识别结果、上述摄像机角度调整语音和上述回复语音,生成针对上述虚拟现实可佩戴设备和安检客户端的交互记录;第二发送单元,被配置成将上述视频识别结果、上述摄像机角度调整语音、上述回复语音和交互记录发送至交互信息展示客户端。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的交互信息发送方法可以实时接收第二实时视频并识别,可以满足虚拟现实可佩戴设备的相关人员查看摄像机角度扭转后的局部视频,以了解到安全检查区域的当前情况。具体来说,导致发送的交互记录有效性不高的原因在于:相关检查负责人不能实时对安全检查区域的安全进行检查,以了解到当前的状况。基于此,本公开的一些实施例的交互信息发送方法,首先,接收第一实时全景视频;全景摄像机可以实时拍摄全景视频,可以保障全景视频的时效性。其次,响应于确定接收到虚拟现实可佩戴设备的状态为表征虚拟现实可佩戴设备和安检客户端进行语音交互的状态,接收上述虚拟现实可佩戴设备发送的摄像机角度调整语音;其中,上述虚拟现实可佩戴设备和上述安检客户端进行语音交互可以是远程实时进行语音交互。虚拟现实可佩戴设备发送的摄像机角度调整语音可以发送至安检客户端,以供相关人员可以对全景摄像机进行角度调整,上述虚拟现实可佩戴设备的相关人员可以查看想看的全景视频。然后,将上述摄像机角度调整语音发送至安检客户端,以供上述安检客户端相关用户针对摄像机角度调整语音对全景摄像机进行角度调整;其中,将虚拟现实可佩戴设备发送的摄像机角度调整语音发送至安检客户端,以供相关人员可以对全景摄像机进行角度调整,上述虚拟现实可佩戴设备的相关人员可以查看想看的全景视频。接着,接收上述安检客户端发送的、针对上述摄像机角度调整语音的回复语音;再接着,响应于确定上述全景摄像机角度调整完成,接收上述全景摄像机调整角度后所拍摄的第二实时全景视频;从而,接收针对上述第二实时全景视频的视频识别结果;进而,根据上述视频识别结果、上述摄像机角度调整语音和上述回复语音,生成针对上述虚拟现实可佩戴设备和安检客户端的交互记录;最后,将上述视频识别结果、上述摄像机角度调整语音、上述回复语音和交互记录发送至交互信息展示客户端。其中,实时拍摄全景视频,将虚拟现实可佩戴设备发送的摄像机角度调整语音发送至安检客户端,以供相关人员可以对全景摄像机进行角度调整,以及针对摄像机角度调整后进行回复语音,通过实时接收第二实时视频并识别,可以实时实现虚拟现实可佩戴设备的相关人员查看摄像机角度调整后拍摄的局部视频,以了解到安全检查区域的当前情况。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开的交互信息发送方法的一些实施例的流程图;
图2是根据本公开的交互信息发送装置的一些实施例的结构示意图;
图3是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1示出了根据本公开的交互信息发送方法的一些实施例的流程100。该交互信息发送方法的流程100,包括以下步骤:
步骤101,接收第一实时全景视频。
在一些实施例中,交互信息发送方法的执行主体(例如,服务器)可以通过有线连接的方式或者无线连接的方式接收第一实时全景视频。其中,上述第一实时全景视频可以是安全检查区域的全景视频。上述全景摄像机可以是拍摄全景视频的设备。例如,上述全景摄像机可以是360度的全景摄像机。例如,上述安全检查区域可以是建筑工地。
在一些实施例的一些可选的实现方式中,上述全景摄像机可以是设置于安全装置上的摄像机,上述安全装置为头部佩戴的装置。上述全景摄像机包括:前方摄像头、后方摄像头、左方摄像头和右方摄像头。例如,上述安全装置可以是安全帽。其中,上述前方摄像头的实际视场角区域、上述后方摄像头的实际视场角区域、上述左方摄像头的实际视场角区域和右方摄像头的实际视场角区域可以是通过以下步骤生成的:
第一步,确定上述前方摄像头的拍摄方向的视场角对应的区域与上述左方摄像头的拍摄方向的视场角对应的区域之间的重叠区域,作为第一重叠区域。
第二步,确定上述前方摄像头的拍摄方向的视场角对应的区域与上述右方摄像头的拍摄方向的视场角对应的区域之间的重叠区域,作为第二重叠区域。其中,与上述第一重叠区域对应的视场角和与上述第二重叠区域对应的视场角相等。
第三步,确定上述右方摄像头的拍摄方向的视场角对应的区域与上述后方摄像头的拍摄方向的视场角对应的区域之间的重叠区域,作为第三重叠区域。其中,与上述第二重叠区域对应的视场角和与上述第三重叠区域对应的视场角相等。
第四步,确定上述后方摄像头的拍摄方向的视场角对应的区域与上述左方摄像头的拍摄方向的视场角对应的区域之间的重叠区域,作为第四重叠区域。其中,与上述第三重叠区域对应的视场角和与上述第四重叠区域对应的视场角相等。
第五步,根据上述第一重叠区域和上述第二重叠区域,确定上述前方摄像头的拍摄方向的视场角对应的第一不重叠区域。其中,与上述第一不重叠区域对应的视场角为90度。
实践中,上述第一不重叠区域可以是通过以下步骤确定的:
第一子步骤,将上述第一重叠区域和上述第二重叠区域确定为前方重叠区域。
第二子步骤,将上述前方摄像头的拍摄方向的视场角对应的区域去掉上述前方重叠区域,确定为第一不重叠区域。
第六步,根据上述第二重叠区域和上述第三重叠区域,确定上述前方摄像头的拍摄方向的视场角对应的第二不重叠区域。其中,与上述第二不重叠区域对应的视场角为90度。
实践中,上述第二不重叠区域可以是通过以下步骤确定的:
第一子步骤,将上述第三重叠区域和上述第二重叠区域确定为右方重叠区域。
第二子步骤,将上述右方摄像头的拍摄方向的视场角对应的区域去掉上述右方重叠区域,确定为第二不重叠区域。
第七步,根据上述第三重叠区域和上述第四重叠区域,确定上述前方摄像头的拍摄方向的视场角对应的第三不重叠区域。其中,与上述第三不重叠区域对应的视场角为90度。
实践中,上述第三不重叠区域可以是通过以下步骤确定的:
第一子步骤,将上述第三重叠区域和上述第四重叠区域确定为后方重叠区域。
第二子步骤,将上述后方摄像头的拍摄方向的视场角对应的区域去掉上述后方重叠区域,确定为第三不重叠区域。
第八步,根据上述第四重叠区域和上述第一重叠区域,确定上述前方摄像头的拍摄方向的视场角对应的第四不重叠区域。其中,与上述第四不重叠区域对应的视场角为90度。
实践中,上述第四不重叠区域可以是通过以下步骤确定的:
第一子步骤,将上述第一重叠区域和上述第四重叠区域确定为左方重叠区域。
第二子步骤,将上述左方摄像头的拍摄方向的视场角对应的区域去掉上述左方重叠区域,确定为第四不重叠区域。
第九步,将上述第一重叠区域和上述第一不重叠区域确定为前方摄像头的实际视场角区域。
第十步,将上述第二重叠区域和上述第二不重叠区域确定为右方摄像头的实际视场角区域。
第十一步,将上述第三重叠区域和上述第三不重叠区域确定为后方摄像头的实际视场角区域。
第十二步,将上述第四重叠区域和上述第四不重叠区域确定为左方摄像头的实际视场角区域。
在一些实施例的一些可选的实现方式中,上述执行主体接收第一实时全景视频,可以包括以下步骤:
第一步,控制全景摄像机,以对受检区域进行实时拍摄,以生成实时全景视频。其中,上述受检区域可以是待检测的安全检查区域。上述实时全景视频可以是全景摄像机实时拍摄的全景视频。例如,上述受检区域可以是有人员的区域,还可以是禁止进入的区域。
第二步,控制上述全景摄像机,以将上述实时全景视频发送至网关服务器。其中,上述网关服务器可以用于将接收的、上述全景摄像机发送的实时全景视频进行视频编码的服务器。
第三步,控制上述网关服务器,以对上述实时全景视频进行视频编码,以生成第一编码后实时全景视频。其中,将上述实时全景视频编码成上述网关服务器视频流协议支持的视频格式。例如,上述视频格式可以是H.264。
第四步,控制上述网关服务器,以将上述第一编码后实时全景视频发送至流媒体服务器。其中,上述流媒体服务器可以用于将接收的、上述网关服务器发送的、视频编码后的实时全景视频分发至上述执行主体、视频识别服务器和存储服务器。上述视频识别服务器可以用于识别全景摄像机实时拍摄的全景视频中的每帧全景图像的服务器,上述存储服务器可以用于存储上述全景摄像机实时拍摄的全景视频和上述视频识别服务器识别的结果的服务器。
第五步,控制上述流媒体服务器,以将上述第一编码后实时全景视频作为第一实时全景视频进行发送处理。其中,将上述第一实时全景视频发送至上述执行主体。
第六步,接收上述流媒体服务器发送的上述第一实时全景视频。
步骤102,响应于确定接收到虚拟现实可佩戴设备的状态为表征虚拟现实可佩戴设备和安检客户端进行语音交互的状态,接收虚拟现实可佩戴设备发送的摄像机角度调整语音。
在一些实施例中,上述执行主体可以响应于确定接收到虚拟现实可佩戴设备的状态为表征虚拟现实可佩戴设备和安检客户端进行语音交互的状态,接收上述虚拟现实可佩戴设备发送的摄像机角度调整语音。其中,上述虚拟现实(Virtual Reality,VR)可佩戴设备可以是可佩戴的查看上述全景摄像机拍摄的全景视频的虚拟现实设备。例如,上述虚拟现实可佩戴设备可以是头显。上述安检客户端可以是跟虚拟现实可佩戴设备进行语音交互或视频交互的客户端,还可以用于接收全景视频,以供相关人员进行识别的客户端。上述语音交互可以是双向语音沟通。上述视频交互可以是接收上述全景摄像机实时拍的全景视频。
步骤103,将摄像机角度调整语音发送至安检客户端,以供安检客户端相关用户针对摄像机角度调整语音对全景摄像机进行角度调整。
在一些实施例中,上述执行主体可以将上述摄像机角度调整语音发送至安检客户端,以供上述安检客户端相关用户针对摄像机角度调整语音对全景摄像机进行角度调整。其中,上述摄像机角度调整语音可以是摄像机距离调整或角度调整的语音。例如,上述摄像机角度调整语音可以是“往前走一点”。
步骤104,接收安检客户端发送的、针对摄像机角度调整语音的回复语音。
在一些实施例中,上述执行主体可以接收上述安检客户端发送的、针对上述摄像机角度调整语音的回复语音。例如,上述回复语音可以是“这个距离怎么样”。
步骤105,响应于确定全景摄像机角度调整完成,接收全景摄像机调整角度后所拍摄的第二实时全景视频。
在一些实施例中,上述执行主体可以响应于确定上述全景摄像机角度调整完成,接收上述全景摄像机调整角度后所拍摄的第二实时全景视频。其中,上述第二实时全景视频可以是全景摄像机调整角度后所拍摄的全景视频。
步骤106,接收针对第二实时全景视频的视频识别结果。
在一些实施例中,上述执行主体可以接收针对上述第二实时全景视频的视频识别结果。其中,上述视频识别结果可以是识别第二实时全景视频中目标物体的物体信息的识别结果。例如,上述目标物体可以是车辆。
在一些实施例的一些可选的实现方式中,上述执行主体可以接收针对第二实时全景视频的视频识别结果,包括以下步骤:
第一步,控制上述全景摄像机,以对受检区域进行实时拍摄,以生成调整角度后所拍摄的实时全景视频。
第二步,控制上述全景摄像机,以将上述调整角度后所拍摄的实时全景视频发送至网关服务器。
第三步,控制上述网关服务器,以将上述调整角度后所拍摄的实时全景视频进行视频编码,以生成第二编码后实时全景视频。其中,上述第二编码后实时全景视频可以是上述调整角度后所拍摄的实时全景视频进行视频编码后的、调整角度后所拍摄的实时全景视频。
第四步,控制上述网关服务器,以将上述第二编码后实时全景视频发送至流媒体服务器。
第五步,控制上述流媒体服务器,以将上述第二编码后实时全景视频作为第二实时全景视频发送至视频识别服务器。
第六步,控制上述视频识别服务器,以接收上述第二实时全景视频,供视频识别服务器进行视频识别处理,以生成上述第二实时全景视频的视频识别结果。其中,上述第二实时全景视频的视频识别结果可以是二维码的内容。
第七步,控制上述视频识别服务器,以将上述视频识别结果进行发送处理。
第八步,接收针对上述第二实时全景视频的视频识别结果。
在一些实施例的一些可选的实现方式中,上述第二实时全景视频的视频识别结果可以是通过以下步骤生成的:
第一步,接收上述第二实时全景视频和观看信息。其中,上述观看信息可以是以下之一:表征观看至少一个可扫描码的信息,表征观看目标人员信息的信息,表征观看机械设备的信息。上述目标人员信息可以表征目标人员的信息。上述目标人员可以是待检测的人员。例如,上述可扫描码可以是二维码,还可以是条形码。例如,上述机械设备可以是施工升降机,还可以是推土机。例如,上述目标人员可以是施工人员。
第二步,响应于确定上述观看信息为表征观看可扫描码的信息,且可扫描码集存在上述第二实时全景视频中、且虚拟现实可佩戴设备的当前可观看视场角对应的画面中不存在上述可扫描码集,根据上述当前可观看视场角对应的画面、上述可扫描码集和上述可扫描码集对应的可扫描码实际位置集,生成针对上述虚拟现实可佩戴设备的第一设备扭转信息集。其中,上述第一设备扭转信息集中的第一设备扭转信息和上述可扫描码集中的可扫描码存在一一对应关系。第一设备扭转信息可以是上述虚拟现实可佩戴设备的相关人员观看到可扫描码所需要的设备扭转角度。
实践中,在上述当前可观看视场角对应的画面中的中心位置坐标的某个方向可以是与可扫描码对应的实际位置,确定为第一设备扭转信息。例如,与可扫描码相对应第一设备扭转信息可以是向左转20度可以看到可扫描码。
第三步,将上述第一设备扭转信息集发送至上述虚拟现实可佩戴设备,以提示上述虚拟现实可佩戴设备的相关人员查看上述可扫描码集。上述虚拟现实可佩戴设备的相关人员可以是佩戴虚拟现实可佩戴设备和语音交互的人员。
第四步,响应于确定虚拟现实可佩戴设备的相关人员针对第一设备扭转信息完成设备扭转、且上述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个可扫描码、且上述至少一个可扫描码的可扫描码的数量小于等于预设数量,将上述至少一个可扫描码的每个可扫描码的图像输入至可扫描码信息识别模型,以生成识别结果集,作为视频识别结果。其中,上述第一设备扭转信息为上述第一设备扭转信息集中的设备扭转信息。例如,上述预设数量可以是10。上述可扫描码信息识别模型可以是识别可扫描码中内容的识别模型。上述视频识别结果可以是上述至少一个可扫描码中的各个可扫描码的内容。
作为示例,上述可扫描码信息识别模型可以包括但不限于以下之一:FCN(FullyConvolutional Networks,全卷积神经网络)模型,ResNet(Residual Network,残差神经网络)模型,GoogLeNet(深度神经网络)模型。
第五步,响应于确定虚拟现实可佩戴设备的相关人员针对第一设备扭转信息完成设备扭转、且上述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个可扫描码、且上述至少一个可扫描码的可扫描码的数量大于上述预设数量,从上述至少一个可扫描码的可扫描码中筛选出上述预设数量的可扫描码,得到可扫描码组。其中,从至少一个可扫描码中任意选取出上述预设数量的可扫描码,作为可扫描码组。
第六步,将上述可扫描码组中的每个可扫描码的图像输入至上述可扫描码信息识别模型,以生成第一子识别结果,以及将上述至少一个可扫描码中剩余的可扫描码的图像发送至安检客户端,以供安检客户端的相关人员对至少一个可扫描码中剩余的可扫描码的图像进行识别,以生成第二子识别结果。其中,上述第一子识别结果可以是上述可扫描码组中的各个可扫描码的内容。上述安检客户端的相关人员利用可以扫描出可扫描码的内容的设备,对上述至少一个可扫描码中剩余的可扫描码的图像进行扫描,以生成上述至少一个可扫描码中剩余的可扫描码的内容。例如,上述设备可以是手机。
第七步,将上述第一子识别结果和上述第二子识别结果的融合识别结果确定为视频识别结果。其中,上述融合识别结果可以是上述第一子识别结果和上述第二子识别结果进行合并后的结果。
可选的,上述执行主体在将上述第一子识别结果和上述第二子识别结果的融合识别结果确定为视频识别结果之后,还可以执行以下步骤:
第一步,响应于确定上述观看信息为表征观看目标人员的信息,且目标人员信息集存在上述第二实时全景视频中、且虚拟现实可佩戴设备的当前可观看视场角对应的画面中不存在上述目标人员信息集,根据上述当前可观看视场角、上述目标人员信息集和上述目标人员信息集对应的目标人员信息实际位置集,生成针对上述虚拟现实可佩戴设备的第二设备扭转信息集。其中,上述第二设备扭转信息集中的第二设备扭转信息和上述目标人员信息集中的目标人员信息存在一一对应关系。第二设备扭转信息可以是上述虚拟现实可佩戴设备的相关人员观看到目标人员信息所需要的设备扭转角度。
实践中,与目标人员信息对应的实际位置在上述当前可观看视场角对应的画面中的中心位置坐标的方向,确定为第二设备扭转信息。例如,与目标人员信息相对应第二设备扭转信息可以是向左转20度可以看到目标人员信息。
第二步,将上述第二设备扭转信息集发送至上述虚拟现实可佩戴设备,以提示上述虚拟现实可佩戴设备的相关人员查看上述目标人员信息集。
第三步,响应于确定虚拟现实可佩戴设备的相关人员针对第二设备扭转信息完成设备扭转、且上述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个目标人员信息、且上述至少一个目标人员信息的目标人员信息的数量小于等于上述预设数量,对于上述至少一个目标人员信息中的每个目标人员信息的图像,执行以下视频结果生成步骤:
第一子步骤,将上述图像输入至目标人员信息识别模型包括的安全帽佩戴检测子模型、工服穿着检测子模型、人员闯入检测子模型、口罩佩戴检测子模型、人员跌倒检测子模型和人员吸烟检测子模型,以输出安全帽佩戴信息、工服穿着信息、口罩佩戴信息、人员跌倒信息和人员吸烟信息。其中,上述目标人员信息识别模型可以是多网络模型。上述目标人员信息识别模型可以是识别目标人员信息的模型。上述目标人员信息识别模型可以包括但不限于:安全帽佩戴检测子模型,工服穿着检测子模型,人员闯入检测子模型,口罩佩戴检测子模型,人员跌倒检测子模型,人员吸烟检测子模。上述安全帽佩戴检测子模型可以是检测上述目标人员是否安全帽佩戴的模型。上述工服穿着检测子模型可以是检测上述目标人员是否穿戴的模型。上述人员闯入检测子模型可以是检测上述目标人员是否进入禁止进入区域的模型。上述口罩佩戴检测子模型可以是检测上述目标人员是否佩戴口罩的模型。上述人员跌倒检测子模型可以是检测上述目标人员是否跌倒的模型。上述人员吸烟检测子模可以是检测上述目标人员是否吸烟的模型。
作为示例,上述多网络模型可以包括但不限于以下至少一项:FCN(FullyConvolutional Networks,全卷积神经网络)模型,ResNet(Residual Network,残差神经网络)模型,GoogLeNet(深度神经网络)模型。
第二子步骤,根据上述安全帽佩戴信息、上述工服穿着信息、上述口罩佩戴信息、人员闯入信息、上述人员跌倒信息和上述人员吸烟信息,生成针对上述目标人员信息的第一键值对信息。将上述安全帽佩戴信息、上述工服穿着信息、上述口罩佩戴信息、人员闯入信息、上述人员跌倒信息和上述人员吸烟信息确定为与预设键值对的键对应的值。例如,上述目标人员信息的第一键值对信息可以是{目标人员:表征目标人员的信息,安全帽佩戴:佩戴,工服穿着:穿戴,口罩佩戴:佩戴,人员跌倒:否,人员吸烟:否,人员闯入:否}。
第四步,将所得到第一键值对信息集确定为视频识别结果。
第五步,响应于确定虚拟现实可佩戴设备的相关人员针对第二设备扭转信息完成设备扭转、且上述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个目标人员信息、且上述至少一个目标人员信息的目标人员信息的数量大于上述预设数量,从上述至少一个目标人员信息的目标人员信息中筛选出上述预设数量的目标人员信息,得到目标人员信息组。其中,将至少一个目标人员信息中任意选取出上述预设数量的目标人员信息,作为目标人员信息组。
第六步,对于上述目标人员信息组中的每个目标人员信息的图像,执行以下视频结果生成步骤:
第一子步骤,将上述图像输入至上述目标人员信息识别模型包括的安全帽佩戴检测子模型、工服穿着检测子模型、口罩佩戴检测子模型、人员闯入检测子模型、人员跌倒检测子模型和人员吸烟检测子模型,以输出安全帽佩戴信息、工服穿着信息、口罩佩戴信息、人员跌倒信息和人员吸烟信息。
第二子步骤,根据上述安全帽佩戴信息、上述工服穿着信息、上述口罩佩戴信息、人员闯入信息、上述人员跌倒信息和上述人员吸烟信息,生成针对上述目标人员信息的第二键值对信息。将上述安全帽佩戴信息、上述工服穿着信息、上述口罩佩戴信息、人员闯入信息、上述人员跌倒信息和上述人员吸烟信息确定为与预设键值对的键对应的值。例如,上述目标人员信息的第二键值对信息可以是{目标人员:表征目标人员的信息,安全帽佩戴:未佩戴,工服穿着:未穿戴,口罩佩戴:未佩戴,人员跌倒:是,人员吸烟:是,人员闯入:否}。
第七步,将所得到的第二键值对信息集确定为第三子识别结果。
第八步,将上述至少一个目标人员信息中剩余的目标人员信息的图像发送至安检客户端,以供安检客户端的相关人员对至少一个目标人员信息中剩余的目标人员信息的图像进行识别,以生成第四识别结果集,作为第四子识别结果。其中,上述安检客户端的相关人员对上述至少一个目标人员信息中剩余的目标人员信息的图像进行识别,以生成上述至少一个目标人员信息中剩余的目标人员键值对信息集。
第九步,将上述第三子识别结果和上述第四子识别结果的融合识别结果确定为视频识别结果。其中,上述融合识别结果可以是上述第三子识别结果和上述第四子识别结果进行合并后的结果。
可选的,上述执行主体在将上述第三子识别结果和上述第四子识别结果的融合识别结果确定为视频识别结果之后,还可以包括以下步骤:
第一步,响应于确定上述观看信息为表征观看机械设备的信息,且机械设备集存在上述第二实时全景视频中、且虚拟现实可佩戴设备的当前可观看视场角对应的画面中不存在上述机械设备集,根据上述当前可观看视场角对应的画面、上述机械设备集和上述机械设备集对应的机械设备实际位置集,生成针对上述虚拟现实可佩戴设备的第三设备扭转信息集。其中,上述第三设备扭转信息集中的第三设备扭转信息和上述机械设备集中的机械设备存在一一对应关系。第三设备扭转信息可以是上述虚拟现实可佩戴设备的相关人员观看到机械设备所需要的设备扭转角度。
实践中,与机械设备对应的实际位置在上述当前可观看视场角对应的画面中的中心位置坐标的方向,确定为第三设备扭转信息。例如,与机械设备相对应第三设备扭转信息可以是向左转10度可以看到机械设备。
第二步,将上述第三设备扭转信息集发送至上述虚拟现实可佩戴设备,以提示上述虚拟现实可佩戴设备的相关人员查看上述机械设备集。
第三步,响应于确定虚拟现实可佩戴设备的相关人员针对第三设备扭转信息完成设备扭转、且上述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个机械设备、且上述至少一个机械设备的机械设备的数量小于等于预设数量,将上述至少一个机械设备的每个机械设备的图像输入至可机械设备信息识别模型,以生成识别结果集,作为视频识别结果。其中,上述机械设备信息识别模型可以表征识别机械设备是否异常的信息的识别模型。上述视频识别结果可以是上述至少一个机械设备中的各个机械设备的信息。例如,上述预设数量可以是10。机械设备的信息可以表征机械设备可以是否为异常状态的信息。上述异常状态可以是机械设备无法工作的状态。
实践中,机械设备信息识别模型可以是通过以下步骤训练得到的:
第一子步骤,获取训练样本。其中,上述训练样本包括:训练数据和训练标签。上述训练数据可以是机械设备的图像。上述训练标签可以是机械设备是否为异常的信息。
第二子步骤,通过所获取的训练样本,可以执行以下确定步骤:
第一步,将上述训练样本包括的训练数据输入至初始机械设备信息识别模型包括的第一卷积层,得到第一训练特征向量。其中,上述初始机械设备信息识别模型还包括:第二卷积层、损失层、梯度层和全连接层。
第二步,将上述第一训练特征向量输入至上述第二卷积层,得到第二训练特征向量。
第三步,将上述第二训练特征向量输入至上述损失层,得到第一损失向量。其中,损失层可以用于计算特征向量的损失向量。
第四步,将上述第二训练特征向量和第一上述损失向量输入至上述梯度层,得到模型参数。其中,梯度层可以用于对损失值求导以得到小的损失向量。
第五步,利用上述模型参数,对初始识机器设备信息识别模型进行调整。
第六步,将上述第二训练特征向量输入至上述第一卷积层,得到第三训练特征向量。
第七步,将上述第三训练特征向量输入至上述第二卷积层,得到第四训练特征向量。
第六步,将上述第四训练特征向量输入至上述全连接层,得到机械设备是否异常的信息。
第七步,响应于确定上述方位角和上述训练标签的误差小于预设误差值,初始机械设备信息识别模型训练完成,将初始机械设备信息识别模型确定为机械设备信息识别模型。例如,上述预设误差值可以是0.4。
第三子步骤,响应于确定上述方位角和上述训练样本包括的训练标签的误差大于等于上述预设误差值,初始机械设备信息识别模型训练未完成,调整初始机械设备信息识别模型中的参数,将调整参数后的初始机械设备信息识别模型作为初始机械设备信息识别模型,以及重新获取训练样本以再次执行确定步骤。
第四步,响应于确定虚拟现实可佩戴设备的相关人员针对第一设备扭转信息完成设备扭转、且上述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个机械设备、且上述至少一个机械设备的机械设备的数量大于上述预设数量,从上述至少一个机械设备的机械设备中筛选出上述预设数量的机械设备,得到机械设备组。其中,将至少一个机械设备中任意选取出上述预设数量的机械设备,作为机械设备组。
第五步,将上述机械设备组中的每个机械设备的图像输入至上述机械设备信息识别模型,以生成第五子识别结果,以及将上述至少一个机械设备中剩余的机械设备的图像发送至安检客户端,以供安检客户端的相关人员对至少一个机械设备中剩余的机械设备的图像进行识别,以生成第六子识别结果。其中,上述第五子识别结果可以是上述机械设备组中的各个机械设备的信息。上述安检客户端的相关人员对上述至少一个机械设备中剩余的机械设备的图像进行识别,以生成上述至少一个机械设备中剩余的机械设备的信息。
第六步,将上述第五子识别结果和上述第六子识别结果的融合识别结果确定为视频识别结果。其中,上述融合识别结果可以是上述第五子识别结果和上述第六子识别结果进行合并后的结果。
上述相关内容作为本公开的实施例的一个发明点,解决了背景技术提及的技术问题二“摄像设备拍摄的现场视频需要相关检查负责人进行识别,得到现场视频的视频识别结果。导致相关检查负责人这种识别方法的实用性不高”。导致实用性不高的因素往往如下:摄像设备拍摄的现场视频需要相关检查负责人进行识别,得到现场视频的视频识别结果。导致相关检查负责人这种识别方法的实用性不高。如果解决了上述因素,就能达到危险值的准确率高的效果。为了达到这一效果,首先,响应于确定上述观看信息为表征观看机械设备的信息,且机械设备集存在上述第二实时全景视频中、且虚拟现实可佩戴设备的当前可观看视场角对应的画面中不存在上述机械设备集,根据上述当前可观看视场角对应的画面、上述机械设备集和上述机械设备集对应的机械设备实际位置集,生成针对上述虚拟现实可佩戴设备的第三设备扭转信息集。其中,上述第三设备扭转信息集中的第三设备扭转信息和上述机械设备集中的机械设备存在一一对应关系。第三设备扭转信息可以是上述虚拟现实可佩戴设备的相关人员观看到机械设备所需要的设备扭转角度。将上述当前可观看视场角对应的画面中显示出上述机械设备集中的机械设备、和机械设备对应的实际位置的信息,确定为第三设备扭转信息。例如,上述第三设备扭转信息可以是机械设备在向右40度的位置。其次,将上述第三设备扭转信息集发送至上述虚拟现实可佩戴设备,以提示上述虚拟现实可佩戴设备的相关人员查看上述机械设备集。然后,响应于确定虚拟现实可佩戴设备的相关人员针对第三设备扭转信息完成设备扭转、且上述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个机械设备、且上述至少一个机械设备的机械设备的数量小于等于预设数量,将上述至少一个机械设备的每个机械设备的图像输入至可机械设备信息识别模型,以生成识别结果集,作为视频识别结果。其中,上述机械设备信息识别模型可以表征识别机械设备是否异常的信息的识别模型。上述视频识别结果可以是上述至少一个机械设备中的各个机械设备的信息。例如,上述预设数量可以是10。上述机械设备的信息可以表征机械设备是否为异常状态的信息。上述异常状态可以是机械设备无法工作的状态。实践中,机械设备信息识别模型可以是通过以下步骤训练得到的:首先,获取训练样本。其中,上述训练样本包括:训练数据和训练标签。上述训练数据可以是机械设备的图像。上述训练标签可以是机械设备是否为异常的信息。其次,通过所获取的训练样本,可以执行以下确定步骤:第一,将上述训练样本包括的训练数据输入至初始机械设备信息识别模型包括的第一卷积层,得到第一训练特征向量。其中,上述初始机械设备信息识别模型还包括:第二卷积层、损失层、梯度层和全连接层。第二,将上述第一训练特征向量输入至上述第二卷积层,得到第二训练特征向量。第三,将上述第二训练特征向量输入至上述损失层,得到第一损失向量。第四,将上述第二训练特征向量和第一上述损失向量输入至上述梯度层,得到模型参数。第五,利用上述模型参数,对初始识机器设备信息识别模型进行调整。第六,将上述第二训练特征向量输入至上述第一卷积层,得到第三训练特征向量。第七,将上述第三训练特征向量输入至上述第二卷积层,得到第四训练特征向量。第六,将上述第四训练特征向量输入至上述全连接层,得到机械设备是否异常的信息。第七,响应于确定上述方位角和上述训练标签的误差小于预设误差值,初始机械设备信息识别模型训练完成,将初始机械设备信息识别模型确定为机械设备信息识别模型。例如,上述预设误差值可以是0.4。最后,响应于确定上述方位角和上述训练样本包括的训练标签的误差大于等于上述预设误差值,初始机械设备信息识别模型训练未完成,调整初始机械设备信息识别模型中的参数,将调整参数后的初始机械设备信息识别模型作为初始机械设备信息识别模型,以及重新获取训练样本以再次执行确定步骤。其中,通过对机械设备的图像的多次提取,训练完成的机械设备信息识别模型可以更好的识别机械设备,以得到机械设备是否异常的信息。当上述至少一个机械设备的数量小于等于上述预设数量时,将上述至少一个机械设备的每个机械设备的图像输入至可机械设备信息识别模型。通过机械设备信息识别模型对摄像设备拍摄的现场视频进行识别,可以避免相关检查负责人来对摄像设备拍摄的现场视频进行实时的识别,使用机械设备信息识别模型来对摄像设备拍摄的现场视频进行识别的实用性高。接着,响应于确定虚拟现实可佩戴设备的相关人员针对第一设备扭转信息完成设备扭转、且上述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个机械设备、且上述至少一个机械设备的机械设备的数量大于上述预设数量,从上述至少一个机械设备的机械设备中筛选出上述预设数量的机械设备,得到机械设备组。其中,将至少一个机械设备中任意选取出上述预设数量的机械设备,作为机械设备组。再接着,将上述机械设备组中的每个机械设备的图像输入至上述机械设备信息识别模型,以生成第五子识别结果,以及将上述至少一个机械设备中剩余的机械设备的图像发送至安检客户端,以供安检客户端的相关人员对至少一个机械设备中剩余的机械设备的图像进行识别,以生成第六子识别结果。其中,上述第五子识别结果可以是上述机械设备组中的各个机械设备的信息。上述安检客户端的相关人员对上述至少一个机械设备中剩余的机械设备的图像进行识别,以生成上述至少一个机械设备中剩余的机械设备的信息。最后,将上述第五子识别结果和上述第流子识别结果的融合识别结果确定为视频识别结果。其中,上述融合识别结果可以是上述第五子识别结果和上述第六子识别结果进行合并后的结果。当上述至少一个机械设备的数量大于上述预设数量时,从上述至少一个机械设备的机械设备中筛选出上述预设数量的机械设备的图像输入至可机械设备信息识别模型,得到第五子识别效果。的相关人员对上述至少一个机械设备中剩余的机械设备的图像发送至上述安检客户端,以供上述案件客户端对上述至少一个机械设备中剩余的机械设备的图像进行识别,得到第6子识别结果。将上述第五子识别结果和上述第六子识别结果的融合识别结果确定为视频识别结果。通过机械设备信息识别模型识别一部分,以及上述案件客户端的相关人员识别一部分,将这两部分的融合识别结果作为视频识别结果。这种识别方法实用性高。
步骤107,根据视频识别结果、摄像机角度调整语音和回复语音,生成针对虚拟现实可佩戴设备和安检客户端的交互记录。
在一些实施例中,上述执行主体可以根据上述视频识别结果、上述摄像机角度调整语音和上述回复语音,生成针对上述虚拟现实可佩戴设备和安检客户端的交互记录。实践中,上述执行主体可以将上述全景摄像机拍摄的全景视频的拍摄记录信息、上述视频识别结果的视频识别记录信息、上述摄像机角度调整语音的摄像机调整语音记录信息和上述回复语音的回复语音记录信息,确定为交互记录。例如,上述拍摄记录信息可以是2022年8月12日13点45分拍摄安全检查区域。例如,上述视频识别记录信息可以是2022年8月12日13点48分所拍摄的安全检查区域的识别结果。例如,上述摄像机调整语音记录信息可以是2022年8月12日13点46分摄像机角度调整语音。例如,上述回复语音记录信息可以是2022年8月12日13点47分回复语音。
步骤108,将视频识别结果、摄像机角度调整语音、回复语音和交互记录发送至交互信息展示客户端。
在一些实施例中,上述执行主体可以将上述视频识别结果、上述摄像机角度调整语音、上述回复语音和交互记录发送至交互信息展示客户端。其中,上述交互信息展示客户端可以是查看交互记录或者历史全景视频的客户端。
可选的,上述执行主体在步骤108之后,还可以执行以下步骤:
第一步,接收上述交互信息展示客户端发送的查看操作信息。其中,上述查看操作信息可以表征查看针对目标时间段的全景视频的信息。例如,上述目标时间段可以是2022年8月12日13点45分至2022年8月12日13点47分的时间段。
第二步,控制存储服务器,以供上述存储服务器将上述查看操作信息对应的实时全景视频发送至上述交互信息展示客户端。
在一些实施例的一些可选的实现方式中,上述执行主体将上述视频识别结果、上述摄像机角度调整语音、上述回复语音和交互记录发送至交互信息展示客户端,还可以包括以下步骤:
第一步,创建虚拟会议室。其中,上述虚拟会议室可以是表征虚拟现实可佩戴设备和安检客户端进行语音交互的会议室。
第二步,响应于确定上述虚拟现实可佩戴设备连接到上述虚拟会议室且上述安检客户端连接到上述虚拟会议室,上述虚拟现实可佩戴设备和上述安检客户端在上述虚拟会议室进行语音交互。
第三步,控制上述虚拟会议室,将上述全景摄像机拍摄的全景视频显示出来,以供上述虚拟现实可佩戴设备查看。
第四步,响应于确定上述虚拟现实可佩戴设备发送摄像机角度调整语音,控制上述虚拟会议室,以接收上述虚拟现实可佩戴设备发送的摄像机角度调整语音。
第五步,控制上述虚拟会议室,以将接收的上述虚拟现实可佩戴设备发送的摄像机角度调整语音发送至上述安检客户端,以供上述安检客户端回复语音。
第六步,响应于确定上述安检客户端发送语音,控制上述虚拟会议室,以接收上述安检客户端发送的语音。
第七步,控制上述虚拟会议室,以将接收到上述安检客户端发送的语音发送至上述虚拟现实可佩戴设备。
第八步,响应于确定上述虚拟现实可佩戴设备和上述安检客户端在上述虚拟会议室交互完成,将交互的过程确定为交互记录。上述交互的过程可以是上述全景摄像机拍摄的全景视频的拍摄记录信息、上述视频识别结果的视频识别记录信息、上述摄像机角度调整语音的摄像机调整语音记录信息和上述回复语音的回复语音记录信息。例如,上述拍摄记录信息可以是2022年8月12日14点45分拍摄安全检查区域。例如,上述视频识别记录信息可以是2022年8月12日14点48分所拍摄的安全检查区域的识别结果。例如,上述摄像机调整语音记录信息可以是2022年8月12日14点46分摄像机角度调整语音。例如,上述回复语音记录信息可以是2022年8月12日14点47分回复语音。
第九步,将上述视频识别结果、上述摄像机角度调整语音、上述回复语音和上述交互记录发送至交互信息展示客户端,以供上述交互信息展示客户端查看。
上述相关内容作为本公开的实施例的一个发明点,解决了背景技术提及的技术问题三“针对相关检查负责人去现场与地方负责人沟通并录音和相关负责人到现场拍摄现场视频,会导致浪费时间和消耗人力”。导致浪费时间和消耗人力的因素往往如下:针对相关检查负责人去现场与地方负责人沟通并录音和相关负责人到现场才可以拍摄现场视频,会导致浪费时间和消耗人力如果解决了上述因素,就能达到危险值的准确率高的效果。为了达到这一效果,第一,创建虚拟会议室。其中,上述虚拟会议室可以是表征虚拟现实可佩戴设备和安检客户端进行语音交互的会议室。第二,响应于确定上述虚拟现实可佩戴设备连接到上述虚拟会议室且上述安检客户端连接到上述虚拟会议室,上述虚拟现实可佩戴设备和上述安检客户端在上述虚拟会议室进行语音交互。其中,建立虚拟会议室,随时可以远程查看全景摄像机拍摄的全景视频,可以避免影响现场施工和可以避免浪费时间和降低消耗人力。第三,控制上述虚拟会议室,将上述全景摄像机拍摄的全景视频显示出来,以供上述虚拟现实可佩戴设备查看。第四,响应于确定上述虚拟现实可佩戴设备发送摄像机角度调整语音,控制上述虚拟会议室,以接收上述虚拟现实可佩戴设备发送的摄像机角度调整语音。第五,控制上述虚拟会议室,以将接收的上述虚拟现实可佩戴设备发送的摄像机角度调整语音发送至上述安检客户端,以供上述安检客户端回复语音。第六,响应于确定上述安检客户端发送语音,控制上述虚拟会议室,以接收上述安检客户端发送的语音。第七,控制上述虚拟会议室,以将接收到上述安检客户端发送的语音发送至上述虚拟现实可佩戴设备。其中,针对全景摄像机拍摄的全景视频,虚拟现实可佩戴设备发送摄像机角度调整语音,针对虚拟现实可佩戴设备发送摄像机角度调整语音,安检客户端回复语音,语音交互可以避免浪费时间。第八,响应于确定上述虚拟现实可佩戴设备和上述安检客户端在上述虚拟会议室交互完成,将交互的过程确定为交互记录。第九,将上述视频识别结果、上述摄像机角度调整语音、上述回复语音和上述交互记录发送至交互信息展示客户端,以供上述交互信息展示客户端查看。其中,建立虚拟会议室,随时可以远程查看全景摄像机拍摄的全景视频,可以避免影响现场施工和可以避免浪费时间和降低消耗人力。其中,针对全景摄像机拍摄的全景视频,虚拟现实可佩戴设备发送摄像机角度调整语音,针对虚拟现实可佩戴设备发送摄像机角度调整语音,安检客户端回复语音,语音交互可以避免浪费时间,可以降低消耗人力和避免浪费时间。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的交互信息发送方法可以实时接收第二实时视频并识别,可以满足虚拟现实可佩戴设备的相关人员查看全景视频。具体来说,导致发送的交互记录有效性不高的原因在于:由于相关检查负责人不能实时去安全检查区域进行拍摄和识别。基于此,本公开的一些实施例的交互信息发送方法,首先,接收第一实时全景视频;全景摄像机可以实时拍摄全景视频,可以保障全景视频的时效性。其次,响应于确定接收到虚拟现实可佩戴设备的状态为表征虚拟现实可佩戴设备和安检客户端进行语音交互的状态,接收上述虚拟现实可佩戴设备发送的摄像机角度调整语音;其中,上述虚拟现实可佩戴设备和上述安检客户端进行语音交互可以是远程实时进行语音交互。虚拟现实可佩戴设备发送的摄像机角度调整语音可以发送至安检客户端,以供相关人员可以对全景摄像机进行角度调整,上述虚拟现实可佩戴设备的相关人员可以查看想看的全景视频。然后,将上述摄像机角度调整语音发送至安检客户端,以供上述安检客户端相关用户针对摄像机角度调整语音对全景摄像机进行角度调整;其中,将虚拟现实可佩戴设备发送的摄像机角度调整语音发送至安检客户端,以供相关人员可以对全景摄像机进行角度调整,上述虚拟现实可佩戴设备的相关人员可以查看想看的全景视频。接着,接收上述安检客户端发送的、针对上述摄像机角度调整语音的回复语音;再接着,响应于确定上述全景摄像机角度调整完成,接收上述全景摄像机调整角度后所拍摄的第二实时全景视频;从而,接收针对上述第二实时全景视频的视频识别结果;进而,根据上述视频识别结果、上述摄像机角度调整语音和上述回复语音,生成针对上述虚拟现实可佩戴设备和安检客户端的交互记录;最后,将上述视频识别结果、上述摄像机角度调整语音、上述回复语音和交互记录发送至交互信息展示客户端。其中,实时拍摄全景视频,将虚拟现实可佩戴设备发送的摄像机角度调整语音发送至安检客户端,以供相关人员可以对全景摄像机进行角度调整,以及针对摄像机角度调整后进行回复语音,通过实时接收第二实时视频并识别,可以实时实现虚拟现实可佩戴设备的相关人员查看摄像机角度调整后拍摄的全景视频。
进一步参考图2,作为对上述各图所示方法的实现,本公开提供了一种交互信息发送装置的一些实施例,这些装置实施例与图1所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图2所示,一些实施例的交互信息发送装置200包括:第一接收单元201、第二接收单元202、第一发送单元203、第三接收单元204、第四接收单元205、第五接收单元206、生成单元207和第二发送单元208。其中,第一接收单元201,被配置成接收第一实时全景视频;第二接收单元202,被配置成响应于确定接收到虚拟现实可佩戴设备的状态为表征虚拟现实可佩戴设备和安检客户端进行语音交互的状态,接收上述虚拟现实可佩戴设备发送的摄像机角度调整语音;第一发送单元203,被配置成将上述摄像机角度调整语音发送至安检客户端,以供上述安检客户端相关用户针对摄像机角度调整语音对全景摄像机进行角度调整;第三接收单元204,被配置成接收上述安检客户端发送的、针对上述摄像机角度调整语音的回复语音;第四接收单元205,被配置成响应于确定上述全景摄像机角度调整完成,接收上述全景摄像机调整角度后所拍摄的第二实时全景视频;第五接收单元206,被配置成接收针对上述第二实时全景视频的视频识别结果;生成单元207,被配置成根据上述视频识别结果、上述摄像机角度调整语音和上述回复语音,生成针对上述虚拟现实可佩戴设备和安检客户端的交互记录;第二发送单元208,被配置成将上述视频识别结果、上述摄像机角度调整语音、上述回复语音和交互记录发送至交互信息展示客户端。
可以理解的是,交互信息发送装置200中记载的诸单元与参考图1描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置200及其中包含的单元,在此不再赘述。
下面参考图3,其示出了适于用来实现本公开的一些实施例的电子设备300的结构示意图。图3示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图3所示,电子设备300可以包括处理装置(例如中央处理器、图形处理器等)301,其可以根据存储在只读存储器(ROM)302中的程序或者从存储装置308加载到随机访问存储器(RAM)303中的程序而执行各种适当的动作和处理。在RAM 303中,还存储有电子设备300操作所需的各种程序和数据。处理装置301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
通常,以下装置可以连接至I/O接口305:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置306;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置307;包括例如磁带、硬盘等的存储装置308;以及通信装置309。通信装置309可以允许电子设备300与其他设备进行无线或有线通信以交换数据。虽然图3示出了具有各种装置的电子设备300,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图3中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置309从网络上被下载和安装,或者从存储装置308被安装,或者从ROM 302被安装。在该计算机程序被处理装置301执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(Hyper Text TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述装置中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收第一实时全景视频;响应于确定接收到虚拟现实可佩戴设备的状态为表征虚拟现实可佩戴设备和安检客户端进行语音交互的状态,接收上述虚拟现实可佩戴设备发送的摄像机角度调整语音;将上述摄像机角度调整语音发送至安检客户端,以供上述安检客户端相关用户针对摄像机角度调整语音对全景摄像机进行角度调整;接收上述安检客户端发送的、针对上述摄像机角度调整语音的回复语音;响应于确定上述全景摄像机角度调整完成,接收上述全景摄像机调整角度后所拍摄的第二实时全景视频;接收针对上述第二实时全景视频的视频识别结果;根据上述视频识别结果、上述摄像机角度调整语音和上述回复语音,生成针对上述虚拟现实可佩戴设备和安检客户端的交互记录;将上述视频识别结果、上述摄像机角度调整语音、上述回复语音和交互记录发送至交互信息展示客户端。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一接收单元、第二接收单元、第一发送单元、第三接收单元、第四接收单元、第五接收单元、生成单元和第二发送单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一接收单元还可以被描述为“接收第一实时全景视频的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (8)

1.一种交互信息发送方法,包括:
接收第一实时全景视频;
响应于确定接收到虚拟现实可佩戴设备的状态为表征虚拟现实可佩戴设备和安检客户端进行语音交互的状态,接收所述虚拟现实可佩戴设备发送的摄像机角度调整语音;
将所述摄像机角度调整语音发送至安检客户端,以供所述安检客户端相关用户针对摄像机角度调整语音对全景摄像机进行角度调整;
接收所述安检客户端发送的、针对所述摄像机角度调整语音的回复语音;
响应于确定所述全景摄像机角度调整完成,接收所述全景摄像机调整角度后所拍摄的第二实时全景视频;
接收针对所述第二实时全景视频的视频识别结果,其中,所述第二实时全景视频的视频识别结果是通过以下步骤生成的:
接收所述第二实时全景视频和观看信息;
响应于确定所述观看信息为表征观看可扫描码的信息,且可扫描码集存在所述第二实时全景视频中、且虚拟现实可佩戴设备的当前可观看视场角对应的画面中不存在所述可扫描码集,根据所述当前可观看视场角对应的画面、所述可扫描码集和所述可扫描码集对应的可扫描码实际位置集,生成针对所述虚拟现实可佩戴设备的第一设备扭转信息集,其中,所述第一设备扭转信息集中的第一设备扭转信息和所述可扫描码集中的可扫描码存在一一对应关系;
将所述第一设备扭转信息集发送至所述虚拟现实可佩戴设备,以提示所述虚拟现实可佩戴设备的相关人员查看所述可扫描码集;
响应于确定虚拟现实可佩戴设备的相关人员针对第一设备扭转信息完成设备扭转、且所述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个可扫描码、且所述至少一个可扫描码的可扫描码的数量小于等于预设数量,将所述至少一个可扫描码的每个可扫描码的图像输入至可扫描码信息识别模型,以生成识别结果集,作为视频识别结果,其中,所述第一设备扭转信息为所述第一设备扭转信息集中的设备扭转信息;
响应于确定虚拟现实可佩戴设备的相关人员针对第一设备扭转信息完成设备扭转、且所述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个可扫描码、且所述至少一个可扫描码的可扫描码的数量大于所述预设数量,从所述至少一个可扫描码的可扫描码中筛选出所述预设数量的可扫描码,得到可扫描码组;
将所述可扫描码组中的每个可扫描码的图像输入至所述可扫描码信息识别模型,以生成第一子识别结果,以及将所述至少一个可扫描码中剩余的可扫描码的图像发送至安检客户端,以供安检客户端的相关人员对至少一个可扫描码中剩余的可扫描码的图像进行识别,以生成第二子识别结果;
将所述第一子识别结果和所述第二子识别结果的融合识别结果确定为视频识别结果;
响应于确定所述观看信息为表征观看目标人员的信息,且目标人员信息集存在所述第二实时全景视频中、且虚拟现实可佩戴设备的当前可观看视场角对应的画面中不存在所述目标人员信息集,根据所述当前可观看视场角对应的画面、所述目标人员信息集和所述目标人员信息集对应的目标人员信息实际位置集,生成针对所述虚拟现实可佩戴设备的第二设备扭转信息集,其中,所述第二设备扭转信息集中的第二设备扭转信息和所述目标人员信息集中的目标人员信息存在一一对应关系;
将所述第二设备扭转信息集发送至所述虚拟现实可佩戴设备,以提示所述虚拟现实可佩戴设备的相关人员查看所述目标人员信息集;
响应于确定虚拟现实可佩戴设备的相关人员针对第二设备扭转信息完成设备扭转、且所述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个目标人员信息、且所述至少一个目标人员信息的目标人员信息的数量小于等于所述预设数量,对于所述至少一个目标人员信息中的每个目标人员信息的图像,执行以下视频结果生成步骤:
将所述图像输入至目标人员信息识别模型包括的安全帽佩戴检测子模型、工服穿着检测子模型、口罩佩戴检测子模型、人员跌倒检测子模型和人员吸烟检测子模型,以输出安全帽佩戴信息、工服穿着信息、口罩佩戴信息、人员跌倒信息和人员吸烟信息;
根据所述安全帽佩戴信息、所述工服穿着信息、所述口罩佩戴信息、所述人员跌倒信息和所述人员吸烟信息,生成针对所述目标人员信息的第一键值对信息;
将所得到第一键值对信息集确定为视频识别结果;
响应于确定虚拟现实可佩戴设备的相关人员针对第二设备扭转信息完成设备扭转、且所述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个目标人员信息、且所述至少一个目标人员信息的目标人员信息的数量大于所述预设数量,从所述至少一个目标人员信息的目标人员信息中筛选出所述预设数量的目标人员信息,得到目标人员信息组;对于所述目标人员信息组中的每个目标人员信息的图像,执行以下视频结果生成步骤:
将所述图像输入至所述目标人员信息识别模型包括的安全帽佩戴检测子模型、工服穿着检测子模型、口罩佩戴检测子模型、人员跌倒检测子模型和人员吸烟检测子模型,以输出安全帽佩戴信息、工服穿着信息、口罩佩戴信息、人员跌倒信息和人员吸烟信息;
根据所述安全帽佩戴信息、所述工服穿着信息、所述口罩佩戴信息、所述人员跌倒信息和所述人员吸烟信息,生成针对所述目标人员信息的第二键值对信息;
将所得到的第二键值对信息集确定为第三子识别结果;
将所述至少一个目标人员信息中剩余的目标人员信息的图像发送至安检客户端,以供安检客户端的相关人员对至少一个目标人员信息中剩余的目标人员信息的图像进行识别,以生成第四识别结果集,作为第四子识别结果;
将所述第三子识别结果和所述第四子识别结果的融合识别结果确定为视频识别结果;
根据所述视频识别结果、所述摄像机角度调整语音和所述回复语音,生成针对所述虚拟现实可佩戴设备和安检客户端的交互记录;
将所述视频识别结果、所述摄像机角度调整语音、所述回复语音和交互记录发送至交互信息展示客户端。
2.根据权利要求1所述的方法,其中,所述接收第一实时全景视频,包括:
控制全景摄像机,以对受检区域进行实时拍摄,以生成实时全景视频;
控制所述全景摄像机,以将所述实时全景视频发送至网关服务器;
控制所述网关服务器,以对所述实时全景视频进行视频编码,以生成第一编码后实时全景视频;
控制所述网关服务器,以将所述第一编码后实时全景视频发送至流媒体服务器;
控制所述流媒体服务器,以将所述第一编码后实时全景视频作为第一实时全景视频进行发送处理;
接收所述流媒体服务器发送的所述第一实时全景视频。
3.根据权利要求1所述的方法,其中,所述接收针对所述第二实时全景视频的视频识别结果,包括:
控制所述全景摄像机,以对- 受检区域进行实时拍摄,以生成调整角度后所拍摄的实时全景视频;
控制所述全景摄像机,以将所述调整角度后所拍摄的实时全景视频发送至网关服务器;
控制所述网关服务器,以将所述调整角度后所拍摄的实时全景视频进行视频编码,以生成第二编码后实时全景视频;
控制所述网关服务器,以将所述第二编码后实时全景视频发送至流媒体服务器;
控制所述流媒体服务器,以将所述第二编码后实时全景视频作为第二实时全景视频发送至视频识别服务器;
控制所述视频识别服务器,以接收所述第二实时全景视频,供视频识别服务器进行视频识别处理,以生成所述第二实时全景视频的视频识别结果;
控制所述视频识别服务器,以将所述视频识别结果进行发送处理;
接收针对所述第二实时全景视频的视频识别结果。
4.根据权利要求1所述的方法,其中,所述方法还包括:
接收所述交互信息展示客户端发送的查看操作信息;
控制存储服务器,以供所述存储服务器将所述查看操作信息对应的实时全景视频发送至所述交互信息展示客户端。
5.根据权利要求2所述的方法,其中,所述全景摄像机是设置于安全装置上的摄像机,所述安全装置为头部佩戴的装置;所述全景摄像机包括:前方摄像头、后方摄像头、左方摄像头和右方摄像头,其中,所述前方摄像头的实际视场角区域、所述后方摄像头的实际视场角区域、所述左方摄像头的实际视场角区域和右方摄像头的实际视场角区域是通过以下步骤生成的:
确定所述前方摄像头的拍摄方向的视场角对应的区域与所述左方摄像头的拍摄方向的视场角对应的区域之间的重叠区域,作为第一重叠区域;
确定所述前方摄像头的拍摄方向的视场角对应的区域与所述右方摄像头的拍摄方向的视场角对应的区域之间的重叠区域,作为第二重叠区域;
确定所述右方摄像头的拍摄方向的视场角对应的区域与所述后方摄像头的拍摄方向的视场角对应的区域之间的重叠区域,作为第三重叠区域;
确定所述后方摄像头的拍摄方向的视场角对应的区域与所述左方摄像头的拍摄方向的视场角对应的区域之间的重叠区域,作为第四重叠区域;
根据所述第一重叠区域和所述第二重叠区域,确定所述前方摄像头的拍摄方向的视场角对应的第一不重叠区域;
根据所述第二重叠区域和所述第三重叠区域,确定所述前方摄像头的拍摄方向的视场角对应的第二不重叠区域;
根据所述第三重叠区域和所述第四重叠区域,确定所述前方摄像头的拍摄方向的视场角对应的第三不重叠区域;
根据所述第四重叠区域和所述第一重叠区域,确定所述前方摄像头的拍摄方向的视场角对应的第四不重叠区域;
将所述第一重叠区域和所述第一不重叠区域确定为前方摄像头的实际视场角区域;
将所述第二重叠区域和所述第二不重叠区域确定为右方摄像头的实际视场角区域;
将所述第三重叠区域和所述第三不重叠区域确定为后方摄像头的实际视场角区域;
将所述第四重叠区域和所述第四不重叠区域确定为左方摄像头的实际视场角区域。
6.一种交互信息发送装置,包括:
第一接收单元,被配置成接收第一实时全景视频;
第二接收单元,被配置成响应于确定接收到虚拟现实可佩戴设备的状态为表征虚拟现实可佩戴设备和安检客户端进行语音交互的状态,接收所述虚拟现实可佩戴设备发送的摄像机角度调整语音;
第一发送单元,被配置成将所述摄像机角度调整语音发送至安检客户端,以供所述安检客户端相关用户针对摄像机角度调整语音对全景摄像机进行角度调整;
第三接收单元,被配置成接收所述安检客户端发送的、针对所述摄像机角度调整语音的回复语音;
第四接收单元,被配置成响应于确定所述全景摄像机角度调整完成,接收所述全景摄像机调整角度后所拍摄的第二实时全景视频;
第五接收单元,被配置成接收针对所述第二实时全景视频的视频识别结果,其中,所述第二实时全景视频的视频识别结果是通过以下步骤生成的:
接收所述第二实时全景视频和观看信息;
响应于确定所述观看信息为表征观看可扫描码的信息,且可扫描码集存在所述第二实时全景视频中、且虚拟现实可佩戴设备的当前可观看视场角对应的画面中不存在所述可扫描码集,根据所述当前可观看视场角对应的画面、所述可扫描码集和所述可扫描码集对应的可扫描码实际位置集,生成针对所述虚拟现实可佩戴设备的第一设备扭转信息集,其中,所述第一设备扭转信息集中的第一设备扭转信息和所述可扫描码集中的可扫描码存在一一对应关系;
将所述第一设备扭转信息集发送至所述虚拟现实可佩戴设备,以提示所述虚拟现实可佩戴设备的相关人员查看所述可扫描码集;
响应于确定虚拟现实可佩戴设备的相关人员针对第一设备扭转信息完成设备扭转、且所述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个可扫描码、且所述至少一个可扫描码的可扫描码的数量小于等于预设数量,将所述至少一个可扫描码的每个可扫描码的图像输入至可扫描码信息识别模型,以生成识别结果集,作为视频识别结果,其中,所述第一设备扭转信息为所述第一设备扭转信息集中的设备扭转信息;
响应于确定虚拟现实可佩戴设备的相关人员针对第一设备扭转信息完成设备扭转、且所述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个可扫描码、且所述至少一个可扫描码的可扫描码的数量大于所述预设数量,从所述至少一个可扫描码的可扫描码中筛选出所述预设数量的可扫描码,得到可扫描码组;
将所述可扫描码组中的每个可扫描码的图像输入至所述可扫描码信息识别模型,以生成第一子识别结果,以及将所述至少一个可扫描码中剩余的可扫描码的图像发送至安检客户端,以供安检客户端的相关人员对至少一个可扫描码中剩余的可扫描码的图像进行识别,以生成第二子识别结果;
将所述第一子识别结果和所述第二子识别结果的融合识别结果确定为视频识别结果;
响应于确定所述观看信息为表征观看目标人员的信息,且目标人员信息集存在所述第二实时全景视频中、且虚拟现实可佩戴设备的当前可观看视场角对应的画面中不存在所述目标人员信息集,根据所述当前可观看视场角对应的画面、所述目标人员信息集和所述目标人员信息集对应的目标人员信息实际位置集,生成针对所述虚拟现实可佩戴设备的第二设备扭转信息集,其中,所述第二设备扭转信息集中的第二设备扭转信息和所述目标人员信息集中的目标人员信息存在一一对应关系;
将所述第二设备扭转信息集发送至所述虚拟现实可佩戴设备,以提示所述虚拟现实可佩戴设备的相关人员查看所述目标人员信息集;
响应于确定虚拟现实可佩戴设备的相关人员针对第二设备扭转信息完成设备扭转、且所述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个目标人员信息、且所述至少一个目标人员信息的目标人员信息的数量小于等于所述预设数量,对于所述至少一个目标人员信息中的每个目标人员信息的图像,执行以下视频结果生成步骤:
将所述图像输入至目标人员信息识别模型包括的安全帽佩戴检测子模型、工服穿着检测子模型、口罩佩戴检测子模型、人员跌倒检测子模型和人员吸烟检测子模型,以输出安全帽佩戴信息、工服穿着信息、口罩佩戴信息、人员跌倒信息和人员吸烟信息;
根据所述安全帽佩戴信息、所述工服穿着信息、所述口罩佩戴信息、所述人员跌倒信息和所述人员吸烟信息,生成针对所述目标人员信息的第一键值对信息;
将所得到第一键值对信息集确定为视频识别结果;
响应于确定虚拟现实可佩戴设备的相关人员针对第二设备扭转信息完成设备扭转、且所述虚拟现实可佩戴设备的扭转后可观看视场角对应的画面中存在至少一个目标人员信息、且所述至少一个目标人员信息的目标人员信息的数量大于所述预设数量,从所述至少一个目标人员信息的目标人员信息中筛选出所述预设数量的目标人员信息,得到目标人员信息组;对于所述目标人员信息组中的每个目标人员信息的图像,执行以下视频结果生成步骤:
将所述图像输入至所述目标人员信息识别模型包括的安全帽佩戴检测子模型、工服穿着检测子模型、口罩佩戴检测子模型、人员跌倒检测子模型和人员吸烟检测子模型,以输出安全帽佩戴信息、工服穿着信息、口罩佩戴信息、人员跌倒信息和人员吸烟信息;
根据所述安全帽佩戴信息、所述工服穿着信息、所述口罩佩戴信息、所述人员跌倒信息和所述人员吸烟信息,生成针对所述目标人员信息的第二键值对信息;
将所得到的第二键值对信息集确定为第三子识别结果;
将所述至少一个目标人员信息中剩余的目标人员信息的图像发送至安检客户端,以供安检客户端的相关人员对至少一个目标人员信息中剩余的目标人员信息的图像进行识别,以生成第四识别结果集,作为第四子识别结果;
将所述第三子识别结果和所述第四子识别结果的融合识别结果确定为视频识别结果;
生成单元,被配置成根据所述视频识别结果、所述摄像机角度调整语音和所述回复语音,生成针对所述虚拟现实可佩戴设备和安检客户端的交互记录;
第二发送单元,被配置成将所述视频识别结果、所述摄像机角度调整语音、所述回复语音和交互记录发送至交互信息展示客户端。
7.一种服务器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
8.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-5中任一所述的方法。
CN202211322240.4A 2022-10-27 2022-10-27 交互信息发送方法、装置、服务器和介质 Active CN115379125B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211322240.4A CN115379125B (zh) 2022-10-27 2022-10-27 交互信息发送方法、装置、服务器和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211322240.4A CN115379125B (zh) 2022-10-27 2022-10-27 交互信息发送方法、装置、服务器和介质

Publications (2)

Publication Number Publication Date
CN115379125A CN115379125A (zh) 2022-11-22
CN115379125B true CN115379125B (zh) 2023-01-17

Family

ID=84073194

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211322240.4A Active CN115379125B (zh) 2022-10-27 2022-10-27 交互信息发送方法、装置、服务器和介质

Country Status (1)

Country Link
CN (1) CN115379125B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116193094B (zh) * 2022-12-23 2024-04-16 天翼阅读文化传播有限公司 基于vr设备的实景旅游风景互动展示系统及方法
CN116258811B (zh) * 2023-05-08 2023-07-25 北京德风新征程科技股份有限公司 信息发送方法、装置、电子设备和计算机可读介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170121905A (ko) * 2016-04-26 2017-11-03 주식회사 지에스아이엘 가상현실 장치 및 360도 카메라와 가상현실 장치를 이용한 원격 관제 시스템
WO2022007545A1 (zh) * 2020-07-06 2022-01-13 聚好看科技股份有限公司 一种视频集锦的生成方法及显示设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040189801A1 (en) * 2003-03-28 2004-09-30 Chao-Hung Chang Active video surveillance system and active video surveillance method therefore
TW202133118A (zh) * 2020-02-21 2021-09-01 四葉草娛樂有限公司 實境模擬全景系統及其方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170121905A (ko) * 2016-04-26 2017-11-03 주식회사 지에스아이엘 가상현실 장치 및 360도 카메라와 가상현실 장치를 이용한 원격 관제 시스템
WO2022007545A1 (zh) * 2020-07-06 2022-01-13 聚好看科技股份有限公司 一种视频集锦的生成方法及显示设备

Also Published As

Publication number Publication date
CN115379125A (zh) 2022-11-22

Similar Documents

Publication Publication Date Title
CN115379125B (zh) 交互信息发送方法、装置、服务器和介质
CN109902659B (zh) 用于处理人体图像的方法和装置
TWI765304B (zh) 圖像重建方法及圖像重建裝置、電子設備和電腦可讀儲存媒體
US10699431B2 (en) Method and apparatus for generating image generative model
CN110225400B (zh) 一种动作捕捉方法、装置、移动终端及存储介质
CN114092678A (zh) 图像处理方法、装置、电子设备及存储介质
CN113467603A (zh) 音频处理方法、装置、可读介质及电子设备
CN111107278B (zh) 图像处理方法、装置、电子设备及可读存储介质
CN108470131B (zh) 用于生成提示信息的方法和装置
CN112218034A (zh) 视频处理方法、系统、终端和存储介质
CN111967397A (zh) 人脸影像处理方法和装置、存储介质和电子设备
CN112995491B (zh) 视频生成方法、装置、电子设备及计算机存储介质
CN111104827A (zh) 图像处理方法、装置、电子设备及可读存储介质
CN109816791B (zh) 用于生成信息的方法和装置
CN115272151A (zh) 图像处理方法、装置、设备及存储介质
CN115760553A (zh) 特效处理方法、装置、设备及存储介质
CN115757933A (zh) 推荐信息生成方法、装置、设备、介质和程序产品
CN110807728B (zh) 对象的显示方法、装置、电子设备及计算机可读存储介质
CN111314627B (zh) 用于处理视频帧的方法和装置
CN114666622A (zh) 特效视频确定方法、装置、电子设备及存储介质
CN112561809A (zh) 图像处理方法、装置及设备
CN111586295A (zh) 图像生成方法、装置和电子设备
CN116258811B (zh) 信息发送方法、装置、电子设备和计算机可读介质
CN111898529A (zh) 脸部检测方法、装置、电子设备和计算机可读介质
CN110717467A (zh) 头部姿势的估计方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: No.3-8-132, 1st floor, building 3, Fuqian street, Huairou District, Beijing

Patentee after: Beijing Defeng Xinzheng Technology Co.,Ltd.

Address before: No.3-8-132, 1st floor, building 3, Fuqian street, Huairou District, Beijing

Patentee before: Beijing Defeng new journey Technology Co.,Ltd.

CP01 Change in the name or title of a patent holder