CN111079506A - 基于增强现实的信息采集方法、装置和计算机设备 - Google Patents
基于增强现实的信息采集方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN111079506A CN111079506A CN201910964688.8A CN201910964688A CN111079506A CN 111079506 A CN111079506 A CN 111079506A CN 201910964688 A CN201910964688 A CN 201910964688A CN 111079506 A CN111079506 A CN 111079506A
- Authority
- CN
- China
- Prior art keywords
- picture
- augmented reality
- preset
- positions
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 120
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000005516 engineering process Methods 0.000 claims abstract description 46
- 238000012795 verification Methods 0.000 claims description 49
- 230000007547 defect Effects 0.000 claims description 43
- 206010039203 Road traffic accident Diseases 0.000 claims description 38
- 238000000926 separation method Methods 0.000 claims description 30
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 206010042772 syncope Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请揭示了一种基于增强现实的信息采集方法、装置、计算机设备和存储介质,所述方法包括:利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;将所述初始图片输入车辆数量识别模型中,从而获取车辆数量值;若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并获取所述当前影像中的事故车辆的指定特征位置;获取多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案;获取取证图片;若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。从而保证能够获取充分且准确的取证图片。
Description
技术领域
本申请涉及到计算机领域,特别是涉及到一种基于增强现实的信息采集方法、装置、计算机设备和存储介质。
背景技术
在交通事故责任认定技术领域,需要对交通事故现场进行拍照取证。若由交警人员对交通事故现场进行拍照取证,由于交警人员无法第一时间赶到现场,因此存在取证延迟等缺点。为了及时获取取证照片,相关人员(例如事故波及人员、伤者等)若能先行拍照取证,就能得到第一时间的取证照片。但是由于相关人员并非专业人员,并不清楚应如何进行拍照取证。因此现有技术的取证图片或者存在取证时间延迟的缺陷(例如由交警人员取证的照片),或者存在取证图片不充分、不准确的缺陷(例如由相关人员拍照取证的照片)。
发明内容
本申请的主要目的为提供一种基于增强现实的信息采集方法、装置、计算机设备和存储介质,旨在获取充分且准确的取证图片。
为了实现上述发明目的,本申请提出一种基于增强现实的信息采集方法,应用于增强现实终端,所述增强现实终端包括第一摄像头和第二摄像头,其中所述第一摄像头的分辨率高于所述第二摄像头,包括:
利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;
将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值,其中所述车辆数量识别模型利用样本数据训练而成,所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成;
判断所述车辆数量值是否大于预设的车辆数量阈值;
若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置;
根据预设的特征位置与提示位置的相对位置关系,获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向;
获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片,并判断在所有的提示位置上是否均进行了拍照;
若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。
进一步地,所述将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值,其中所述车辆数量识别模型利用样本数据训练而成,所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成的步骤之前,包括:
获取预先收集的样本数据,并将所述样本数据划分为样本集L1、L2、...、Ln和验证集,其中所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成,样本集L1、L2、...、Ln分别指由车辆数量为1、车辆数量为2、...、车辆数量为n的交通事故现场图片所构成,n为大于1的整数,所述验证集由随机选出的样本数据构成;
从所述样本集L1、L2、...、Ln中分别提取相同数量的数据,并输入预设的神经网络模型中进行训练,从而得到暂时模型;
采用所述验证集对所述暂时模型进行验证,从而得到验证结果,并判断所述验证结果是否为通过;
若所述验证结果为通过,则将所述暂时模型标记为所述车辆数量识别模型。
进一步地,所述事故车辆有多辆,所述采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置的步骤,包括:
采用预设的KNN聚类算法,从所述当前影像中获取多个像素点聚类,其中所述像素点聚类与所述事故车辆一一对应;
根据聚类中心与像素点之间的总距离最短的原则,分别计算出所述多个像素点聚类的聚类中心;
根据预设的缺损部位识别方法,识别出所述事故车辆中的缺损部位;
将所述聚类中心和所述缺损部位记为所述指定特征位置,并获取所述指定特征位置。
进一步地,所述根据预设的特征位置与提示位置的相对位置关系,获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向的步骤,包括:
生成多条指定射线,其中所述指定射线以同一个像素点聚类中的聚类中心为起点,并经过所述缺损部位;
在每条指定射线上均生成提示位置,从而得到多个提示位置,其中所述提示位置与所述缺损部位的第一距离等于所述聚类中心与所述缺损部位的第二距离;
采用预设的增强现实技术,在所述多个提示位置上分别叠加虚拟的箭头图案,所述箭头图案的指向与所述指定射线的指向相反,从而标明了图像采集方向。
进一步地,所述获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片的步骤,包括:
判断所述增强现实终端的位置是否在所述提示位置上;
若所述增强现实终端的位置在所述提示位置上,则将所述第一摄像头的拍摄参数修改为预设参数,其中所述预设参数至少包括等于所述第一距离的物距;
按所述图像采集方向,对所述事故车辆进行拍照,从而得到取证图片。
进一步地,所述获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片,并判断在所有的提示位置上是否均进行了拍照的步骤之前,包括:
根据总路程最短的原则,在所述当前影像中生成虚拟路径,其中所述虚拟路径由多条依次连接所述提示位置的线段所构成;
提醒所述增强现实终端的使用者沿所述虚拟路径移动;
当所述增强现实终端的使用者到达一个所述提示位置时,删除所述使用者经过的所述线段,并生成拍照指令,所述拍照指令用于指示获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片。
进一步地,所述增强现实终端由终端主体和分离部分构成,所述终端主体和分离部分可分离式连接,当所述终端主体和分离部分处于分离状态时保持通信连接,所述分离部分设置有位置传感器,所述若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器的步骤,包括:
若在所有的提示位置上均进行了拍照,则判断所述终端主体和分离部分是否处于分离状态;
若所述终端主体和分离部分处于分离状态,则利用所述位置传感器获取验证图案,其中所述验证图案指所述增强现实终端的使用者使用所述分离部分划出的图案;
根据预设的相似度判断方法,判断所述验证图案与预存图案是否相似;
若所述验证图案与预存图案相似,则将所述取证图片发送给服务器。
本申请提供一种基于增强现实的信息采集装置,应用于增强现实终端,所述增强现实终端包括第一摄像头和第二摄像头,其中所述第一摄像头的分辨率高于所述第二摄像头,包括:
初始图片采集单元,用于利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;
车辆数量值获取单元,用于将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值,其中所述车辆数量识别模型利用样本数据训练而成,所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成;
车辆数量值判断单元,用于判断所述车辆数量值是否大于预设的车辆数量阈值;
局部定位单元,用于若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置;
指示图案叠加单元,用于根据预设的特征位置与提示位置的相对位置关系,获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向;
取证图片获取单元,用于获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片,并判断在所有的提示位置上是否均进行了拍照;
取证图片发送单元,用于若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。
本申请提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本申请的基于增强现实的信息采集方法、装置、计算机设备和存储介质,利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值;若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并获取所述当前影像中的事故车辆的指定特征位置;获取多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案;获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片;若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。从而保证能够获取充分且准确的取证图片。
附图说明
图1为本申请一实施例的基于增强现实的信息采集方法的流程示意图;
图2为本申请一实施例的基于增强现实的信息采集装置的结构示意框图;
图3为本申请一实施例的计算机设备的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
参照图1,本申请实施例提供一种基于增强现实的信息采集方法,应用于增强现实终端,所述增强现实终端包括第一摄像头和第二摄像头,其中所述第一摄像头的分辨率高于所述第二摄像头,包括:
S1、利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;
S2、将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值,其中所述车辆数量识别模型利用样本数据训练而成,所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成;
S3、判断所述车辆数量值是否大于预设的车辆数量阈值;
S4、若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置;
S5、根据预设的特征位置与提示位置的相对位置关系,获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向;
S6、获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片,并判断在所有的提示位置上是否均进行了拍照;
S7、若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。
本申请通过基于增强现实的信息采集方法,来解决在交通事故现场取证时的时间延迟与取证图片不专业的技术问题。具体地,本申请利用增强现实终端,所述增强现实终端包括第一摄像头和第二摄像头,采用增强现实技术,在事故现场叠加虚拟图像(提示位置等),从而使相关人员可以在第一时间采集到足以定责的取证图片。其中所述第一摄像头优选用于拍照,所述第二摄像头优选用于拍摄,并且所述第一摄像头的分辨率高于所述第二摄像头。
如上述步骤S1所述,利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆。所述初始图片用于初步分析事故场景。当事故场景很简单时,例如事故场景仅涉及一辆或两辆事故车辆时,相关人员(例如事故波及人员、车主、伤者等)能够自行确定应如何拍照取证(或者仅需简单阅读相关的取证介绍文件即可),无需进一步采用增强现实技术以指引拍照取证。其中所述车辆指机动车辆。
如上述步骤S2所述,将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值,其中所述车辆数量识别模型利用样本数据训练而成,所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成。事故场景是否简单,通过所述车辆数量识别模型来分析。所述车辆数量识别模型用于对识别出所述初始图片中的车辆数量,并作为是否使用增强现实技术的依据。
如上述步骤S3所述,判断所述车辆数量值是否大于预设的车辆数量阈值。所述车辆数量值是使用增强现实技术的触发条件。若所述车辆数量值较大,大于预设的车辆数量阈值,则采用增强现实技术以指引用户进行拍照取证。其中所述车辆数量阈值为1或者2。
如上述步骤S4所述,若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置。所述第二摄像头用于采集当前影像,并作为增强现实技术叠加虚拟图像的叠加基础,从而用户能依据虚拟图像的指示,实现对现实景象的采集(即图像取证)。进一步地,所述第二摄像头的分辨率小于所述第一摄像头,这是因为所述第一摄像头需要采集高清的图像以供准确分析(例如用于车辆数量识别、后续的定责分析),而第二摄像头在于采集影像以确定景物之间的相对关系(例如车辆间的相互关系、车辆受损位置等),因此第二摄像头的分辨率设置为低于所述第一摄像头,以减小计算压力。增强现实(Augmented Reality)技术是一种将虚拟信息与真实世界巧妙融合的技术,因此需要确定真实世界中物体的位置,从而才能将虚拟信息叠加到准确位置上,因此采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置。所述局部定位指在所述当前影像确定特定位置,例如确定车辆的聚类中心位置。其中,所述局部定位技术例如为:采用预设的KNN聚类算法(邻近聚类算法),从所述当前影像中获取多个像素点聚类,其中所述像素点聚类与所述事故车辆一一对应;根据聚类中心与像素点之间的总距离最短的原则,分别计算出所述多个像素点聚类的聚类中心;根据预设的缺损部位识别方法,识别出所述事故车辆中的缺损部位;将所述聚类中心和所述缺损部位记为所述指定特征位置,并获取所述指定特征位置。
如上述步骤S5所述,根据预设的特征位置与提示位置的相对位置关系,获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向。其中获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案的方式例如为:生成多条指定射线,其中所述指定射线以同一个像素点聚类中的聚类中心为起点,并经过所述缺损部位;在每条指定射线上均生成提示位置,从而得到多个提示位置,其中所述提示位置与所述缺损部位的第一距离等于所述聚类中心与所述缺损部位的第二距离;采用预设的增强现实技术,在所述多个提示位置上分别叠加虚拟的箭头图案,所述箭头图案的指向与所述指定射线的指向相反,从而标明了图像采集方向。其中采用的增加现实技术可以为任意可行技术,例如为:基于计算机显示器的增强现实技术(即摄像机摄取的真实世界图像输入到计算机中,与计算机图形系统产生的虚拟景象合成,并输出到屏幕)、头盔式显示器(即穿戴式增强现实设备)等。
如上述步骤S6所述,获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片,并判断在所有的提示位置上是否均进行了拍照。由于在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向,因此只需在提示位置依据图像采集方向进行图片采集,即可实现取证。其中所述取证图片通过第一摄像头获取,所述第一摄像头优选分辨率高于所述第二摄像头。若所有的提示位置上均进行了拍照,则表明取证全过程完备,因此可以结合取证。其中,所述取证图片被标识有提示位置信息,从而通过被标识的信息即可获知所述取证图片的采集地点,据此可判断在所有的提示位置上是否均进行了拍照。
如上述步骤S7所述,若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。若在所有的提示位置上均进行了拍照,表明取证图片全部获取,因此将所述取证图片发送给服务器,由所述服务器进行定责分析。从而实现了整个基于增强现实的信息采集过程,并且能够保证第一时间获取高质量的准确取证图片。
在一个实施方式中,所述将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值,其中所述车辆数量识别模型利用样本数据训练而成,所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成的步骤S2之前,包括:
S11、获取预先收集的样本数据,并将所述样本数据划分为样本集L1、L2、...、Ln和验证集,其中所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成,样本集L1、L2、...、Ln分别指由车辆数量为1、车辆数量为2、...、车辆数量为n的交通事故现场图片所构成,n为大于1的整数,所述验证集由随机选出的样本数据构成;
S12、从所述样本集L1、L2、...、Ln中分别提取相同数量的数据,并输入预设的神经网络模型中进行训练,从而得到暂时模型;
S13、采用所述验证集对所述暂时模型进行验证,从而得到验证结果,并判断所述验证结果是否为通过;
S14、若所述验证结果为通过,则将所述暂时模型标记为所述车辆数量识别模型。
如上所述,实现了获取所述车辆数量识别模型。本申请采用将所述样本数据划分为样本集L1、L2、...、Ln和验证集,样本集L1、L2、...、Ln分别指由车辆数量为1、车辆数量为2、...、车辆数量为n的交通事故现场图片所构成的方式,将训练样本针对性地分类,并采用均等训练的方法(即从所述样本集L1、L2、...、Ln中分别提取相同数量的数据,并输入预设的神经网络模型中进行训练),从而使所述暂时模型得到均匀的训练。相对于普通的随机训练思路,本申请由于采用了均等训练的方法,能够保证所述暂时模型在对于包括大数量的车辆的事故现场有更准确的识别准确度。神经网络模型可为任意可行模型,例如为VGG16模型、VGG-Xception模型等。再采用所述验证集对所述暂时模型进行验证;若所述验证结果为通过,则将所述暂时模型标记为所述车辆数量识别模型。从而获得了提高识别准确度的车辆数量识别模型。
在一个实施方式中,所述事故车辆有多辆,所述采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置的步骤S4,包括:
S401、采用预设的KNN聚类算法,从所述当前影像中获取多个像素点聚类,其中所述像素点聚类与所述事故车辆一一对应;
S402、根据聚类中心与像素点之间的总距离最短的原则,分别计算出所述多个像素点聚类的聚类中心;
S403、根据预设的缺损部位识别方法,识别出所述事故车辆中的缺损部位;
S404、将所述聚类中心和所述缺损部位记为所述指定特征位置,并获取所述指定特征位置。
如上所述,实现了采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置。KNN聚类算法也称为邻近聚类算法,即,当前影像中的一个像素点与K个最相邻的像素点中的大多数属于某一个类别,则该像素点也属于这个类别。据此,可将所述当前影像中的所有像素点分为多个聚类(例如车辆聚类、背景聚类、人物聚类等),从而获取与所述事故车辆一一对应像素点聚类。再根据聚类中心与像素点之间的总距离最短的原则,分别计算出所述多个像素点聚类的聚类中心;根据预设的缺损部位识别方法,识别出所述事故车辆中的缺损部位;将所述聚类中心和所述缺损部位记为所述指定特征位置,从而确定了指定特征位置。由于增强现实技术需要确定当前影像中的特征位置,因此本申请将将所述聚类中心和所述缺损部位记为所述指定特征位置,以作为后续增强现实技术的实现基础,并且所述聚类中心和所述缺损部位与取证图片的拍照地点与方向直接相关,因此有助于后续增强现实技术的实现。
在一个实施方式中,所述根据预设的特征位置与提示位置的相对位置关系,获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向的步骤S5,包括:
S501、生成多条指定射线,其中所述指定射线以同一个像素点聚类中的聚类中心为起点,并经过所述缺损部位;
S502、在每条指定射线上均生成提示位置,从而得到多个提示位置,其中所述提示位置与所述缺损部位的第一距离等于所述聚类中心与所述缺损部位的第二距离;
S503、采用预设的增强现实技术,在所述多个提示位置上分别叠加虚拟的箭头图案,所述箭头图案的指向与所述指定射线的指向相反,从而标明了图像采集方向。
如上所述,实现了采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向。本申请的特征位置为所述聚类中心与所述缺损部位,对于提示位置的确定有关联关系,具体地:生成多条指定射线,其中所述指定射线以同一个像素点聚类中的聚类中心为起点,并经过所述缺损部位;在每条指定射线上均生成提示位置,从而得到多个提示位置,其中所述提示位置与所述缺损部位的第一距离等于所述聚类中心与所述缺损部位的第二距离。从而在所述提示位置就能够采集缺损部位的图片,并且在所述多个提示位置上分别叠加虚拟的箭头图案,所述箭头图案的指向与所述指定射线的指向相反,从而标明了图像采集方向,因此用户顺着所述图像采集方向即能实现取证图片的获取。
在一个实施方式中,所述获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片的步骤S6,包括:
S601、判断所述增强现实终端的位置是否在所述提示位置上;
S602、若所述增强现实终端的位置在所述提示位置上,则将所述第一摄像头的拍摄参数修改为预设参数,其中所述预设参数至少包括等于所述第一距离的物距;
S603、按所述图像采集方向,对所述事故车辆进行拍照,从而得到取证图片。
如上所述,实现了获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片。本申请采用自动调整参数、自动拍照的方式,实现了图像采集。由前述,物距是已知的,因此将所述物距调整为等于所述第一距离,再根据所述摄像头的固定参数和所述物距,调整相应的焦距等参数即可。进一步地,将所述第一摄像头的拍摄参数修改为预设参数,还包括调整曝光时间、是否开启闪光灯等参数。据此,在参数修改好之后,按所述图像采集方向,对所述事故车辆进行拍照,即可得到取证图片。由于通过自动优化参数,从而获取的取证图片质量较高,从而避免用户手动拍照可能带来的画面模糊等问题。
在一个实施方式中,所述获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片,并判断在所有的提示位置上是否均进行了拍照的步骤S6之前,包括:
S51、根据总路程最短的原则,在所述当前影像中生成虚拟路径,其中所述虚拟路径由多条依次连接所述提示位置的线段所构成;
S52、提醒所述增强现实终端的使用者沿所述虚拟路径移动;
S53、当所述增强现实终端的使用者到达一个所述提示位置时,删除所述使用者经过的所述线段,并生成拍照指令,所述拍照指令用于指示获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片。
如上所述,实现了提供合适的行走路径。由用户进行拍照取证,而不是等交警人员到达现场再拍照取证,的主要目的在于及早获取取证图片,以便后续的定责等分析处理。因此,越早获取取证图片越好。本申请采用根据总路程最短的原则,在所述当前影像中生成虚拟路径,其中所述虚拟路径由多条依次连接所述提示位置的线段所构成;提醒所述增强现实终端的使用者沿所述虚拟路径移动;当所述增强现实终端的使用者到达一个所述提示位置时,删除所述使用者经过的所述线段,并生成拍照指令的方式,进一步地提高了取证图片的获取效率,并采用删除所述使用者经过的所述线段的方式,减轻计算负担。
在一个实施方式中,所述增强现实终端由终端主体和分离部分构成,所述终端主体和分离部分可分离式连接,当所述终端主体和分离部分处于分离状态时保持通信连接,所述分离部分设置有位置传感器,所述若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器的步骤S7,包括:
S701、若在所有的提示位置上均进行了拍照,则判断所述终端主体和分离部分是否处于分离状态;
S702、若所述终端主体和分离部分处于分离状态,则利用所述位置传感器获取验证图案,其中所述验证图案指所述增强现实终端的使用者使用所述分离部分划出的图案;
S703、根据预设的相似度判断方法,判断所述验证图案与预存图案是否相似;
S704、若所述验证图案与预存图案相似,则将所述取证图片发送给服务器。
如上所述,实现了将所述取证图片发送给服务器。在交通事故现场,还存在这样的情况:所述增强现实终端的主人已晕厥,肇事者意图使用所述增强现实终端上传掩饰的取证图片(例如对关键的受损部分进行伪装,从而影响后续的定责分析)。本申请还采用判断所述终端主体和分离部分是否处于分离状态;若所述终端主体和分离部分处于分离状态,则利用所述位置传感器获取验证图案,其中所述验证图案指所述增强现实终端的使用者使用所述分离部分划出的图案;根据预设的相似度判断方法,判断所述验证图案与预存图案是否相似的方式,验证所述增强现实终端的当前使用者的身份。若所述增强现实终端的当前使用者确为所述增强现实终端的主人,那么所述验证图案与预存图案理应相同,据此将所述取证图片发送给服务器。从而提高了取证图片的可信度。
本申请的基于增强现实的信息采集方法,利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值;若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并获取所述当前影像中的事故车辆的指定特征位置;获取多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案;获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片;若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。从而保证能够获取充分且准确的取证图片。
参照图2,本申请实施例提供一种基于增强现实的信息采集装置,应用于增强现实终端,所述增强现实终端包括第一摄像头和第二摄像头,其中所述第一摄像头的分辨率高于所述第二摄像头,包括:
初始图片采集单元10,用于利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;
车辆数量值获取单元20,用于将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值,其中所述车辆数量识别模型利用样本数据训练而成,所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成;
车辆数量值判断单元30,用于判断所述车辆数量值是否大于预设的车辆数量阈值;
局部定位单元40,用于若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置;
指示图案叠加单元50,用于根据预设的特征位置与提示位置的相对位置关系,获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向;
取证图片获取单元60,用于获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片,并判断在所有的提示位置上是否均进行了拍照;
取证图片发送单元70,用于若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。
其中上述单元分别用于执行的操作与前述实施方式的基于增强现实的信息采集方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述装置,包括:
样本数据划分单元,用于获取预先收集的样本数据,并将所述样本数据划分为样本集L1、L2、...、Ln和验证集,其中所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成,样本集L1、L2、...、Ln分别指由车辆数量为1、车辆数量为2、...、车辆数量为n的交通事故现场图片所构成,n为大于1的整数,所述验证集由随机选出的样本数据构成;
暂时模型获取单元,用于从所述样本集L1、L2、...、Ln中分别提取相同数量的数据,并输入预设的神经网络模型中进行训练,从而得到暂时模型;
验证单元,用于采用所述验证集对所述暂时模型进行验证,从而得到验证结果,并判断所述验证结果是否为通过;
车辆数量识别模型标记单元,用于若所述验证结果为通过,则将所述暂时模型标记为所述车辆数量识别模型。
其中上述单元分别用于执行的操作与前述实施方式的基于增强现实的信息采集方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述事故车辆有多辆,所述局部定位单元40,包括:
像素点聚类获取子单元,用于采用预设的KNN聚类算法,从所述当前影像中获取多个像素点聚类,其中所述像素点聚类与所述事故车辆一一对应;
聚类中心计算子单元,用于根据聚类中心与像素点之间的总距离最短的原则,分别计算出所述多个像素点聚类的聚类中心;
缺损部位识别子单元,用于根据预设的缺损部位识别方法,识别出所述事故车辆中的缺损部位;
指定特征位置获取子单元,用于将所述聚类中心和所述缺损部位记为所述指定特征位置,并获取所述指定特征位置。
其中上述子单元分别用于执行的操作与前述实施方式的基于增强现实的信息采集方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述指示图案叠加单元50,包括:
指定射线生成子单元,用于生成多条指定射线,其中所述指定射线以同一个像素点聚类中的聚类中心为起点,并经过所述缺损部位;
提示位置生成子单元,用于在每条指定射线上均生成提示位置,从而得到多个提示位置,其中所述提示位置与所述缺损部位的第一距离等于所述聚类中心与所述缺损部位的第二距离;
箭头图案叠加子单元,用于采用预设的增强现实技术,在所述多个提示位置上分别叠加虚拟的箭头图案,所述箭头图案的指向与所述指定射线的指向相反,从而标明了图像采集方向。
其中上述子单元分别用于执行的操作与前述实施方式的基于增强现实的信息采集方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述取证图片获取单元60,包括:
位置判断子单元,用于判断所述增强现实终端的位置是否在所述提示位置上;
参数修改子单元,用于若所述增强现实终端的位置在所述提示位置上,则将所述第一摄像头的拍摄参数修改为预设参数,其中所述预设参数至少包括等于所述第一距离的物距;
取证图片获取子单元,用于按所述图像采集方向,对所述事故车辆进行拍照,从而得到取证图片。
其中上述子单元分别用于执行的操作与前述实施方式的基于增强现实的信息采集方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述装置,包括:
虚拟路径生成单元,用于根据总路程最短的原则,在所述当前影像中生成虚拟路径,其中所述虚拟路径由多条依次连接所述提示位置的线段所构成;
移动提醒单元,用于提醒所述增强现实终端的使用者沿所述虚拟路径移动;
拍照指令生成单元,用于当所述增强现实终端的使用者到达一个所述提示位置时,删除所述使用者经过的所述线段,并生成拍照指令,所述拍照指令用于指示获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片。
其中上述单元分别用于执行的操作与前述实施方式的基于增强现实的信息采集方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述增强现实终端由终端主体和分离部分构成,所述终端主体和分离部分可分离式连接,当所述终端主体和分离部分处于分离状态时保持通信连接,所述分离部分设置有位置传感器,所述取证图片发送单元70,包括:
分离状态判断子单元,用于若在所有的提示位置上均进行了拍照,则判断所述终端主体和分离部分是否处于分离状态;
验证图案获取子单元,用于若所述终端主体和分离部分处于分离状态,则利用所述位置传感器获取验证图案,其中所述验证图案指所述增强现实终端的使用者使用所述分离部分划出的图案;
相似判断子单元,用于根据预设的相似度判断方法,判断所述验证图案与预存图案是否相似;
取证图片发送子单元,用于若所述验证图案与预存图案相似,则将所述取证图片发送给服务器。
其中上述子单元分别用于执行的操作与前述实施方式的基于增强现实的信息采集方法的步骤一一对应,在此不再赘述。
本申请的基于增强现实的信息采集装置,利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值;若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并获取所述当前影像中的事故车辆的指定特征位置;获取多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案;获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片;若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。从而保证能够获取充分且准确的取证图片。
参照图3,本发明实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储基于增强现实的信息采集方法所用数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于增强现实的信息采集方法。
上述处理器执行上述基于增强现实的信息采集方法,其中所述方法包括的步骤分别与执行前述实施方式的基于增强现实的信息采集方法的步骤一一对应,在此不再赘述。
本领域技术人员可以理解,图中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请的计算机设备,利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值;若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并获取所述当前影像中的事故车辆的指定特征位置;获取多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案;获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片;若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。从而保证能够获取充分且准确的取证图片。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现基于增强现实的信息采集方法,其中所述方法包括的步骤分别与执行前述实施方式的基于增强现实的信息采集方法的步骤一一对应,在此不再赘述。
本申请的计算机可读存储介质,利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值;若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并获取所述当前影像中的事故车辆的指定特征位置;获取多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案;获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片;若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。从而保证能够获取充分且准确的取证图片。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种基于增强现实的信息采集方法,其特征在于,应用于增强现实终端,所述增强现实终端包括第一摄像头和第二摄像头,其中所述第一摄像头的分辨率高于所述第二摄像头,包括:
利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;
将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值,其中所述车辆数量识别模型利用样本数据训练而成,所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成;
判断所述车辆数量值是否大于预设的车辆数量阈值;
若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置;
根据预设的特征位置与提示位置的相对位置关系,获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向;
获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片,并判断在所有的提示位置上是否均进行了拍照;
若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。
2.根据权利要求1所述的基于增强现实的信息采集方法,其特征在于,所述将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值,其中所述车辆数量识别模型利用样本数据训练而成,所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成的步骤之前,包括:
获取预先收集的样本数据,并将所述样本数据划分为样本集L1、L2、...、Ln和验证集,其中所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成,样本集L1、L2、...、Ln分别指由车辆数量为1、车辆数量为2、...、车辆数量为n的交通事故现场图片所构成,n为大于1的整数,所述验证集由随机选出的样本数据构成;
从所述样本集L1、L2、...、Ln中分别提取相同数量的数据,并输入预设的神经网络模型中进行训练,从而得到暂时模型;
采用所述验证集对所述暂时模型进行验证,从而得到验证结果,并判断所述验证结果是否为通过;
若所述验证结果为通过,则将所述暂时模型标记为所述车辆数量识别模型。
3.根据权利要求1所述的基于增强现实的信息采集方法,其特征在于,所述事故车辆有多辆,所述采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置的步骤,包括:
采用预设的KNN聚类算法,从所述当前影像中获取多个像素点聚类,其中所述像素点聚类与所述事故车辆一一对应;
根据聚类中心与像素点之间的总距离最短的原则,分别计算出所述多个像素点聚类的聚类中心;
根据预设的缺损部位识别方法,识别出所述事故车辆中的缺损部位;
将所述聚类中心和所述缺损部位记为所述指定特征位置,并获取所述指定特征位置。
4.根据权利要求3所述的基于增强现实的信息采集方法,其特征在于,所述根据预设的特征位置与提示位置的相对位置关系,获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向的步骤,包括:
生成多条指定射线,其中所述指定射线以同一个像素点聚类中的聚类中心为起点,并经过所述缺损部位;
在每条指定射线上均生成提示位置,从而得到多个提示位置,其中所述提示位置与所述缺损部位的第一距离等于所述聚类中心与所述缺损部位的第二距离;
采用预设的增强现实技术,在所述多个提示位置上分别叠加虚拟的箭头图案,所述箭头图案的指向与所述指定射线的指向相反,从而标明了图像采集方向。
5.根据权利要求4所述的基于增强现实的信息采集方法,其特征在于,所述获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片的步骤,包括:
判断所述增强现实终端的位置是否在所述提示位置上;
若所述增强现实终端的位置在所述提示位置上,则将所述第一摄像头的拍摄参数修改为预设参数,其中所述预设参数至少包括等于所述第一距离的物距;
按所述图像采集方向,对所述事故车辆进行拍照,从而得到取证图片。
6.根据权利要求1所述的基于增强现实的信息采集方法,其特征在于,所述获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片,并判断在所有的提示位置上是否均进行了拍照的步骤之前,包括:
根据总路程最短的原则,在所述当前影像中生成虚拟路径,其中所述虚拟路径由多条依次连接所述提示位置的线段所构成;
提醒所述增强现实终端的使用者沿所述虚拟路径移动;
当所述增强现实终端的使用者到达一个所述提示位置时,删除所述使用者经过的所述线段,并生成拍照指令,所述拍照指令用于指示获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片。
7.根据权利要求1所述的基于增强现实的信息采集方法,其特征在于,所述增强现实终端由终端主体和分离部分构成,所述终端主体和分离部分可分离式连接,当所述终端主体和分离部分处于分离状态时保持通信连接,所述分离部分设置有位置传感器,所述若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器的步骤,包括:
若在所有的提示位置上均进行了拍照,则判断所述终端主体和分离部分是否处于分离状态;
若所述终端主体和分离部分处于分离状态,则利用所述位置传感器获取验证图案,其中所述验证图案指所述增强现实终端的使用者使用所述分离部分划出的图案;
根据预设的相似度判断方法,判断所述验证图案与预存图案是否相似;
若所述验证图案与预存图案相似,则将所述取证图片发送给服务器。
8.一种基于增强现实的信息采集装置,其特征在于,应用于增强现实终端,所述增强现实终端包括第一摄像头和第二摄像头,其中所述第一摄像头的分辨率高于所述第二摄像头,包括:
初始图片采集单元,用于利用所述第一摄像头采集初始图片,所述初始图片的取景范围内包括事故车辆;
车辆数量值获取单元,用于将所述初始图片输入预设的基于神经网络的已训练好的车辆数量识别模型中,从而获取所述车辆数量识别模型输出的车辆数量值,其中所述车辆数量识别模型利用样本数据训练而成,所述样本数据由预先收集的交通事故现场图片和所述交通事故现场图片中的车辆数量所构成;
车辆数量值判断单元,用于判断所述车辆数量值是否大于预设的车辆数量阈值;
局部定位单元,用于若所述车辆数量值大于预设的车辆数量阈值,则利用所述第二摄像头实时采集包括所述事故车辆的当前影像,并采用预设的局部定位技术,获取所述当前影像中的事故车辆的指定特征位置;
指示图案叠加单元,用于根据预设的特征位置与提示位置的相对位置关系,获取与所述指定特征位置对应的多个提示位置,并采用预设的增强现实技术,在所述多个提示位置分别叠加指示图案,其中所述指示图案标明了图像采集方向;
取证图片获取单元,用于获取取证图片,其中所述取证图片指所述第一摄像头在所述提示位置上,按所述图像采集方向进行拍照得到的图片,并判断在所有的提示位置上是否均进行了拍照;
取证图片发送单元,用于若在所有的提示位置上均进行了拍照,则将所述取证图片发送给服务器。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910964688.8A CN111079506A (zh) | 2019-10-11 | 2019-10-11 | 基于增强现实的信息采集方法、装置和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910964688.8A CN111079506A (zh) | 2019-10-11 | 2019-10-11 | 基于增强现实的信息采集方法、装置和计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111079506A true CN111079506A (zh) | 2020-04-28 |
Family
ID=70310297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910964688.8A Pending CN111079506A (zh) | 2019-10-11 | 2019-10-11 | 基于增强现实的信息采集方法、装置和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111079506A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797739A (zh) * | 2020-06-23 | 2020-10-20 | 中国平安人寿保险股份有限公司 | 基于双重扫描的提醒信息发送方法、装置和计算机设备 |
CN111985448A (zh) * | 2020-09-02 | 2020-11-24 | 深圳壹账通智能科技有限公司 | 车辆图像识别方法、装置、计算机设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101861236B1 (ko) * | 2017-09-07 | 2018-05-25 | 김영광 | 교통사고 처리 방법 |
CN108437896A (zh) * | 2018-02-08 | 2018-08-24 | 深圳市赛格导航科技股份有限公司 | 车辆驾驶辅助方法、装置、设备及存储介质 |
CN110033386A (zh) * | 2019-03-07 | 2019-07-19 | 阿里巴巴集团控股有限公司 | 车辆事故的鉴定方法及装置、电子设备 |
-
2019
- 2019-10-11 CN CN201910964688.8A patent/CN111079506A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101861236B1 (ko) * | 2017-09-07 | 2018-05-25 | 김영광 | 교통사고 처리 방법 |
CN108437896A (zh) * | 2018-02-08 | 2018-08-24 | 深圳市赛格导航科技股份有限公司 | 车辆驾驶辅助方法、装置、设备及存储介质 |
CN110033386A (zh) * | 2019-03-07 | 2019-07-19 | 阿里巴巴集团控股有限公司 | 车辆事故的鉴定方法及装置、电子设备 |
Non-Patent Citations (1)
Title |
---|
高文;: "面部识别和检测在车辆超员监控系统的应用", 工业控制计算机, no. 11, 25 November 2018 (2018-11-25) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797739A (zh) * | 2020-06-23 | 2020-10-20 | 中国平安人寿保险股份有限公司 | 基于双重扫描的提醒信息发送方法、装置和计算机设备 |
CN111797739B (zh) * | 2020-06-23 | 2023-09-08 | 中国平安人寿保险股份有限公司 | 基于双重扫描的提醒信息发送方法、装置和计算机设备 |
CN111985448A (zh) * | 2020-09-02 | 2020-11-24 | 深圳壹账通智能科技有限公司 | 车辆图像识别方法、装置、计算机设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109886078B (zh) | 目标对象的检索定位方法和装置 | |
KR102203135B1 (ko) | 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법 및 시스템 | |
CN109753928B (zh) | 违章建筑物识别方法和装置 | |
JP5255595B2 (ja) | 端末位置特定システム、及び端末位置特定方法 | |
CN111753643B (zh) | 人物姿态识别方法、装置、计算机设备和存储介质 | |
CN109325429A (zh) | 一种关联特征数据的方法、装置、存储介质及终端 | |
CN111597938A (zh) | 活体检测、模型训练方法及装置 | |
CN111539338A (zh) | 行人口罩佩戴管控方法、装置、设备及计算机存储介质 | |
KR102145132B1 (ko) | 딥러닝을 이용한 대리 면접 예방 방법 | |
CN108960124A (zh) | 用于行人再识别的图像处理方法及装置 | |
CN110796100A (zh) | 步态识别方法、装置、终端及存储装置 | |
JP2020137069A5 (zh) | ||
CN111079506A (zh) | 基于增强现实的信息采集方法、装置和计算机设备 | |
CN111259813A (zh) | 人脸检测跟踪方法、装置、计算机设备和存储介质 | |
CN114445780A (zh) | 裸土苫盖的检测方法及装置、识别模型的训练方法及装置 | |
WO2020065852A1 (ja) | 認証システム、認証方法、及び、記憶媒体 | |
CN110766077A (zh) | 证据链图像中特写图筛选方法、装置和设备 | |
WO2023279799A1 (zh) | 对象识别方法、装置和电子系统 | |
JP2013137604A (ja) | 画像照合処理装置、画像照合処理方法及び画像照合処理プログラム | |
JP5730000B2 (ja) | 顔照合システム、顔照合装置及び顔照合方法 | |
CN112633114A (zh) | 面向建筑物变化事件的无人机巡查智能预警方法和装置 | |
CN114140674B (zh) | 结合图像处理及数据挖掘技术的电子证据可用性鉴别方法 | |
CN115830354A (zh) | 双目立体匹配方法、设备和介质 | |
CN113255531B (zh) | 活体检测模型的处理方法、装置、计算机设备和存储介质 | |
CN115131702A (zh) | 车辆定损处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20240920 |
|
AD01 | Patent right deemed abandoned |