CN116229765B - 一种基于数字数据处理的车路协同方法 - Google Patents

一种基于数字数据处理的车路协同方法 Download PDF

Info

Publication number
CN116229765B
CN116229765B CN202310497590.2A CN202310497590A CN116229765B CN 116229765 B CN116229765 B CN 116229765B CN 202310497590 A CN202310497590 A CN 202310497590A CN 116229765 B CN116229765 B CN 116229765B
Authority
CN
China
Prior art keywords
data
road
cloud data
vehicle
vehicles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310497590.2A
Other languages
English (en)
Other versions
CN116229765A (zh
Inventor
郑智宇
张磊
王勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou Yingjia Transportation Technology Co ltd
Original Assignee
Guizhou Yingjia Transportation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou Yingjia Transportation Technology Co ltd filed Critical Guizhou Yingjia Transportation Technology Co ltd
Priority to CN202310497590.2A priority Critical patent/CN116229765B/zh
Publication of CN116229765A publication Critical patent/CN116229765A/zh
Application granted granted Critical
Publication of CN116229765B publication Critical patent/CN116229765B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供了一种基于数字数据处理的车路协同方法,包括:基于目标车辆的当前所在位置数据调取对应当前所在道路的道路云端数据;基于当前可获取的所有全方位实时路景视频数据更新对应道路云端数据获得最新道路云端数据;基于当前可获取的所有全方位实时路景视频数据和当前所在位置数据确定出目标车辆和对应的同属道路车辆之间的相对位置关系;基于目标车辆、对应的同属道路车辆之间的相对位置关系和目标车辆的协同管理目标以及最新道路云端数据,对目标车辆进行指令引导或控制;用以实现对道路云端数据的实时完善,也实现了对道路中所有车辆之间的相对位置关系的准确确定,进而实现了对道路中车辆的高效协同管理。

Description

一种基于数字数据处理的车路协同方法
技术领域
本发明涉及智能交通技术领域,特别涉及一种基于数字数据处理的车路协同方法。
背景技术
目前,“车路协同”即为通过将驾驶者、车辆、道路三网融合后获得的数据实现对道路交通的智能控制。在智能交通控制领域,未来的交通管控目标为构建规则化的道路交通管理体系,以及向驾驶者和车辆提供靶向精准信息服务。
但是,现存的车路协同方法仅仅从加快数据传输、减少信息延误,来改善车路协同的管理控制缺陷,
例如,公开号为CN113178076B,专利名称为一种车路协同系统和车路协同方法的专利,提供一种车路协同系统和车路协同方法,属于通信技术领域,其中,车路协同系统包括:边缘云、路侧计算节点和路侧微基站;路侧计算节点用于获取所述路侧基础设施采集的原始交通数据,并基于该原始交通数据确定交通信息;路侧微基站包括:近距离广播通讯模组和移动网络通讯模组,近距离广播通讯模组用于将获取的所述交通信息发送至第一覆盖范围内的交通参与元素,移动网络通讯模组用于将获取的所述交通信息发送至边缘云,所述第一覆盖范围为路侧微基站的覆盖范围。本发明实施例能够降低车路协同系统的时延和建设成本,并提高车路协同系统处理效率,但是,该专利没有获取车辆端的信息,也没有对从路侧基础设施获取的原始交通信息和在车辆端获取的信息的融合分析出更多可参考信息,使得车路协同管理所依据的信息有限,进而导致车路协同管理效果不佳。
例如,公开号为CN111432375A,专利名称为一种基于V2X的车路协同方法及车路协同系统,提供了一种基于V2X的车路协同方法及车路协同系统,所述车路协同方法包括以下步骤:通过所述第二车辆采集所述第一车辆的第一数据信息;通过V2X通信模块采集所述第一车辆的第二数据信息,并将所述第二数据信息和所述第一数据信息融合处理,以形成车辆信息;将所述车辆信息上传至云端,并由所述云端实时共享给所述后方车辆;所述后方车辆根据所述车辆信息协同完成驾驶决策。本发明的基于V2X的车路协同方法,可以将第二车辆采集的第一数据信息和V2X通信模块采集的第二数据信息进行融合处理,消除信息传递盲区,融合处理后的车辆信息可以共享给后方车辆,后方车辆可以根据融合后的车辆信息协同完成驾驶决策,避免后方车辆发生连环事故,该专利没有获取道路相关信息,也没有对道路相关信息与车辆端获得第一数据信息和第二数据信息进行融合分析,使得车路协同管理所依据的信息有限,进而导致车路协同管理效果不佳。
因此,本发明提出了一种基于数字数据处理的车路协同方法。
发明内容
本发明提供一种基于数字数据处理的车路协同方法,用以基于实时获取的全方位实时路景视频实现对道路云端数据的实时完善,也通过对当前可获取的所有车辆的全方位实时路景视频数据和当前所在位置数据的融合分析,实现了对道路中目标车辆与其他车辆之间的相对位置关系的准确确定,丰富了车路协同管理所依据的信息,进而提高了对目标车辆的车路协同管理效果。
本发明提供一种基于数字数据处理的车路协同方法,包括:
S1:基于目标车辆的当前所在位置数据,调取对应当前所在道路的道路云端数据;
S2:基于当前可获取的所有车辆的车载摄像模块获取的全方位实时路景视频数据更新对应道路云端数据,获得最新道路云端数据;
S3:基于当前可获取的所有车辆的全方位实时路景视频数据和当前所在位置数据,确定出目标车辆和对应的同属道路车辆之间的相对位置关系;
S4:基于目标车辆、对应的同属道路车辆之间的相对位置关系和目标车辆的协同管理目标以及最新道路云端数据,对目标车辆进行指令引导或控制;
其中,所有车辆包含目标车辆和非目标车辆;
步骤S3:基于当前可获取的所有车辆的全方位实时路景视频数据和当前所在位置数据,确定出目标车辆和对应的同属道路车辆之间的相对位置关系,包括:
计算出每个当前可获取的非目标车辆的当前所在位置数据和目标车辆的当前所在位置数据的差值;
在所有当前可获取的非目标车辆中筛选出差值在当前所在道路的差值阈值之内的非目标车辆当作目标车辆的同属道路车辆;
基于所有同属道路车辆的全方位实时路景视频数据和目标车辆的全方位实时路景视频数据,分析出同属道路车辆与目标车辆之间的相对位置关系。
优选的,所述的一种基于数字数据处理的车路协同方法,S1:基于目标车辆的当前所在位置数据,调取对应当前所在道路的道路云端数据,包括:
S101:基于车载道路定位模块获取目标车辆的当前所在位置数据;
S102:基于当前所在位置数据确定出当前所在道路,并在道路云端数据库中调取当前所在道路的道路云端数据。
优选的,所述的一种基于数字数据处理的车路协同方法,S2:基于当前可获取的所有车辆的车载摄像模块获取的全方位实时路景视频数据更新对应道路云端数据,获得最新道路云端数据,包括:
S201:在道路云端数据中确定出全方位实时路景视频数据对应的同形式道路云端数据和异形式道路云端数据;
S202:在全方位实时路景视频数据中确定出与同形式道路云端数据覆盖的信息类目一致的第一全方位实时路景视频数据,并基于第一全方位实时路景视频数据更新同形式道路云端数据,获得最新同形式道路云端数据;
S203:确定出全方位实时路景视频数据中除第一全方位实时路景视频数据以外剩余的第二全方位实时路景视频数据;
S204:将第二全方位实时路景视频数据与异形式道路云端数据分别进行双向形式转换,基于双向形式转换后的结果更新异形式道路云端数据,获得最新异形式道路云端数据;
S205:将最新同形式道路云端数据和最新异形式道路云端数据汇总,获得最新道路云端数据。
优选的,所述的一种基于数字数据处理的车路协同方法,基于第一全方位实时路景视频数据更新同形式道路云端数据,获得最新同形式道路云端数据,包括:
确定出第一全方位实时路景视频数据和同形式道路云端数据中数据不同的差别信息类目;
将同形式道路云端数据差别信息类目包含的数据替换为第一全方位实时路景视频数据中对应差别信息类目包含的数据,获得最新同形式道路云端数据。
优选的,所述的一种基于数字数据处理的车路协同方法,S204:将第二全方位实时路景视频数据与异形式道路云端数据分别进行双向形式转换,基于双向形式转换后的结果更新异形式道路云端数据,获得最新异形式道路云端数据,包括:
将第二全方位实时路景视频数据的数据形式转换为异形式道路云端数据的数据形式,获得第一转换数据;
将异形式道路云端数据的数据形式转换为第二全方位实时路景视频数据的数据形式,获得第二转换数据;
将第一转换数据与异形式道路云端数据进行作差比对,获得第一差别数据;
将第二转换数据与第二全方位实时路景视频数据进行作差比对,获得第二差别数据;
将第一差别数据的数据形式转换为预设数据形式,获得第一标准形式差别数据,同时,将第二差别数据的数据形式转换为预设数据形式,获得第二标准形式差别数据;
将第一标准形式差别数据和第二标准形式差别数据的共有数据的数据形式转换为异形式道路云端数据的数据形式,获得待更新数据;
将待更新数据和异形式道路云端数据进行去重合并,获得最新异形式道路云端数据。
优选的,所述的一种基于数字数据处理的车路协同方法,基于所有同属道路车辆的全方位实时路景视频数据和目标车辆的全方位实时路景视频数据,分析出同属道路车辆与目标车辆之间的相对位置关系,包括:
基于同区色差阈值对全方位实时路景视频数据中的每个视频帧进行色区划分,获得多个划分色区;
基于异帧色差阈值,对不同全方位实时路景视频数据中包含的视频帧中的划分色区进行匹配,获得异帧色区匹配结果;
在异帧色区匹配结果中确定出成功匹配视频帧组合;
将成功匹配视频帧组合中两个视频帧输入至预先训练好的相对拍摄位姿分析模型中,获得成功匹配视频帧组合中两个视频帧的相对拍摄位姿关系;
基于成功匹配视频帧组合中两个视频帧的获取来源和相对拍摄位姿关系,确定出两个视频帧对应的车辆之间的相对位置关系;
基于确定出的所有相对位置关系确定出同属道路车辆与目标车辆之间的相对位置关系;
其中,相对拍摄位姿分析模型用于识别出两个视频帧的相对拍摄位姿关系,相对拍摄位姿关系即为两个车载摄像模块在获取两个视频帧时对应的拍摄位置和拍摄角度的位姿数据,用三维坐标系表示。
优选的,所述的一种基于数字数据处理的车路协同方法,基于异帧色差阈值,对不同全方位实时路景视频数据中包含的视频帧中的划分色区进行匹配,获得异帧色区匹配结果,包括:
将属于不同全方位实时路景视频数据的两个视频帧当作非同属视频帧组合,将属于非同属视频帧组合中不同的非同属视频帧的划分色区当作异帧划分色区组合;
计算出异帧划分色区组合中两个异帧划分色区的平均色度之间的色度差,并将色度差不超过异帧色差阈值的两个异帧划分色区当作匹配成功划分色区组合;
基于非同属视频帧组合中包含的所有匹配成功划分色区组合,计算出非同属视频帧组合的匹配成功率,将匹配成功率超过成功率阈值的所有非同属视频帧组合中包含所有匹配成功划分色区组合当作异帧色区匹配结果。
优选的,所述的一种基于数字数据处理的车路协同方法,在异帧色区匹配结果中确定出成功匹配视频帧组合,包括:
按照预设方式在每个划分色区的轮廓上确定出预设个数的标志点,基于标志点在对应视频帧中的坐标值和第一预设确定顺序,生成每个划分色区的轮廓标志点坐标序列;
基于每个划分色区的中心坐标与对应的相邻划分色区的轮廓标志点坐标序列中每个标志点的坐标值之间的坐标差值,生成对应划分色区和对应相邻划分色区的标志点间距序列;
基于划分色区和对应的所有相邻划分色区的标志点间距序列以及第二预设确定顺序,生成对应划分色区的相邻色区形状表征矩阵;
基于异帧色区匹配结果中的匹配成功划分色区组合中的两个划分色区的相邻色区形状表征矩阵,计算出匹配成功划分色区组合中两个划分色区的邻域匹配度;
基于非同属视频帧组合中所有匹配成功划分色区组合的邻域匹配度,计算出非同属视频帧组合的综合匹配度;
将综合匹配度不小于匹配度阈值的非同属视频帧组合当作成功匹配视频帧组合。
优选的,所述的一种基于数字数据处理的车路协同方法,S4:基于目标车辆、对应的同属道路车辆之间的相对位置关系和目标车辆的协同管理目标以及最新道路云端数据,对目标车辆进行指令引导或控制,包括:
当协同管理目标为换道提醒时,则基于相对位置关系确定出目标车辆的当前所在车道;
基于目标车辆的当前所在道路和当前所在车道以及当前所选规划路线,判断出目标车辆是否需要换道,若是,则确定出目标车辆的目标车道,基于当前可获取的所有同属道路车辆的当前所在车道、最新道路云端数据和当前所选规划路线以及目标车辆的目标车道,估算出最佳换道提示时间;
基于最佳换道提示时间对目标车辆内的驾驶员进行语音换道提示;
否则,将对应的判断结果保留。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中的一种基于数字数据处理的车路协同方法示意图;
图2为本发明实施例中的又一种基于数字数据处理的车路协同方法示意图;
图3为本发明实施例中的再一种基于数字数据处理的车路协同方法示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1:
本发明提供了一种基于数字数据处理的车路协同方法,参考图1,包括:
S1:基于目标车辆的当前所在位置数据,调取对应当前所在道路的道路云端数据;
S2:基于当前可获取的所有车辆的车载摄像模块获取的全方位实时路景视频数据更新对应道路云端数据,获得最新道路云端数据;
S3:基于当前可获取的所有车辆的全方位实时路景视频数据和当前所在位置数据,确定出目标车辆和对应的同属道路车辆之间的相对位置关系;
S4:基于目标车辆、对应的同属道路车辆之间的相对位置关系和目标车辆的协同管理目标以及最新道路云端数据,对目标车辆进行指令引导或控制;
其中,所有车辆包含目标车辆和非目标车辆;
步骤S3:基于当前可获取的所有车辆的全方位实时路景视频数据和当前所在位置数据,确定出目标车辆和对应的同属道路车辆之间的相对位置关系,包括:
计算出每个当前可获取的非目标车辆的当前所在位置数据和目标车辆的当前所在位置数据的差值;
在所有当前可获取的非目标车辆中筛选出差值在当前所在道路的差值阈值之内的非目标车辆当作目标车辆的同属道路车辆;
基于所有同属道路车辆的全方位实时路景视频数据和目标车辆的全方位实时路景视频数据,分析出同属道路车辆与目标车辆之间的相对位置关系。
该实施例中,目标车辆即为被本实施例中的基于数字数据处理的车路协同方法指令引导或控制的车辆。
该实施例中,当前所在位置数据即为目标车辆当前所在位置的位置数据,用经纬度表示。
该实施例中,道路云端数据即为存储在道路云端数据库里,且表征当前所在道路的相关信息的数据,例如:包含的总车道数、道路损坏位置、道路是否在维护检修、道路长度和宽度、道路方向、道路终端的红绿灯位置和时长。
该实施例中,车载摄像模块即为设置在车辆上的摄像装置,用于获取车辆周围全方位的实时视频,路景即为包含道路及其周围物景在内的实体物景。
该实施例中,全方位实时路景视频数据即为基于车载摄像模块实时获取的包含车辆周围全方位物景的视频数据。
该实施例中,最新道路云端数据基于全方位实时路景视频数据更新对应道路云端数据之后获得的最新的道路云端数据,例如:最新确定出的每个道路包含的车道总数、道路损坏位置、道路是否在维护检修、道路长度和宽度、道路方向、道路终端的红绿灯位置和时长等。
该实施例中,同属道路车辆即为在当前时刻与目标车辆属于在同一道路内行驶的车辆,即目标车辆的当前所在道路和同属道路车辆的当前所在道路一致。
该实施例中,相对位置关系即为目标车辆和同属道路车辆在当前所在道路中的相对位置。
该实施例中,协同管理目标例如对目标车辆进行提前换道提醒、或者判断目标车辆与相邻车辆之间的距离是否大于安全距离;
其中,判断目标车辆与相邻车辆之间的距离是否大于安全距离,包括:
基于相对位置关系确定出与目标车辆相邻的同属道路车辆,并判断出目标车辆与对应相邻的同属道路车辆之间的间距(根据目标车辆与对应相邻的同属道路车辆之间的相对位置关系确定出的)是否大于安全距离,若是,则发出提醒指令,否则,保留比较结果。
该实施例中,非目标车辆即为当前可获取的所有车辆中除目标车辆以外剩余的车辆。
该实施例中,计算出每个当前可获取的非目标车辆的当前所在位置数据和目标车辆的当前所在位置数据的差值,即为:基于每个当前可获取的非目标车辆的当前所在位置数据和目标车辆的当前所在位置数据计算出非目标车辆和目标车辆之间的间距。
该实施例中,差值阈值即为预设的用于在非目标车辆中筛选出目标车辆的同属道路车辆时参考的预设差值阈值。
以上技术的有益效果为:基于实时获取的全方位实时路景视频实现对道路云端数据的实时完善,也通过对当前可获取的所有车辆的全方位实时路景视频数据和当前所在位置数据的融合分析,实现了对道路中目标车辆与其他车辆之间的相对位置关系的准确确定,丰富了车路协同管理所依据的信息,进而提高了对目标车辆的车路协同管理效果;基于当前可获取的所有车辆的全方位实时路景视频数据和当前所在位置数据,并结合差值阈值,在所有非目标车辆中筛选出目标车辆的同属道路车辆,并基于所有同属道路车辆的全方位实时路景视频数据和目标车辆的全方位实时路景视频数据更进一步分析出所有车辆之间准确的相对位置关系。
实施例2:
在实施例1的基础上,所述的一种基于数字数据处理的车路协同方法,S1:基于目标车辆的当前所在位置数据,调取对应当前所在道路的道路云端数据,参考图2,包括:
S101:基于车载道路定位模块获取目标车辆的当前所在位置数据;
S102:基于当前所在位置数据确定出当前所在道路,并在道路云端数据库中调取当前所在道路的道路云端数据。
该实施例中,车载道路定位模块,例如GPS模块,即用于获取车辆的实时位置数据的功能模块。
该实施例中,当前所在道路即为基于当前所在位置数据中表示的车辆当前所在位置的实时经纬度,检索电子地图,确定出车辆当前所在道路。
该实施例中,道路云端数据库即为用于存储道路云端数据的数据库。
以上技术的有益效果为:基于车载道路定位模块获取的当前所在位置数据检索电子地图确定出当前所在道路,并基于当前所在道路准确调取出对应的道路云端数据。
实施例3:
在实施例1的基础上,所述的一种基于数字数据处理的车路协同方法,S2:基于当前可获取的所有车辆的车载摄像模块获取的全方位实时路景视频数据更新对应道路云端数据,获得最新道路云端数据,参考图3,包括:
S201:在道路云端数据中确定出全方位实时路景视频数据对应的同形式道路云端数据和异形式道路云端数据;
S202:在全方位实时路景视频数据中确定出与同形式道路云端数据覆盖的信息类目一致的第一全方位实时路景视频数据,并基于第一全方位实时路景视频数据更新同形式道路云端数据,获得最新同形式道路云端数据;
S203:确定出全方位实时路景视频数据中除第一全方位实时路景视频数据以外剩余的第二全方位实时路景视频数据;
S204:将第二全方位实时路景视频数据与异形式道路云端数据分别进行双向形式转换,基于双向形式转换后的结果更新异形式道路云端数据,获得最新异形式道路云端数据;
S205:将最新同形式道路云端数据和最新异形式道路云端数据汇总,获得最新道路云端数据。
该实施例中,同形式道路云端数据即为道路云端数据中包含的与全方位实时路景视频数据的数据形式一致(即为数据格式一致,例如:道路云端数据中信息类目为“道路两侧物景”的数据与全方位实时路景视频数据的数据格式一致,都是采用视频数据)的部分道路云端数据。
该实施例中,异形式道路云端数据即为道路云端数据中包含的与全方位实时路景视频数据的数据形式不一致(即数据格式不一致,例如:道路云端数据中信息类目为“总车道数、道路是否在维护检修、道路长度和宽度、道路方向、道路终端的红绿灯位置和时长”的数据的数据格式为“文字数据”或“数字数据”,而全方位实时路景视频数据的数据格式为视频数据)的部分道路云端数据。
该实施例中,信息类目即为全方位实时路景视频数据和道路云端数据中包含的信息种类,例如:总车道数、道路损坏位置、道路是否在维护检修、道路长度和宽度、道路方向、道路终端的红绿灯位置和时长、道路两侧物景。
该实施例中,第一全方位实时路景视频数据即为全方位实时路景视频数据中与同形式道路云端数据覆盖的信息类目一致的部分全方位实时路景视频数据。
该实施例中,最新同形式道路云端数据即为基于第一全方位实时路景视频数据更新同形式道路云端数据后最新获得的同形式道路云端数据。
该实施例中,第二全方位实时路景视频数据即为全方位实时路景视频数据中除第一全方位实时路景视频数据以外剩余的部分全方位实时路景视频数据。
该实施例中,双向形式转换即为将第二全方位实时路景视频数据的数据形式转换为异形式道路云端数据中的数据形式,同时,将异形式道路云端数据的数据形式转换为第二全方位实时路景视频数据的数据形式。
该实施例中,最新异形式道路云端数据即为基于双向形式转换后的结果更新异形式道路云端数据后最新获得的异形式道路云端数据。
以上技术的有益效果为:基于道路云端数据和全方位实时路景视频数据的数据形式和覆盖的信息类目,实现基于全方位实时路景视频数据中与同形式道路云端数据覆盖的信息类目一致的第一全方位实时路景视频数据更新同形式道路云端数据,并基于第二全方位实时路景视频数据与异形式道路云端数据分别进行双向形式转换更新异形式道路云端数据,进而基于全方位实时路景视频数据实现对道路云端数据的更新。
实施例4:
在实施例3的基础上,所述的一种基于数字数据处理的车路协同方法,基于第一全方位实时路景视频数据更新同形式道路云端数据,获得最新同形式道路云端数据,包括:
确定出第一全方位实时路景视频数据和同形式道路云端数据中数据不同的差别信息类目;
将同形式道路云端数据差别信息类目包含的数据替换为第一全方位实时路景视频数据中对应差别信息类目包含的数据,获得最新同形式道路云端数据。
该实施例中,差别信息类目即为第一全方位实时路景视频数据和同形式道路云端数据中同一信息类目中数据不同的信息类目。
以上技术的有益效果为:基于确定出的第一全方位实时路景视频数据和同形式道路云端数据中数据不同的差别信息类目,实现同形式道路云端数据和第一全方位实时路景视频数据中的差别信息类目的数据的准确替换,即完成对同形式道路云端数据的高效准确更新。
实施例5:
在实施例3的基础上,所述的一种基于数字数据处理的车路协同方法,S204:将第二全方位实时路景视频数据与异形式道路云端数据分别进行双向形式转换,基于双向形式转换后的结果更新异形式道路云端数据,获得最新异形式道路云端数据,包括:
将第二全方位实时路景视频数据的数据形式转换为异形式道路云端数据的数据形式,获得第一转换数据;
将异形式道路云端数据的数据形式转换为第二全方位实时路景视频数据的数据形式,获得第二转换数据;
将第一转换数据与异形式道路云端数据进行作差比对,获得第一差别数据;
将第二转换数据与第二全方位实时路景视频数据进行作差比对,获得第二差别数据;
将第一差别数据的数据形式转换为预设数据形式,获得第一标准形式差别数据,同时,将第二差别数据的数据形式转换为预设数据形式,获得第二标准形式差别数据;
将第一标准形式差别数据和第二标准形式差别数据的共有数据的数据形式转换为异形式道路云端数据的数据形式,获得待更新数据;
将待更新数据和异形式道路云端数据进行去重合并,获得最新异形式道路云端数据。
该实施例中,第一转换数据即为将第二全方位实时路景视频数据的数据形式转换为异形式道路云端数据的数据形式后获得的数据。
该实施例中,将第二全方位实时路景视频数据的数据形式转换为异形式道路云端数据的数据形式,获得第一转换数据,包括:
基于预先训练好的视频分析模型(即为基于大量被标记出每个信息类目(即异形式道路云端数据中包含的信息类目)的具体数据(以异形式道路云端数据的数据形式标记)的视频数据训练出的分析模型)对第二全方位实时路景视频数据进行视频分析,读取出异形式道路云端数据中包含的信息类目的数据,并将读取出的数据当作第一转换数据。
该实施例中,第二转换数据即为将异形式道路云端数据的数据形式转换为第二全方位实时路景视频数据的数据形式后获得的数据。
该实施例中,将异形式道路云端数据的数据形式转换为第二全方位实时路景视频数据的数据形式,获得第二转换数据,包括:
基于异形式道路云端数据进行三维重建获得三维重建模型,基于三维重建模型生成视频数据(即按照预设视角对三维重建模型进行拍摄获得的动画视频数据),即获得第二转换数据。
该实施例中,第一差别数据即为第一转换数据与异形式道路云端数据中不同的数据。
该实施例中,第二差别数据即为第二转换数据与第二全方位实时路景视频数据中不同的数据。
该实施例中,预设数据形式即为预设的数据格式,例如:文字数据的数据格式。
该实施例中,第一标准形式差别数据即为将第一差别数据的数据形式转换为预设数据形式后获得的数据。
该实施例中,第二标准形式差别数据即为将第二差别数据的数据形式转换为预设数据形式后获得的数据。
该实施例中,共有数据即为第一标准形式差别数据和第二标准形式差别数据中相同的数据。
该实施例中,待更新数据即为将第一标准形式差别数据和第二标准形式差别数据的共有数据的数据形式转换为异形式道路云端数据的数据形式后获得的数据。
该实施例中,将待更新数据和异形式道路云端数据进行去重合并即为:
将待更新数据的数据形式转换为异形式道路云端数据的数据形式,获得形式转换后的待更新数据;
将形式转换后的待更新数据中与异形式道路云端数据中相同的数据删除,并将形式转换后的待更新数据中与异形式道路云端数据中不相同的数据与异形式道路云端数据合并。
以上技术的有益效果为:通过将第二全方位实时路景视频数据和异形式道路云端数据的数据形式进行互相转换后与对方进行作差比对,获得差别数据,将双向形式转换并作差比对后的差别数据中的共有数据转换为预设数据形式,获得待更新数据,基于以上过程大大减小了待更新数据的误差,通过将待更新数据和异形式道路数据的去重合并,实现对异形式道路云端数据的高精度更新。
实施例6:
在实施例1的基础上,所述的一种基于数字数据处理的车路协同方法,基于所有同属道路车辆的全方位实时路景视频数据和目标车辆的全方位实时路景视频数据,分析出同属道路车辆与目标车辆之间的相对位置关系,包括:
基于同区色差阈值对全方位实时路景视频数据中的每个视频帧进行色区划分,获得多个划分色区;
基于异帧色差阈值,对不同全方位实时路景视频数据中包含的视频帧中的划分色区进行匹配,获得异帧色区匹配结果;
在异帧色区匹配结果中确定出成功匹配视频帧组合;
将成功匹配视频帧组合中两个视频帧输入至预先训练好的相对拍摄位姿分析模型中,获得成功匹配视频帧组合中两个视频帧的相对拍摄位姿关系;
基于成功匹配视频帧组合中两个视频帧的获取来源和相对拍摄位姿关系,确定出两个视频帧对应的车辆之间的相对位置关系;
基于确定出的所有相对位置关系确定出同属道路车辆与目标车辆之间的相对位置关系;
其中,相对拍摄位姿分析模型用于识别出两个视频帧的相对拍摄位姿关系,相对拍摄位姿关系即为两个车载摄像模块在获取两个视频帧时对应的拍摄位置和拍摄角度的位姿数据,用三维坐标系表示。
该实施例中,同区色差阈值即为对视频帧进行色区划分时参考的预设色差阈值,即划分色区内的像素点之间的最大色度差不超出同区色差阈值。
该实施例中,基于同区色差阈值对全方位实时路景视频数据中的每个视频帧进行色区划分,即为:
将全方位实时路景视频数据中的每个视频帧中像素点之间的色度差不超出同区色差阈值的像素点划分为同一划分色区。
该实施例中,划分色区即为对视频帧进行色区划分后获得的色区。
该实施例中,异帧色差阈值即为对不同全方位实时路景视频数据中包含的视频帧中的划分色区进行匹配时参考的预设色差阈值,即不同全方位实时路景视频数据中包含的两个视频帧中的划分色区的平均色度之间差值不超过异帧色差阈值。
该实施例中,异帧色区匹配结果即为基于异帧色差阈值对不同全方位实时路景视频数据中包含的视频帧中的划分色区进行匹配后获得的结果,其中包含两个不同全方位实时路景视频数据中的视频帧中的划分色区(即两个划分色区的组合)。
该实施例中,成功匹配视频帧组合即为在异帧色区匹配结果中确定出的匹配成功的视频帧形成的组合,该两个匹配成功的视频帧是属于不同全方位实时路景视频数据的。
该实施例中,基于成功匹配视频帧组合中两个视频帧的获取来源和相对拍摄位姿关系,确定出两个视频帧对应的车辆之间的相对位置关系,包括:
将相对拍摄位姿关系在三维坐标系表示,获得三维坐标系中的两个拍摄点(即车载摄像模块在三维坐标系中假设位置,因为基于相对拍摄位姿关系可以确定出两个拍摄点之间的约束关系,则将这种约束关系在三维坐标系中表示出来),并基于视频帧的获取来源中的拍摄角度和所属车辆的车载摄像模块的设置位置,确定出两个所属车辆的中心点与拍摄点之间的相对位置,基于两个所属车辆的中心点与拍摄点之间的相对位置以及对应拍摄点在三维坐标系中的标记位置,确定出两个所属车辆中心点在三维坐标系中的标记位置;
基于两个所属车辆中心点在三维坐标系中的标记位置确定出两个视频帧对应的车辆之间的相对位置关系。
该实施例中,预先训练好的相对拍摄位姿分析模型是预先经过大量确定出相对拍摄位姿关系的视频帧训练好的,用于识别出两个视频帧的相对拍摄位姿关系的模型。
该实施例中,获取来源即为视频帧中的物景相对于所属车辆的拍摄角度(例如是获取的所属车辆正后方的物景的视频帧)。
该实施例中,相对拍摄位姿关系即为表征两个车载摄像模块在获取两个视频帧时对应的拍摄位置和拍摄角度的位姿数据,用三维坐标系表示。
以上技术的有益效果为:通过基于同区色差阈值对全方位实时路景视频数据中的每个视频帧进行色区划分、色区匹配,实现了对同属道路车辆和目标车辆的全方位实时路景视频数据之间的高精度目标匹配,进而确定出成功匹配视频帧组合,并基于确定出的成功匹配视频帧组合中两个视频帧的相对拍摄位姿关系,确定出车辆之间的相对位置关系,实现基于对同属道路车辆与目标车辆之间的相对位置关系的准确分析确定。
实施例7:
在实施例6的基础上,所述的一种基于数字数据处理的车路协同方法,基于异帧色差阈值,对不同全方位实时路景视频数据中包含的视频帧中的划分色区进行匹配,获得异帧色区匹配结果,包括:
将属于不同全方位实时路景视频数据的两个视频帧当作非同属视频帧组合,将属于非同属视频帧组合中不同的非同属视频帧的划分色区当作异帧划分色区组合;
计算出异帧划分色区组合中两个异帧划分色区的平均色度之间的色度差,并将色度差不超过异帧色差阈值的两个异帧划分色区当作匹配成功划分色区组合;
基于非同属视频帧组合中包含的所有匹配成功划分色区组合,计算出非同属视频帧组合的匹配成功率,将匹配成功率超过成功率阈值的所有非同属视频帧组合中包含所有匹配成功划分色区组合当作异帧色区匹配结果。
该实施例中,非同属视频帧组合即为属于不同全方位实时路景视频数据的两个视频帧。
该实施例中,非同属视频帧即为非同属视频帧组合中的视频帧。
该实施例中,异帧划分色区组合即为由非同属视频帧组合中不同的非同属视频帧中的划分色区组合而成的。
该实施例中,匹配成功划分色区组合即为包含的两个异帧划分色区的平均色度之间的色度差不超过异帧色差阈值的两异帧划分色区组合。
该实施例中,异帧划分色区即为异帧划分色区组合中包含的划分色区。
该实施例中,基于非同属视频帧组合中包含的所有匹配成功划分色区组合,计算出非同属视频帧组合的匹配成功率,即为:
将非同属视频帧组合中包含的匹配成功划分色区组合的总数与非同属视频组合中包含的所有划分色区除以2的商的比值,当作非同属视频帧组合的匹配成功率。
该实施例中,成功率阈值即为用于确定出异帧色区匹配结果时参考的匹配成功率的预设阈值。
以上技术的有益效果为:通过在不同全方位实时路景视频数据中确定出非同属视频帧组合,并在非同属视频帧组合中确定出异帧划分色区组合,再基于异帧划分色区组合中两个异帧划分色区的平均色度的色度差和异帧色差阈值确定出匹配成功划分色区组合,基于匹配成功划分色区组合的数量确定出非同属视频帧组合的匹配成功率,并结合成功率阈值确定出异帧色区匹配结果,进而经过多次划分归类计算匹配过程确定出准确的异帧色区匹配结果。
实施例8:
在实施例7的基础上,所述的一种基于数字数据处理的车路协同方法,在异帧色区匹配结果中确定出成功匹配视频帧组合,包括:
按照预设方式在每个划分色区的轮廓上确定出预设个数的标志点,基于标志点在对应视频帧中的坐标值和第一预设确定顺序,生成每个划分色区的轮廓标志点坐标序列;
基于每个划分色区的中心坐标与对应的相邻划分色区的轮廓标志点坐标序列中每个标志点的坐标值之间的坐标差值,生成对应划分色区和对应相邻划分色区的标志点间距序列;
基于划分色区和对应的所有相邻划分色区的标志点间距序列以及第二预设确定顺序,生成对应划分色区的相邻色区形状表征矩阵;
基于异帧色区匹配结果中的匹配成功划分色区组合中的两个划分色区的相邻色区形状表征矩阵,计算出匹配成功划分色区组合中两个划分色区的邻域匹配度;
基于非同属视频帧组合中所有匹配成功划分色区组合的邻域匹配度,计算出非同属视频帧组合的综合匹配度;
将综合匹配度不小于匹配度阈值的非同属视频帧组合当作成功匹配视频帧组合。
该实施例中,预设方式例如:将划分色区的轮廓与在预设坐标系的坐标轴的四个方向(横坐标的正负方向和纵坐标的正负方向)的交点当作标志点。
该实施例中,预设个数例如4个。
该实施例中,标志点即为按照预设方式在划分色区的轮廓上确定出的点。
该实施例中,第一预设确定顺序例如从预设坐标系的横坐标的正方向与划分色区的轮廓的交点开始、以逆时针为方向确定出的标志点的顺序。
该实施例中,轮廓标志点坐标序列即为划分色区的标志点在对应视频帧中的坐标值按照第一预设确定顺序排序后获得的序列。
该实施例中,中心坐标即为划分色区中所有点的坐标值的平均值。
该实施例中,坐标差值即为基于两个点的坐标值计算出的两个点之间的间距。
该实施例中,标志点间距序列即为划分色区的中心点与对应相邻划分色区的轮廓标志点坐标序列中的标志点之间的间距按照轮廓标志点序列中的顺序排序后获得的序列。
该实施例中,第二预设确定顺序即为确定相邻划分色区的顺序,例如:将与预设坐标系的横坐标轴正或负方向交叉的相邻划分色区开始、以逆时针方向的顺序确定出的相邻划分色区的方向。
该实施例中,基于划分色区和对应的所有相邻划分色区的标志点间距序列以及第二预设确定顺序,生成对应划分色区的相邻色区形状表征矩阵,即为:
将按照第二预设确定顺序将所有相邻划分色区的标志点间距序列转换为列数据后排序获得的矩阵当作对应划分色区的相邻色区形状表征矩阵。
该实施例中,相邻色区形状表征矩阵即为表征对应划分色区在所属视频帧中的所有相邻色区的位置和形状的表征矩阵。
该实施例中,基于异帧色区匹配结果中的匹配成功划分色区组合中的两个划分色区的相邻色区形状表征矩阵,计算出匹配成功划分色区组合中两个划分色区的邻域匹配度,包括:
式中,为匹配成功划分色区组合中两个划分色区的邻域匹配度,/>为相邻色区形状表征矩阵中的数值总数,/>为匹配成功划分色区组合中的第一个划分色区的相邻色区形状表征矩阵中的第/>个数值,/>为匹配成功划分色区组合中的第二个划分色区的相邻色区形状表征矩阵中的第/>个数值;
基于上述公式可以基于异帧色区匹配结果中的匹配成功划分色区组合中的两个划分色区的相邻色区形状表征矩阵准确计算出匹配成功划分色区组合中两个划分色区的邻域匹配度。
该实施例中,邻域匹配度即为表征匹配成功划分色区组合中第一个划分色区在所属的视频帧中对应的所有相邻划分色区与第二个划分色区在所属的视频帧中对应的所有相邻划分色区之间的匹配程度的数值。
该实施例中,基于非同属视频帧组合中所有匹配成功划分色区组合的邻域匹配度,计算出非同属视频帧组合的综合匹配度,即为:
将非同属视频帧组合中所有匹配成功划分色区组合的邻域匹配度的平均值当作非同属视频帧组合的综合匹配度。
该实施例中,综合匹配度即为表征非同属视频帧组合的综合匹配度包含的两个非同属视频帧之间的匹配度。
该实施例中,匹配度阈值即为在非同属视频帧组合中筛选出成功匹配视频帧组合时依据的综合匹配度的预设阈值。
以上技术的有益效果为:基于确定出划分色区中心点和对应相邻划分色区轮廓上确定出的标志点的坐标值构成的轮廓标志点之间的间距构成的序列,将划分色区和相邻划分色区的相对位置和轮廓用简单的数据表示,并基于标志点间距序列生成相邻色区形状表征矩阵,实现了利用矩阵表示划分色区对应的所有相邻划分色区的位置和形状,并基于该相邻色度形状表征矩阵准确计算出划分色区之间的领域匹配度,并进一步计算出非同属视频帧组合的综合匹配度,并结合匹配度阈值筛选出成功匹配视频帧组合,实现了将色区的具体位置形状转换为直观数据,并高效准确地计算出色区位置形状的匹配度,进而确定出匹配结果。
实施例9:
在实施例1的基础上,所述的一种基于数字数据处理的车路协同方法,S4:基于目标车辆、对应的同属道路车辆之间的相对位置关系和目标车辆的协同管理目标以及最新道路云端数据,对目标车辆进行指令引导或控制,包括:
当协同管理目标为换道提醒时,则基于相对位置关系确定出目标车辆的当前所在车道;
基于目标车辆的当前所在道路和当前所在车道以及当前所选规划路线,判断出目标车辆是否需要换道,若是,则确定出目标车辆的目标车道,基于当前可获取的所有同属道路车辆的当前所在车道、最新道路云端数据和当前所选规划路线以及目标车辆的目标车道,估算出最佳换道提示时间;
基于最佳换道提示时间对目标车辆内的驾驶员进行语音换道提示;
否则,将对应的判断结果保留。
该实施例中,换道提醒即为用于及时提醒驾驶者提前准确换道,可以降低驾驶者的换道难度(因为有时候由于交通拥堵或者道路状况不佳等因素,需要驾驶者提前准备换道,否则,会导致换道困难或者脱离原导航路线)。
该实施例中,基于相对位置关系确定出目标车辆的当前所在车道,包括:
将目标车辆和同属道路车辆的全方位实时路景视频中不包含车辆的全方位实时路景视频的所属车辆当作边缘车辆,将边缘车辆的不包含车辆的全方位实时路景视频输入至车道分析模型(即为采用大量不包含车辆的全方位实时路景视频训练获得的、用于分析出全方位实时路景视频的所属车辆与道路边缘之间的间隔车道数),确定出边缘车辆与对应道路边缘之间的间隔车道数;
基于间隔车道数和相对位置关系确定出边缘车辆的当前所在车道(例如:在当前所在道路的左一车道);
基于边缘车辆的当前所在车道和相对位置关系确定出目标车辆和其他同属道路车辆的当前所在车道。
该实施例中,当前所选规划路线即为目标车辆的车载导航中选择的当前导航路线。
该实施例中,基于目标车辆的当前所在道路和当前所在车道以及当前所选规划路线,判断出目标车辆是否需要换道,包括:
基于目标车辆的当前所在道路和当前所选规划路线确定出下一驶入道路的驶入方向(例如:左转、右转、直行、调头),并确定出驶入方向对应的目标车道(例如左转对应左一和左二车道),当目标车道中包含当前所在车道时,则判定目标车辆不需要换道,否则,判定目标车辆需要换道。
该实施例中,当前所在车道即为即为车辆当前所在的车道,例如:在当前所在道路的左一车道。
该实施例中,目标车道即为行驶至当前所选规划道路接下来的驶入方向时需要所在的车道。
该实施例中,基于当前可获取的所有同属道路车辆的当前所在车道、最新道路云端数据和当前所选规划路线以及目标车辆的目标车道,估算出最佳换道提示时间,包括:
基于当前可获取的所有同属道路车辆的当前所在车道计算确定出当前所在道路中每个车道的拥挤程度(即基于当前可获取的所有同属道路车辆的当前所在车道确定出每个车道的当前容纳车辆数,将当前容纳车辆数与当前所在道路预设的单车道最大车辆容纳量的比值当作车道的拥挤程度);
基于目标车辆的当前所在车道和目标车道确定出目标车辆的换道总数(例如:从左一车道换到左三车道,对应的换道总数为两个车道,将左一车道换到右一车道,对应的换道总数为当前所在道路的总车道数减一);
基于最新道路云端数据确定出当前所在道路包含的车道总数;
基于每个车道拥挤程度和目标车辆的换道总数以及当前所在道路包含的车道总数计算出最佳换道提示时间,包括:
式中,为最佳换道提示时间(即从目标车辆驶入当前所在道路开始的/>时刻,即最佳换道提示时间与目标车辆驶入当前所在道路的开始时间的时间间隔为/>),/>为当前所在道路的总长度,/>为目标车辆的当前平均配速,/>为目标车辆从当前车道至目标车道所经过的第j个车道的拥挤程度,/>为目标车辆从当前车道至目标车道所经过的车道总数,/>为目标车辆的换道总数,/>为当前所在道路包含的车道总数;
基于上述公式通过可以综合考虑当前所在道路的拥挤程度以及目标车辆的换道总数准确估算出最佳换道提示时间。
该实施例中,最佳换道提示时间即为对目标车辆内驾驶员进行语音换道提示时的最佳时间。
该实施例中,语音换道提示即为发出提醒换道的语音提醒。
该实施例中,判断结果即为判断出目标车辆是否需要换道。
以上技术的有益效果为:基于相对位置关系确定出的目标车辆的当前所在车道,并结合目标车辆的当前所在道路和当前所选规划路线实现对目标车辆的换道需求的智能判断,当需要换道时,基于当前可获取的所有同属道路车辆的当前所在车道和当前所选规划路线以及最新道路云端数据估算出最佳换道提示时间,实现对目标车辆内驾驶员的及时语音换道提示,大大降低了驾驶员的换道难度和驾驶难度,减少了行驶错误率。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (6)

1.一种基于数字数据处理的车路协同方法,其特征在于,包括:
S1:基于目标车辆的当前所在位置数据,调取对应当前所在道路的道路云端数据;
S2:基于当前可获取的所有车辆的车载摄像模块获取的全方位实时路景视频数据更新对应道路云端数据,获得最新道路云端数据;
S3:基于当前可获取的所有车辆的全方位实时路景视频数据和当前所在位置数据,确定出目标车辆和对应的同属道路车辆之间的相对位置关系;
S4:基于目标车辆、对应的同属道路车辆之间的相对位置关系和目标车辆的协同管理目标以及最新道路云端数据,对目标车辆进行指令引导或控制;
其中,所有车辆包含目标车辆和非目标车辆;
其中,步骤S2:基于当前可获取的所有车辆的车载摄像模块获取的全方位实时路景视频数据更新对应道路云端数据,获得最新道路云端数据,包括:
S201:在道路云端数据中确定出全方位实时路景视频数据对应的同形式道路云端数据和异形式道路云端数据;
S202:在全方位实时路景视频数据中确定出与同形式道路云端数据覆盖的信息类目一致的第一全方位实时路景视频数据,并基于第一全方位实时路景视频数据更新同形式道路云端数据,获得最新同形式道路云端数据;
S203:确定出全方位实时路景视频数据中除第一全方位实时路景视频数据以外剩余的第二全方位实时路景视频数据;
S204:将第二全方位实时路景视频数据与异形式道路云端数据分别进行双向形式转换,基于双向形式转换后的结果更新异形式道路云端数据,获得最新异形式道路云端数据;
S205:将最新同形式道路云端数据和最新异形式道路云端数据汇总,获得最新道路云端数据;
其中,同形式道路云端数据即为道路云端数据中包含的与全方位实时路景视频数据的数据形式一致的部分道路云端数据;
其中,异形式道路云端数据即为道路云端数据中包含的与全方位实时路景视频数据的数据形式不一致的部分道路云端数据;
其中,基于第一全方位实时路景视频数据更新同形式道路云端数据,获得最新同形式道路云端数据,包括:
确定出第一全方位实时路景视频数据和同形式道路云端数据中数据不同的差别信息类目;
将同形式道路云端数据差别信息类目包含的数据替换为第一全方位实时路景视频数据中对应差别信息类目包含的数据,获得最新同形式道路云端数据;
其中,S204:将第二全方位实时路景视频数据与异形式道路云端数据分别进行双向形式转换,基于双向形式转换后的结果更新异形式道路云端数据,获得最新异形式道路云端数据,包括:
将第二全方位实时路景视频数据的数据形式转换为异形式道路云端数据的数据形式,获得第一转换数据;
将异形式道路云端数据的数据形式转换为第二全方位实时路景视频数据的数据形式,获得第二转换数据;
将第一转换数据与异形式道路云端数据进行作差比对,获得第一差别数据;
将第二转换数据与第二全方位实时路景视频数据进行作差比对,获得第二差别数据;
将第一差别数据的数据形式转换为预设数据形式,获得第一标准形式差别数据,同时,将第二差别数据的数据形式转换为预设数据形式,获得第二标准形式差别数据;
将第一标准形式差别数据和第二标准形式差别数据的共有数据的数据形式转换为异形式道路云端数据的数据形式,获得待更新数据;
将待更新数据和异形式道路云端数据进行去重合并,获得最新异形式道路云端数据;
其中,步骤S3:基于当前可获取的所有车辆的全方位实时路景视频数据和当前所在位置数据,确定出目标车辆和对应的同属道路车辆之间的相对位置关系,包括:
计算出每个当前可获取的非目标车辆的当前所在位置数据和目标车辆的当前所在位置数据的差值;
在所有当前可获取的非目标车辆中筛选出差值在当前所在道路的差值阈值之内的非目标车辆当作目标车辆的同属道路车辆;
基于所有同属道路车辆的全方位实时路景视频数据和目标车辆的全方位实时路景视频数据,分析出同属道路车辆与目标车辆之间的相对位置关系。
2.根据权利要求1所述的一种基于数字数据处理的车路协同方法,其特征在于,S1:基于目标车辆的当前所在位置数据,调取对应当前所在道路的道路云端数据,包括:
S101:基于车载道路定位模块获取目标车辆的当前所在位置数据;
S102:基于当前所在位置数据确定出当前所在道路,并在道路云端数据库中调取当前所在道路的道路云端数据。
3.根据权利要求1所述的一种基于数字数据处理的车路协同方法,其特征在于,基于所有同属道路车辆的全方位实时路景视频数据和目标车辆的全方位实时路景视频数据,分析出同属道路车辆与目标车辆之间的相对位置关系,包括:
基于同区色差阈值对全方位实时路景视频数据中的每个视频帧进行色区划分,获得多个划分色区;
基于异帧色差阈值,对不同全方位实时路景视频数据中包含的视频帧中的划分色区进行匹配,获得异帧色区匹配结果;
在异帧色区匹配结果中确定出成功匹配视频帧组合;
将成功匹配视频帧组合中两个视频帧输入至预先训练好的相对拍摄位姿分析模型中,获得成功匹配视频帧组合中两个视频帧的相对拍摄位姿关系;
基于成功匹配视频帧组合中两个视频帧的获取来源和相对拍摄位姿关系,确定出两个视频帧对应的车辆之间的相对位置关系;
基于确定出的所有相对位置关系确定出同属道路车辆与目标车辆之间的相对位置关系;
其中,相对拍摄位姿分析模型用于识别出两个视频帧的相对拍摄位姿关系,相对拍摄位姿关系即为两个车载摄像模块在获取两个视频帧时对应的拍摄位置和拍摄角度的位姿数据,用三维坐标系表示。
4.根据权利要求3所述的一种基于数字数据处理的车路协同方法,其特征在于,基于异帧色差阈值,对不同全方位实时路景视频数据中包含的视频帧中的划分色区进行匹配,获得异帧色区匹配结果,包括:
将属于不同全方位实时路景视频数据的两个视频帧当作非同属视频帧组合,将属于非同属视频帧组合中不同的非同属视频帧的划分色区当作异帧划分色区组合;
计算出异帧划分色区组合中两个异帧划分色区的平均色度之间的色度差,并将色度差不超过异帧色差阈值的两个异帧划分色区当作匹配成功划分色区组合;
基于非同属视频帧组合中包含的所有匹配成功划分色区组合,计算出非同属视频帧组合的匹配成功率,将匹配成功率超过成功率阈值的所有非同属视频帧组合中包含所有匹配成功划分色区组合当作异帧色区匹配结果。
5.根据权利要求4所述的一种基于数字数据处理的车路协同方法,其特征在于,在异帧色区匹配结果中确定出成功匹配视频帧组合,包括:
按照预设方式在每个划分色区的轮廓上确定出预设个数的标志点,基于标志点在对应视频帧中的坐标值和第一预设确定顺序,生成每个划分色区的轮廓标志点坐标序列;
基于每个划分色区的中心坐标与对应的相邻划分色区的轮廓标志点坐标序列中每个标志点的坐标值之间的坐标差值,生成对应划分色区和对应相邻划分色区的标志点间距序列;
基于划分色区和对应的所有相邻划分色区的标志点间距序列以及第二预设确定顺序,生成对应划分色区的相邻色区形状表征矩阵;
基于异帧色区匹配结果中的匹配成功划分色区组合中的两个划分色区的相邻色区形状表征矩阵,计算出匹配成功划分色区组合中两个划分色区的邻域匹配度;
基于非同属视频帧组合中所有匹配成功划分色区组合的邻域匹配度,计算出非同属视频帧组合的综合匹配度;
将综合匹配度不小于匹配度阈值的非同属视频帧组合当作成功匹配视频帧组合。
6.根据权利要求1所述的一种基于数字数据处理的车路协同方法,其特征在于,S4:基于目标车辆、对应的同属道路车辆之间的相对位置关系和目标车辆的协同管理目标以及最新道路云端数据,对目标车辆进行指令引导或控制,包括:
当协同管理目标为换道提醒时,则基于相对位置关系确定出目标车辆的当前所在车道;
基于目标车辆的当前所在道路和当前所在车道以及当前所选规划路线,判断出目标车辆是否需要换道,若是,则确定出目标车辆的目标车道,基于当前可获取的所有同属道路车辆的当前所在车道、最新道路云端数据和当前所选规划路线以及目标车辆的目标车道,估算出最佳换道提示时间;
基于最佳换道提示时间对目标车辆内的驾驶员进行语音换道提示;
否则,将对应的判断结果保留。
CN202310497590.2A 2023-05-06 2023-05-06 一种基于数字数据处理的车路协同方法 Active CN116229765B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310497590.2A CN116229765B (zh) 2023-05-06 2023-05-06 一种基于数字数据处理的车路协同方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310497590.2A CN116229765B (zh) 2023-05-06 2023-05-06 一种基于数字数据处理的车路协同方法

Publications (2)

Publication Number Publication Date
CN116229765A CN116229765A (zh) 2023-06-06
CN116229765B true CN116229765B (zh) 2023-07-21

Family

ID=86582909

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310497590.2A Active CN116229765B (zh) 2023-05-06 2023-05-06 一种基于数字数据处理的车路协同方法

Country Status (1)

Country Link
CN (1) CN116229765B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116403419B (zh) * 2023-06-07 2023-08-25 贵州鹰驾交通科技有限公司 基于车路协同的交通灯控制方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106652465A (zh) * 2016-11-15 2017-05-10 成都通甲优博科技有限责任公司 一种道路异常驾驶行为的识别方法及系统
CN109819160A (zh) * 2019-01-04 2019-05-28 惠州市凯越电子股份有限公司 基于ai和物联网的360全景行车可视辅助系统视频生成方法及装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699135B2 (en) * 2017-11-20 2020-06-30 Here Global B.V. Automatic localization geometry generator for stripe-shaped objects
DE102018203807A1 (de) * 2018-03-13 2019-09-19 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
CN110019276B (zh) * 2018-06-29 2024-01-30 珠海爱路达信息科技有限公司 一种智能公路设施数据采集与更新方法
JP7243370B2 (ja) * 2019-03-27 2023-03-22 株式会社アイシン 道路情報更新システム、経路探索システム、道路情報更新プログラム
CN110210384B (zh) * 2019-05-31 2021-10-22 北京科技大学 一种道路全局信息实时提取与表示系统
KR102305328B1 (ko) * 2019-12-24 2021-09-28 한국도로공사 카메라 기반의 자동화된 정밀도로지도 생성 시스템 및 방법
KR102327185B1 (ko) * 2019-12-24 2021-11-17 한국도로공사 정밀도로지도 갱신을 위한 객체 변화 탐지 시스템 및 그 방법
US11440555B2 (en) * 2020-05-18 2022-09-13 Verizon Connect Development Limited Systems and methods for detecting and classifying an unsafe maneuver of a vehicle
CN112417953B (zh) * 2020-10-12 2022-07-19 腾讯科技(深圳)有限公司 道路状况检测和地图数据更新方法、装置、系统及设备
CN113436432A (zh) * 2021-05-24 2021-09-24 武汉理工大学 一种利用路侧观测数据进行路段短时交通风险预测的方法
US20220404167A1 (en) * 2021-06-22 2022-12-22 GM Global Technology Operations LLC Roadway occlusion detection and reasoning
CN113515536B (zh) * 2021-07-13 2022-12-13 北京百度网讯科技有限公司 地图的更新方法、装置、设备、服务器以及存储介质
CN113747388B (zh) * 2021-07-31 2023-08-18 重庆长安汽车股份有限公司 一种车辆的应急通信方法
CN113744563B (zh) * 2021-08-02 2023-03-10 北京工业大学 一种基于轨迹数据的路-车风险实时估计方法
CN114043984B (zh) * 2021-12-10 2023-09-26 合肥工业大学智能制造技术研究院 一种基于车联网环境下的智能汽车换道控制系统和方法
CN114295139A (zh) * 2021-12-14 2022-04-08 武汉依迅北斗时空技术股份有限公司 一种协同感知定位方法及系统
CN114435370B (zh) * 2022-03-02 2024-04-12 深圳市哲思特科技有限公司 用于泊车的自动路径规划方法及系统
CN114664103A (zh) * 2022-04-04 2022-06-24 长沙理工大学 一种自动驾驶下交叉口进出口车道方向动态控制方法
CN115239724B (zh) * 2022-09-22 2022-11-22 鹰驾科技(深圳)有限公司 一种360度全景环视拼接图像分析评价方法
CN115953730B (zh) * 2022-10-25 2023-08-08 贵州鹰驾交通科技有限公司 一种基于图像处理技术的智慧交通路面行驶状况监测平台
CN116045964A (zh) * 2023-01-16 2023-05-02 亿咖通(湖北)技术有限公司 高精地图更新方法及装置
CN115953912B (zh) * 2023-03-10 2023-05-23 深圳市新创中天信息科技发展有限公司 一种车路协同感知设备和方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106652465A (zh) * 2016-11-15 2017-05-10 成都通甲优博科技有限责任公司 一种道路异常驾驶行为的识别方法及系统
CN109819160A (zh) * 2019-01-04 2019-05-28 惠州市凯越电子股份有限公司 基于ai和物联网的360全景行车可视辅助系统视频生成方法及装置

Also Published As

Publication number Publication date
CN116229765A (zh) 2023-06-06

Similar Documents

Publication Publication Date Title
Yang et al. Generating lane-based intersection maps from crowdsourcing big trace data
CN113196291A (zh) 自动选择用于注释的数据样本
CN106935027A (zh) 一种基于行驶数据的交通信息预测方法及装置
CN108216229A (zh) 交通工具、道路线检测和驾驶控制方法及装置
CN109949590A (zh) 交通信号灯状态评估
CN109872533B (zh) 一种基于空间数据的车道级实时交通情报处理方法
CN105074793A (zh) 用于车辆路径规划和交通管理的车道级车辆导航
CN113112805B (zh) 一种基于基站通讯与路口摄像头定位的路口监测预警方法
CN1715835A (zh) 导航系统
CN116229765B (zh) 一种基于数字数据处理的车路协同方法
CN110470311A (zh) 一种地图生成方法、装置及计算机存储介质
CN106931981A (zh) 一种导航剩余时间的生成方法及装置
CN112249009B (zh) 车速控制方法、装置、系统及电子设备
CN114519940B (zh) 一种应用于智慧停车的大数据分析方法及设备
CN112837414B (zh) 基于车载点云数据的三维高精度地图的构建方法
US11776398B2 (en) Apparatus, system and method for merging and applying intersection data for a vehicle
DE102021133340A1 (de) Modalitätsübergreifendes aktives lernen zur objekterkennung
CN115615445A (zh) 处理地图数据的方法、系统和存储介质
WO2016163929A1 (en) Device and method for classification of road segments based on their suitability for platooning
CN108303112A (zh) 一个基于出租车群的城市包裹递送路线规划系统
CN111882913B (zh) 一种自动生成公交车辆线路走向的方法
CN115547054B (zh) 一种基于大数据的交通引导系统
CN115630056A (zh) 一种基于gps轨迹定位的道路巡查量化考核系统及方法
CN114969414A (zh) 地图更新方法及系统、超视距路况协同方法及系统
CN110795977B (zh) 交通信号识别方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant