CN115601393A - 轨迹生成方法、装置、设备和存储介质 - Google Patents

轨迹生成方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN115601393A
CN115601393A CN202211204309.3A CN202211204309A CN115601393A CN 115601393 A CN115601393 A CN 115601393A CN 202211204309 A CN202211204309 A CN 202211204309A CN 115601393 A CN115601393 A CN 115601393A
Authority
CN
China
Prior art keywords
track
scene
model
generation model
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211204309.3A
Other languages
English (en)
Other versions
CN115601393B (zh
Inventor
王寰东
李勇
金德鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202211204309.3A priority Critical patent/CN115601393B/zh
Publication of CN115601393A publication Critical patent/CN115601393A/zh
Application granted granted Critical
Publication of CN115601393B publication Critical patent/CN115601393B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明实施例提供一种轨迹生成方法、装置、设备和存储介质,该方法包括:获取第一场景下的用户移动轨迹;根据第一场景下的用户移动轨迹和第一轨迹生成模型,生成第二场景下的第一目标移动轨迹;其中,第一轨迹生成模型为基于第一场景和第二场景下包括用户移动轨迹的训练数据训练得到的。本发明实施例的方法实现了用户移动轨迹的生成。

Description

轨迹生成方法、装置、设备和存储介质
技术领域
本发明涉及虚拟仿真技术领域,尤其涉及一种轨迹生成方法、装置、设备和存储介质。
背景技术
随着移动互联网技术的发展,越来越多的应用利用移动轨迹来做出更加智能的优化、规划任务,例如,在智慧城市建设、城市规划、应急管理等各种任务中,用户移动轨迹都起着重要的作用。
实际应用中由于成本等问题,获取到的所需场景的移动轨迹数据的数量往往较少,无法满足实际的应用需求。因此,如何更加有效的获取到所需场景下的大量的移动轨迹数据,解决所需场景下用户移动轨迹数据稀缺的问题,是本领域技术人员亟需关注的问题。
发明内容
针对现有技术中的问题,本发明实施例提供一种轨迹生成方法、装置、设备和存储介质。
具体地,本发明实施例提供了以下技术方案:
第一方面,本发明实施例提供了一种轨迹生成方法,包括:
获取第一场景下的用户移动轨迹;
根据所述第一场景下的用户移动轨迹和第一轨迹生成模型,生成第二场景下的第一目标移动轨迹;
其中,所述第一轨迹生成模型为基于第一场景和第二场景下包括用户移动轨迹的训练数据训练得到的。
进一步地,建立所述第一轨迹生成模型和第一判决模型;
利用所述第一判决模型,以及所述第一轨迹生成模型输出的第二场景下的第一目标移动轨迹,对所述第一轨迹生成模型进行训练。
进一步地,所述利用所述第一判决模型,以及所述第一轨迹生成模型输出的第二场景下的第一目标移动轨迹,对所述第一轨迹生成模型进行训练,包括:
利用所述第一判决模型对所述第二场景下的第一目标移动轨迹进行判决,获取第一判决结果;
根据所述第一判决结果对所述第一轨迹生成模型进行训练,得到训练后的第一轨迹生成模型。
进一步地,建立第二轨迹生成模型和第二判决模型;
将所述第二场景下的第一目标移动轨迹输入训练后的所述第二轨迹生成模型,生成第一场景下的目标移动轨迹;
利用所述第二判决模型对第一场景下的用户移动轨迹、第一场景下的目标移动轨迹进行判决,获取第一循环判决结果;
根据所述第一循环判决结果对所述第一轨迹生成模型和第二轨迹生成模型进行训练,得到训练后的第一轨迹生成模型和第二轨迹生成模型。
进一步地,利用所述第二判决模型对所述第一场景下的目标移动轨迹进行判决,获取第二判决结果;
根据所述第二判决结果对所述第二轨迹生成模型进行训练,得到训练后的第二轨迹生成模型。
进一步地,将第一场景下的目标移动轨迹输入训练后的所述第一轨迹生成模型,生成第二场景下的第二目标移动轨迹;
利用所述第一判决模型对第二场景下的用户移动轨迹、第二场景下的第二目标移动轨迹进行判决,获取第二循环判决结果;
根据所述第二循环判决结果对所述第一轨迹生成模型和第二轨迹生成模型进行训练,得到训练后的第一轨迹生成模型和第二轨迹生成模型。
进一步地,根据如下公式(1)获取目标判决结果:
Figure BDA0003872966290000031
其中,P表示目标判决结果;
Figure BDA0003872966290000032
表示所述第一判决结果,所述第一判决结果为所述第一判决模型对所述第二场景下的第一目标移动轨迹进行判决确定的;
Figure BDA0003872966290000033
表示所述第二判决结果,所述第二判决结果为所述第二判决模型对所述第一场景下的目标移动轨迹进行判决确定的;所述
Figure BDA0003872966290000034
表示所述第一循环判决结果,所述第一循环判决结果表示所述第二判决模型对所述第一场景下的用户移动轨迹、第一场景下的目标移动轨迹进行判决确定的;所述
Figure BDA0003872966290000035
表示所述第二循环判决结果;所述第二循环判决结果表示所述第一判决模型对所述第二场景下的用户移动轨迹、第二场景下的第二目标移动轨迹进行判决确定的;λ表示目标权重;
根据所述目标判决结果对所述第一轨迹生成模型和第二轨迹生成模型进行训练。
第二方面,本发明实施例还提供了一种轨迹生成装置,包括:
获取模块,用于获取第一场景下的用户移动轨迹;
生成模块,用于根据所述第一场景下的用户移动轨迹和第一轨迹生成模型,生成第二场景下的第一目标移动轨迹;
其中,所述第一轨迹生成模型为基于第一场景和第二场景下包括用户移动轨迹的训练数据训练得到的。
第三方面,本发明实施例还提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面所述轨迹生成方法。
第四方面,本发明实施例还提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述轨迹生成方法。
第五方面,本发明实施例还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如第一方面所述轨迹生成方法。
本发明实施例提供的轨迹生成方法、装置、设备和存储介质,第一轨迹生成模型是基于第一场景下的用户移动轨迹和第二场景下的用户移动轨迹训练得到的,训练后的第一轨迹生成模型就可以建立不同场景下用户移动轨迹之间的关联,进而训练后的第一轨迹生成模型在获取第一场景下的用户移动轨迹后,就可以根据第一场景下的用户移动轨迹实现不同场景下的用户移动轨迹的转换,也就实现了所需场景下的用户移动轨迹的生成,解决了所需场景下用户移动轨迹数据稀缺的问题。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的轨迹生成方法的流程示意图;
图2是本发明实施例提供的模型训练的流程示意图;
图3是本发明实施例提供的轨迹生成系统流程图之一;
图4是本发明实施例提供的另一轨迹生成系统流程图;
图5是本发明实施例提供的轨迹生成模型示意图;
图6是本发明实施例提供的判决模型示意图;
图7是本发明实施例提供的轨迹生成装置的结构示意图;
图8是本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例的方法可以应用于轨迹生成场景中,实现用户移动轨迹的生成。
相关技术中,由于成本等问题,获取到的所需场景的移动轨迹数据的数量往往较少,无法满足实际的应用需求。因此,如何更加有效的获取到所需场景下的大量的移动轨迹数据,解决所需场景下用户移动轨迹数据稀缺的问题,是本领域技术人员亟需关注的问题。
本发明实施例的轨迹生成方法,第一轨迹生成模型是基于第一场景下的用户移动轨迹和第二场景下的用户移动轨迹训练得到的,训练后的第一轨迹生成模型就可以建立不同场景下用户移动轨迹之间的关联,进而训练后的第一轨迹生成模型在获取第一场景下的用户移动轨迹后,就可以根据第一场景下的用户移动轨迹实现不同场景下的用户移动轨迹的转换,也就实现了所需场景下的用户移动轨迹的生成,解决了所需场景下用户移动轨迹数据稀缺的问题。
下面结合图1-图8以具体的实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
图1是本发明实施例提供的轨迹生成方法一实施例的流程示意图。如图1所示,本实施例提供的方法,包括:
步骤101、获取第一场景下的用户移动轨迹;
具体地,随着移动互联网技术的发展,越来越重视对用户移动轨迹的应用,如通过用户移动轨迹来做出更加智能的优化、规划任务。然而,由于用户移动轨迹的收集成本等问题,我们收集的用户移动轨迹往往局限在有限的部分场景中,且不同场景中可用的用户移动轨迹的数量差别很大,导致现有的用户移动轨迹无法满足实际应用的需求;另一方面,用户移动轨迹中包含着复杂的时空信息和语义信息,即用户移动轨迹中不仅包含用户移动的位置和时间信息,还包含用户活动过程中产生的丰富的语义信息,并且用户移动轨迹在不同场景下的语义信息是不同的,使得用户移动轨迹具有复杂的时空相关性及强随机性,导致难以准确地通过仿真生成和获取所需场景下的用户移动轨迹。
本申请实施例中通过获取第一场景下的用户移动轨迹,并通过对第一场景下的用户移动轨迹的转换处理以生成第二场景下的用户移动轨迹,实现对任意场景下用户轨迹的大规模生成,也就可以获取到所需场景下用户移动轨迹,从而解决所需场景下用户移动轨迹数据稀缺的问题。
步骤102、根据第一场景下的用户移动轨迹和第一轨迹生成模型,生成第二场景下的第一目标移动轨迹;
其中,第一轨迹生成模型为基于第一场景和第二场景下包括用户移动轨迹的训练数据训练得到的。
具体地,本申请实施例中将第一场景下的用户移动轨迹作为输入,通过第一轨迹生成模型提取第一场景下的用户移动轨迹中复杂的时空信息并通过预先建立的不同场景下用户移动轨迹之间的关联,实现从第一场景的用户移动轨迹生成第二场景下的用户移动轨迹;可选地,若第一场景下的用户移动轨迹为方便收集且数据量较大的用户移动轨迹,第二场景下的用户移动轨迹为由于成本问题只能获取到的少量的用户移动轨迹,通过本申请实施例的方案,也就实现了利用较为丰富的场景下的大量用户移动轨迹和少量目标场景下的用户移动轨迹,实现了目标场景下的用户移动轨迹的大规模生成,从而解决了所需场景下用户移动轨迹数据稀缺的问题。
上述实施例的方法,第一轨迹生成模型是基于第一场景下的用户移动轨迹和第二场景下的用户移动轨迹训练得到的,训练后的第一轨迹生成模型就可以建立不同场景下用户移动轨迹之间的关联,进而训练后的第一轨迹生成模型在获取第一场景下的用户移动轨迹后,就可以根据第一场景下的用户移动轨迹实现不同场景下的用户移动轨迹的转换,也就实现了所需场景下的用户移动轨迹的生成,解决了所需场景下用户移动轨迹数据稀缺的问题。
在一实施例中,轨迹生成方法还包括:
建立第一轨迹生成模型和第一判决模型;
利用第一判决模型,以及第一轨迹生成模型输出的第二场景下的第一目标移动轨迹,对第一轨迹生成模型进行训练。
具体地,第一轨迹生成模型用于实现不同场景下的用户移动轨迹的转换,为了使得第一轨迹生成模型生成的所需场景下的用户移动轨迹更加的准确,需要对第一轨迹生成模型进行训练,以使得第一轨迹生成模型生成的用户移动轨迹更加的准确。可选地,本申请实施例中第一轨迹生成模型为基于长短期记忆网络模型(Long Short-Term Memory,LSTM)建立的,其中,LSTM生成器有四个隐藏层来处理轨迹,每个隐藏层的大小为1024个神经元,使得生成的轨迹的精确度和准确性更高;第一判决模型为基于卷积神经网络(Convolutional Neural Networks,CNN)建立的,通过对抗训练的方式对第一轨迹生成模型进行训练,也就是通过第一判决模型去判决第一轨迹生成模型所生成的用户移动轨迹是否满足要求,并根据判决结果对第一轨迹生成模型进行训练,直至第一轨迹生成模型生成的用户移动轨迹满足需求。
在一实施例中,利用第一判决模型,以及第一轨迹生成模型输出的第二场景下的第一目标移动轨迹,对第一轨迹生成模型进行训练,包括:
利用第一判决模型对第二场景下的第一目标移动轨迹进行判决,获取第一判决结果;
根据第一判决结果对第一轨迹生成模型进行训练,得到训练后的第一轨迹生成模型。
具体地,为了使得第一轨迹生成模型生成的所需场景下的用户移动轨迹更加的准确,第一判决模型通过将第一轨迹生成模型输出的第二场景下的第一目标移动轨迹与现有的第二场景下的用户移动轨迹进行比对判决,得到第一判决结果,若第一判决结果为第一轨迹生成模型输出的第二场景下的目标移动轨迹不满足要求,如第一判决模型判决第一轨迹生成模型输出的第二场景下的目标移动轨迹不满足预设的收敛条件,或第一判决模型判决第一轨迹生成模型输出的第二场景下的目标移动轨迹的判决结果为假,则说明第一轨迹生成模型输出的第二场景下的目标移动轨迹不满足要求,则根据判决结果继续对第一轨迹生成模型进行训练,以提升第一轨迹生成模型生成的所需场景下的用户移动轨迹的准确性。
可选地,本申请实施例中第一轨迹生成模型为基于长短期记忆网络模型(LongShort-Term Memory,LSTM)建立的,其中,LSTM生成器有四个隐藏层来处理轨迹,每个隐藏层的大小为1024个神经元,使得生成的轨迹的精确度和准确性更高;第一判决模型为基于卷积神经网络(Convolutional Neural Networks,CNN)建立的,通过对抗训练的方式对第一轨迹生成模型进行训练,也就是通过第一判决模型去判决第一轨迹生成模型所生成的用户移动轨迹是否满足要求,并根据判决结果对第一轨迹生成模型进行训练,直至第一轨迹生成模型生成的用户移动轨迹满足需求。
在本申请实施例中,第一判决模型的主要作用是确定第一轨迹生成模型所生成的第二场景下的目标移动轨迹是否匹配现有第二场景下的轨迹域的分布,为了使第一轨迹生成模型生成的基于位置的移动轨迹序列更加可靠准确,需要第一判决模型对真实轨迹和生成轨迹具有很强的轨迹鉴别能力,以帮助更好训练第一轨迹生成模型。即通过第一轨迹生成模型实现用户移动轨迹跨场景转换,将第一场景下的用户移动轨迹s输入第一轨迹生成模型,第一轨迹生成模型输出第二场景下的用户移动轨迹s′;进一步,为了使得第一轨迹生成模型输出的第二场景下的用户移动轨迹s′满足要求,需要第一判决模型对第一轨迹生成模型所生成的第二场景下的用户移动轨迹s′进行判决,并根据判决结果对第一轨迹生成模型进行训练,以实现不同场景下的用户移动轨迹的转换和所需场景下的用户移动轨迹的生成。
可选地,本申请实施例中第一判决模型对第一轨迹生成模型所生成的第二场景下的目标移动轨迹的训练方式如下,首先将生成的第二场景下的用户移动轨迹投影在基于位置的二维坐标轴上时,使用基于CNN的第一判决模型进行提取,通过嵌入模块将用户移动轨迹信息转换为二维特征矩阵
Figure BDA0003872966290000091
其中Nemb是嵌入向量的长度,然后利用卷积层来处理生成的特征矩阵,最后将特征向量展平并利用多层感知机得到判决结果,进一步根据判决结果就可以对第一轨迹生成模型进行训练。
可选地,本申请实施例的训练过程中,通过如下损失函数确定第一判决结果:
Figure BDA0003872966290000092
其中,
Figure BDA0003872966290000093
表示根据第一场景s下的用户移动轨迹生成第二场景t下的用户移动轨迹,判决模型Ds的判决结果;
Figure BDA0003872966290000094
表示判决模型Dt判断第二场景的真实用户移动轨迹是否真实的概率,对于Dt来说,这个值越接近1越好;
Figure BDA0003872966290000095
Figure BDA0003872966290000101
表示判决生成的第二场景t下的用户移动轨迹为真实的用户移动轨迹,而不是生成的用户移动轨迹的概率。
上述实施例的方法,通过建立第一判决模型,对第一轨迹生成模型输出的第二场景下的第一目标移动轨迹进行判决,并根据判决结果对第一轨迹生成模型进行训练,使得第一轨迹生成模型生成的所需场景下的用户移动轨迹更加的准确,提升了第一轨迹生成模型生成的所需场景下的用户移动轨迹的准确性。
在一实施例中,轨迹生成方法还包括:
建立第二轨迹生成模型和第二判决模型;
将第二场景下的第一目标移动轨迹输入训练后的第二轨迹生成模型,生成第一场景下的目标移动轨迹;
利用第二判决模型对第一场景下的用户移动轨迹、第一场景下的目标移动轨迹进行判决,获取第一循环判决结果;
根据第一循环判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练,得到训练后的第一轨迹生成模型和第二轨迹生成模型。
具体地,图2为本发明实施例中对第一轨迹生成模型和第二轨迹生成模型进行训练的原理示意图,如图2所示若将第一场景下的用户移动轨迹F通过第一轨迹生成模型转换生成第二场景下的用户移动轨迹G,且第二场景下的用户移动轨迹G通过第二轨迹生成模型可以转换生成第一场景下的用户移动轨迹F,也就说明通过第一轨迹生成模型和第二轨迹生成模型,可以实现第一场景下的用户移动轨迹与第二场景下的用户移动轨迹之间准确地来回转换,也就是第一轨迹生成模型和第二轨迹生成模型可以准确地实现跨场景的用户移动轨迹转换和生成,从而也就可以实现所需场景下的用户移动轨迹的生成,也就解决了所需场景下用户移动轨迹数据稀缺的问题;若将第一场景下的用户移动轨迹F通过第一轨迹生成模型转换生成第二场景下的用户移动轨迹G,而第二场景下的用户移动轨迹G通过第二轨迹生成模型后生成的第一场景下的用户移动轨迹F1,且F1与第一场景下的用户移动轨迹F不满足预设的收敛条件,说明第一轨迹生成模型和第二轨迹生成模型不能准确地生成所需的用户移动轨迹数据,则需要根据生成结果对第一轨迹生成模型和第二轨迹生成模型进行训练。
本发明实施例中通过将第一场景下的用户移动轨迹X1输入至第一轨迹生成模型,生成第二场景下的第一目标移动轨迹Y;然后构建第二轨迹生成模型,通过将第二场景下的第一目标移动轨迹Y输入训练后的第二轨迹生成模型,生成第一场景下的目标移动轨迹X2;然后通过第二判决模型对第一场景下的用户移动轨迹X1、第一场景下的目标移动轨迹X2进行判决,获取第一循环判决结果,可选地,若第一循环判决结果为真,即第一场景下的用户移动轨迹X1和第一场景下的目标移动轨迹X2之间的第一循环判决结果满足预设的收敛阈值,则表明第一轨迹生成模型和第二轨迹生成模型可以准确地进行跨场景用户移动轨迹的生成;可选地,若第一循环判决结果为假,即第一场景下的用户移动轨迹X1和第一场景下的目标移动轨迹X2之间的第一循环判决结果不满足预设的收敛阈值,则表明需要根据第一循环判决结果对第一轨迹生成模型和第二轨迹生成模型继续进行训练以提升其跨场景生成的移动轨迹的准确性。
可选地,根据第一场景下的用户移动轨迹s可以生成第二场景下的用户移动轨迹s′,那么根据第二场景下的用户移动轨迹s′也应该可以准确地生成第一场景下的用户移动轨迹s″,也就是第一场景下的用户移动轨迹s都处于循环平移中,并且s应该能够返回平移,前向循环和后向循环的起源是一致的,反之亦然。为了判决原始轨迹s和逆映射轨迹s″之间的差异,通过如下公式获取判决结果,并根据判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练:
Figure BDA0003872966290000111
其中,
Figure BDA0003872966290000112
表示原始轨迹s和逆映射轨迹s″之间的判决结果,s表示第一场景下的用户移动轨迹;s″表示第一场景下的用户移动轨迹的逆映射轨迹。
上述实施例的方法,通过将第一场景下的用户移动轨迹输入第一轨迹生成模型生成第二场景下的第一目标移动轨迹,并将第二场景下的第一目标移动轨迹输入第二轨迹生成模型后得到第一场景下的目标移动轨迹;进而将第一场景下的用户移动轨迹与第一场景下的目标移动轨迹进行判决,进而根据判决结果就可以确定第一轨迹生成模型和第二轨迹生成模型是否可以准确地实现跨场景用户移动轨迹的转换,进而也就可以根据判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练,提升第一轨迹生成模型和第二轨迹生成模型跨场景生成的移动轨迹的准确性。
在一实施例中,轨迹生成方法还包括:
利用第二判决模型对第一场景下的目标移动轨迹进行判决,获取第二判决结果;
根据第二判决结果对第二轨迹生成模型进行训练,得到训练后的第二轨迹生成模型。
具体地,为了使得第二轨迹生成模型生成的用户移动轨迹更加的准确,本申请实施例中第二判决模型通过将第二轨迹生成模型输出的第一场景下的目标移动轨迹与现有的第一场景下的用户移动轨迹进行比对判决,得到第二决结果,若第二判决结果为第二轨迹生成模型输出的第一场景下的目标移动轨迹不满足要求,如第二判决模型判决第二轨迹生成模型输出的第一场景下的目标移动轨迹不满足预设的收敛条件,或第二判决模型判决第二轨迹生成模型输出的第一场景下的目标移动轨迹的判决结果为假,则说明第二轨迹生成模型输出的第一场景下的目标移动轨迹不满足要求,则根据第二判决结果继续对第二轨迹生成模型进行训练,以提升第二轨迹生成模型生成的用户移动轨迹的准确性。
上述实施例的方法,通过建立第二判决模型,对第二轨迹生成模型输出的第一场景下的目标移动轨迹进行判决,并根据判决结果对第二轨迹生成模型进行训练,使得第二轨迹生成模型生成的用户移动轨迹更加的准确,提升了第二轨迹生成模型生成的所需场景下的用户移动轨迹的准确性。
在一实施例中,轨迹生成方法还包括:
将第一场景下的目标移动轨迹输入训练后的第一轨迹生成模型,生成第二场景下的第二目标移动轨迹;
利用第一判决模型对第二场景下的用户移动轨迹、第二场景下的第二目标移动轨迹进行判决,获取第二循环判决结果;
根据第二循环判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练,得到训练后的第一轨迹生成模型和第二轨迹生成模型。
具体地,若将第一场景下的用户移动轨迹F通过第一轨迹生成模型转换生成第二场景下的用户移动轨迹G,且第二场景下的用户移动轨迹G通过第二轨迹生成模型可以转换生成第一场景下的用户移动轨迹F,也就说明通过第一轨迹生成模型和第二轨迹生成模型,可以实现第一场景下的用户移动轨迹与第二场景下的用户移动轨迹之间准确地来回转换,也就是第一轨迹生成模型和第二轨迹生成模型可以准确地实现跨场景的轨迹转换和生成,从而也就可以实现所需场景下的用户移动轨迹的生成,也就解决了所需场景下用户移动轨迹数据稀缺的问题。
本发明实施例中通过将第二场景下的用户移动轨迹a1输入至第二轨迹生成模型,生成第一场景下的目标移动轨迹b;然后通过将第一场景下的目标移动轨迹b输入训练后的第一轨迹生成模型,生成第二场景下的第二目标移动轨迹a2;然后第一判决模型对第二场景下的用户移动轨迹a1、第二场景下的第二目标移动轨迹a2进行判决,获取第二循环判决结果,可选地,若第二循环判决结果为真,即第二场景下的用户移动轨迹a1和第二场景下的第二目标移动轨迹a2满足预设的收敛阈值,则表明第一轨迹生成模型和第二轨迹生成模型可以准确地进行跨场景用户移动轨迹的生成;可选地,若判决结果为假,即第二场景下的用户移动轨迹a1和第二场景下的第二目标移动轨迹a2的第二循环判决结果不满足预设的收敛阈值,则根据第二循环判决结果对第一轨迹生成模型和第二轨迹生成模型继续进行训练以提升其跨场景生成的移动轨迹的准确性。
上述实施例的方法,通过将第二场景下的用户移动轨迹输入第二轨迹生成模型,生成第一场景下的目标移动轨迹,并将第一场景下的目标移动轨迹输入第一轨迹生成模型后得到第二场景下的第二目标移动轨迹;进而将第二场景下的用户移动轨迹与第二场景下的第二目标移动轨迹进行判决,根据判决结果就可以确定第一轨迹生成模型和第二轨迹生成模型是否可以准确地实现跨场景用户移动轨迹的转换,进而也就可以根据判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练,提升第一轨迹生成模型和第二轨迹生成模型跨场景生成的移动轨迹的准确性。
在一实施例中,轨迹生成方法还包括:
根据如下公式(1)获取目标判决结果:
Figure BDA0003872966290000141
其中,P表示目标判决结果;
Figure BDA0003872966290000142
表示第一判决结果,第一判决结果为第一判决模型对第二场景下的第一目标移动轨迹进行判决确定的;
Figure BDA0003872966290000143
表示第二判决结果,第二判决结果为第二判决模型对第一场景下的目标移动轨迹进行判决确定的;
Figure BDA0003872966290000144
表示第一循环判决结果,第一循环判决结果表示第二判决模型对第一场景下的用户移动轨迹、第一场景下的目标移动轨迹进行判决确定的;
Figure BDA0003872966290000145
表示第二循环判决结果;第二循环判决结果表示第一判决模型对第二场景下的用户移动轨迹、第二场景下的第二目标移动轨迹进行判决确定的;λ表示目标权重;
根据目标判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练。
具体地,为了准确的实现跨场景用户移动轨迹的生成,提升第一轨迹生成模型和第二轨迹生成模型的性能,本申请实施例通过目标判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练,即通过结合第一种训练方式和第二种训练方式,对轨迹生成模型进行训练,其中第一种训练方式为通过第一判决结果和第二判决结果进行训练的方式,第二训练方式为通过第一循环判决结果和第二循环判决结果进行训练的方式,即利用第一种训练方式和第二种训练方式的优势,在训练过程中,通过第一种训练方式和第二种训练方式相结合的训练方式,使得训练后的轨迹生成模型生成的用户移动轨迹不仅能够被判决模型足够严格的区分,并且在每个循环中判决模型也可以准确判断正确性,也就使得生成的跨场景的用户移动轨迹更加的准确,满足实际应用需求。
可选地,本申请实施例通过结合第一种训练方式和第二种训练方式,对轨迹生成模型进行训练,通过如下公式(1)获取目标判决结果,
Figure BDA0003872966290000151
其中,P表示目标判决结果;
Figure BDA0003872966290000152
表示第一判决结果,第一判决结果为第一判决模型对第二场景下的第一目标移动轨迹进行判决确定的;
Figure BDA0003872966290000153
表示第二判决结果,第二判决结果为第二判决模型对第一场景下的目标移动轨迹进行判决确定的;
Figure BDA0003872966290000154
表示第一循环判决结果,第一循环判决结果表示第二判决模型对第一场景下的用户移动轨迹、第一场景下的目标移动轨迹进行判决确定的;
Figure BDA0003872966290000155
表示第二循环判决结果;第二循环判决结果表示第一判决模型对第二场景下的用户移动轨迹、第二场景下的第二目标移动轨迹进行判决确定的;λ表示目标权重;为了尽可能提升轨迹生成模型的性能,通过大量实验,当权重为10时,即第一种训练方式与第二种训练方式的权重比为1:10时,生成的用户移动轨迹的输出得分较高。其中,目标权重λ的最优解可以通过求解min-max优化问题得到:
Figure BDA0003872966290000161
其中,
Figure BDA0003872966290000162
为第二种训练方式对应的min-max最优解,
Figure BDA0003872966290000163
为第二种训练方式对应min-max最优解,
Figure BDA0003872966290000164
表示目标判决结果;即通过结合第一种训练方式和第二种训练方式,对轨迹生成模型进行训练,通过第一判决结果、第二判决结果、第一循环判决结果和第二循环判决结果确定目标判决结果,并根据目标判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练,提升第一轨迹生成模型和第二轨迹生成模型的性能,提升第一轨迹生成模型和第二轨迹生成模型跨场景生成的用户移动轨迹的准确性。
示例性的,本申请实施例中建立了如图3所示的轨迹生成模型和判决模型结合的系统,该系统通过信息传递策略,建立了不同场景下的用户移动轨迹之间的联系,以实现用户移动轨迹的跨场景的转换。具体地,该系统包括轨迹生成模型和判决模型,其中,轨迹生成模型用于生成用户移动轨迹,判决模型用于鉴别生成的用户移动轨迹是真实样本还是由轨迹生成模型生成;可选地,轨迹生成模型为基于双向LSMT建立的,实现从头到尾、从尾到头进行用户移动轨迹的处理,可以有效提取用户移动轨迹的局部信息,有效地实现用户移动轨迹中时间信息的提取,使得可以准确地生成跨场景的用户移动轨迹;判决模型是基于CNN模型建立的,实现对轨迹生成模型的训练。可选地,轨迹生成模型包括第一轨迹生成模型、第二轨迹生成模型;第一轨迹生成模型用于根据第一场景下的用户移动轨迹生成第二场景下的用户移动轨迹,第二轨迹生成模型用于根据第二场景下的用户移动轨迹生成第一场景下的用户移动轨迹,即轨迹生成模型用于用户移动轨迹的跨场景变换,其输入为一个场景的用户移动轨迹,输出为该场景下的用户移动轨迹完成跨场景变换后的另一个场景的轨迹。可选地,判决模型包括第一判决模型和第二判决模型,不同的轨迹生成模型有其对应的判决模型,用以分辨生成的跨场景的用户移动轨迹是否与该场景下的用户移动轨迹形状、分布一致;其中,判决模型对轨迹生成模型进行训练时,可以通过结合第一训练方式和第二训练方式,对轨迹生成模型进行训练,使得训练后的轨迹生成模型生成的用户移动轨迹不仅能够被判决模型足够严格的区分,并且在每个循环中判决模型也可以准确判断正确性,最终可以生成足够接近真实样本的用户移动轨迹。
本申请实施例中,通过结合第一种训练方式和第二种训练方式,对轨迹生成模型进行训练,其中第一种训练方式为通过第一判决结果和第二判决结果进行训练的方式,第二训练方式为通过第一循环判决结果和第二循环判决结果进行训练的方式,即在训练过程中,通过第一种训练方式和第二种训练方式相结合的训练方式,使得训练后的轨迹生成模型生成的用户移动轨迹不仅能够被判决模型足够严格的区分,并且在每个循环中判决模型也可以准确判断正确性,也就使得生成的跨场景的用户移动轨迹更加的准确,实现针对所需场景的用户移动轨迹的大规模生成。
示例性的,如图4所示的用户移动轨迹生成系统流程图,输入第一场景下的用户移动轨迹,通过轨迹生成模型生成第二场景下的用户移动轨迹,进而通过判决模型对生成的跨场景的用户移动轨迹进行判决,并根据判决结果对第一轨迹生成模型进行训练;可选地,判决模型对轨迹生成模型进行训练时,可以通过结合第一训练方式和第二训练方式,对轨迹生成模型进行训练,使得训练后的轨迹生成模型生成的用户移动轨迹不仅能够被判决模型足够严格的区分,并且在每个循环中判决模型也可以准确判断正确性。可选地,轨迹生成模型如图5所示,轨迹生成模型是基于双向LSTM模型建立的,包括第一轨迹生成模型和第二轨迹生成模型;可选地,在将第一场景的用户移动轨迹输入轨迹生成模型之前,首先处理由动作构成的用户移动轨迹序列,这个过程可以帮助我们简化轨迹中复杂的位置信息,以帮助我们在用户移动轨数据有限的情况下进行模型训练,然后,我们将通过对应的编码方式将动作序列转换为目标格式,该目标格式的数据可以作为生成器的输入,该编码方式具体为根据嵌入权重矩阵Wa的可学习参数将动作转换为嵌入向量,可以表示如下:
Xa=ReLU(Waa)
其中Xa是动作序列a的嵌入向量,嵌入权重矩阵Wa在用户移动轨迹点之间共享;用户移动轨迹通过嵌入向量投影过后,我们将Xa输入到双向LSTM模型中,以捕获顺序移动轨迹中的复杂相关性和规律性。可选地,判决模型如图6所示,判决模型是基于CNN模型建立的,鉴别模型的主要作用是确定生成的用户移动轨迹是否匹配目标轨迹域的分布。为了使生成的基于位置的用户移动轨迹序列更可靠,需要判决模型对真实轨迹和生成轨迹具有很强的判决能力,以帮助更好地训练轨迹生成模型。对于判别模型的结构,首先将生成的用户移动轨迹投影在基于位置的二维坐标轴上时,使用基于CNN的第一判决模型进行提取,通过嵌入模块将用户移动轨迹信息转换为二维特征矩阵
Figure BDA0003872966290000181
其中Nemb是嵌入向量的长度,然后利用卷积层来处理生成的特征矩阵,最后将特征向量展平并利用多层感知机得到判决结果,进一步根据判决结果就可以对第一轨迹生成模型进行训练,从而使得生成的跨场景的用户移动轨迹更加的准确,实现了针对所需场景的用户移动轨迹的大规模生成。
下面对本发明提供的轨迹生成装置进行描述,下文描述的轨迹生成装置与上文描述的轨迹生成方法可相互对应参照。
图7是本发明提供的轨迹生成装置的结构示意图。本实施例提供的轨迹生成装置,包括:
获取模块710,用于获取第一场景下的用户移动轨迹;
生成模块720,用于根据第一场景下的用户移动轨迹和第一轨迹生成模型,生成第二场景下的第一目标移动轨迹;
其中,第一轨迹生成模型为基于第一场景和第二场景下包括用户移动轨迹的训练数据训练得到的。
可选地,所述生成模块720,具体用于:建立第一轨迹生成模型和第一判决模型;
利用第一判决模型,以及第一轨迹生成模型输出的第二场景下的第一目标移动轨迹,对第一轨迹生成模型进行训练。
可选地,所述生成模块720,具体用于:对第二场景下的第一目标移动轨迹进行判决,获取第一判决结果;
根据第一判决结果对第一轨迹生成模型进行训练,得到训练后的第一轨迹生成模型。
可选地,所述生成模块720,具体用于:建立第二轨迹生成模型和第二判决模型;
将第二场景下的第一目标移动轨迹输入训练后的第二轨迹生成模型,生成第一场景下的目标移动轨迹;
利用第二判决模型对第一场景下的用户移动轨迹、第一场景下的目标移动轨迹进行判决,获取第一循环判决结果;
根据第一循环判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练,得到训练后的第一轨迹生成模型和第二轨迹生成模型。
可选地,所述生成模块720,具体用于:对第一场景下的目标移动轨迹进行判决,获取第二判决结果;
根据第二判决结果对第二轨迹生成模型进行训练,得到训练后的第二轨迹生成模型。
可选地,所述生成模块720,具体用于:将第一场景下的目标移动轨迹输入训练后的第一轨迹生成模型,生成第二场景下的第二目标移动轨迹;
利用第一判决模型对第二场景下的用户移动轨迹、第二场景下的第二目标移动轨迹进行判决,获取第二循环判决结果;
根据第二循环判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练,得到训练后的第一轨迹生成模型和第二轨迹生成模型。
可选地,所述生成模块720,具体用于:根据如下公式(1)获取目标判决结果:
Figure BDA0003872966290000201
其中,P表示目标判决结果;
Figure BDA0003872966290000202
表示第一判决结果,第一判决结果为第一判决模型对第二场景下的第一目标移动轨迹进行判决确定的;
Figure BDA0003872966290000203
表示第二判决结果,第二判决结果为第二判决模型对第一场景下的目标移动轨迹进行判决确定的;
Figure BDA0003872966290000204
表示第一循环判决结果,第一循环判决结果表示第二判决模型对第一场景下的用户移动轨迹、第一场景下的目标移动轨迹进行判决确定的;
Figure BDA0003872966290000205
表示第二循环判决结果;第二循环判决结果表示第一判决模型对第二场景下的用户移动轨迹、第二场景下的第二目标移动轨迹进行判决确定的;λ表示目标权重;
根据目标判决结果对第一轨迹生成模型和第二轨迹生成模型进行训练。
本发明实施例的装置,其用于执行前述任一方法实施例中的方法,其实现原理和技术效果类似,此次不再赘述。
图8示例了一种电子设备的实体结构示意图,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行轨迹生成方法,该方法包括:获取第一场景下的用户移动轨迹;根据第一场景下的用户移动轨迹和第一轨迹生成模型,生成第二场景下的第一目标移动轨迹;其中,第一轨迹生成模型为基于第一场景和第二场景下包括用户移动轨迹的训练数据训练得到的。
此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的轨迹生成方法,该方法包括:获取第一场景下的用户移动轨迹;根据第一场景下的用户移动轨迹和第一轨迹生成模型,生成第二场景下的第一目标移动轨迹;其中,第一轨迹生成模型为基于第一场景和第二场景下包括用户移动轨迹的训练数据训练得到的。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供的轨迹生成方法,该方法包括:获取第一场景下的用户移动轨迹;根据第一场景下的用户移动轨迹和第一轨迹生成模型,生成第二场景下的第一目标移动轨迹;其中,第一轨迹生成模型为基于第一场景和第二场景下包括用户移动轨迹的训练数据训练得到的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (11)

1.一种轨迹生成方法,其特征在于,包括:
获取第一场景下的用户移动轨迹;
根据所述第一场景下的用户移动轨迹和第一轨迹生成模型,生成第二场景下的第一目标移动轨迹;
其中,所述第一轨迹生成模型为基于第一场景和第二场景下包括用户移动轨迹的训练数据训练得到的。
2.根据权利要求1所述的轨迹生成方法,其特征在于,所述方法还包括:
建立所述第一轨迹生成模型和第一判决模型;
利用所述第一判决模型,以及所述第一轨迹生成模型输出的第二场景下的第一目标移动轨迹,对所述第一轨迹生成模型进行训练。
3.根据权利要求2所述的轨迹生成方法,其特征在于,所述利用所述第一判决模型和所述第一轨迹生成模型输出的第二场景下的第一目标移动轨迹,对所述第一轨迹生成模型进行训练,包括:
利用所述第一判决模型对所述第二场景下的第一目标移动轨迹进行判决,获取第一判决结果;
根据所述第一判决结果对所述第一轨迹生成模型进行训练,得到训练后的第一轨迹生成模型。
4.根据权利要求3所述的轨迹生成方法,其特征在于,还包括:
建立第二轨迹生成模型和第二判决模型;
将所述第二场景下的第一目标移动轨迹输入训练后的所述第二轨迹生成模型,生成第一场景下的目标移动轨迹;
利用所述第二判决模型对第一场景下的用户移动轨迹、第一场景下的目标移动轨迹进行判决,获取第一循环判决结果;
根据所述第一循环判决结果对所述第一轨迹生成模型和第二轨迹生成模型进行训练,得到训练后的第一轨迹生成模型和第二轨迹生成模型。
5.根据权利要求4所述的轨迹生成方法,其特征在于,还包括:
利用所述第二判决模型对所述第一场景下的目标移动轨迹进行判决,获取第二判决结果;
根据所述第二判决结果对所述第二轨迹生成模型进行训练,得到训练后的第二轨迹生成模型。
6.根据权利要求5所述的轨迹生成方法,其特征在于,还包括:
将第一场景下的目标移动轨迹输入训练后的所述第一轨迹生成模型,生成第二场景下的第二目标移动轨迹;
利用所述第一判决模型对第二场景下的用户移动轨迹、第二场景下的第二目标移动轨迹进行判决,获取第二循环判决结果;
根据所述第二循环判决结果对所述第一轨迹生成模型和第二轨迹生成模型进行训练,得到训练后的第一轨迹生成模型和第二轨迹生成模型。
7.根据权利要求6所述的轨迹生成方法,其特征在于,还包括:
根据如下公式(1)获取目标判决结果:
Figure FDA0003872966280000021
其中,P表示目标判决结果;
Figure FDA0003872966280000022
表示所述第一判决结果,所述第一判决结果为所述第一判决模型对所述第二场景下的第一目标移动轨迹进行判决确定的;
Figure FDA0003872966280000023
表示所述第二判决结果,所述第二判决结果为所述第二判决模型对所述第一场景下的目标移动轨迹进行判决确定的;所述
Figure FDA0003872966280000024
表示所述第一循环判决结果,所述第一循环判决结果表示所述第二判决模型对所述第一场景下的用户移动轨迹、第一场景下的目标移动轨迹进行判决确定的;所述
Figure FDA0003872966280000025
表示所述第二循环判决结果;所述第二循环判决结果表示所述第一判决模型对所述第二场景下的用户移动轨迹、第二场景下的第二目标移动轨迹进行判决确定的;λ表示目标权重;
根据所述目标判决结果对所述第一轨迹生成模型和第二轨迹生成模型进行训练。
8.一种轨迹生成装置,其特征在于,包括:
获取模块,用于获取第一场景下的用户移动轨迹;
生成模块,用于根据所述第一场景下的用户移动轨迹和第一轨迹生成模型,生成第二场景下的第一目标移动轨迹;
其中,所述第一轨迹生成模型为基于第一场景和第二场景下包括用户移动轨迹的训练数据训练得到的。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述的轨迹生成方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述的轨迹生成方法。
11.一种计算机程序产品,其上存储有可执行指令,其特征在于,该指令被处理器执行时使处理器实现如权利要求1至7中任一项所述的轨迹生成方法。
CN202211204309.3A 2022-09-29 2022-09-29 轨迹生成方法、装置、设备和存储介质 Active CN115601393B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211204309.3A CN115601393B (zh) 2022-09-29 2022-09-29 轨迹生成方法、装置、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211204309.3A CN115601393B (zh) 2022-09-29 2022-09-29 轨迹生成方法、装置、设备和存储介质

Publications (2)

Publication Number Publication Date
CN115601393A true CN115601393A (zh) 2023-01-13
CN115601393B CN115601393B (zh) 2024-05-07

Family

ID=84845775

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211204309.3A Active CN115601393B (zh) 2022-09-29 2022-09-29 轨迹生成方法、装置、设备和存储介质

Country Status (1)

Country Link
CN (1) CN115601393B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738908A (zh) * 2020-06-11 2020-10-02 山东大学 结合实例分割和循环生成对抗网络的场景转换方法及系统
CN111736481A (zh) * 2020-07-14 2020-10-02 北京自如信息科技有限公司 基于用户行为特征的模型训练、智能家居控制方法及装置
CN113255951A (zh) * 2020-02-11 2021-08-13 株式会社日立制作所 一种移动轨迹的生成方法和装置
CN113272838A (zh) * 2020-05-19 2021-08-17 深圳元戎启行科技有限公司 虚拟场景生成方法、装置、计算机设备和存储介质
CN113449217A (zh) * 2020-03-27 2021-09-28 斑马智行网络(香港)有限公司 迁移轨迹、热力图生成及网点确定的方法、设备
WO2021201774A1 (en) * 2020-03-31 2021-10-07 Agency For Science, Technology And Research Method and system for determining a trajectory of a target object
CN113538506A (zh) * 2021-07-23 2021-10-22 陕西师范大学 基于全局动态场景信息深度建模的行人轨迹预测方法
US20220092792A1 (en) * 2020-09-18 2022-03-24 Microsoft Technology Licensing, Llc Training multi-object tracking models using simulation
CN114611663A (zh) * 2022-02-21 2022-06-10 北京航空航天大学 一种基于在线更新策略的定制化行人轨迹预测方法
CN114757355A (zh) * 2022-04-08 2022-07-15 中国科学技术大学 轨迹数据集差异性度量方法、系统、设备及存储介质
CN114842207A (zh) * 2022-04-21 2022-08-02 北京三快在线科技有限公司 路网生成方法、装置、可读存储介质及电子设备
CN114880842A (zh) * 2022-04-21 2022-08-09 北京智行者科技有限公司 轨迹预测模型的自动化迭代方法、电子设备和存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255951A (zh) * 2020-02-11 2021-08-13 株式会社日立制作所 一种移动轨迹的生成方法和装置
CN113449217A (zh) * 2020-03-27 2021-09-28 斑马智行网络(香港)有限公司 迁移轨迹、热力图生成及网点确定的方法、设备
WO2021201774A1 (en) * 2020-03-31 2021-10-07 Agency For Science, Technology And Research Method and system for determining a trajectory of a target object
CN113272838A (zh) * 2020-05-19 2021-08-17 深圳元戎启行科技有限公司 虚拟场景生成方法、装置、计算机设备和存储介质
CN111738908A (zh) * 2020-06-11 2020-10-02 山东大学 结合实例分割和循环生成对抗网络的场景转换方法及系统
CN111736481A (zh) * 2020-07-14 2020-10-02 北京自如信息科技有限公司 基于用户行为特征的模型训练、智能家居控制方法及装置
US20220092792A1 (en) * 2020-09-18 2022-03-24 Microsoft Technology Licensing, Llc Training multi-object tracking models using simulation
CN113538506A (zh) * 2021-07-23 2021-10-22 陕西师范大学 基于全局动态场景信息深度建模的行人轨迹预测方法
CN114611663A (zh) * 2022-02-21 2022-06-10 北京航空航天大学 一种基于在线更新策略的定制化行人轨迹预测方法
CN114757355A (zh) * 2022-04-08 2022-07-15 中国科学技术大学 轨迹数据集差异性度量方法、系统、设备及存储介质
CN114842207A (zh) * 2022-04-21 2022-08-02 北京三快在线科技有限公司 路网生成方法、装置、可读存储介质及电子设备
CN114880842A (zh) * 2022-04-21 2022-08-09 北京智行者科技有限公司 轨迹预测模型的自动化迭代方法、电子设备和存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DEPENG JIN ET.AL: "Activity Trajectory Generation via Modeling Spatiotemporal Dynamics", 《 KDD \'22: PROCEEDINGS OF THE 28TH ACM SIGKDD CONFERENCE ON KNOWLEDGE DISCOVERY AND DATA MINING》, 14 August 2022 (2022-08-14), pages 4752 - 4762, XP058951997, DOI: 10.1145/3534678.3542671 *
SEONGJIN CHOI ET.AL: "TrajGAIL: Generating Urban Vehicle Trajectories using Generative Adversarial Imitation Learning", [ARXIV], 28 July 2020 (2020-07-28), pages 1 - 24 *
孙影;王铁;: "基于时间序列的目标车辆轨迹预测算法", 汽车实用技术, no. 06, 30 March 2020 (2020-03-30), pages 39 - 41 *
李双群: "渐进式行人重识别关键技术研究", 《中国博士学位论文全文数据库 信息科技辑》, 15 August 2019 (2019-08-15), pages 138 - 83 *
温惠英;张伟罡;赵胜;: "基于生成对抗网络的车辆换道轨迹预测模型", 华南理工大学学报(自然科学版), no. 05, 15 May 2020 (2020-05-15), pages 36 - 44 *

Also Published As

Publication number Publication date
CN115601393B (zh) 2024-05-07

Similar Documents

Publication Publication Date Title
Chen et al. An edge traffic flow detection scheme based on deep learning in an intelligent transportation system
CN111324774B (zh) 一种视频去重方法和装置
CN111914937A (zh) 一种轻量化改进目标检测方法及检测系统
CN110580500A (zh) 一种面向人物交互的网络权重生成少样本图像分类方法
CN111639968B (zh) 轨迹数据处理方法、装置、计算机设备以及存储介质
CN111144284B (zh) 深度人脸图像的生成方法、装置、电子设备及介质
CN111292262B (zh) 图像处理方法、装置、电子设备以及存储介质
CN114219971B (zh) 一种数据处理方法、设备以及计算机可读存储介质
CN110163121A (zh) 图像处理方法、装置、计算机设备及存储介质
CN115131849A (zh) 图像生成方法以及相关设备
CN114936377A (zh) 模型训练和身份匿名化方法、装置、设备及存储介质
CN114282059A (zh) 视频检索的方法、装置、设备及存储介质
Qin et al. PointSkelCNN: Deep Learning‐Based 3D Human Skeleton Extraction from Point Clouds
CN113657272B (zh) 一种基于缺失数据补全的微视频分类方法及系统
CN110674716A (zh) 图像识别方法、装置和存储介质
CN110866609A (zh) 解释信息获取方法、装置、服务器和存储介质
CN111476867A (zh) 一种基于变分自编码和生成对抗网络的手绘草图生成方法
CN117218468A (zh) 特征提取模型训练方法、装置、电子设备及存储介质
CN115601393B (zh) 轨迹生成方法、装置、设备和存储介质
Liu et al. 3D action recognition using multi-temporal skeleton visualization
CN113780241B (zh) 一种显著物体检测的加速方法与装置
Chen et al. Deep chaosnet for action recognition in videos
CN116824686A (zh) 一种动作识别方法和相关装置
CN110826726B (zh) 目标处理方法、目标处理装置、目标处理设备及介质
CN113822291A (zh) 一种图像处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant