CN113209622A - 动作的确定方法、装置、可读介质和电子设备 - Google Patents
动作的确定方法、装置、可读介质和电子设备 Download PDFInfo
- Publication number
- CN113209622A CN113209622A CN202110593881.2A CN202110593881A CN113209622A CN 113209622 A CN113209622 A CN 113209622A CN 202110593881 A CN202110593881 A CN 202110593881A CN 113209622 A CN113209622 A CN 113209622A
- Authority
- CN
- China
- Prior art keywords
- environment
- target
- feature vector
- image
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009471 action Effects 0.000 title claims abstract description 97
- 238000000034 method Methods 0.000 title claims abstract description 53
- 239000013598 vector Substances 0.000 claims abstract description 185
- 230000009466 transformation Effects 0.000 claims description 74
- 230000007613 environmental effect Effects 0.000 claims description 58
- 238000012545 processing Methods 0.000 claims description 22
- 239000003795 chemical substances by application Substances 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 16
- 230000005484 gravity Effects 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 14
- 238000013135 deep learning Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000019771 cognition Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种动作的确定方法、装置、可读介质和电子设备,涉及机器学习技术领域,该方法包括:获取目标对象所处环境的环境图像,以及环境图像中每个环境对象的对象特征向量,确定每个环境对象在环境图像中的位置信息,针对每个环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置,将拼接后的环境图像作为预先训练的动作模型的输入,得到动作模型输出的目标对象待执行的目标动作。本公开通过将对象特征向量拼接至位置信息对应位置,使对象特征向量与位置信息之间具备关联性,从而使动作模型可以快速从拼接后的环境图像中提取出重要特征,提高了动作模型输出的目标动作的准确性。
Description
技术领域
本公开涉及机器学习技术领域,具体地,涉及一种动作的确定方法、装置、可读介质和电子设备。
背景技术
近年来,DRL(英文:Deep Reinforcement Learning,中文:深度强化学习)作为机器学习技术的重要研究方向之一,被广泛应用于游戏、机器人控制和自动驾驶等领域中。DRL可以分为环境认知和决策两个阶段,环境认知阶段通常会使用深层神经网络对多模态融合后的环境信息进行表征学习,然后输出表征学习得到的深层语义信息到决策网络进行决策学习,并生成相应的最优动作。
通常情况下,当环境信息包括环境图像时,则需要将环境信息中除环境图像外的对象信息直接拼接到环境图像上,或将环境图像转换为向量信息后与对象信息进行拼接,以实现环境信息的融合,并将融合结果输入DRL算法中进行学习。然而,采用这样的信息融合方式,无法体现出环境图像和对象信息之间的关联性,这会导致DRL算法很难从环境信息中提取出重要特征,进而使DRL算法难以生成正确的动作。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种动作的确定方法,所述方法包括:
获取目标对象所处环境的环境图像,以及所述环境图像中每个环境对象的对象特征向量;
确定每个所述环境对象在所述环境图像中的位置信息;
针对每个所述环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置;
将拼接后的环境图像作为预先训练的动作模型的输入,得到所述动作模型输出的所述目标对象待执行的目标动作。
第二方面,本公开提供一种动作的确定装置,所述装置包括:
获取模块,用于获取目标对象所处环境的环境图像,以及所述环境图像中每个环境对象的对象特征向量;
确定模块,用于确定每个所述环境对象在所述环境图像中的位置信息;
融合模块,用于针对每个所述环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置;
处理模块,用于将拼接后的环境图像作为预先训练的动作模型的输入,得到所述动作模型输出的所述目标对象待执行的目标动作。
第三方面,本公开提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现本公开第一方面所述方法的步骤。
第四方面,本公开提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现本公开第一方面所述方法的步骤。
通过上述技术方案,本公开首先获取目标对象所处环境的环境图像,以及环境图像中每个环境对象的对象特征向量,并确定每个环境对象在环境图像中的位置信息,然后针对每个环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置,最后将拼接后的环境图像作为预先训练的动作模型的输入,得到动作模型输出的目标对象待执行的目标动作。本公开通过将对象特征向量拼接至位置信息对应位置,使对象特征向量与位置信息之间具备关联性,从而使动作模型可以快速从拼接后的环境图像中提取出重要特征,提高了动作模型输出的目标动作的准确性。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是根据一示例性实施例示出的一种动作的确定方法的流程图;
图2是根据图1所示实施例示出的一种步骤102的流程图;
图3是根据一示例性实施例示出的一种环境图像的示意图;
图4是根据图1所示实施例示出的一种步骤103的流程图;
图5是根据一示例性实施例示出的一种环境对象的位置信息对应位置与目标像素点的示意图;
图6是根据一示例性实施例示出的一种动作的确定装置的框图;
图7是根据图6所示实施例示出的一种确定模块的框图;
图8是根据图6所示实施例示出的一种融合模块的框图;
图9是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
在介绍本公开提供的动作的确定方法、装置、可读介质和电子设备之前,首先对本公开各个实施例所涉及应用场景进行介绍。该应用场景可以是由目标对象感知其所处的环境,并根据感知到的环境信息来进行动作的场景。该应用场景可以包括一目标对象以及目标对象所处环境中包含的多个环境对象,在该场景下,目标对象可以对目标对象所处环境的环境信息进行融合,并将融合后的环境信息,输入到动作模型中,以得到目标对象待执行的目标动作。其中,目标对象可以是任一种能够与环境交互,并根据所处环境的环境信息进行动作的智能体。例如,在游戏场景中,目标对象可以是游戏AI(英文:ArtificialIntelligence,中文:人工智能)角色,目标动作可以是控制游戏AI角色攻击、移动和停止等。在自动驾驶场景中,目标对象可以是进行自动驾驶的车辆,目标动作可以是控制该车辆转向、直行和刹车等。在机器人智能装配场景中,目标对象可以是机器人,目标动作可以是控制该机器人移动、抓取待装配物体和放下待装配物体等。
图1是根据一示例性实施例示出的一种动作的确定方法的流程图。如图1所示,该方法包括:
步骤101,获取目标对象所处环境的环境图像,以及环境图像中每个环境对象的对象特征向量。
举例来说,首先可以由目标对象对目标对象所处环境进行感知,以获取目标对象所处环境的多模态的环境信息。其中,环境信息可以包括环境图像,以及环境图像中每个环境对象的对象信息,对象信息包含了环境对象所对应的具体参数。例如,在目标对象为游戏智能体(例如,游戏AI角色)时,环境图像可以是游戏智能体所处游戏环境的游戏图像(例如,包含该游戏环境的游戏地图),环境对象可以是该游戏图像中的敌方单位、道路和建筑物等游戏对象,对象信息可以包括游戏对象的数值参数(例如:血量、攻击力、技能)、名称和所在位置等信息。在目标对象为进行自动驾驶的车辆时,环境图像可以是拍摄到的该车辆周围的图像,环境对象可以是该车辆周围的其他车辆、障碍物和交通标识等,对象信息可以包括其他车辆的车速、行驶方向和大小等信息。在目标对象为智能装配场景下的机器人时,环境图像可以是拍摄到的待装配物体所在区域的图像,环境对象可以是待装配物体,对象信息可以包括待装配物体的大小、形状和位置等信息。
然后,可以对每个环境对象的对象信息进行预处理,以得到每个环境对象的对象特征向量。例如,可以将每个环境对象的对象信息输入到预先训练好的深度学习网络中,以将每个环境对象的对象信息转换为该环境对象的对象特征向量。
步骤102,确定每个环境对象在环境图像中的位置信息。
进一步的,为了提高动作模型输出的目标动作的正确性,可以通过建立对象特征向量和环境对象的位置信息之间的映射,并利用该映射对对象特征向量和环境图像进行拼接的方式,使对象特征向量与环境图像具备强关联性,进而使动作模型可以快速从环境信息中提取出重要特征,并输出高正确性的目标动作。具体的,首先可以选取每个环境对象在环境图像中的位置标识点,位置标识点用于标识环境对象所在的位置。之后可以将每个环境对象的位置标识点的位置信息(位置信息例如可以是像素点坐标),作为该环境对象的位置信息,即该环境对象的位置信息为该环境对象的位置标识点的位置信息,可以理解为,采用环境对象的位置标识点的位置,来代表整个环境对象的位置。例如,可以将环境对象在环境图像中的质心或重心作为位置标识点,即采用环境对象的质心或重心的位置,来代表整个环境对象的位置。
步骤103,针对每个环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置。
示例地,在确定每个环境对象在环境图像中的位置信息之后,可以将每个环境对象的对象特征向量,拼接至环境图像中该环境对象的位置信息对应位置。通过这样的方式,相当于在拼接的过程中,考虑了环境对象在环境图像中的位置,可以使拼接后的环境图像与对象特征向量的关联性更强。
步骤104,将拼接后的环境图像作为预先训练的动作模型的输入,得到动作模型输出的目标对象待执行的目标动作。
在本步骤中,可以将拼接后的环境图像输入到预先训练好的动作模型中,以得到动作模型输出的目标动作,并控制目标对象执行目标动作。其中,动作模型可以采用DRL模型。需要说明的是,动作模型是采用与上述过程相同的拼接方式,将环境图像样本和对象特征向量样本拼接后,输入到动作模型进行训练得到的。通过这样的方式,动作模型可以快速从拼接后的环境图像样本中提取出重要特征,能够提高动作模型的学习效率与性能。
以目标对象为游戏AI角色,且环境对象为游戏AI角色所处游戏环境中的敌方单位为例对步骤101-步骤104进行进一步说明,首先游戏AI角色可以对其所处的游戏环境进行感知(可以理解为搜集游戏AI角色附近的环境信息),得到该游戏环境的游戏地图,以及该游戏环境中每个敌方单位的包括血量、名称和所在位置的对象信息。其次,可以利用深度学习网络,将每个敌方单位的血量、名称和所在位置转换为该敌方单位的对象特征向量,再确定每个敌方单位在游戏地图中的质心,并将每个敌方单位在游戏地图中的质心的位置信息作为该敌方单位的位置信息。然后可以根据每个敌方单位的位置信息,将每个敌方单位的对象特征向量,拼接至游戏地图中该敌方单位的质心上,得到拼接后的游戏地图。最后,可以将拼接后的游戏地图输入到动作模型中,得到动作模型输出的游戏动作,并控制游戏AI角色执行游戏动作,例如,可以控制游戏AI角色依次移动至每个敌方单位附近,并攻击每个敌方单位。
进一步的,本公开并不局限于通过拼接后的环境图像输出目标动作,还可以应用于任一种需要对包括图像的多模态信息进行融合的场景,例如,可以应用于利用融合后的多模态信息,对策略模型进行训练的场景,也可以应用于利用融合后的多模态信息,通过强化学习训练得到智能体的场景。
综上所述,本公开首先获取目标对象所处环境的环境图像,以及环境图像中每个环境对象的对象特征向量,并确定每个环境对象在环境图像中的位置信息,然后针对每个环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置,最后将拼接后的环境图像作为预先训练的动作模型的输入,得到动作模型输出的目标对象待执行的目标动作。本公开通过将对象特征向量拼接至位置信息对应位置,使对象特征向量与位置信息之间具备关联性,从而使动作模型可以快速从拼接后的环境图像中提取出重要特征,提高了动作模型输出的目标动作的准确性。
图2是根据图1所示实施例示出的一种步骤102的流程图。如图2所示,步骤102可以包括以下步骤:
步骤1021,确定环境对象在环境图像中的质心或重心。
步骤1022,将质心或重心在环境图像中的位置信息,作为环境对象在环境图像中的位置信息。
示例地,当采用环境对象在环境图像中的质心或重心作为位置标识点时,首先可以对环境图像进行栅格化,并获取环境图像中每个像素点的位置信息,其中,位置信息可以是像素点的坐标。例如,如图3所示,在环境图像为含有h、w、c(即high,width,channel)三个维度的RGB图像的情况下,可以将像素点的位置信息记为Pi=[wi,hi],wi代表像素点在w维度上的坐标值,hi代表像素点在h维度上的坐标值。需要说明的是,c可以理解为图像通道,例如,当c为3时,代表的是R、G、B三个通道,当c为1时,就只有1个通道,即灰度图像。
然后,可以在环境图像中搜索每个环境对象所在区域,并记录每个环境对象所在区域的位置信息。然后根据每个环境对象所在区域的位置信息,计算该环境对象的质心或重心,其中,计算环境对象的质心或重心的方式可以参考相关技术中的实现方式,本公开对此不做详细描述。最后可以将每个环境对象的质心或重心的位置信息,作为该环境对象的位置信息。
图4是根据图1所示实施例示出的一种步骤103的流程图。如图4所示,步骤103可以包括以下步骤:
步骤1031,获取与该环境对象的位置信息对应的多个目标像素点。
示例地,由于环境对象的位置信息为一个连续空间的数值,而环境图像中的像素点则是离散的,为了更好地对对象特征向量与环境对象的位置信息进行拼接,可以采用亚像素级特征变换的方式,对环境对象的位置信息进行离散化。具体的,首先可以针对每个环境对象,将与该环境对象的位置信息对应位置的距离满足预设距离条件的像素点作为目标像素点。其中,预设距离条件可以是与环境对象的位置信息对应位置的距离小于距离阈值,也可以是与环境对象的位置信息对应位置的距离最近。例如,可以将与环境对象的位置信息对应位置的距离最近的4个像素点作为目标像素点。
步骤1032,根据该环境对象的对象特征向量,确定每个目标像素点的变换特征向量。
步骤1033,将每个目标像素点的变换特征向量,拼接至该目标像素点对应位置。
进一步的,可以利用每个环境对象的位置信息对应位置,与该环境对象对应的每个目标像素点之间的距离,将该环境对象的对象特征向量分配给该环境对象对应的多个目标像素点,得到每个目标像素点的变换特征向量。采用这样的分配方式,相当于建立了变换特征向量与目标像素点之间的映射。最后可以将每个目标像素点的变换特征向量,拼接至环境图像中该目标像素点对应的位置。
可选地,步骤1032可以通过以下方式实现:
步骤a),确定该环境对象的位置信息对应位置与每个目标像素点之间的距离。
步骤b),根据该环境对象的对象特征向量和该距离,确定变换特征向量。
举例来说,在确定每个目标像素点的变换特征向量时,首先可以确定每个环境对象的位置信息对应位置,与该环境对象对应的每个目标像素点之间的距离。然后可以根据该环境对象的位置信息对应位置与每个目标像素点之间的距离,确定每个目标像素点对应的权重。例如,可以利用第一公式,来确定每个目标像素点对应的权重,第一公式可以表示为:Wn=1/rn,其中,Wn表示标号为n的目标像素点对应的权重,rn表示标号为n的目标像素点与该环境对象的位置信息对应位置之间的距离。最后可以根据每个目标像素点对应的权重,将该环境对象的对象特征向量分配给每个目标像素点,以得到每个目标像素点的变换特征向量。
以将环境对象的质心作为位置标识点为例,若将与环境对象的位置信息对应位置最近的四个像素点作为目标像素点,如图5所示(图5中的P为环境对象的质心,P1、P2、P3和P4为目标像素点),则可以将P对应的对象特征向量,按照权重分配到P1、P2、P3和P4上,得到P1、P2、P3和P4对应的变换特征向量。此时,得到目标像素点的变换特征向量的过程,可以理解为,将环境对象的对象特征向量作为环境对象的质心处(即P处)的特征向量,并利用变换分配给质心附近邻域内的像素点(即P1、P2、P3和P4),以得到目标像素点的变换特征向量。
可选地,步骤1033可以包括以下步骤:
步骤1),若多个目标像素点的变换特征向量中存在向量长度不相同的变换特征向量,将向量长度最长的变换特征向量,作为目标变换特征向量。
步骤2),根据目标变换特征向量的向量长度,对变换特征向量进行调整,以使变换特征向量的向量长度与目标变换特征向量的向量长度相同。
在一种场景中,若环境对象对应的多个目标像素点的变换特征向量中,存在向量长度不相同的变换特征向量,为了确保对变换特征向量和目标像素点的拼接效果,可以对多个目标像素点的变换特征向量进行对齐。例如,首先可以将向量长度最长的变换特征向量,作为目标变换特征向量,并对每个目标像素点的变换特征向量进行调整,以使每个目标像素点的变换特征向量的向量长度与目标变换特征向量的向量长度相同。例如,可以以目标变换特征向量的向量长度为基准,对向量长度小于该基准的变换特征向量,采用0进行补齐,以使该变换特征向量的向量长度与目标变换特征向量的向量长度相同。
步骤3),将调整后的每个目标像素点的变换特征向量,拼接至该目标像素点对应的位置。
进一步的,在对变换特征向量进行调整之后,可以将调整后的每个目标像素点的变换特征向量,拼接至环境图像中该目标像素点对应的位置,并将预设特征向量,拼接至环境图像中除目标像素点外的其他位置。例如,在环境图像为含有h、w、c三个维度的RGB图像的情况下,可以在目标像素点的c维度上拼接该目标像素点对应的变换特征向量(即将该目标像素点对应的变换特征向量,添加到该目标像素点的图像通道这一维度上),同时可以将0作为预设特征向量,并在环境图像中除目标像素点外的其他位置的c维度上拼接预设特征向量。
在一种场景中,目标对象为游戏智能体,环境图像为游戏智能体所处游戏环境的游戏图像,环境对象为游戏环境中的游戏对象。步骤104可以通过以下方式实现:
将拼接后的游戏图像作为所述动作模型的输入,得到所述动作模型输出的所述游戏智能体待执行的游戏动作。
具体的,首先游戏智能体可以对其所处的游戏环境进行感知,得到该游戏环境的游戏图像,以及该游戏环境中每个游戏对象的对象信息。其次,可以利用深度学习网络,将每个游戏对象的对象信息转换为该游戏对象的对象特征向量,再确定每个游戏对象在游戏图像中的质心(或重心),并将每个游戏对象在游戏图像中的质心(或重心)的位置信息作为该游戏对象的位置信息。之后可以将与每个游戏对象的位置信息对应位置的距离最近的4个像素点作为该游戏对象对应的目标像素点。再根据每个游戏对象的位置信息对应位置与该游戏对象对应的每个目标像素点之间的距离,确定每个目标像素点对应的权重,并根据该权重,将该游戏对象的对象特征向量分配给该游戏对象对应的多个目标像素点,得到每个目标像素点的变换特征向量。然后可以将每个目标像素点的变换特征向量,拼接至环境图像中该目标像素点对应的位置,得到拼接后的游戏图像。最后可以将拼接后的游戏图像输入到动作模型中,得到动作模型输出的游戏动作,并控制游戏智能体执行游戏动作,例如,可以控制游戏智能体依次攻击每个游戏对象。
综上所述,本公开首先获取目标对象所处环境的环境图像,以及环境图像中每个环境对象的对象特征向量,并确定每个环境对象在环境图像中的位置信息,然后针对每个环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置,最后将拼接后的环境图像作为预先训练的动作模型的输入,得到动作模型输出的目标对象待执行的目标动作。本公开通过将对象特征向量拼接至位置信息对应位置,使对象特征向量与位置信息之间具备关联性,从而使动作模型可以快速从拼接后的环境图像中提取出重要特征,提高了动作模型输出的目标动作的准确性。
图6是根据一示例性实施例示出的一种动作的确定装置的框图。如图6所示,该装置200包括:
获取模块201,用于获取目标对象所处环境的环境图像,以及所述环境图像中每个环境对象的对象特征向量。
确定模块202,用于确定每个环境对象在环境图像中的位置信息。
融合模块203,用于针对每个环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置。
处理模块204,用于将拼接后的环境图像作为预先训练的动作模型的输入,得到动作模型输出的目标对象待执行的目标动作。
图7是根据图1所示实施例示出的一种确定模块的框图。如图7所示,确定模块202包括:
第一确定子模块2021,用于确定环境对象在环境图像中的质心或重心。
第二确定子模块2022,用于将质心或重心在环境图像中的位置信息,作为环境对象在环境图像中的位置信息。
图8是根据图1所示实施例示出的一种融合模块的框图。如图8所示,融合模块203包括:
获取子模块2031,获取与该环境对象的位置信息对应的多个目标像素点。
第三确定子模块2032,根据该环境对象的对象特征向量,确定每个目标像素点的变换特征向量。
拼接子模块2033,将每个目标像素点的变换特征向量,拼接至该目标像素点对应位置。
可选地,第三确定子模块2032用于:
确定该环境对象的位置信息对应位置与每个目标像素点之间的距离。
根据该环境对象的对象特征向量和所述距离,确定所述变换特征向量。
可选地,第三确定子模块2032用于:
根据距离,确定每个目标像素点对应的权重。
根据权重,将该环境对象的对象特征向量分配给每个目标像素点,以得到变换特征向量。
可选地,拼接子模块2033用于:
若多个目标像素点的变换特征向量中存在向量长度不相同的变换特征向量,将向量长度最长的变换特征向量,作为目标变换特征向量。
根据目标变换特征向量的向量长度,对变换特征向量进行调整,以使变换特征向量的向量长度与目标变换特征向量的向量长度相同。
将调整后的每个目标像素点的变换特征向量,拼接至环境图像中该目标像素点对应位置。
可选地,获取子模块2031用于:
将与该环境对象的位置信息对应位置的距离满足预设距离条件的像素点作为目标像素点。
可选地,目标对象为游戏智能体,环境图像为游戏智能体所处游戏环境的游戏图像,环境对象为游戏环境中的游戏对象。处理模块204用于:
将拼接后的游戏图像作为动作模型的输入,得到动作模型输出的游戏智能体待执行的游戏动作。
综上所述,本公开首先获取目标对象所处环境的环境图像,以及环境图像中每个环境对象的对象特征向量,并确定每个环境对象在环境图像中的位置信息,然后针对每个环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置,最后将拼接后的环境图像作为预先训练的动作模型的输入,得到动作模型输出的目标对象待执行的目标动作。本公开通过将对象特征向量拼接至位置信息对应位置,使对象特征向量与位置信息之间具备关联性,从而使动作模型可以快速从拼接后的环境图像中提取出重要特征,提高了动作模型输出的目标动作的准确性。
下面参考图9,其示出了适于用来实现本公开实施例的电子设备(例如图1中的终端设备或服务器)300的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图9示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,电子设备300可以包括处理装置(例如中央处理器、图形处理器等)301,其可以根据存储在只读存储器(ROM)302中的程序或者从存储装置308加载到随机访问存储器(RAM)303中的程序而执行各种适当的动作和处理。在RAM 303中,还存储有电子设备300操作所需的各种程序和数据。处理装置301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
通常,以下装置可以连接至I/O接口305:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置306;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置307;包括例如磁带、硬盘等的存储装置308;以及通信装置309。通信装置309可以允许电子设备300与其他设备进行无线或有线通信以交换数据。虽然图9示出了具有各种装置的电子设备300,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置309从网络上被下载和安装,或者从存储装置308被安装,或者从ROM 302被安装。在该计算机程序被处理装置301执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标对象所处环境的环境图像,以及所述环境图像中每个环境对象的对象特征向量;确定每个所述环境对象在所述环境图像中的位置信息;针对每个所述环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置;将拼接后的环境图像作为预先训练的动作模型的输入,得到所述动作模型输出的所述目标对象待执行的目标动作。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,获取模块还可以被描述为“获取环境图像,以及对象特征向量的模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种动作的确定方法,包括:获取目标对象所处环境的环境图像,以及所述环境图像中每个环境对象的对象特征向量;确定每个所述环境对象在所述环境图像中的位置信息;针对每个所述环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置;将拼接后的环境图像作为预先训练的动作模型的输入,得到所述动作模型输出的所述目标对象待执行的目标动作。
根据本公开的一个或多个实施例,示例2提供了示例1的方法,所述确定每个所述环境对象在所述环境图像中的位置信息,包括:确定所述环境对象在所述环境图像中的质心或重心;将所述质心或所述重心在所述环境图像中的位置信息,作为所述环境对象在所述环境图像中的位置信息。
根据本公开的一个或多个实施例,示例3提供了示例1的方法,所述将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置,包括:获取与该环境对象的位置信息对应的多个目标像素点;根据该环境对象的对象特征向量,确定每个所述目标像素点的变换特征向量;将每个所述目标像素点的变换特征向量,拼接至该目标像素点对应位置。
根据本公开的一个或多个实施例,示例4提供了示例3的方法,所述根据该环境对象的对象特征向量,确定每个所述目标像素点的变换特征向量,包括:确定该环境对象的位置信息对应位置与每个所述目标像素点之间的距离;根据该环境对象的对象特征向量和所述距离,确定所述变换特征向量。
根据本公开的一个或多个实施例,示例5提供了示例4的方法,所述根据该环境对象的对象特征向量和所述距离,确定所述变换特征向量,包括:根据所述距离,确定每个所述目标像素点对应的权重;根据所述权重,将该环境对象的对象特征向量分配给每个所述目标像素点,以得到所述变换特征向量。
根据本公开的一个或多个实施例,示例6提供了示例3的方法,所述将每个所述目标像素点的变换特征向量,拼接至该目标像素点对应位置,包括:若多个所述目标像素点的变换特征向量中存在向量长度不相同的变换特征向量,将向量长度最长的变换特征向量,作为目标变换特征向量;根据所述目标变换特征向量的向量长度,对所述变换特征向量进行调整,以使所述变换特征向量的向量长度与所述目标变换特征向量的向量长度相同;将调整后的每个所述目标像素点的变换特征向量,拼接至该目标像素点对应位置。
根据本公开的一个或多个实施例,示例7提供了示例3的方法,所述获取与该环境对象的位置信息对应的多个目标像素点,包括:将与该环境对象的位置信息对应位置的距离满足预设距离条件的像素点作为所述目标像素点。
根据本公开的一个或多个实施例,示例8提供了示例1-7中任一项的方法,所述目标对象为游戏智能体,所述环境图像为所述游戏智能体所处游戏环境的游戏图像,所述环境对象为所述游戏环境中的游戏对象;所述将拼接后的环境图像作为预先训练的动作模型的输入,得到所述动作模型输出的所述目标对象待执行的目标动作,包括:将拼接后的游戏图像作为所述动作模型的输入,得到所述动作模型输出的所述游戏智能体待执行的游戏动作。
根据本公开的一个或多个实施例,示例9提供了一种动作的确定装置,所述装置包括:获取模块,用于获取目标对象所处环境的环境图像,以及所述环境图像中每个环境对象的对象特征向量;确定模块,用于确定每个所述环境对象在所述环境图像中的位置信息;融合模块,用于针对每个所述环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置;处理模块,用于将拼接后的环境图像作为预先训练的动作模型的输入,得到所述动作模型输出的所述目标对象待执行的目标动作。
根据本公开的一个或多个实施例,示例10提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现示例1至示例8中所述方法的步骤。
根据本公开的一个或多个实施例,示例11提供了一种电子设备,包括:存储装置,其上存储有计算机程序;处理装置,用于执行所述存储装置中的所述计算机程序,以实现示例1至示例8中所述方法的步骤。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
Claims (11)
1.一种动作的确定方法,其特征在于,所述方法包括:
获取目标对象所处环境的环境图像,以及所述环境图像中每个环境对象的对象特征向量;
确定每个所述环境对象在所述环境图像中的位置信息;
针对每个所述环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置;
将拼接后的环境图像作为预先训练的动作模型的输入,得到所述动作模型输出的所述目标对象待执行的目标动作。
2.根据权利要求1所述的方法,其特征在于,所述确定每个所述环境对象在所述环境图像中的位置信息,包括:
确定所述环境对象在所述环境图像中的质心或重心;
将所述质心或所述重心在所述环境图像中的位置信息,作为所述环境对象在所述环境图像中的位置信息。
3.根据权利要求1所述的方法,其特征在于,所述将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置,包括:
获取与该环境对象的位置信息对应的多个目标像素点;
根据该环境对象的对象特征向量,确定每个所述目标像素点的变换特征向量;
将每个所述目标像素点的变换特征向量,拼接至该目标像素点对应位置。
4.根据权利要求3所述的方法,其特征在于,所述根据该环境对象的对象特征向量,确定每个所述目标像素点的变换特征向量,包括:
确定该环境对象的位置信息对应位置与每个所述目标像素点之间的距离;
根据该环境对象的对象特征向量和所述距离,确定所述变换特征向量。
5.根据权利要求4所述的方法,其特征在于,所述根据该环境对象的对象特征向量和所述距离,确定所述变换特征向量,包括:
根据所述距离,确定每个所述目标像素点对应的权重;
根据所述权重,将该环境对象的对象特征向量分配给每个所述目标像素点,以得到所述变换特征向量。
6.根据权利要求3所述的方法,其特征在于,所述将每个所述目标像素点的变换特征向量,拼接至该目标像素点对应位置,包括:
若多个所述目标像素点的变换特征向量中存在向量长度不相同的变换特征向量,将向量长度最长的变换特征向量,作为目标变换特征向量;
根据所述目标变换特征向量的向量长度,对所述变换特征向量进行调整,以使所述变换特征向量的向量长度与所述目标变换特征向量的向量长度相同;
将调整后的每个所述目标像素点的变换特征向量,拼接至该目标像素点对应位置。
7.根据权利要求3所述的方法,其特征在于,所述获取与该环境对象的位置信息对应的多个目标像素点,包括:
将与该环境对象的位置信息对应位置的距离满足预设距离条件的像素点作为所述目标像素点。
8.根据权利要求1-7中任一项所述的方法,其特征在于,所述目标对象为游戏智能体,所述环境图像为所述游戏智能体所处游戏环境的游戏图像,所述环境对象为所述游戏环境中的游戏对象;
所述将拼接后的环境图像作为预先训练的动作模型的输入,得到所述动作模型输出的所述目标对象待执行的目标动作,包括:
将拼接后的游戏图像作为所述动作模型的输入,得到所述动作模型输出的所述游戏智能体待执行的游戏动作。
9.一种动作的确定装置,其特征在于,所述装置包括:
获取模块,用于获取目标对象所处环境的环境图像,以及所述环境图像中每个环境对象的对象特征向量;
确定模块,用于确定每个所述环境对象在所述环境图像中的位置信息;
融合模块,用于针对每个所述环境对象,将该环境对象的对象特征向量拼接至该环境对象的位置信息对应位置;
处理模块,用于将拼接后的环境图像作为预先训练的动作模型的输入,得到所述动作模型输出的所述目标对象待执行的目标动作。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-8中任一项所述方法的步骤。
11.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-8中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110593881.2A CN113209622B (zh) | 2021-05-28 | 2021-05-28 | 动作的确定方法、装置、可读介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110593881.2A CN113209622B (zh) | 2021-05-28 | 2021-05-28 | 动作的确定方法、装置、可读介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113209622A true CN113209622A (zh) | 2021-08-06 |
CN113209622B CN113209622B (zh) | 2024-09-24 |
Family
ID=77099238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110593881.2A Active CN113209622B (zh) | 2021-05-28 | 2021-05-28 | 动作的确定方法、装置、可读介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113209622B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109499068A (zh) * | 2018-11-14 | 2019-03-22 | 腾讯科技(深圳)有限公司 | 对象的控制方法和装置、存储介质、电子装置 |
CN109843401A (zh) * | 2017-10-17 | 2019-06-04 | 腾讯科技(深圳)有限公司 | 一种ai对象行为模型优化方法以及装置 |
CN109847350A (zh) * | 2019-03-25 | 2019-06-07 | 深圳初影科技有限公司 | 基于ar技术的游戏实现方法、游戏系统、及存储介质 |
CN109999496A (zh) * | 2019-04-08 | 2019-07-12 | 深圳市腾讯信息技术有限公司 | 虚拟对象的控制方法、装置和电子装置 |
CN110141861A (zh) * | 2019-01-29 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 控制方法、装置及终端 |
WO2020042727A1 (zh) * | 2018-08-28 | 2020-03-05 | 腾讯科技(深圳)有限公司 | 一种应用场景的交互方法和移动终端以及存储介质 |
CN111185008A (zh) * | 2020-01-20 | 2020-05-22 | 腾讯科技(深圳)有限公司 | 用于控制游戏中的虚拟角色的方法和设备 |
CN112221143A (zh) * | 2020-10-09 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 一种控制虚拟对象移动的方法、装置及存储介质 |
CN112634343A (zh) * | 2020-12-23 | 2021-04-09 | 北京百度网讯科技有限公司 | 图像深度估计模型的训练方法、图像深度信息的处理方法 |
-
2021
- 2021-05-28 CN CN202110593881.2A patent/CN113209622B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109843401A (zh) * | 2017-10-17 | 2019-06-04 | 腾讯科技(深圳)有限公司 | 一种ai对象行为模型优化方法以及装置 |
WO2020042727A1 (zh) * | 2018-08-28 | 2020-03-05 | 腾讯科技(深圳)有限公司 | 一种应用场景的交互方法和移动终端以及存储介质 |
CN109499068A (zh) * | 2018-11-14 | 2019-03-22 | 腾讯科技(深圳)有限公司 | 对象的控制方法和装置、存储介质、电子装置 |
CN110141861A (zh) * | 2019-01-29 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 控制方法、装置及终端 |
CN109847350A (zh) * | 2019-03-25 | 2019-06-07 | 深圳初影科技有限公司 | 基于ar技术的游戏实现方法、游戏系统、及存储介质 |
CN109999496A (zh) * | 2019-04-08 | 2019-07-12 | 深圳市腾讯信息技术有限公司 | 虚拟对象的控制方法、装置和电子装置 |
CN111185008A (zh) * | 2020-01-20 | 2020-05-22 | 腾讯科技(深圳)有限公司 | 用于控制游戏中的虚拟角色的方法和设备 |
CN112221143A (zh) * | 2020-10-09 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 一种控制虚拟对象移动的方法、装置及存储介质 |
CN112634343A (zh) * | 2020-12-23 | 2021-04-09 | 北京百度网讯科技有限公司 | 图像深度估计模型的训练方法、图像深度信息的处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113209622B (zh) | 2024-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368685B (zh) | 关键点的识别方法、装置、可读介质和电子设备 | |
EP3872764A1 (en) | Method and apparatus for constructing map | |
CN111192341A (zh) | 生成高精地图的方法、装置、自动驾驶设备及存储介质 | |
CN116164770B (zh) | 路径规划方法、装置、电子设备和计算机可读介质 | |
CN115326099B (zh) | 局部路径规划方法、装置、电子设备和计算机可读介质 | |
CN113052253B (zh) | 超参数确定方法、装置、深度强化学习框架、介质及设备 | |
CN111402122A (zh) | 图像的贴图处理方法、装置、可读介质和电子设备 | |
CN113289327A (zh) | 移动终端的显示控制方法及装置、存储介质及电子设备 | |
CN115817463B (zh) | 车辆避障方法、装置、电子设备和计算机可读介质 | |
CN114972591A (zh) | 动画生成模型的训练方法、动画生成方法和装置 | |
CN111382695A (zh) | 用于检测目标的边界点的方法和装置 | |
CN114422698B (zh) | 视频生成方法、装置、设备及存储介质 | |
CN114863071A (zh) | 目标对象标注方法、装置、存储介质及电子设备 | |
CN110956128A (zh) | 生成车道线图像的方法、装置、电子设备和介质 | |
CN113673446A (zh) | 图像识别方法、装置、电子设备和计算机可读介质 | |
CN113781518A (zh) | 神经网络结构搜索方法及装置、电子设备和存储介质 | |
CN113209622B (zh) | 动作的确定方法、装置、可读介质和电子设备 | |
US20240290135A1 (en) | Method, electornic device, and storage medium for image processing | |
CN116453154A (zh) | 行人检测方法、系统、电子设备以及可读介质 | |
CN113805578B (zh) | 无人车路径优化方法及相关设备 | |
CN115408609A (zh) | 泊车路线推荐方法、装置、电子设备和计算机可读介质 | |
CN113703704B (zh) | 界面显示方法、头戴式显示设备和计算机可读介质 | |
CN113052312B (zh) | 深度强化学习模型的训练方法、装置、介质及电子设备 | |
CN113804208B (zh) | 无人车路径优化方法及相关设备 | |
CN113804196B (zh) | 无人车路径规划方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |