CN111246098A - 机器人拍照方法、装置、计算机设备和存储介质 - Google Patents
机器人拍照方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111246098A CN111246098A CN202010062423.1A CN202010062423A CN111246098A CN 111246098 A CN111246098 A CN 111246098A CN 202010062423 A CN202010062423 A CN 202010062423A CN 111246098 A CN111246098 A CN 111246098A
- Authority
- CN
- China
- Prior art keywords
- guide image
- saliency map
- central
- parameter set
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000006870 function Effects 0.000 claims description 39
- 238000012545 processing Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 12
- 238000002156 mixing Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种机器人拍照方法、装置、计算机设备和存储介质。所述方法包括:获取目标对象所对应的引导图像、以及目标对象所对应的类型信息。根据目标对象的边缘信息,提取引导图像在不同候选位置处的显著图。对于各候选位置,分别确定相应显著图和引导图像间的面积比值,并根据相应显著图与引导图像的中心确定第一参数集,根据相应显著图与引导图像的边界确定第二参数集。基于面积比值、第一参数集、及第二参数集分别与由类型信息所确定的相应参考值之间的差异,构建目标函数。将目标函数最小化至预设阈值内时所对应的候选位置作为目标位置,并在目标位置处对目标对象进行拍照。采用本方法能够提升机器人拍照效率。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种机器人拍照方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,出现了无人驾驶飞机,简称“无人机”。无人机是利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机,或者由车载计算机完全地或间歇地自主地操作。无人机可机载遥感设备,如高分辨率数码相机、轻型光学相机、红外扫描仪,激光扫描仪、磁测仪等获取信息,并用计算机对图像信息进行处理,并按照一定精度要求制作成图像。目前,使用无人机对物体进行拍照通常是通过遥操作无人机到人为指定的位置进行拍照。
然而,目前的无人机拍照方法,需要人为控制拍照位置信息和角度,使得图像拍摄缺乏智能化,且拍摄的图像质量较差,从而导致了拍照效率低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提升机器人拍照效率的机器人拍照方法、装置、计算机设备和存储介质。
一种机器人拍照方法,所述方法包括:
获取目标对象所对应的引导图像、以及所述目标对象所对应的类型信息;
根据所述目标对象的边缘信息,提取所述引导图像在不同候选位置处的显著图;
对于各候选位置,分别确定相应显著图和所述引导图像间的面积比值,并根据相应显著图与所述引导图像的中心确定第一参数集,根据相应显著图与所述引导图像的边界确定第二参数集;
基于所述面积比值、所述第一参数集、及所述第二参数集分别与由所述类型信息所确定的相应参考值之间的差异,构建目标函数;
将所述目标函数最小化至预设阈值内时所对应的候选位置作为目标位置,并在所述目标位置处对所述目标对象进行拍照。
一种机器人拍照装置,所述装置包括:
获取模块,用于获取目标对象所对应的引导图像、以及所述目标对象所对应的类型信息;
提取模块,用于根据所述目标对象的边缘信息,提取所述引导图像在不同候选位置处的显著图;
确定模块,用于对于各候选位置,分别确定相应显著图和所述引导图像间的面积比值,并根据相应显著图与所述引导图像的中心确定第一参数集,根据相应显著图与所述引导图像的边界确定第二参数集;
构建模块,用于基于所述面积比值、所述第一参数集、及所述第二参数集分别与由所述类型信息所确定的相应参考值之间的差异,构建目标函数;
拍摄模块,用于将所述目标函数最小化至预设阈值内时所对应的候选位置作为目标位置,并在所述目标位置处对所述目标对象进行拍照。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取目标对象所对应的引导图像、以及所述目标对象所对应的类型信息;
根据所述目标对象的边缘信息,提取所述引导图像在不同候选位置处的显著图;
对于各候选位置,分别确定相应显著图和所述引导图像间的面积比值,并根据相应显著图与所述引导图像的中心确定第一参数集,根据相应显著图与所述引导图像的边界确定第二参数集;
基于所述面积比值、所述第一参数集、及所述第二参数集分别与由所述类型信息所确定的相应参考值之间的差异,构建目标函数;
将所述目标函数最小化至预设阈值内时所对应的候选位置作为目标位置,并在所述目标位置处对所述目标对象进行拍照。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取目标对象所对应的引导图像、以及所述目标对象所对应的类型信息;
根据所述目标对象的边缘信息,提取所述引导图像在不同候选位置处的显著图;
对于各候选位置,分别确定相应显著图和所述引导图像间的面积比值,并根据相应显著图与所述引导图像的中心确定第一参数集,根据相应显著图与所述引导图像的边界确定第二参数集;
基于所述面积比值、所述第一参数集、及所述第二参数集分别与由所述类型信息所确定的相应参考值之间的差异,构建目标函数;
将所述目标函数最小化至预设阈值内时所对应的候选位置作为目标位置,并在所述目标位置处对所述目标对象进行拍照。
上述机器人拍照方法、装置、计算机设备和存储介质,通过提取目标对象对应的引导图像在不同候选位置处的显著图,并将相应显著图的面积与引导图像的面积的面积比值、相应显著图与所述引导图像的中心确定第一参数集、以及相应显著图与所述引导图像的边界确定第二参数集,作为控制机器人拍照的调整指标。进而将当前计算出来的调整指标与目标对象所对应的类型信息对应的拍照参考值进行比较,得到当前指标与参考指标之间的差异。根据差异构建目标函数,进而根据目标函数确定最终的拍照位置。这样,实现了机器人自动化拍照,且拍摄出来的图像质量好,进而提升了机器人拍照效率。
附图说明
图1为一个实施例中机器人拍照方法的应用场景图;
图2为一个实施例中机器人拍照方法的流程示意图;
图3为一个实施例中目标对象所对应的引导图像的示意图;
图4为另一个实施例中目标对象所对应的引导图像的美学评分流程示意图;
图5为一个实施例中机器人拍照装置的结构框图;
图6为另一个实施例中机器人拍照装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的机器人拍照方法,可以应用于如图1所示的应用环境中。该应用环境包括被拍照的目标对象102和机器人104。机器人104对目标对象102进行拍照。该机器人是带有摄像头的智能设备,其中,机器人104具体可以是无人机或可以移动方向的任何智能设备。本领域技术人员可以理解,图1中示出的应用环境,仅仅是与本申请方案相关的部分场景,并不构成对本申请方案应用环境的限定。
机器人104获取目标对象102所对应的引导图像、以及目标对象所对应的类型信息。根据目标对象102的边缘信息,机器人104提取引导图像在不同候选位置处的显著图。对于各候选位置,机器人104分别确定相应显著图和引导图像间的面积比值,并根据相应显著图与引导图像的中心确定第一参数集,根据相应显著图与引导图像的边界确定第二参数集。机器人104基于面积比值、第一参数集、及第二参数集分别与由类型信息所确定的相应参考值之间的差异,构建目标函数。机器人104将目标函数最小化至预设阈值内时所对应的候选位置作为目标位置,并在目标位置处对目标对象102进行拍照。
在一个实施例中,如图2所示,提供了一种机器人拍照方法,以该方法应用于图1中的机器人104为例进行说明,包括以下步骤:
S202,获取目标对象所对应的引导图像、以及目标对象所对应的类型信息。
其中,引导图像是机器人当前所在位置采集到的图像,用于引导机器人找到合适的拍照位置。类型信息是目标图像所属类别的信息,比如,所属类别具体可以是植物对象、动物对象或人物对象等。
具体地,机器人在不同的位置对对象进行拍照可采集到不同的引导图像,机器人可获取目标对象在当前位置处所对应的引导图像。且机器人可对很多类型的对象进行拍照,不同的对象可对应不同的类型信息,机器人可获取目标对象所对应的类型信息。
S204,根据目标对象的边缘信息,提取引导图像在不同候选位置处的显著图。
其中,边缘信息是目标对象被显著化显示的边界信息,用于从引导图像中提取相应的显著图。显著图是显示每个像素独特性的图像,用于将一般图像的表示简化或是改变为更容易分析的样式。举例说明,某个像素在一张彩色图中具有较高的灰阶,则其会在显著图中以较为明显的方式被显示出来。视觉刺激的观点上,如果某些特征特别能够被捕捉到注意力,这些特性被称为显著性。
具体地,机器人在对目标对象进行拍照时,机器人所处的位置不同所采集到的引导图像不同,所对应的边缘信息也不同,进而引导图像在不同候选位置处的显著图也存在差异。机器人可获取当前位置处目标对象的边缘信息,进而根据边缘信息,提取引导图像在不同候选位置处的显著图。
在一个实施例中,提取引导图像的显著图的算法具体可以是BASNet(Boundary-aware Salient Network,边界感知显著网络)、EGNet(Edge Guidance Network,边缘引导网络)或SCRN(Stacked Cross Refinement Network,堆叠交叉求精网络)。BASNet可通过混合损耗提取显著图,混合损耗可通过融合二进制交叉方向、结构相似度和交叉过并损耗,引导网络在像素、patch和map级三个层次上学习输入图像与地面真实值之间的转换,其中,总的损耗等于每层损耗的加权和。EGNet可同时提取边缘特征信息和显著物体信息,完成边界预测与显著物体检测,两种特征相融合,实现更优的显著物体检测效果。SCRN通过级联不断完成边缘检测和显著性检测两个任务的特征融合,最后借助预测边缘和显著图,并使用交叉熵损失计算边缘和显著预测图与对应真实值的差异。
S206,对于各候选位置,分别确定相应显著图和引导图像间的面积比值,并根据相应显著图与引导图像的中心确定第一参数集,根据相应显著图与引导图像的边界确定第二参数集。
具体地,在各候选位置处,机器人可分别采集对应的引导图像,并提取各引导图像所对应的显著图。机器人可根据引导图像计算引导图像的面积,根据相应的显著图计算显著图的面积,并根据引导图像的面积和显著图的面积分别确定相应显著图和引导图像间的面积比值。机器人可确定出引导图像的中心点的坐标和相应显著图的中心点的坐标,并根据相应显著图与引导图像的中心点的坐标计算出第一参数集。机器人可确定出引导图像的边界位置和相应显著图的边界位置,进而根据相应显著图与引导图像的边界位置确定第二参数集。
在一个实施例中,机器人可确定显著图的各个像素值,根据各个像素值可计算显著图的面积。机器人可确定引导图像的宽度和高度,进而根据宽度和高度可计算出引导图像的面积。进而机器人可计算相应显著图和引导图像间的面积比值。机器人可确定显著图中全部的显著区域,并确定各显著区域的中心点,根据各显著区域的中心点可计算该显著图的中心点。机器人可根据引导图像的宽度和高度计算引导图像的中心点。进而机器人可根据相应显著图与引导图像的中心点确定第一参数集。机器人可确定相应显著图的各顶点坐标,进而根据各顶点坐标和引导图像的宽度、高度计算第二参数集。
S208,基于面积比值、第一参数集、及第二参数集分别与由类型信息所确定的相应参考值之间的差异,构建目标函数。
其中,目标函数是设计变量的函数,用于寻找设计变量与目标的关系。比如,面积比值、第一参数集、及第二参数集分别与由类型信息所确定的相应参考值之间的差异是设计变量,构建目标函数,通过将目标函数最小化来达到误差最小。
具体地,每种类型的目标对象都对应有各自拍照所需求的参考值,目标对象所对应的类型信息不同,对应的参考值也不同。机器人在确定目标对象的类型信息后,可获取与目标对象类型信息相对应的参考值。进而机器人可基于面积比值、第一参数集、及第二参数集分别与由类型信息所确定的相应参考值之间的差异,构建目标函数。
在一个实施例中,实际的面积比值为csize,相应面积比值参考值为dsize,面积比值对应的差值为Δsize。实际的第一参数集为ccx,ccy,相应的第一参数集参考值为dcx,dcy,第一参数集对应的差值为Δcx,Δcy。实际的第二参数集为cbx,cby,相应的第二参数集参考值为dbx,dby,第二参数集对应的差值为Δbx,Δby。
Δsize=csize-dsize
Δcx=ccx-dcx
Δcy=ccy-dcy
Δbx=cbx-dbx
Δby=cby-dby
机器人可于面积比值、第一参数集、及第二参数集分别与由类型信息所确定的相应参考值之间的差异,构建目标函数。目标函数M可表达如下:
S210,将目标函数最小化至预设阈值内时所对应的候选位置作为目标位置,并在目标位置处对目标对象进行拍照。
具体地,目标函数可随着目标对象的拍照候选位置的变换而变化,根据经验设定一个预设阈值,机器人可通过上下左右移动,进而对改变目标对象拍照的候选位置。当目标函数最小化至预设阈值内时,机器人可将对应的候选位置作为目标位置,并在目标位置处对目标对象进行拍照。
在一个实施例中,机器人可预先设定预设阈值为0.5,机器人可上下左右移动位置,直至所构建的目标函数的值小于0.5,此时面积比值、第一参数集、及第二参数集分别与由类型信息所确定的相应参考值之间的差值最小。可以理解,此时机器人所确定的候选位置为最佳的拍照位置,在这个位置拍摄出来的照片最符合美学标准,照片质量高。
在一个实施例中,目标函数的值大于0.5时,表示机器人位置还需调整,具体调整方向是,当Δbx小于0时,控制机器人往左边移动,否则向右边移动。当Δby小于0时,控制机器人往上边移动,否则向下边移动。当Δsize小于0时,控制机器人往前边移动,否则向后边移动。当cbx小于0时,控制机器人往左边移动,否则向右边移动。当ccy小于0时,控制机器人往上边移动,否则向下边移动,直到目标函数的值小于等于0.5,确定当前机器人的位置为目标位置,在目标位置处对目标对象进行拍照。
上述机器人拍照方法中,通过提取目标对象对应的引导图像在不同候选位置处的显著图,并将相应显著图的面积与引导图像的面积的面积比值、相应显著图与所述引导图像的中心确定第一参数集、以及相应显著图与所述引导图像的边界确定第二参数集,作为控制机器人拍照的调整指标。进而将当前计算出来的调整指标与目标对象所对应的类型信息对应的拍照参考值进行比较,得到当前指标与参考指标之间的差异。根据差异构建目标函数,进而根据目标函数确定最终的拍照位置。这样,实现了机器人自动化拍照,且拍摄出来的图像质量好,进而提升了机器人拍照效率。
在一个实施例中,步骤S204,也就是根据目标对象的边缘信息,提取引导图像在不同候选位置处的显著图的步骤,具体包括:根据引导图像的混合损耗,确定引导图像各层级的显著性信息;根据显著性信息确定目标对象的边缘信息;根据在不同候选位置处的目标对象的边缘信息对引导图像进行二值化处理,提取引导图像在不同候选位置处的显著图。
具体地,引导图像在进行显著图提取的过程中会存在损耗,混合损耗融合了二进制交叉方向损耗、结构相似度损耗和交叉过并损耗。机器人可根据引导图像的混合损耗,确定引导图像各层级的显著性信息。目标对象经过处理之后可得到相关的边缘信息,机器人可根据显著性信息确定目标对象的边缘信息。由于引导图像在不同位置处对应的边缘信息也不同,因此机器人可根据在不同候选位置处的目标对象的边缘信息对引导图像进行二值化处理,提取引导图像在不同候选位置处的显著图。
上述实施例中,通过混合损耗确定引导图像的显著性信息和边缘信息,可准确地关注引导图像的边界并将边界显现出来,进而提升显著图提取的效率。
在一个实施例中,步骤S206,也就是对于各候选位置,分别确定相应显著图和引导图像间的面积比值,并根据相应显著图与引导图像的中心确定第一参数集,根据相应显著图与引导图像的边界确定第二参数集的步骤,具体包括:对于各候选位置,分别确定相应显著图中各像素点的像素值,以及引导图像的宽度和高度;将相应显著图中各像素点的像素值在引导图像的宽度和高度范围内进行累加,得到相应显著图的面积,将引导图像的宽度和高度相乘,得到引导图像的面积,并将相应显著图的面积与引导图像的面积的比值作为面积比值;对于各候选位置,分别确定相应显著图中所有显著区域各自对应的中心坐标,并将显著区域的中心坐标进行加权回归处理,得到相应显著图的中心坐标,根据引导图像的宽度和高度确定引导图像的中心坐标;根据相应显著图的中心坐标和引导图像的中心坐标,计算第一参数集;对于各候选位置,分别确定相应显著图各顶点对应的坐标;根据相应显著图各顶点对应的坐标,以及引导图像的宽度和高度,计算第二参数集。
具体地,各候选位置所对应的显著图不同,显著图由各像素点组成且各像素点都对应各自的像素值,引导图像具有本身固定的宽度和高度,其宽度和高度与机器人的设置拍照参数相关。机器人可对各候选位置,分别确定相应显著图中各像素点的像素值,以及引导图像的宽度和高度。显著图和引导图在各候选位置处都具有各自对应的面积。机器人可将相应显著图中各像素点的像素值在引导图像的宽度和高度范围内进行累加,得到相应显著图的面积,将引导图像的宽度和高度相乘,得到引导图像的面积,并将相应显著图的面积与引导图像的面积的比值作为面积比值。相应的显著图由各自的至少一个的显著区域组成,各显著区域有对应有各自的中心坐标。机器人可对各候选位置,分别确定相应显著图中所有显著区域各自对应的中心坐标,并将显著区域的中心坐标进行加权回归处理,得到相应显著图的中心坐标。引导图像的的中心坐标与引导图像的宽度和高度相关,机器人可根据引导图像的宽度和高度确定引导图像的中心坐标。进而机器人可根据相应显著图的中心坐标和引导图像的中心坐标,计算第一参数集。相应显著图都对应有上下左右各顶点,机器人可对各候选位置,分别确定相应显著图各顶点对应的坐标。进而机器人可根据相应显著图各顶点对应的坐标,以及引导图像的宽度和高度,计算第二参数集。
在一个实施例中,引导图像相应的显著图为二值显著图,机器人可通过以下公式,确定相应显著图和引导图像间的面积比值。
其中,Xi,j代表二值显著图的第i行第j列的显著图的像素值,当像素值为0,对应白色区域,当像素值为1,则对应黑色区域。W代表引导图像的宽度,H代表引导图像的高度,Isize代表显著图的面积占引导图像的面积的比例。
在一个实施例中,如图3所示,引导图像中有3个不重叠的显著区域,即EAST、WEST和箭头各自所在的矩形区域。机器人可计算每个显著区域的面积和该引导图像的面积,进而可计算面积比值。根据各个显著区域可计算各显著区域对应的中心点,进而得到三个显著区域整体的中心点。根据引导图像的长度和宽度可计算该引导图像的中心点,进而得到第一参数。机器人可根据这三个显著区域的矩形边界的上下左右顶点,确定显著区域对应的边界。机器人可根据引导图像的宽度和高度确定边界,进而机器人可计算第二参数。
上述实施例中,通过相应显著图的像素值、引导图像的高度和宽度确定面积比值。通过各显著区域的中心坐标确定显著图的中心坐标,根据引导图像的宽度和高度确定引导图像的中心坐标,进而得到第一参数集。通过显著图各顶点和引导图宽度和高度,计算第二参数集。这样,提升了面积比值、第一参数集和第二参数集的计算效率和精确度。
在一个实施例中,第一参数集包括第一横坐标参数和第一纵坐标参数,根据相应显著图的中心坐标和引导图像的中心坐标,计算第一参数集的步骤,具体包括:根据相应显著图的中心坐标,确定相应的第一中心横坐标和第一中心纵坐标;将引导图像的宽度的二分之一处所对应的横坐标,作为引导图像的中心坐标的第二中心横坐标,将引导图像的高度的二分之一处所对应的纵坐标,作为引导图像的中心坐标的第二中心纵坐标;计算第二中心横坐标与第一中心横坐标的第一差值,并将第一差值与第二中心横坐标的比值作为第一横坐标参数;计算第二中心纵坐标与第一中心纵坐标的第二差值,并将第二差值与第二中心纵坐标的比值作为第一纵坐标参数。
具体地,显著图的中心坐标包括第一中心横坐标和第一中心纵坐标,机器人可根据相应显著图的中心坐标,确定相应的第一中心横坐标和第一中心纵坐标。机器人可将引导图像的宽度的二分之一处所对应的横坐标,作为引导图像的中心坐标的第二中心横坐标,同时,将引导图像的高度的二分之一处所对应的纵坐标,作为引导图像的中心坐标的第二中心纵坐标。第二中心横坐标与第一中心横坐标之间存在一定的差异,机器人可计算第二中心横坐标与第一中心横坐标的第一差值,并将第一差值与第二中心横坐标的比值作为第一横坐标参数。第二中心纵坐标与第一中心纵坐标之间也存在差异,机器人可计算第二中心纵坐标与第一中心纵坐标的第二差值,并将第二差值与第二中心纵坐标的比值作为第一纵坐标参数。
在一个实施例中,引导图像中存在N个显著区域,N各显著区域一起构成引导图像的显著图。每个显著区域的面积Si和该显著区域占整个显著区域的权重αi,计算公式如下:
其中,i代表第几个显著区域,i的取值范围为1到N。
引导图像的相应显著图的中心点坐标(Cx,Cy)的计算公式如下:
其中,xi代表各显著区域的中心点横坐标,yi代表各显著区域的中心点纵坐标。
上述实施例中,通过显著图的中心坐标中的横纵坐标、及引导图像的宽度和高度,计算横纵坐标之间的差值,进而得到第一参数集。这样,提升了第一参数集的计算效率和精确度。
在一个实施例中,显著图的顶点包括显著图的左顶点、右顶点、上顶点和下顶点,第二参数集包括第二横坐标参数和第二纵坐标参数,根据相应显著图各顶点对应的坐标,以及引导图像的宽度和高度,计算第二参数集的步骤,具体包括:根据左顶点的横坐标与右顶点的横坐标计算第三差值,并将第三差值与引导图像的宽度的比值作为第二横坐标参数;根据上顶点的纵坐标与下顶点的纵坐标计算第四差值,并将第四差值与引导图像的高度的比值作为第二纵坐标参数。
具体地,左顶点和右顶点包括各自对应的横坐标和纵坐标,机器人可获取左顶点和右顶点的横坐标,并根据左顶点的横坐标与右顶点的横坐标计算第三差值,进而将第三差值与引导图像的宽度的比值作为第二横坐标参数。上顶点和下顶点包括各自对应的横坐标和纵坐标,机器人可获取上顶点和下顶点的纵坐标,并根据上顶点的纵坐标与下顶点的纵坐标计算第四差值,进而将第四差值与引导图像的高度的比值作为第二纵坐标参数。
在一个实施例中,机器人可将相应显著图边界的左顶点的横坐标记为Xl,,右顶点的横坐标记为Xr,上顶点的纵坐标记为Yu,,下顶点的纵坐标记为Yb。进而显著图的边界和引导图像的边界之间的几何关系可通过以下公式计算:
上述实施例中,通过显著图各顶点所对应的横纵坐标,以及引导图像的宽度和高度计算差值,从而得到第二参数集。这样,提升了第二参数集的计算效率和精确度。
在一个实施例中,机器人拍照方法还包括:将引导图像和相应显著图进行与操作处理,得到彩色显著图;将彩色显著图调整至预设大小,并通过特征提取网络提取调整大小后的彩色显著图的图像特征;基于图像特征,计算引导图像的美学分数。
具体地,彩色显著图的特征可用于衡量拍摄图像的质量,机器人可将引导图像和相应显著图进行与操作处理,得到彩色显著图。特征提取网络提取特征时,对提取对象的图像大小有预设规定,机器人可将彩色显著图调整至预设大小,并通过特征提取网络提取调整大小后的彩色显著图的图像特征。进而机器人可基于图像特征,计算引导图像的美学分数。得到的美学分数可用于评价拍摄的图像,美学分数越高,所拍摄的图像的质量越好。
在一个实施例中,基于图像特征,计算引导图像的美学分数的步骤,具体还包括:根据图像特征,确定各预设类别分别对应的概率值;将各预设类别分别对应的概率值进行加权回归处理,得到引导图像的美学分数。
具体地,特征提取网络可将输入的图像分为多类分数,每一类分数对应相应的概率值。机器人可根据图像特征,确定图像所属类别,进而确定各预设类别分别对应的概率值。机器人可将各预设类别分别对应的概率值进行加权回归处理,得到引导图像的美学分数。
这样,通过分别计算各预设类别的分数概率值,并对概率值进行加权回归处理,使得美学分数的计算更为简便和准确。
在一个实施例中,如图4所示,输入一张彩色图像,通过BASNET提取图像的显著图,并得到二值显著图。进而通过与函数,将输入的彩色图像和二值显著图进行与操作,得到彩色显著图并将彩色显著图调整至预设大小,比如224*224*3大小。将调整大小后的彩色显著图送入基线模型提取特征,其中,基线模型具体可以是ResNet(Residual Network,残差网络),VGG16(Visual Geometry Group Network16,视觉几何群网络)等特征提取网络。将提取的特征送入全连接层网络计算各模型类别对应的概率,进而通过Softmax函数将各概率值归一化,最终得到引导图像的美学分数,美学分数越高,说明拍摄出来的照片越符合美学标准,照片质量就越好。
其中,
m代表引导图像的标识,i代表类别1到10这10个分数类别,pi代表照片为i分数类别的概率。
上述实施例中,通过生成彩色显著图,提取彩色显著图的特征进行美学评分,可进一步证明所选定的候选拍照位置是最佳的拍照位置,拍摄出来的照片符合美学标准,进一步提升机器人拍照效率。
应该理解的是,虽然图2的各个步骤按照顺序依次显示,但是这些步骤并不是必然按照顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述图2中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图5所示,提供了一种机器人拍照装置500,包括:获取模块501、提取模块502、确定模块503、构建模块504和拍摄模块505,其中:
获取模块501,用于获取目标对象所对应的引导图像、以及目标对象所对应的类型信息。
提取模块502,用于根据目标对象的边缘信息,提取引导图像在不同候选位置处的显著图。
确定模块503,用于对于各候选位置,分别确定相应显著图和引导图像间的面积比值,并根据相应显著图与引导图像的中心确定第一参数集,根据相应显著图与引导图像的边界确定第二参数集。
构建模块504,用于基于面积比值、第一参数集、及第二参数集分别与由类型信息所确定的相应参考值之间的差异,构建目标函数。
拍摄模块505,用于将目标函数最小化至预设阈值内时所对应的候选位置作为目标位置,并在目标位置处对目标对象进行拍照。
在一个实施例中,提取模块502还用于根据引导图像的混合损耗,确定引导图像各层级的显著性信息;根据显著性信息确定目标对象的边缘信息;根据在不同候选位置处的目标对象的边缘信息对引导图像进行二值化处理,提取引导图像在不同候选位置处的显著图。
在一个实施例中,提取模块502还用于将彩色显著图调整至预设大小,并通过特征提取网络提取调整大小后的彩色显著图的图像特征。
在一个实施例中,确定模块503还用于对于各候选位置,分别确定相应显著图中各像素点的像素值,以及引导图像的宽度和高度;将相应显著图中各像素点的像素值在引导图像的宽度和高度范围内进行累加,得到相应显著图的面积,将引导图像的宽度和高度相乘,得到引导图像的面积,并将相应显著图的面积与引导图像的面积的比值作为面积比值;对于各候选位置,分别确定相应显著图中所有显著区域各自对应的中心坐标,并将显著区域的中心坐标进行加权回归处理,得到相应显著图的中心坐标,根据引导图像的宽度和高度确定引导图像的中心坐标;根据相应显著图的中心坐标和引导图像的中心坐标,计算第一参数集;对于各候选位置,分别确定相应显著图各顶点对应的坐标;根据相应显著图各顶点对应的坐标,以及引导图像的宽度和高度,计算第二参数集。
在一个实施例中,确定模块503还用于根据相应显著图的中心坐标,确定相应的第一中心横坐标和第一中心纵坐标;将引导图像的宽度的二分之一处所对应的横坐标,作为引导图像的中心坐标的第二中心横坐标,将引导图像的高度的二分之一处所对应的纵坐标,作为引导图像的中心坐标的第二中心纵坐标;计算第二中心横坐标与第一中心横坐标的第一差值,并将第一差值与第二中心横坐标的比值作为第一横坐标参数;计算第二中心纵坐标与第一中心纵坐标的第二差值,并将第二差值与第二中心纵坐标的比值作为第一纵坐标参数。
在一个实施例中,确定模块503还用于根据左顶点的横坐标与右顶点的横坐标计算第三差值,并将第三差值与引导图像的宽度的比值作为第二横坐标参数;根据上顶点的纵坐标与下顶点的纵坐标计算第四差值,并将第四差值与引导图像的高度的比值作为第二纵坐标参数。
参考图6,在一个实施例中,机器人拍照装置500还包括:与操作模块506和计算模块507,其中:
与操作模块506,用于将引导图像和相应显著图进行与操作处理,得到彩色显著图。
计算模块507,用于基于图像特征,计算引导图像的美学分数。
在一个实施例中,计算模块507还用于根据图像特征,确定各预设类别分别对应的概率值;将各预设类别分别对应的概率值进行加权回归处理,得到引导图像的美学分数。
上述机器人拍照装置,通过提取目标对象对应的引导图像在不同候选位置处的显著图,并将相应显著图的面积与引导图像的面积的面积比值、相应显著图与所述引导图像的中心确定第一参数集、以及相应显著图与所述引导图像的边界确定第二参数集,作为控制机器人拍照的调整指标。进而将当前计算出来的调整指标与目标对象所对应的类型信息对应的拍照参考值进行比较,得到当前指标与参考指标之间的差异。根据差异构建目标函数,进而根据目标函数确定最终的拍照位置。这样,实现了机器人自动化拍照,且拍摄出来的图像质量好,进而提升了机器人拍照效率。
关于机器人拍照装置的具体限定可以参见上文中对于机器人拍照方法的限定,在此不再赘述。上述机器人拍照装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是上述图1中的机器人104,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储机器人拍照数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种机器人拍照方法。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述机器人拍照方法的步骤。此处机器人拍照方法的步骤可以是上述各个实施例的机器人拍照方法中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述机器人拍照方法的步骤。此处机器人拍照方法的步骤可以是上述各个实施例的机器人拍照方法中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种机器人拍照方法,包括:
获取目标对象所对应的引导图像、以及所述目标对象所对应的类型信息;
根据所述目标对象的边缘信息,提取所述引导图像在不同候选位置处的显著图;
对于各候选位置,分别确定相应显著图和所述引导图像间的面积比值,并根据相应显著图与所述引导图像的中心确定第一参数集,根据相应显著图与所述引导图像的边界确定第二参数集;
基于所述面积比值、所述第一参数集、及所述第二参数集分别与由所述类型信息所确定的相应参考值之间的差异,构建目标函数;
将所述目标函数最小化至预设阈值内时所对应的候选位置作为目标位置,并在所述目标位置处对所述目标对象进行拍照。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标对象的边缘信息,提取所述引导图像在不同候选位置处的显著图,包括:
根据所述引导图像的混合损耗,确定所述引导图像各层级的显著性信息;
根据所述显著性信息确定所述目标对象的边缘信息;
根据在不同候选位置处的所述目标对象的边缘信息对所述引导图像进行二值化处理,提取所述引导图像在不同候选位置处的显著图。
3.根据权利要求1所述的方法,其特征在于,所述对于各候选位置,分别确定相应显著图和所述引导图像间的面积比值,并根据相应显著图与所述引导图像的中心确定第一参数集,根据相应显著图与所述引导图像的边界确定第二参数集,包括:
对于各候选位置,分别确定相应显著图中各像素点的像素值,以及所述引导图像的宽度和高度;
将相应显著图中各像素点的像素值在所述引导图像的宽度和高度范围内进行累加,得到相应显著图的面积,将所述引导图像的宽度和高度相乘,得到所述引导图像的面积,并将相应显著图的面积与所述引导图像的面积的比值作为面积比值;
对于各候选位置,分别确定相应显著图中所有显著区域各自对应的中心坐标,并将所述显著区域的中心坐标进行加权回归处理,得到相应显著图的中心坐标,根据所述引导图像的宽度和高度确定所述引导图像的中心坐标;
根据相应显著图的中心坐标和所述引导图像的中心坐标,计算第一参数集;
对于各候选位置,分别确定相应显著图各顶点对应的坐标;
根据相应显著图各顶点对应的坐标,以及所述引导图像的宽度和高度,计算第二参数集。
4.根据权利要求3所述的方法,其特征在于,所述第一参数集包括第一横坐标参数和第一纵坐标参数,所述根据相应显著图的中心坐标和所述引导图像的中心坐标,计算第一参数集,包括:
根据相应显著图的中心坐标,确定相应的第一中心横坐标和第一中心纵坐标;
将所述引导图像的宽度的二分之一处所对应的横坐标,作为所述引导图像的中心坐标的第二中心横坐标,将所述引导图像的高度的二分之一处所对应的纵坐标,作为所述引导图像的中心坐标的第二中心纵坐标;
计算所述第二中心横坐标与所述第一中心横坐标的第一差值,并将所述第一差值与所述第二中心横坐标的比值作为第一横坐标参数;
计算所述第二中心纵坐标与所述第一中心纵坐标的第二差值,并将所述第二差值与所述第二中心纵坐标的比值作为第一纵坐标参数。
5.根据权利要求3所述的方法,其特征在于,所述显著图的顶点包括显著图的左顶点、右顶点、上顶点和下顶点;所述第二参数集包括第二横坐标参数和第二纵坐标参数,所述根据相应显著图各顶点对应的坐标,以及所述引导图像的宽度和高度,计算第二参数集,包括:
根据所述左顶点的横坐标与右顶点的横坐标计算第三差值,并将所述第三差值与所述引导图像的宽度的比值作为第二横坐标参数;
根据所述上顶点的纵坐标与下顶点的纵坐标计算第四差值,并将所述第四差值与所述引导图像的高度的比值作为第二纵坐标参数。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述方法还包括:
将所述引导图像和相应显著图进行与操作处理,得到彩色显著图;
将所述彩色显著图调整至预设大小,并通过特征提取网络提取调整大小后的彩色显著图的图像特征;
基于所述图像特征,计算所述引导图像的美学分数。
7.根据权利要求6所述的方法,其特征在于,所述基于所述图像特征,计算所述引导图像的美学分数,包括:
根据所述图像特征,确定各预设类别分别对应的概率值;
将各预设类别分别对应的所述概率值进行加权回归处理,得到所述引导图像的美学分数。
8.一种机器人拍照装置,其特征在于,所述装置包括:
获取模块,用于获取目标对象所对应的引导图像、以及所述目标对象所对应的类型信息;
提取模块,用于根据所述目标对象的边缘信息,提取所述引导图像在不同候选位置处的显著图;
确定模块,用于对于各候选位置,分别确定相应显著图和所述引导图像间的面积比值,并根据相应显著图与所述引导图像的中心确定第一参数集,根据相应显著图与所述引导图像的边界确定第二参数集;
构建模块,用于基于所述面积比值、所述第一参数集、及所述第二参数集分别与由所述类型信息所确定的相应参考值之间的差异,构建目标函数;
拍摄模块,用于将所述目标函数最小化至预设阈值内时所对应的候选位置作为目标位置,并在所述目标位置处对所述目标对象进行拍照。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010062423.1A CN111246098B (zh) | 2020-01-19 | 2020-01-19 | 机器人拍照方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010062423.1A CN111246098B (zh) | 2020-01-19 | 2020-01-19 | 机器人拍照方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111246098A true CN111246098A (zh) | 2020-06-05 |
CN111246098B CN111246098B (zh) | 2022-02-22 |
Family
ID=70865592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010062423.1A Active CN111246098B (zh) | 2020-01-19 | 2020-01-19 | 机器人拍照方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111246098B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112884093A (zh) * | 2021-04-29 | 2021-06-01 | 四川大学 | 基于dscrn模型的旋转机械故障诊断方法、设备和存储介质 |
CN113076947A (zh) * | 2021-03-26 | 2021-07-06 | 东北大学 | 一种交叉引导融合的rgb-t图像显著性检测系统 |
CN113206956A (zh) * | 2021-04-29 | 2021-08-03 | 维沃移动通信(杭州)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN113284128A (zh) * | 2021-06-11 | 2021-08-20 | 中国南方电网有限责任公司超高压输电公司天生桥局 | 基于电力设备的图像融合显示方法、装置和计算机设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101448174A (zh) * | 2008-12-26 | 2009-06-03 | 深圳华为通信技术有限公司 | 一种图像质量评价装置和方法 |
CN102609911A (zh) * | 2012-01-16 | 2012-07-25 | 北方工业大学 | 基于边缘的图像显著性检测 |
JP2016100887A (ja) * | 2014-11-26 | 2016-05-30 | 株式会社デンソー | 画像変換装置および画像変換方法 |
KR20160082886A (ko) * | 2014-12-29 | 2016-07-11 | 서울시립대학교 산학협력단 | 복수의 센서를 탑재한 무인 비행체를 이용하는 매핑 방법 및 시스템 |
CN106791443A (zh) * | 2017-01-24 | 2017-05-31 | 上海瞬动科技有限公司合肥分公司 | 一种无人机拍照方法 |
CN106803895A (zh) * | 2017-03-20 | 2017-06-06 | 上海瞬动科技有限公司合肥分公司 | 一种无人机美学拍照方法 |
CN108573221A (zh) * | 2018-03-28 | 2018-09-25 | 重庆邮电大学 | 一种基于视觉的机器人目标零件显著性检测方法 |
CN109040605A (zh) * | 2018-11-05 | 2018-12-18 | 北京达佳互联信息技术有限公司 | 拍摄引导方法、装置及移动终端和存储介质 |
CN110443818A (zh) * | 2019-07-02 | 2019-11-12 | 中国科学院计算技术研究所 | 一种基于涂鸦的弱监督语义分割方法与系统 |
-
2020
- 2020-01-19 CN CN202010062423.1A patent/CN111246098B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101448174A (zh) * | 2008-12-26 | 2009-06-03 | 深圳华为通信技术有限公司 | 一种图像质量评价装置和方法 |
CN102609911A (zh) * | 2012-01-16 | 2012-07-25 | 北方工业大学 | 基于边缘的图像显著性检测 |
JP2016100887A (ja) * | 2014-11-26 | 2016-05-30 | 株式会社デンソー | 画像変換装置および画像変換方法 |
KR20160082886A (ko) * | 2014-12-29 | 2016-07-11 | 서울시립대학교 산학협력단 | 복수의 센서를 탑재한 무인 비행체를 이용하는 매핑 방법 및 시스템 |
CN106791443A (zh) * | 2017-01-24 | 2017-05-31 | 上海瞬动科技有限公司合肥分公司 | 一种无人机拍照方法 |
CN106803895A (zh) * | 2017-03-20 | 2017-06-06 | 上海瞬动科技有限公司合肥分公司 | 一种无人机美学拍照方法 |
CN108573221A (zh) * | 2018-03-28 | 2018-09-25 | 重庆邮电大学 | 一种基于视觉的机器人目标零件显著性检测方法 |
CN109040605A (zh) * | 2018-11-05 | 2018-12-18 | 北京达佳互联信息技术有限公司 | 拍摄引导方法、装置及移动终端和存储介质 |
CN110443818A (zh) * | 2019-07-02 | 2019-11-12 | 中国科学院计算技术研究所 | 一种基于涂鸦的弱监督语义分割方法与系统 |
Non-Patent Citations (1)
Title |
---|
XUEBIN QIN等: "BASNet: Boundary-Aware Salient Object Detection", 《IEEE》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113076947A (zh) * | 2021-03-26 | 2021-07-06 | 东北大学 | 一种交叉引导融合的rgb-t图像显著性检测系统 |
CN113076947B (zh) * | 2021-03-26 | 2023-09-01 | 东北大学 | 一种交叉引导融合的rgb-t图像显著性检测系统 |
CN112884093A (zh) * | 2021-04-29 | 2021-06-01 | 四川大学 | 基于dscrn模型的旋转机械故障诊断方法、设备和存储介质 |
CN113206956A (zh) * | 2021-04-29 | 2021-08-03 | 维沃移动通信(杭州)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN112884093B (zh) * | 2021-04-29 | 2021-08-31 | 四川大学 | 基于dscrn模型的旋转机械故障诊断方法、设备和存储介质 |
CN113284128A (zh) * | 2021-06-11 | 2021-08-20 | 中国南方电网有限责任公司超高压输电公司天生桥局 | 基于电力设备的图像融合显示方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111246098B (zh) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111246098B (zh) | 机器人拍照方法、装置、计算机设备和存储介质 | |
CN109447169B (zh) | 图像处理方法及其模型的训练方法、装置和电子系统 | |
CN110517278B (zh) | 图像分割和图像分割网络的训练方法、装置和计算机设备 | |
CN110163193B (zh) | 图像处理方法、装置、计算机可读存储介质和计算机设备 | |
CN110248096B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN111797650B (zh) | 障碍物的识别方法、装置、计算机设备和存储介质 | |
CN111213155A (zh) | 图像处理方法、设备、可移动平台、无人机及存储介质 | |
CN110493527B (zh) | 主体对焦方法、装置、电子设备和存储介质 | |
JP6351240B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN109871821B (zh) | 自适应网络的行人重识别方法、装置、设备及存储介质 | |
CN108897786B (zh) | 应用程序的推荐方法、装置、存储介质及移动终端 | |
CN110191287B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN111860695A (zh) | 一种数据融合、目标检测方法、装置及设备 | |
CN112866542B (zh) | 追焦方法和装置、电子设备、计算机可读存储介质 | |
CN112884782B (zh) | 生物对象分割方法、装置、计算机设备和存储介质 | |
CN112883983B (zh) | 特征提取方法、装置和电子系统 | |
CN114219855A (zh) | 点云法向量的估计方法、装置、计算机设备和存储介质 | |
CN113344000A (zh) | 证件翻拍识别方法、装置、计算机设备和存储介质 | |
CN114037895A (zh) | 一种无人机杆塔巡检图像识别方法 | |
CN111275128B (zh) | 图像识别模型训练方法及系统和图像识别方法 | |
US20170199900A1 (en) | Server and method for providing city street search service | |
CN115115552B (zh) | 图像矫正模型训练及图像矫正方法、装置和计算机设备 | |
CN111611836A (zh) | 基于背景消除法的船只检测模型训练及船只跟踪方法 | |
CN109299730B (zh) | 一种目标检测的分类模型建立方法、装置和目标检测设备 | |
CN114092850A (zh) | 重识别方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |