CN108154196B - 用于输出图像的方法和装置 - Google Patents
用于输出图像的方法和装置 Download PDFInfo
- Publication number
- CN108154196B CN108154196B CN201810053763.0A CN201810053763A CN108154196B CN 108154196 B CN108154196 B CN 108154196B CN 201810053763 A CN201810053763 A CN 201810053763A CN 108154196 B CN108154196 B CN 108154196B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- area
- characteristic
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请实施例公开了用于输出图像的方法和装置。该方法的一具体实施方式包括:获取目标图像;将目标图像输入至预先训练的第一卷积神经网络,得到与目标图像对应的待检测特征图像,其中,第一卷积神经网络用于表征输入的图像与特征图像的对应关系;将待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出。该实施方式提高了识别图像中的目标区域的准确性。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及图像识别技术领域,尤其涉及用于输出图像的方法和装置。
背景技术
随着科技的发展,图像识别技术逐渐融入人们的生活,比如在人脸识别、自动驾驶等领域都会用到图像识别技术。利用机器学习方法训练用于图像识别的模型,是目前常用的图像识别方法。比如,将包含某物体的图像输入到预先训练的识别模型,即可得到该物体的特征(例如该物体所属的类别等)。
发明内容
本申请实施例提出了用于输出图像的方法和装置。
第一方面,本申请实施例提供了一种用于输出图像的方法,该方法包括:获取目标图像;将目标图像输入至预先训练的第一卷积神经网络,得到与目标图像对应的待检测特征图像,其中,第一卷积神经网络用于表征输入的图像与特征图像的对应关系;将待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出,其中,第一区域检测模型用于提取图像中的第一区域的检测结果图像,第一检测结果图像中的第一检测结果像素点的特征数据包括第一置信度和第一区域信息,第一置信度用于表征待检测特征图像中的、与第一检测结果像素点位置相同的像素点属于第一区域的置信度,第一区域信息用于指示待检测特征图像中的、包含与第一检测结果像素点相同位置的像素点的区域。
在一些实施例中,将待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出之后,该方法还包括:将待检测特征图像和所输出的第一检测结果图像融合,得到融合图像;将融合图像输入至预先训练的第二区域检测模型,得到第二检测结果图像并输出,其中,第二区域检测模型用于提取图像中的第二区域的检测结果图像,第二检测结果图像中的第二检测结果像素点的特征数据包括第二置信度和第二区域信息,第二置信度用于表征待检测特征图像中的、与第二检测结果像素点位置相同的像素点属于第二区域的置信度,第二区域信息用于指示待检测特征图像中的、包含与第二检测结果像素点相同位置的像素点的区域。
在一些实施例中,第一区域包含第二区域。
在一些实施例中,将待检测特征图像和所输出的第一检测结果图像融合,得到融合图像,包括:将待检测特征图像和第一检测结果图像中的相同位置像素点的数据相乘,得到融合图像中的相应像素点的数据。
在一些实施例中,将待检测特征图像和所输出的第一检测结果图像融合,得到融合图像,包括:将待检测特征图像中的像素点按照第一检测结果图像中的相同位置像素点的第一置信度进行阈值截断后的数据确定为融合图像中的相应像素点的数据。
在一些实施例中,将待检测特征图像和所输出的第一检测结果图像融合,得到融合图像,包括:将待检测特征图像中的像素点的数据和第一检测结果图像中的相同位置像素点的特征数据所包括的第一置信度合并为融合图像中的相应像素点的数据。
在一些实施例中,第一区域检测模型通过如下步骤训练得到:获取第一训练样本集合,其中,第一训练样本包括样本特征图像、与样本特征图像对应的标注检测结果图像;基于机器学习方法,将第一训练样本集合中的每个样本特征图像作为预设的第二卷积神经网络的输入,基于第一训练样本集合中的每个第一训练样本中的标注检测结果图像和预设的第一损失函数,训练得到第一区域检测模型。
在一些实施例中,第二区域检测模型通过如下步骤训练得到:获取第二训练样本集合,其中,第二训练样本包括样本融合图像、与样本融合图像对应的标注融合图像;利用机器学习方法,将第二训练样本集合中的每个样本融合图像作为预设的第三卷积神经网络的输入,基于第二训练样本集合中的每个第二训练样本中的标注融合图像和预设的第二损失函数,训练得到第二区域检测模型。
第二方面,本申请实施例提供了一种用于输出图像的装置,该装置包括:第一获取单元,配置用于获取目标图像;第二获取单元,配置用于将目标图像输入至预先训练的第一卷积神经网络,得到与目标图像对应的待检测特征图像,其中,第一卷积神经网络用于表征输入的图像与特征图像的对应关系;第一输出单元,配置用于将待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出,其中,第一区域检测模型用于提取图像中的第一区域的检测结果图像,第一检测结果图像中的第一检测结果像素点的特征数据包括第一置信度和第一区域信息,第一置信度用于表征待检测特征图像中的、与第一检测结果像素点位置相同的像素点属于第一区域的置信度,第一区域信息用于指示待检测特征图像中的、包含与第一检测结果像素点相同位置的像素点的区域。
在一些实施例中,该装置还包括:融合单元,配置用于将待检测特征图像和所输出的第一检测结果图像融合,得到融合图像;第二输出单元,配置用于将融合图像输入至预先训练的第二区域检测模型,得到第二检测结果图像并输出,其中,第二区域检测模型用于提取图像中的第二区域的检测结果图像,第二检测结果图像中的第二检测结果像素点的特征数据包括第二置信度和第二区域信息,第二置信度用于表征待检测特征图像中的、与第二检测结果像素点位置相同的像素点属于第二区域的置信度,第二区域信息用于指示待检测特征图像中的、包含与第二检测结果像素点相同位置的像素点的区域。
在一些实施例中,第一区域包含第二区域。
在一些实施例中,融合单元进一步配置用于:将待检测特征图像和第一检测结果图像中的相同位置像素点的数据相乘,得到融合图像中的相应像素点的数据。
在一些实施例中,融合单元进一步配置用于:将待检测特征图像中的像素点按照第一检测结果图像中的相同位置像素点的第一置信度进行阈值截断后的数据确定为融合图像中的相应像素点的数据。
在一些实施例中,融合单元进一步配置用于:将待检测特征图像中的像素点的数据和第一检测结果图像中的相同位置像素点的特征数据所包括的第一置信度合并为融合图像中的相应像素点的数据。
在一些实施例中,该装置还包括:第三获取单元,配置用于获取第一训练样本集合,其中,第一训练样本包括样本特征图像、与样本特征图像对应的标注检测结果图像;第一训练单元,配置用于基于机器学习方法,将第一训练样本集合中的每个样本特征图像作为预设的第二卷积神经网络的输入,基于第一训练样本集合中的每个第一训练样本中的标注检测结果图像和预设的第一损失函数,训练得到第一区域检测模型。
在一些实施例中,该装置还包括:第四获取单元,配置用于获取第二训练样本集合,其中,第二训练样本包括样本融合图像、与样本融合图像对应的标注融合图像;第二训练单元,配置用于利用机器学习方法,将第二训练样本集合中的每个样本融合图像作为预设的第三卷积神经网络的输入,基于第二训练样本集合中的每个第二训练样本中的标注融合图像和预设的第二损失函数,训练得到第二区域检测模型。
第三方面,本申请实施例提供了一种服务器,该服务器包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于输出图像的方法和装置,通过首先提取目标图像的特征图像,然后通过第一区域检测模型,得到用于表征目标图像中的第一区域的位置信息和第一区域的置信度的第一检测结果图像,提高了识别图像中的目标区域的准确性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的用于输出图像的方法的一个实施例的流程图;
图3是根据本申请的用于输出图像的方法的一个应用场景的示意图;
图4是根据本申请的用于输出图像的方法的又一个实施例的流程图;
图5是根据本申请的用于输出图像的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于检测目标的方法或用于检测目标的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种客户端应用,例如摄影摄像类应用、图像处理类应用、搜索类应用等。
终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的图像进行处理的图像处理服务器。图像处理服务器可以对接收到的待检测图像等进行分析等处理,并将处理结果(例如检测结果图像)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于输出图像的方法一般由服务器105执行,相应地,用于输出图像的装置一般设置于服务器105中。
需要指出的是,服务器105的本地也可以直接存储目标图像,服务器105可以直接提取本地的目标图像进行检测,此时,示例性系统架构100可以不包括终端设备101、102、103和网络104。
但需要指出的是,终端设备101、102、103中也可以安装有图像处理类应用,终端设备101、102、103也可以基于图像处理类应用对目标图像进行检测,此时,用于输出图像的方法也可以由终端设备101、102、103执行,相应地,用于输出图像的装置也可以设置于终端设备101、102、103中。此时,示例性系统架构100可以不包括服务器105和网络104。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于输出图像的方法的一个实施例的流程200。该用于输出图像的方法,包括以下步骤:
步骤201,获取目标图像。
在本实施例中,用于输出图像的方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从远程获取目标图像,还可以从本地获取目标图像。其中,目标图像可以是预先设置的某个图像列表或某个图像集合中的图像。并且,上述目标图像可以是各种类型的图像,例如,灰度图像、彩色图像或者深度图像等。
步骤202,将目标图像输入至预先训练的第一卷积神经网络,得到与目标图像对应的待检测特征图像。
在本实施例中,基于步骤201中获取的目标图像,上述电子设备可以将目标图像输入至预先训练的第一卷积神经网络,得到与目标图像对应的待检测特征图像。其中,第一卷积神经网络用于表征图像与特征图像的对应关系。这里,第一卷积神经网络可以包括至少一个卷积层和至少一个池化层,其中,卷积层可以用于提取图像特征,池化层可以用于对输入的信息进行下采样(Down Sample)。实践中,卷积神经网络(Convolutional NeuralNetwork,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于图像处理有出色表现,因而,可以利用卷积神经网络进行图像特征的提取,图像的特征可以是图像的各种基本要素(例如颜色、线条、纹理等)。
需要说明的是,上述第一卷积神经网络可以是利用机器学习方法和训练样本对现有的卷积神经网络进行有监督训练而得到的。其中,上述训练样本可以包括大量的图像和每一个图像的标注特征图像。
步骤203,将待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出。
在本实施例中,基于步骤202得到的待检测特征图像,上述电子设备可以将待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出。其中,第一区域检测模型用于提取图像中的第一区域的检测结果图像,第一检测结果图像中的第一检测结果像素点的特征数据包括第一置信度和第一区域信息,第一置信度用于表征待检测特征图像中的、与第一检测结果像素点位置相同的像素点属于第一区域的置信度,第一区域信息用于指示待检测特征图像中的、包含与第一检测结果像素点相同位置的像素点的区域。上述第一检测结果图像可以输出至各种设备,如显示设备、存储设备、如图1所示的终端设备等。
上述第一区域用于表征目标图像中的某种目标(例如人体、车辆、动物等)的图像。作为示例,假设第一区域为人体区域,第一检测结果图像中的某个像素点对应的第一置信度可以包括人体区域置信度,其中,人体区域置信度用于表征待检测特征图像中的与该像素点位置相同的像素点属于人体区域的置信度;第一区域信息用于指示待检测特征图像中的、包含该像素点相同位置的像素点的区域。
上述第一区域信息可以为多个数值,例如,第一区域信息可以包括以该像素点为中心的矩形的左上角顶点的横坐标、左上角顶点的纵坐标、右下角顶点的横坐标和右下角顶点的纵坐标。
这里,第一区域检测模型可以是基于FCN(Fully Convolutional Networks,全卷积神经网络)进行训练后的模型。还可以是基于预设的卷积神经网络进行训练后得到的模型。
在本实施例的一些可选的实现方式中,第一区域检测模型可以通过如下步骤训练得到:
首先,上述电子设备获取第一训练样本集合。其中,第一训练样本包括样本特征图像、与样本特征图像对应的标注检测结果图像。
其次,基于机器学习方法,上述电子设备将第一训练样本集合中的每个样本特征图像作为预设的第二卷积神经网络的输入,基于第一训练样本集合中的每个第一训练样本中的标注检测结果图像和预设的第一损失函数,训练得到第一区域检测模型。
上述第二卷积神经网络可以包括至少一个卷积层、至少一个池化层和至少一个反卷积层,其中,卷积层可以用于提取图像的特征,图像的特征可以是图像的各种基本要素(例如颜色、线条、纹理等),池化层可以用于对输入的信息进行降采样,反卷积层可以用于对所输入的信息进行上采样。上述第一检测结果图像中的每个像素点可以对应多个用于表征图像的特征的特征数据,其中包括第一置信度和第一区域信息。例如,第一置信度可以为一个数值,该数值用于表征待检测特征图像中的与该像素点位置相同的像素点属于第一区域的置信度,第一区域信息可以包括四个位置数值,分别用于表征待检测特征图像中以该像素点为中心的矩形的左上角顶点的横坐标、左上角顶点的纵坐标、右下角顶点的横坐标和右下角顶点的纵坐标。
这里,第一损失函数l1可以定义为:
l1=l11+l12,
其中,对于第一训练样本集合中的每个第一训练样本,l11为与该第一训练样本对应的第一检测结果图像中的各个像素点的置信度和与该第一训练样本对应的标注检测结果图像中相应像素点的置信度之间差异的损失函数的值的和。实践中,具体可以采用softmax损失函数、center loss损失函数或者focal loss损失函数。l12为与该第一训练样本对应的第一检测结果图像中的各个像素点的区域信息和与该第一训练样本对应的标注检测结果图像中相应像素点的区域信息之间差异的损失函数的值的和。实践中,具体可以采用Smooth L1(平滑L1范数)损失函数。
继续参见图3,图3是根据本实施例的用于输出图像的方法的应用场景的一个示意图。在图3的应用场景中,客户端301首先上传了目标图像303至图像处理服务器302,其中,目标图像303为包含多个人体区域的图像;之后,图像处理服务器302得到目标图像303对应的待检测特征图像304;然后,图像处理服务器302对待检测特征图像304进行检测,得到第一检测结果图像305并输出,其中,第一检测结果图像305可以呈现目标图像303中的各个人体区域,图3中标号3051-3054所示。
本申请的上述实施例提供的方法,通过首先提取目标图像的特征图像,然后通过第一区域检测模型,得到用于表征目标图像中的第一区域的位置信息和第一区域的置信度的第一检测结果图像,提高了识别图像中的目标区域的准确性。
进一步参考图4,其示出了用于输出图像的方法的又一个实施例的流程400。该用于输出图像的方法的流程400,包括以下步骤:
步骤401,获取目标图像。
在本实施例中,步骤401的具体操作与图2所示的实施例中步骤201的操作基本相同,在此不再赘述。
步骤402,将目标图像输入至预先训练的第一卷积神经网络,得到与目标图像对应的待检测特征图像。
在本实施例中,步骤402的具体操作与图2所示的实施例中步骤202的操作基本相同,在此不再赘述。
步骤403,将待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出。
在本实施例中,步骤403的具体操作与图2所示的实施例中步骤203的操作基本相同,在此不再赘述。
步骤404,将待检测特征图像和所输出的第一检测结果图像融合,得到融合图像。
在本实施例中,基于步骤403输出的第一检测结果图像,上述电子设备可以将待检测特征图像和所输出的第一检测结果图像融合,得到融合图像。可以理解的是,理想情况下,待检测特征图像和第一检测结果图像的像素点分布可以是相同的,这样,可以直接融合待检测特征图像和第一检测结果图像,得到融合图像。如果待检测特征图像和第一检测结果图像的像素点分布不同,则可以首先将待检测特征图像和第一检测结果图像变换到同样的像素点分布之后,再进行融合操作。具体可以采用各种图像变换方法,图像变换方法是本领域的公知技术,在此不再赘述。
在本实施例的一些可选的实现方式中,上述电子设备可以将待检测特征图像和第一检测结果图像中的相同位置像素点的数据相乘,得到融合图像中的相应像素点的数据。
作为示例,以矩阵A表示待检测特征图像的像素点的数据,以矩阵B表示第一检测结果图像像素点的数据,以矩阵C表示融合图像像素点的数据,矩阵A、矩阵B、矩阵C均为n×m的矩阵(其中n、m均为正整数),则可以用以下方式获得矩阵C:
C[i,j]=A[i,j]×B[i,j],
其中,i为不大于n的正整数,j为不大于m的正整数,[i,j]用以表示矩阵中的元素的位置。
在本实施例的一些可选的实现方式中,上述电子设备可以将待检测特征图像中的像素点按照第一检测结果图像中的相同位置像素点的第一置信度进行阈值截断后的数据确定为融合图像中的相应像素点的数据。
继续上述矩阵A、矩阵B、矩阵C的举例,若矩阵元素B[i,j]的值大于预设阈值(例如0.5或0.8等),则矩阵元素C[i,j]的值与矩阵元素A[i,j]相同;若矩阵元素B[i,j]的值不大于上述预设阈值,则矩阵元素C[i,j]的值取0。其中,i为不大于n的正整数,j为不大于m的正整数,[i,j]用以表示矩阵中的元素的位置。
在本实施例的一些可选的实现方式中,上述电子设备可以将待检测特征图像中的像素点的数据和第一检测结果图像中的相同位置像素点的特征数据所包括的第一置信度合并为融合图像中的相应像素点的数据。作为示例,假设待检测特征图像中的像素点的数据包括R色值、G色值、B色值,则与该像素点对应的融合图像中像素点的数据可以包括R色值、G色值、B色值和第一置信度。
步骤405,将融合图像输入至预先训练的第二区域检测模型,得到第二检测结果图像并输出。
在本实施例中,基于步骤404得到的融合图像,上述电子设备可以将融合图像输入至预先训练的第二区域检测模型,得到第二检测结果图像并输出。其中,第二区域检测模型用于提取图像中的第二区域的检测结果图像,第二检测结果图像中的第二检测结果像素点的特征数据包括第二置信度和第二区域信息,第二置信度用于表征待检测特征图像中的、与第二检测结果像素点位置相同的像素点属于第二区域的置信度,第二区域信息用于指示待检测特征图像中的、包含与第二检测结果像素点相同位置的像素点的区域。上述第二检测结果图像可以输出至各种设备,如显示设备、存储设备、如图1所示的终端设备等。
这里,第二区域检测模型可以是基于FCN进行训练后的模型。还可以是基于预设的卷积神经网络进行训练后得到的模型。
在本实施例的一些可选的实现方式中,上述第二区域检测模型可以是利用以下步骤训练得到的:首先,获取第二训练样本集合,其中,第二训练样本包括样本融合图像、与样本融合图像对应的标注融合图像;然后,可以利用机器学习方法,将第二训练样本集合中的每个样本融合图像作为预设的第三卷积神经网络的输入,基于第二训练样本集合中的每个第二训练样本中的标注融合图像和预设的第二损失函数,训练得到第二区域检测模型。
这里,第二损失函数l2可以定义为:
l2=l21+l22,
其中,对于第二训练样本集合中的每个第二训练样本,l21为与该第二训练样本对应的第二检测结果图像中的各个像素点的置信度和与该第二训练样本对应的标注检测结果图像中相应像素点的置信度之间差异的损失函数的值的和。实践中,具体可以采用softmax损失函数、center loss损失函数或者focal loss损失函数。l22为与该第二训练样本对应的第一检测结果图像中的各个像素点的区域信息和与该第二训练样本对应的标注检测结果图像中相应像素点的区域信息之间差异的损失函数的值的和。实践中,具体可以采用Smooth L1(平滑L1范数)损失函数。
上述第三卷积神经网络可以包括至少一个卷积层、至少一个池化层和至少一个反卷积层。其中,卷积层可以用于提取图像的特征,图像的特征可以是图像的各种基本要素(例如颜色、线条、纹理等),池化层可以用于对输入的信息进行降采样,反卷积层可以用于对所输入的信息进行上采样。上述第二检测结果图像中的每个像素点可以对应多个特征数据,其中包括第二置信度和第二区域信息。例如,第二置信度可以为一个数值,该数值用于表征待检测特征图像中的与该像素点位置相同的像素点属于第二区域的置信度,第二区域信息可以包括四个位置数值,分别用于表征待检测特征图像中以该像素点为中心的矩形的左上角顶点的横坐标、左上角顶点的纵坐标、右下角顶点的横坐标和右下角顶点的纵坐标。
在本实施例的一些可选的实现方式中,上述第一区域可以包含上述第二区域。上述电子设备可以在第一区域的基础上,继续得到针对第二区域的第二检测结果图像。例如,第一区域可以为人体区域,第二区域可以为头肩区域,上述电子设备可以首先输出针对人体区域的第一检测结果图像,然后基于第一检测结果图像,输出针对头肩区域的第二检测结果图像。
需要说明的是,在输出第二检测结果图像之后,上述电子设备还可以基于第二检测结果图像和待检测特征图像,利用预先训练的第三区域检测模型生成第三检测结果图像。其中,第三区域检测模型的训练方法可以和上述第二区域检测模型的训练方法相同。在实践中,利用上述步骤404和步骤405相同的方法,可以继续缩小待检测的区域,得到更多被细分的检测结果图像。例如,第三区域可以为人脸区域,上述电子设备可以基于第二检测结果图像,输出针对人脸区域的第三检测结果图像。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于输出图像的方法的流程400突出了对待检测特征图像和第一检测结果图像进行融合,以及输出第二检测结果图像的步骤。由此,本实施例描述的方案可以缩小待检测的区域,进一步提高图像识别的准确性。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于输出图像的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于输出图像的装置500包括:第一获取单元501,配置用于获取目标图像;第二获取单元502,配置用于将目标图像输入至预先训练的第一卷积神经网络,得到与目标图像对应的待检测特征图像,其中,第一卷积神经网络用于表征图像与特征图像的对应关系;第一输出单元503,配置用于将待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出,其中,第一区域检测模型用于提取图像中的第一区域的检测结果图像,第一检测结果图像中的第一检测结果像素点的特征数据包括第一置信度和第一区域信息,第一置信度用于表征待检测特征图像中的、与第一检测结果像素点位置相同的像素点属于第一区域的置信度,第一区域信息用于指示待检测特征图像中的、包含与第一检测结果像素点相同位置的像素点的区域。
在本实施例中,第一获取单元501可以通过有线连接方式或者无线连接方式从远程获取目标图像,还可以从本地获取目标图像。其中,目标图像可以是预先设置的某个图像列表或某个图像集合中的图像。
在本实施例中,基于第一获取单元501获取的目标图像,上述第二获取单元502可以将目标图像输入至预先训练的第一卷积神经网络,得到与目标图像对应的待检测特征图像。其中,第一卷积神经网络用于表征图像与特征图像的对应关系。
在本实施例中,基于第二获取单元502得到的待检测特征图像,上述第一输出单元503可以将待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出。其中,第一区域检测模型用于提取图像中的第一区域的检测结果图像,第一检测结果图像中的第一检测结果像素点的特征数据包括第一置信度和第一区域信息,第一置信度用于表征待检测特征图像中的、与第一检测结果像素点位置相同的像素点属于第一区域的置信度,第一区域信息用于指示待检测特征图像中的、包含与第一检测结果像素点相同位置的像素点的区域。上述第一检测结果图像可以输出至各种设备,如显示设备、存储设备、如图1所示的终端设备等。
在本实施例的一些可选的实现方式中,用于输出图像的装置500还可以包括:融合单元(图中未示出),配置用于将待检测特征图像和所输出的第一检测结果图像融合,得到融合图像;第二输出单元(图中未示出),配置用于将融合图像输入至预先训练的第二区域检测模型,得到第二检测结果图像并输出,其中,第二区域检测模型用于提取图像中的第二区域的检测结果图像,第二检测结果图像中的第二检测结果像素点的特征数据包括第二置信度和第二区域信息,第二置信度用于表征待检测特征图像中的、与第二检测结果像素点位置相同的像素点属于第二区域的置信度,第二区域信息用于指示待检测特征图像中的、包含与第二检测结果像素点相同位置的像素点的区域。
在本实施例的一些可选的实现方式中,第一区域可以包含第二区域。
在本实施例的一些可选的实现方式中,融合单元可以进一步配置用于:将待检测特征图像和第一检测结果图像中的相同位置像素点的数据相乘,得到融合图像中的相应像素点的数据。
在本实施例的一些可选的实现方式中,融合单元可以进一步配置用于:将待检测特征图像中的像素点按照第一检测结果图像中的相同位置像素点的第一置信度进行阈值截断后的数据确定为融合图像中的相应像素点的数据。
在本实施例的一些可选的实现方式中,融合单元可以进一步配置用于:将待检测特征图像中的像素点的数据和第一检测结果图像中的相同位置像素点的特征数据所包括的第一置信度合并为融合图像中的相应像素点的数据。
在本实施例的一些可选的实现方式中,用于输出图像的装置500还可以包括:第三获取单元(图中未示出),配置用于获取第一训练样本集合,其中,第一训练样本包括样本特征图像、与样本特征图像对应的标注检测结果图像;第一训练单元(图中未示出),配置用于基于机器学习方法,将第一训练样本集合中的每个样本特征图像作为预设的第二卷积神经网络的输入,基于第一训练样本集合中的每个第一训练样本中的标注检测结果图像和预设的第一损失函数,训练得到第一区域检测模型。
在本实施例的一些可选的实现方式中,用于输出图像的装置500还可以包括:第四获取单元(图中未示出),配置用于获取第二训练样本集合,其中,第二训练样本包括样本融合图像、与样本融合图像对应的标注融合图像;第二训练单元(图中未示出),配置用于利用机器学习方法,将第二训练样本集合中的每个样本融合图像作为预设的第三卷积神经网络的输入,基于第二训练样本集合中的每个第二训练样本中的标注融合图像和预设的第二损失函数,训练得到第二区域检测模型。
本申请的上述实施例提供的装置,通过首先提取目标图像的特征图像,然后通过第一区域检测模型,得到用于表征目标图像中的第一区域的位置信息和第一区域的置信度的第一检测结果图像,提高了识别图像中的目标区域的准确性。
下面参考图6,其示出了适于用来实现本申请实施例的服务器的计算机系统600的结构示意图。图6示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取单元、第二获取单元和第一输出单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取目标图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的服务器中所包含的;也可以是单独存在,而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取目标图像;将目标图像输入至预先训练的第一卷积神经网络,得到与目标图像对应的待检测特征图像,其中,第一卷积神经网络用于表征图像与特征图像的对应关系;将待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出,其中,第一区域检测模型用于提取图像中的第一区域的检测结果图像,第一检测结果图像中的第一检测结果像素点的特征数据包括第一置信度和第一区域信息,第一置信度用于表征待检测特征图像中的、与第一检测结果像素点位置相同的像素点属于第一区域的置信度,第一区域信息用于指示待检测特征图像中的、包含与第一检测结果像素点相同位置的像素点的区域。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (18)
1.一种用于输出图像的方法,包括:
获取目标图像;
将所述目标图像输入至预先训练的第一卷积神经网络,得到与所述目标图像对应的待检测特征图像,其中,所述第一卷积神经网络用于表征输入的图像与特征图像的对应关系;
将所述待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出,其中,所述第一区域检测模型用于提取图像中的第一区域的检测结果图像,所述第一检测结果图像中的第一检测结果像素点的特征数据包括第一置信度和第一区域信息,第一置信度用于表征所述待检测特征图像中的、与所述第一检测结果像素点位置相同的像素点属于第一区域的置信度,第一区域信息用于指示所述待检测特征图像中的、包含与所述第一检测结果像素点相同位置的像素点的区域。
2.根据权利要求1所述的方法,其中,所述将所述待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出之后,所述方法还包括:
将所述待检测特征图像和所输出的第一检测结果图像融合,得到融合图像;
将所述融合图像输入至预先训练的第二区域检测模型,得到第二检测结果图像并输出,其中,所述第二区域检测模型用于提取图像中的第二区域的检测结果图像,所述第二检测结果图像中的第二检测结果像素点的特征数据包括第二置信度和第二区域信息,第二置信度用于表征所述待检测特征图像中的、与所述第二检测结果像素点位置相同的像素点属于第二区域的置信度,第二区域信息用于指示所述待检测特征图像中的、包含与所述第二检测结果像素点相同位置的像素点的区域。
3.根据权利要求2所述的方法,其中,所述第一区域包含所述第二区域。
4.根据权利要求2所述的方法,其中,所述将所述待检测特征图像和所输出的第一检测结果图像融合,得到融合图像,包括:
将所述待检测特征图像的数据,和所述第一检测结果图像中的相同位置像素点的特征数据包括的第一置信度相乘,得到融合图像中的相应像素点的数据。
5.根据权利要求2所述的方法,其中,所述将所述待检测特征图像和所输出的第一检测结果图像融合,得到融合图像,包括:
根据所述待检测特征图像中的像素点的数据,以及所述第一检测结果图像中的相同位置像素点的第一置信度与预设阈值的比较结果,确定融合图像中的相应像素点的数据。
6.根据权利要求2所述的方法,其中,所述将所述待检测特征图像和所输出的第一检测结果图像融合,得到融合图像,包括:
将所述待检测特征图像中的像素点的数据和所述第一检测结果图像中的相同位置像素点的特征数据所包括的第一置信度合并为融合图像中的相应像素点的数据。
7.根据权利要求1-6之一所述的方法,其中,所述第一区域检测模型通过如下步骤训练得到:
获取第一训练样本集合,其中,第一训练样本包括样本特征图像、与样本特征图像对应的标注检测结果图像;
利用机器学习方法,将所述第一训练样本集合中的每个样本特征图像作为预设的第二卷积神经网络的输入,基于第一训练样本集合中的每个第一训练样本中的标注检测结果图像和预设的第一损失函数,训练得到第一区域检测模型。
8.根据权利要求2-6之一所述的方法,其中,所述第二区域检测模型通过如下步骤训练得到:
获取第二训练样本集合,其中,第二训练样本包括样本融合图像和与样本融合图像对应的标注融合图像;
利用机器学习方法,将所述第二训练样本集合中的每个样本融合图像作为预设的第三卷积神经网络的输入,基于第二训练样本集合中的每个第二训练样本中的标注融合图像和预设的第二损失函数,训练得到第二区域检测模型。
9.一种用于输出图像的装置,包括:
第一获取单元,配置用于获取目标图像;
第二获取单元,配置用于将所述目标图像输入至预先训练的第一卷积神经网络,得到与所述目标图像对应的待检测特征图像,其中,所述第一卷积神经网络用于表征输入的图像与特征图像的对应关系;
第一输出单元,配置用于将所述待检测特征图像输入至预先训练的第一区域检测模型,得到第一检测结果图像并输出,其中,所述第一区域检测模型用于提取图像中的第一区域的检测结果图像,所述第一检测结果图像中的第一检测结果像素点的特征数据包括第一置信度和第一区域信息,第一置信度用于表征所述待检测特征图像中的、与所述第一检测结果像素点位置相同的像素点属于第一区域的置信度,第一区域信息用于指示所述待检测特征图像中的、包含与所述第一检测结果像素点相同位置的像素点的区域。
10.根据权利要求9所述的装置,其中,所述装置还包括:
融合单元,配置用于将所述待检测特征图像和所输出的第一检测结果图像融合,得到融合图像;
第二输出单元,配置用于将所述融合图像输入至预先训练的第二区域检测模型,得到第二检测结果图像并输出,其中,所述第二区域检测模型用于提取图像中的第二区域的检测结果图像,所述第二检测结果图像中的第二检测结果像素点的特征数据包括第二置信度和第二区域信息,第二置信度用于表征所述待检测特征图像中的、与所述第二检测结果像素点位置相同的像素点属于第二区域的置信度,第二区域信息用于指示所述待检测特征图像中的、包含与所述第二检测结果像素点相同位置的像素点的区域。
11.根据权利要求10所述的装置,其中,所述第一区域包含所述第二区域。
12.根据权利要求10所述的装置,其中,所述融合单元进一步配置用于:
将所述待检测特征图像的数据,和所述第一检测结果图像中的相同位置像素点的特征数据包括的第一置信度相乘,得到融合图像中的相应像素点的数据。
13.根据权利要求10所述的装置,其中,所述融合单元进一步配置用于:
根据所述待检测特征图像中的像素点的数据,以及所述第一检测结果图像中的相同位置像素点的第一置信度与预设阈值的比较结果,确定融合图像中的相应像素点的数据。
14.根据权利要求10所述的装置,其中,所述融合单元进一步配置用于:
将所述待检测特征图像中的像素点的数据和所述第一检测结果图像中的相同位置像素点的特征数据所包括的第一置信度合并为融合图像中的相应像素点的数据。
15.根据权利要求9-14之一所述的装置,其中,所述装置还包括:
第三获取单元,配置用于获取第一训练样本集合,其中,第一训练样本包括样本特征图像、与样本特征图像对应的标注检测结果图像;
第一训练单元,配置用于基于机器学习方法,将所述第一训练样本集合中的每个样本特征图像作为预设的第二卷积神经网络的输入,基于第一训练样本集合中的每个第一训练样本中的标注检测结果图像和预设的第一损失函数,训练得到第一区域检测模型。
16.根据权利要求10-14之一所述的装置,其中,所述装置还包括:
第四获取单元,配置用于获取第二训练样本集合,其中,第二训练样本包括样本融合图像、与样本融合图像对应的标注融合图像;
第二训练单元,配置用于利用机器学习方法,将所述第二训练样本集合中的每个样本融合图像作为预设的第三卷积神经网络的输入,基于第二训练样本集合中的每个第二训练样本中的标注融合图像和预设的第二损失函数,训练得到第二区域检测模型。
17.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810053763.0A CN108154196B (zh) | 2018-01-19 | 2018-01-19 | 用于输出图像的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810053763.0A CN108154196B (zh) | 2018-01-19 | 2018-01-19 | 用于输出图像的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108154196A CN108154196A (zh) | 2018-06-12 |
CN108154196B true CN108154196B (zh) | 2019-10-22 |
Family
ID=62461709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810053763.0A Active CN108154196B (zh) | 2018-01-19 | 2018-01-19 | 用于输出图像的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108154196B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7469237B2 (ja) * | 2018-06-20 | 2024-04-16 | ズークス インコーポレイテッド | 機械学習モデルの出力から推論されるインスタンスセグメンテーション |
CN108898185A (zh) * | 2018-07-03 | 2018-11-27 | 北京字节跳动网络技术有限公司 | 用于生成图像识别模型的方法和装置 |
CN108898186B (zh) * | 2018-07-03 | 2020-03-06 | 北京字节跳动网络技术有限公司 | 用于提取图像的方法和装置 |
CN108985214A (zh) * | 2018-07-09 | 2018-12-11 | 上海斐讯数据通信技术有限公司 | 图像数据的标注方法和装置 |
CN109165572B (zh) * | 2018-08-03 | 2022-02-08 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN109272457B (zh) * | 2018-08-09 | 2022-07-22 | 腾讯科技(深圳)有限公司 | 一种图像掩膜生成方法、装置及服务器 |
CN110163197B (zh) * | 2018-08-24 | 2023-03-10 | 腾讯科技(深圳)有限公司 | 目标检测方法、装置、计算机可读存储介质及计算机设备 |
CN109191476B (zh) * | 2018-09-10 | 2022-03-11 | 重庆邮电大学 | 基于U-net网络结构的生物医学图像自动分割新方法 |
CN109376594A (zh) * | 2018-09-11 | 2019-02-22 | 百度在线网络技术(北京)有限公司 | 基于自动驾驶车辆的视觉感知方法、装置、设备以及介质 |
CN109345460B (zh) * | 2018-09-28 | 2020-04-24 | 百度在线网络技术(北京)有限公司 | 用于矫正图像的方法和装置 |
CN109359676A (zh) * | 2018-10-08 | 2019-02-19 | 百度在线网络技术(北京)有限公司 | 用于生成车辆损伤信息的方法和装置 |
CN109410218B (zh) * | 2018-10-08 | 2020-08-11 | 百度在线网络技术(北京)有限公司 | 用于生成车辆损伤信息的方法和装置 |
CN109445457B (zh) * | 2018-10-18 | 2021-05-14 | 广州极飞科技股份有限公司 | 分布信息的确定方法、无人飞行器的控制方法及装置 |
CN109472264B (zh) * | 2018-11-09 | 2020-10-27 | 北京字节跳动网络技术有限公司 | 用于生成物体检测模型的方法和装置 |
CN109871828B (zh) * | 2019-03-15 | 2022-12-02 | 京东方科技集团股份有限公司 | 视频识别方法和识别装置、存储介质 |
CN110189309B (zh) * | 2019-05-21 | 2021-06-15 | 上海商汤智能科技有限公司 | 一种图像处理方法及装置、电子设备和存储介质 |
CN111382796A (zh) * | 2020-03-09 | 2020-07-07 | 广东博智林机器人有限公司 | 图像特征的提取方法、装置、设备及存储介质 |
CN111639653B (zh) * | 2020-05-08 | 2023-10-10 | 浙江大华技术股份有限公司 | 一种误检图像确定方法、装置、设备和介质 |
CN111739046A (zh) * | 2020-06-19 | 2020-10-02 | 百度在线网络技术(北京)有限公司 | 用于模型更新和检测图像的方法、装置、设备和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7330565B1 (en) * | 2002-02-26 | 2008-02-12 | The United States Of America As Represented By The Secretary Of The Army | Scale insensitive vehicle detection algorithm for flir imagery |
CN106226050A (zh) * | 2016-07-15 | 2016-12-14 | 北京航空航天大学 | 一种tfds故障自动识别方法 |
CN106355188A (zh) * | 2015-07-13 | 2017-01-25 | 阿里巴巴集团控股有限公司 | 图像检测方法及装置 |
CN106845383A (zh) * | 2017-01-16 | 2017-06-13 | 腾讯科技(上海)有限公司 | 人头检测方法和装置 |
-
2018
- 2018-01-19 CN CN201810053763.0A patent/CN108154196B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7330565B1 (en) * | 2002-02-26 | 2008-02-12 | The United States Of America As Represented By The Secretary Of The Army | Scale insensitive vehicle detection algorithm for flir imagery |
CN106355188A (zh) * | 2015-07-13 | 2017-01-25 | 阿里巴巴集团控股有限公司 | 图像检测方法及装置 |
CN106226050A (zh) * | 2016-07-15 | 2016-12-14 | 北京航空航天大学 | 一种tfds故障自动识别方法 |
CN106845383A (zh) * | 2017-01-16 | 2017-06-13 | 腾讯科技(上海)有限公司 | 人头检测方法和装置 |
Non-Patent Citations (1)
Title |
---|
基于深度卷积神经网络的场景自适应道路分割算法;王海 等;《电子与信息学报》;20170228;第39卷(第二期);1-7 * |
Also Published As
Publication number | Publication date |
---|---|
CN108154196A (zh) | 2018-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108154196B (zh) | 用于输出图像的方法和装置 | |
CN107644209A (zh) | 人脸检测方法和装置 | |
CN107679490B (zh) | 用于检测图像质量的方法和装置 | |
CN108898186A (zh) | 用于提取图像的方法和装置 | |
CN108510472B (zh) | 用于处理图像的方法和装置 | |
CN108090916B (zh) | 用于跟踪视频中的目标图形的方法和装置 | |
CN108304835A (zh) | 文字检测方法和装置 | |
CN109446990A (zh) | 用于生成信息的方法和装置 | |
CN109117831A (zh) | 物体检测网络的训练方法和装置 | |
CN109410218A (zh) | 用于生成车辆损伤信息的方法和装置 | |
CN109002842A (zh) | 图像识别方法和装置 | |
CN108229575A (zh) | 用于检测目标的方法和装置 | |
CN108898185A (zh) | 用于生成图像识别模型的方法和装置 | |
CN108830235A (zh) | 用于生成信息的方法和装置 | |
CN109308490A (zh) | 用于生成信息的方法和装置 | |
CN107911753A (zh) | 用于在视频中添加数字水印的方法和装置 | |
CN109359676A (zh) | 用于生成车辆损伤信息的方法和装置 | |
CN108984399A (zh) | 检测界面差异的方法、电子设备和计算机可读介质 | |
CN108494778A (zh) | 身份认证方法和装置 | |
CN109934242A (zh) | 图片识别方法和装置 | |
CN108229485A (zh) | 用于测试用户界面的方法和装置 | |
CN108170751B (zh) | 用于处理图像的方法和装置 | |
CN109272543A (zh) | 用于生成模型的方法和装置 | |
CN108446659A (zh) | 用于检测人脸图像的方法和装置 | |
CN108470179A (zh) | 用于检测对象的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |