CN107464244A - 一种基于神经网络的图像光照估计方法 - Google Patents
一种基于神经网络的图像光照估计方法 Download PDFInfo
- Publication number
- CN107464244A CN107464244A CN201710138209.8A CN201710138209A CN107464244A CN 107464244 A CN107464244 A CN 107464244A CN 201710138209 A CN201710138209 A CN 201710138209A CN 107464244 A CN107464244 A CN 107464244A
- Authority
- CN
- China
- Prior art keywords
- illumination
- neutral net
- light source
- mrow
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/006—Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于神经网络的图像光照估计方法,可以很好的估计图像中光源方向、光源距离和光源能量。该方法通过3D模型的渲染方式产生带有光照标签的数据集,然后利用数据集训练具有强大学习能力的深度卷积神经网络,其中神经网络的输入是带有光照标签的图像,输出是光照值。对给定的任意图像,都可以通过该神经网络得到其光照值。首先本发明方法大大减少了采集光照数据集的成本和工作量,很好的解决了神经网络训练时需要大量样本问题。同时减少了人工标定的视觉误差,使神经网络的估计性能增强。其次本发明方法首次将深度卷积神经网络用到图像光照估计,给图像光照估计方法提供了新思路。
Description
技术领域
本发明涉及数字图像处理领域,更具体地,涉及一种基于神经网络的图像光照估计方法。
背景技术
不同的光照条件下,物体会产生不同的表面颜色、阴影,在进行图像处理时会得到完全不同的视觉效果。所以知道准确的光照值有着很重要的作用。
现有图像光照估计研究方法主要分为两种,无监督光照估计和有监督光照估计。
无监督光照估计是指不依赖于其他的先验知识,仅从图像的底层图像特征估计得到图像成像时的场景光照。经典的无监督光照估计算法都是通过图像信息建模来估计光源方位角和光源仰角。利用微元的角度对图像光照进行分析,最终得出一种适合整个物体表面光照的估计方法。但是这些方法在选取待估计区域有一定的要求:1)尽量选择光照良好的区域。2)选择的区域最好为同一物体且纹理和材质统一。但是在实际中几乎不可能同时满足这两个条件,所以这些算法都具有局限性。
有监督估计主要是利用大量已知光照信息的照片学习到光照估计能力,然后利用光照估计能力估计未知光照值的照片。基于贝叶斯推理的光照估计方法具有很好的代表性。有监督光照估计需要大量已知光照值的照片,而现有的光照数据集是通过手动收集,由于人工标定成本较高,且人眼标定时存在视觉误差,致使现有的有监督光照估计方法性能较弱。
随着计算机深度学习的发展,深度卷积神经网络在计算机视觉领域取得举世瞩目的成就。将神经网络用在计算机的各种研究成为必然趋势。神经网络主要有以下这些优点:1、很强的鲁棒性和容错性;2、并行处理方法计算速度快;3、自学习,自组织,自适应性,使得网络可以处理不确定或不知道的系统;4、可以充分逼近复杂的非线性关系;5、具有很强的信息综合能力,能同时处理定性和定量的信息,能够协调多种信息输入关系。神经网络强大的学习能力和其他自身优点使其应用在光照估计有很重要的意义。
渲染是指用软件由模型生成图像的过程,在模型上加上一些几何、视点、照明、阴影等信息增强图像的艺术效果、质感和立体感。
基于神经网络的图片光照估计的基本思想是利用渲染形成已知光照值的图像集,将图像集作为神经网络的输入,光照值作为神经网络的输出。核心思想是利用深度卷积神经网络强大的学习能力学习图像中的隐含光照信息。
发明内容
本发明提供一种适用性广的基于神经网络的图像光照估计方法。
为了达到上述技术效果,本发明的技术方案如下:
一种基于神经网络的图像光照估计方法,包括以下步骤:
S1:采用随机方式生成一系列光照参数,光照参数为光照能量、光照距离、光源方位角、光源仰角;
S2:三维模型渲染,在渲染通道加入光照参数生成二维图像,形成带有光照标签的合成图像集;
S3:将合成图像集中的每张图像进行裁剪,形成已知光照值的训练数据集;
S4:利用训练数据集训练深度卷积神经网络,其中带有光照标签的图像是神经网络的输入,光照值是神经网络的输出,对任意一幅图像,输入到训练好的神经网络中,可以得到其光照值。
进一步地,所述步骤S1中:
所述光照参数中光源能量e和光照距离d的变化范围是(1,20),光源方位角θ的变换范围是(0,360°),光源仰角γ的变化范围是(-90°,90°)。
进一步地,所述步骤S2中:
利用渲染工具将三维模型集合成已知光照值的图像集,为了增加种类和多样性,采用轴对称或者旋转对称的形式保留形变增加数量。
进一步地,所述三维模型集来自ShapeNet数据集,渲染工具选用Blender,基于不同材料的表面对光照的反射和散射程度不同,故所选类别的表面属于不同材质,共14类进行合成。
进一步地,所述步骤S4中:
在训练神经网络估计光照时,提出深度卷积神经网络里所有的分类器都可以共享卷积层和全连接层。
进一步地,在训练深度卷积神经网络过程所用损失函数为:
其中,d为光源距离,Pv(s;cs)是光源方位角和光源仰角的采样概率,样本s来自类别cs的soft-max分类器,d(v,vs)是光源方位角θ和光源仰角γ之间的欧式距离,使用随机梯度下降法求出损失函数Lvp({s})的最小值就得到训练好的神经网络。
与现有技术相比,本发明技术方案的有益效果是:
本发明方法通过随机方式生成一系列光照参数,包含光源能量、光照距离、光源方位角、光源仰角;之后三维模型渲染,在渲染通道加入光照参数生成二维图像,形成带有光照标签的合成图像集;然后将合成图像集中的每张图像进行裁剪,形成已知光照值的训练数据集;最后利用数据集训练具有强大学习能力的深度卷积神经网络,其中神经网络的输入是带有光照标签的图像,输出是光照值。对给定任意图像,都可以通过该神经网络得到其光照值。首先本发明方法大大减少了采集光照数据集的成本和工作量,很好的解决了神经网络训练时需要大量样本问题。同时减少了人工标定的视觉误差,使神经网络的估计性能增强。其次本发明方法首次将深度卷积神经网络用到图像光照估计,给图像光照估计方法提供了新思路。
附图说明
图1为本发明光照估计方法的操作流程图;
图2为本发明光照估计方法的几何分析图;
图3为本发明光照估计方法所使用的网络结构图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,基于神经网络的图像光照估计方法,主要包括下述步骤:
步骤1:采用随机方式生成一系列光照参数,光照参数为光照能量、光照距离、光源方位角、光源仰角。
其中,如图2所示,光照能量表示为e,光源距离表示为d,光源方位角表示为θ,光源仰角表示为γ。e的变化范围是(1,20),θ的变换范围是(0,360°),γ的变化范围是(-90°,90°),d的变化范围是(1,20)。
步骤2:三维模型渲染,在渲染通道加入光照参数生成二维图像,形成带有光照标签的合成图像集。
进一步地,步骤2中,利用渲染工具将3D模型合成已知光照值的图像集。三维模型集来自ShapeNet数据集,渲染工具选用Blender,基于不同材料的表面对光照的反射和散射程度不同,故所选类别的表面属于不同材质,共14类进行合成。
步骤3:将合成图像集中的每张图像进行裁剪,形成已知光照值的训练数据集。
步骤4:利用训练数据集训练深度卷积神经网络,其中带有光照标签的图像是神经网络的输入,光照值是神经网络的输出。
进一步地,步骤4中,输入一张RGB图像目的是估计其光照,将光照进行几何分析,设置为(θ,γ,d,e)四个参数,其中θ为光源方位角,γ为光源仰角,d为光源距离,e为光源能量。如图3所示,提出的神经网络结构主要分为三部分,卷积层,全连接层,独立的类。所有的卷基层和全连接层能被所有独立的类共享。
通常将神经网络的学习过程转化为求损失函数的最小值问题。一般来说,损失函数包括误差项和正则项两部分。误差项衡量神经网络模型在训练数据集上的拟合程度,而正则项则是控制模型的复杂程度,防止出现过拟合现象。
本发明采用的损失函数如下:
其中Pv(s;cs)是光源方位角和光源仰角的采样概率,样本s来自类别cs的soft-max分类器。d(v,vs)是光源方位角θ和光源仰角γ之间的欧式距离。通过采样形成大量不同的图像防止过拟合现象。
在训练神经网络时,使用随机梯度下降法求出损失函数的最小值。梯度下降法是损失函数值减小最快的方向,在神经网络较大,包含参数较多时最常使用梯度下降法。
步骤5:对任意一幅图像,输入训练好的神经网络中,输出其光照值。
Shapenet是由普林斯顿大学,斯坦福大学和TTIC之间共同合作形成信息丰富的大型3D数据库。与其他的数据库相比,Shapnet数据库为每个模型提供丰富的注释。
Blender是一个免费的开源软件,用来三维绘图及渲染。以Python为内置脚本,支持第三方渲染。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (5)
1.一种基于神经网络的图像光照估计方法,其特征在于,包括以下步骤:
S1:采用随机方式生成一系列光照参数,光照参数为光源能量、光照距离、光源方位角、光源仰角;
S2:三维模型渲染,在渲染通道加入光照参数生成二维图像,形成带有光照标签的合成图像集;
S3:将合成图像集中的每张图像进行裁剪,形成已知光照值的训练数据集;
S4:利用训练数据集训练深度卷积神经网络,其中带有光照标签的图像是神经网络的输入,光照值是神经网络的输出,对任意一幅图像,输入到训练好的神经网络中,可以得到其光照值。
2.根据权利要求1所述的基于神经网络的图像光照估计方法,其特征在于,所述步骤S1中:
所述光照参数中光源能量e和光照距离d的变化范围是(1,20),光源方位角θ的变换范围是(0,360°),光源仰角γ的变化范围是(-90°,90°)。
3.根据权利要求1所述的基于神经网络的图像光照估计方法,其特征在于,所述步骤S2中:
三维模型集来自ShapeNet数据集,渲染工具选用Blender,基于不同材料的表面对光照的反射和散射程度不同,故所选类别的表面属于不同材质,共14类进行合成。
4.根据权利要求1所述的基于神经网络的图像光照估计方法,其特征在于,所述步骤S4中在训练神经网络估计光照时,提出深度卷积神经网络里所有的分类器都可以共享卷积层和全连接层。
5.根据权利要求1所述的基于神经网络的图像光照估计方法,其特征在于,所述步骤S4中在训练深度卷积神经网络过程所用损失函数为:
<mrow>
<msub>
<mi>L</mi>
<mrow>
<mi>v</mi>
<mi>p</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mo>{</mo>
<mi>s</mi>
<mo>}</mo>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mo>-</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mo>{</mo>
<mi>s</mi>
<mo>}</mo>
</mrow>
</munder>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>v</mi>
<mo>&Element;</mo>
<mi>V</mi>
</mrow>
</munder>
<msup>
<mi>l</mi>
<mrow>
<mo>-</mo>
<mi>d</mi>
<mrow>
<mo>(</mo>
<mi>v</mi>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mi>&sigma;</mi>
</mrow>
</msup>
<mi>log</mi>
<mi> </mi>
<msub>
<mi>P</mi>
<mi>v</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>;</mo>
<msub>
<mi>c</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
其中,Pv(s;cs)是光源方位角和光源仰角的采样概率,样本s来自类别cs的soft-max分类器,d(v,vs)是光源方位角θ和光源仰角γ之间的欧式距离,使用随机梯度下降法求出损失函数Lvp({s})的最小值就得到训练好的神经网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710138209.8A CN107464244A (zh) | 2017-03-09 | 2017-03-09 | 一种基于神经网络的图像光照估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710138209.8A CN107464244A (zh) | 2017-03-09 | 2017-03-09 | 一种基于神经网络的图像光照估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107464244A true CN107464244A (zh) | 2017-12-12 |
Family
ID=60545929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710138209.8A Pending CN107464244A (zh) | 2017-03-09 | 2017-03-09 | 一种基于神经网络的图像光照估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107464244A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108401318A (zh) * | 2018-02-28 | 2018-08-14 | 景小妮 | 基于物体表面三维形貌分析的智能照明控制系统及方法 |
CN108460398A (zh) * | 2017-12-27 | 2018-08-28 | 达闼科技(北京)有限公司 | 图像处理方法、装置、云处理设备和计算机程序产品 |
CN108805970A (zh) * | 2018-05-03 | 2018-11-13 | 百度在线网络技术(北京)有限公司 | 光照估计方法及装置 |
CN109040729A (zh) * | 2018-08-16 | 2018-12-18 | Oppo广东移动通信有限公司 | 图像白平衡校正方法、装置、存储介质及终端 |
CN109166170A (zh) * | 2018-08-21 | 2019-01-08 | 百度在线网络技术(北京)有限公司 | 用于渲染增强现实场景的方法和装置 |
CN109523617A (zh) * | 2018-10-15 | 2019-03-26 | 中山大学 | 一种基于单目摄像机的光照估计方法 |
CN109883414A (zh) * | 2019-03-20 | 2019-06-14 | 百度在线网络技术(北京)有限公司 | 一种车辆导航方法、装置、电子设备及存储介质 |
CN110310224A (zh) * | 2019-07-04 | 2019-10-08 | 北京字节跳动网络技术有限公司 | 光效渲染方法及装置 |
CN110782502A (zh) * | 2018-07-31 | 2020-02-11 | 通用电气公司 | 基于深度学习的pet散射估计系统和使用感知神经网络模型的方法 |
CN111727412A (zh) * | 2018-03-05 | 2020-09-29 | 欧姆龙株式会社 | 用于设定照明条件的方法、装置、系统及程序以及存储介质 |
CN111833430A (zh) * | 2019-04-10 | 2020-10-27 | 上海科技大学 | 基于神经网络的光照数据预测方法、系统、终端及介质 |
CN113139909A (zh) * | 2020-01-19 | 2021-07-20 | 杭州喔影网络科技有限公司 | 一种基于深度学习的图像增强方法 |
CN113408206A (zh) * | 2021-06-23 | 2021-09-17 | 陕西科技大学 | 一种室内天然光照度建模方法 |
CN113781352A (zh) * | 2021-09-16 | 2021-12-10 | 科大讯飞股份有限公司 | 去光照方法、装置、电子设备与存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6304294B1 (en) * | 1999-10-15 | 2001-10-16 | Sony Corporation | Apparatus for and method of estimating the illumination of an image |
WO2007077380A2 (fr) * | 2006-01-05 | 2007-07-12 | France Telecom | Correction d'image couleur et obtention d'au moins un invariant couleur |
CN105389843A (zh) * | 2015-12-09 | 2016-03-09 | 河海大学 | 基于径向基函数神经网络拟合的全局光照实时绘制方法 |
-
2017
- 2017-03-09 CN CN201710138209.8A patent/CN107464244A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6304294B1 (en) * | 1999-10-15 | 2001-10-16 | Sony Corporation | Apparatus for and method of estimating the illumination of an image |
WO2007077380A2 (fr) * | 2006-01-05 | 2007-07-12 | France Telecom | Correction d'image couleur et obtention d'au moins un invariant couleur |
CN105389843A (zh) * | 2015-12-09 | 2016-03-09 | 河海大学 | 基于径向基函数神经网络拟合的全局光照实时绘制方法 |
Non-Patent Citations (2)
Title |
---|
HAO SU 等: "Render for CNN: Viewpoint Estimation in Images Using CNNs Trained with Rendered 3D Model Views", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
VLAD C.CARDEI 等: "Estimating the scene illumination chromaticity by using a neural network", 《JOURNAL OF THE OPTICAL SOCIETY OF AMERICA A》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460398A (zh) * | 2017-12-27 | 2018-08-28 | 达闼科技(北京)有限公司 | 图像处理方法、装置、云处理设备和计算机程序产品 |
CN108401318B (zh) * | 2018-02-28 | 2020-12-15 | 刘皓挺 | 基于物体表面三维形貌分析的智能照明控制系统及方法 |
CN108401318A (zh) * | 2018-02-28 | 2018-08-14 | 景小妮 | 基于物体表面三维形貌分析的智能照明控制系统及方法 |
CN111727412B (zh) * | 2018-03-05 | 2023-07-14 | 欧姆龙株式会社 | 用于设定照明条件的方法、装置、系统以及存储介质 |
CN111727412A (zh) * | 2018-03-05 | 2020-09-29 | 欧姆龙株式会社 | 用于设定照明条件的方法、装置、系统及程序以及存储介质 |
CN108805970A (zh) * | 2018-05-03 | 2018-11-13 | 百度在线网络技术(北京)有限公司 | 光照估计方法及装置 |
CN110782502B (zh) * | 2018-07-31 | 2023-11-03 | 通用电气公司 | 基于深度学习的pet散射估计系统和使用感知神经网络模型的方法 |
CN110782502A (zh) * | 2018-07-31 | 2020-02-11 | 通用电气公司 | 基于深度学习的pet散射估计系统和使用感知神经网络模型的方法 |
CN109040729A (zh) * | 2018-08-16 | 2018-12-18 | Oppo广东移动通信有限公司 | 图像白平衡校正方法、装置、存储介质及终端 |
CN109040729B (zh) * | 2018-08-16 | 2020-04-07 | Oppo广东移动通信有限公司 | 图像白平衡校正方法、装置、存储介质及终端 |
CN109166170A (zh) * | 2018-08-21 | 2019-01-08 | 百度在线网络技术(北京)有限公司 | 用于渲染增强现实场景的方法和装置 |
CN109523617A (zh) * | 2018-10-15 | 2019-03-26 | 中山大学 | 一种基于单目摄像机的光照估计方法 |
CN109523617B (zh) * | 2018-10-15 | 2022-10-18 | 中山大学 | 一种基于单目摄像机的光照估计方法 |
CN109883414B (zh) * | 2019-03-20 | 2021-08-27 | 百度在线网络技术(北京)有限公司 | 一种车辆导航方法、装置、电子设备及存储介质 |
CN109883414A (zh) * | 2019-03-20 | 2019-06-14 | 百度在线网络技术(北京)有限公司 | 一种车辆导航方法、装置、电子设备及存储介质 |
CN111833430A (zh) * | 2019-04-10 | 2020-10-27 | 上海科技大学 | 基于神经网络的光照数据预测方法、系统、终端及介质 |
CN110310224A (zh) * | 2019-07-04 | 2019-10-08 | 北京字节跳动网络技术有限公司 | 光效渲染方法及装置 |
CN113139909A (zh) * | 2020-01-19 | 2021-07-20 | 杭州喔影网络科技有限公司 | 一种基于深度学习的图像增强方法 |
CN113408206A (zh) * | 2021-06-23 | 2021-09-17 | 陕西科技大学 | 一种室内天然光照度建模方法 |
CN113781352A (zh) * | 2021-09-16 | 2021-12-10 | 科大讯飞股份有限公司 | 去光照方法、装置、电子设备与存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107464244A (zh) | 一种基于神经网络的图像光照估计方法 | |
CN111832655B (zh) | 一种基于特征金字塔网络的多尺度三维目标检测方法 | |
Sun et al. | Aerial 3D building detection and modeling from airborne LiDAR point clouds | |
CN108875813B (zh) | 一种基于几何图像的三维网格模型检索方法 | |
CN111028327B (zh) | 一种三维点云的处理方法、装置及设备 | |
CN108537742A (zh) | 一种基于生成对抗网络的遥感图像全色锐化方法 | |
CN114092697B (zh) | 注意力融合全局和局部深度特征的建筑立面语义分割方法 | |
CN104408760B (zh) | 一种基于双目视觉的高精度虚拟装配系统算法 | |
CN108764250B (zh) | 一种运用卷积神经网络提取本质图像的方法 | |
Kennelly et al. | General sky models for illuminating terrains | |
CN110097599A (zh) | 一种基于部件模型表达的工件位姿估计方法 | |
CN116229079A (zh) | 一种基于视觉辅助和特征增强的三维点云语义分割方法及系统 | |
Han et al. | Research on multiple jellyfish classification and detection based on deep learning | |
CN112329780A (zh) | 一种基于深度学习的深度图像语义分割方法 | |
CN105447452A (zh) | 一种基于地物空间分布特征的遥感亚像元制图方法 | |
CN114092793A (zh) | 适用于复杂水下环境的端到端生物目标检测方法 | |
CN114417693A (zh) | 一种基于深度学习的海洋三维温度场反演方法 | |
CN115719445A (zh) | 一种基于深度学习和树莓派4b模块的海产品识别方法 | |
CN116385902A (zh) | 一种遥感大数据处理方法、系统及云平台 | |
CN113593043B (zh) | 一种基于生成对抗网络的点云三维重建方法与系统 | |
CN102609721B (zh) | 遥感影像的聚类方法 | |
CN104392489A (zh) | 顾及拓扑的三维地理空间实体群的线消隐方法 | |
CN104537254B (zh) | 一种基于社会统计数据的精细化制图方法 | |
Cheng et al. | Generating high-resolution climate prediction through generative adversarial network | |
Chrysostomou et al. | Multi-view 3D scene reconstruction using ant colony optimization techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171212 |