CN114565659A - 基于单深度图深度学习视图合成的食物体积估计方法 - Google Patents

基于单深度图深度学习视图合成的食物体积估计方法 Download PDF

Info

Publication number
CN114565659A
CN114565659A CN202210058901.0A CN202210058901A CN114565659A CN 114565659 A CN114565659 A CN 114565659A CN 202210058901 A CN202210058901 A CN 202210058901A CN 114565659 A CN114565659 A CN 114565659A
Authority
CN
China
Prior art keywords
object item
depth
image
point cloud
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210058901.0A
Other languages
English (en)
Inventor
赖建强
王烨
朱成博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingpei Medical Research Institute
Original Assignee
Beijing Jingpei Medical Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingpei Medical Research Institute filed Critical Beijing Jingpei Medical Research Institute
Priority to CN202210058901.0A priority Critical patent/CN114565659A/zh
Publication of CN114565659A publication Critical patent/CN114565659A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于单深度图深度学习视图合成的食物体积估计方法,涉及饮食评估技术领域,其技术方案要点是:包括以下步骤:1)将每个对象项放置在原点,捕获不同视角的对象项深度图像;2)将捕获的深度图像渲染为训练数据集;3)基于深度神经网络的视图合成方法将看不见的视角和使用看不见的对象项来预测使用输入图像的结果;4)获得目标对象项的完整三维点云;5)对对象项深度图像进行预处理;6)采用ICP算法对预处理后的点云进一步优化;7)采用Alpha形状方法对对象项进行网格划分并形成三维网格,从而得到对象项的体积。基于深度传感技术和深度学习视图合成的集成方法,可以在任何方便的角度获取单个深度图像,从而实现精确的食物体积估计。

Description

基于单深度图深度学习视图合成的食物体积估计方法
技术领域
本发明涉及饮食评估技术领域,更具体地说,它涉及基于单深度图深度学习视图合成的食物体积估计方法。
背景技术
一个客观的饮食评估系统可以帮助使用者了解他们的饮食行为,并使有针对性的干预措施能够解决潜在的健康问题。为了准确量化饮食摄入,需要测量食物的重量或体积。
对于体积估计,以前的研究主要集中在使用基于模型或基于立体的方法,这些方法依赖于手动干预,或者要求用户从不同的视角捕获多个帧,操作方式比较复杂;此外,提出了各种基于计算机视觉的技术来解决定量食物部分的问题,食品体积测量技术可分为基于模型和基于立体的两大类技术,这些技术尽管表现出了良好的性能,但仍然存在以下几点问题:
(1)基于模型的技术通常涉及不同程度的人为干预,需要参与者轮换、转移,并缩放预先构建的食品模型,使其与图像中的食品相匹配;
(2)基于立体的方法要求参与者从不同的视角拍摄多幅食物图像,操作方式复杂;
(3)其他方法需要特征点提取和匹配。对于表面光滑或纹理不明显的食品对象,无法有效提取特征点,导致三维重建失败;
(4)当从不同的视角拍摄图像时,物体的反射光会发生变化,这影响了特征点匹配和三维重建的准确性;
(5)参考对象(如基准标记)通常需要放置在食品旁边,以便准确估计。
发明内容
本发明的目的是提供基于单深度图深度学习视图合成的食物体积估计方法,解决背景技术中提到的技术问题。
本发明的上述技术目的是通过以下技术方案得以实现的:基于单深度图深度学习视图合成的食物体积估计方法,包括以下步骤:
1)将每个对象项放置在原点,通过方位旋转、仰角旋转、高度调整和中心移动四种运动方式来捕获不同视角的对象项深度图像;
2)将拍摄的图像进行分割和分类,使用多个外部摄像机参数随机渲染初始和对应的相反视角捕获的对象项的深度图像,并将捕获的深度图像渲染为训练数据集;
3)基于深度神经网络的视图合成方法将看不见的视角和使用看不见的对象项来预测使用输入图像的结果;
4)将初始深度图像和相对深度图像的相机坐标注册到同一世界坐标中,从而获得目标对象项的完整三维点云;
5)对步骤1)中的对象项深度图像进行预处理;
6)采用ICP算法对步骤5)中预处理后的点云进一步优化,使初始点云和合成点云融合在一起;
7)采用Alpha形状方法对对象项进行网格划分并形成三维网格,从而得到对象项的体积。
进一步的,所述步骤3)中的深度神经网络的视图合成的具体步骤为:
A)针对不同对象项建立不同大小内核的初始层;
B)通过几个卷积层和完全连接的层形成图像编码器;
C)将深度图像的矢量表示引导到图像解码器的若干卷积层中;
D)输出图像。
进一步的,所述步骤4)中获得目标对象项的完整三维点云的具体步骤为:
A):将原点的位置移动到初始相机的中心,使深度图像重新投影到世界坐标中,所述世界坐标为:
Figure BDA0003477402310000031
其中u、v表示图像中的坐标,X、Y和Z表示世界坐标中的坐标,Z是一个标量数,表示深度映射(u,v)和K∈R3x3是指固有的摄像机矩阵;
B):分别通过旋转矩阵和平移矩阵执行180°相机旋转和平移,并将旋转矩阵和平移矩阵合成点云注册到相同的世界坐标中,得出相对相机的位置;
沿X、Y、Z三轴的旋转矩阵为
Figure BDA0003477402310000032
其中θ是相机分别沿X、Y、Z三轴旋转的角度;
平移矩阵是指初始和相对摄像机位置之间的平移。
进一步的,所述步骤5)中预处理的具体步骤是:
A)采用双边过滤器填充推断深度图缺失的空间信息;
B)输入深度图并推断深度图中对象项被遮罩的轮廓,将相应的数据点重新投影到3D世界坐标中;
C)使用统计离群值移除过滤器将离群值从数据点中移除。
进一步的,所述步骤7)中Alpha形状方法的步骤为:
A)定义具有固定半径的球体,并从对象项的轮廓中选择起点;
B)球体以其圆周围绕对象项从起点旋转,依次撞击轮廓上的每一个点,直到循环闭合,得到三维网格;
C)通过步骤B)所得到的三维网格计算对象项的体积。
一项所述的基于单深度图深度学习视图合成的食物体积估计方法的应用,将所述方法应用于膳食摄入的营养成分含量的估算。
综上所述,本发明具有以下有益效果:
(1)通过深度传感技术和深度学习视图合成的集成方法,可以在任何方便的角度获取单个深度图像;
(2)通过采用网络结构和点云完成算法可以隐式地学习各种形状的三维结构,并能恢复食物中被遮挡的部分,提高体积估算的准确度;
(3)将食物体积估计方法应用于膳食摄入的营养成分含量估算,可以帮助使用者了解他们的饮食行为,并有针对性的干预措施能够解决潜在的健康问题。
附图说明
图1是本发明实施例1中通过四种运动类型的图像渲染生成的图像;
图2是本发明实施例1中原始版本的培训和测试损失与迭代的关系图;
图3是本发明实施例1中朴素版本的培训和测试损失与迭代的关系图;
图4是本发明实施例1中使用初始层和外部参数评估网络的培训和测试损失与迭代的关系图;
图5是本发明实施例1中使用初始层和外部参数评估网络的培训和测试损失与迭代的关系图;
图6是本发明实施例2中对膳食成分分析的流程图。
具体实施方式
以下结合附图1-6对本发明作进一步详细说明。
实施例1:基于单深度图深度学习视图合成的食物体积估计方法,如图1至图5所示,包括以下步骤:
1)将每个对象项放置在原点,通过方位旋转、仰角旋转、高度调整和中心移动四种运动方式来捕获不同视角的对象项深度图像;
2)将拍摄的图像进行分割和分类,使用多个外部摄像机参数随机渲染初始和对应的相反视角捕获的对象项的深度图像,并将捕获的深度图像渲染为训练数据集;
3)基于深度神经网络的视图合成方法将看不见的视角和使用看不见的对象项来预测使用输入图像的结果;
4)将初始深度图像和相对深度图像的相机坐标注册到同一世界坐标中,从而获得目标对象项的完整三维点云;
5)对步骤1)中的对象项深度图像进行预处理;
6)采用ICP算法对步骤5)中预处理后的点云进一步优化,使初始点云和合成点云融合在一起;
7)采用Alpha形状方法对对象项进行网格划分并形成三维网格,从而得到对象项的体积。
所述步骤3)中的深度神经网络的视图合成的具体步骤为:
A)针对不同对象项建立不同大小内核的初始层;
B)通过几个卷积层和完全连接的层形成图像编码器;
C)将深度图像的矢量表示引导到图像解码器的若干卷积层中;
D)输出图像。
所述步骤4)中获得目标对象项的完整三维点云的具体步骤为:
A):将原点的位置移动到初始相机的中心,使深度图像重新投影到世界坐标中,所述世界坐标为:
Figure BDA0003477402310000061
其中u、v表示图像中的坐标,X、Y和Z表示世界坐标中的坐标,Z是一个标量数,表示深度映射(u,v)和K∈R3x3是指固有的摄像机矩阵;
B):分别通过旋转矩阵和平移矩阵执行180°相机旋转和平移,并将旋转矩阵和平移矩阵合成点云注册到相同的世界坐标中,得出相对相机的位置;
沿X、Y、Z三轴的旋转矩阵为
Figure BDA0003477402310000071
其中θ是相机分别沿X、Y、Z三轴旋转的角度;
平移矩阵是指初始和相对摄像机位置之间的平移。
所述步骤5)中预处理的具体步骤是:
A)采用双边过滤器填充推断深度图缺失的空间信息;
B)输入深度图并推断深度图中对象项被遮罩的轮廓,将相应的数据点重新投影到3D世界坐标中;
C)使用统计离群值移除过滤器将离群值从数据点中移除。
所述步骤7)中Alpha形状方法的步骤为:
A)定义具有固定半径的球体,并从对象项的轮廓中选择起点;
B)球体以其圆周围绕对象项从起点旋转,依次撞击轮廓上的每一个点,直到循环闭合,得到三维网格;
C)通过步骤B)所得到的三维网格计算对象项的体积。
在本实施例中,在步骤2)中通过多个外部摄像机参数随机渲染初始视角的深度图像,对于每种食物,均需采用方位旋转、高程旋转、高度调整和中心移动四种方式从不同的视角渲染20000对深度图像进行训练;外部摄像机的参数范围如表1所示;
表1
Figure BDA0003477402310000081
在深度神经神经网络的视图合成步骤中,输出的图像是尺寸为480*640的推断深度图像,深度图像预测的代价函数为:
Figure BDA0003477402310000082
其中,
Figure BDA0003477402310000083
和d(u,v)分别指来自估计深度图像和深度图像的地面真值的像素,w和h分别表示图像的宽度和高度,λ是添加到代价函数中的正则化项,用于更好地训练神经网络,其中λ是根据经验确定的,λ的选择将影响网络的收敛速度(λ=10-3用于成本函数)。
Figure BDA0003477402310000084
和t分别指估计的外部参数(平移矩阵)和外部参数的基本真值;
以下为具体的实施例:
从对象数据集中选择了形状不规则的3D模型,包括香蕉、橘子、梨、立方体、罐装肉罐、柠檬、金枪鱼罐和布丁盒,图像渲染技术用于渲染每个对象项的深度图像;使用了一种简单的交叉验证方法——保持法来评估模型的性能,其中70%(每个对象项20k图像)的渲染深度图像用于训练神经网络,视角不可见的图像分别被选为验证数据集和测试数据集;该验证方法的优点是,它显示了该方法的生成能力,而无需对大型卷积网络进行训练和重新训练,且计算成本不高;为了比较深度分析的结果,根据提出的体系结构和朴素版本,表2列出了训练和测试损失;
表2
Figure BDA0003477402310000091
表2中b为成本函数,越低越好,从表2中可以看出,具有初始层和外部参数预测的拟议网络在训练集和测试集上都优于朴素版本和没有初始层的网络;将原始版本和朴素版本的培训和测试损失与迭代的关系图(带有初始层和外部参数)分别绘制在图2和图3中;图2和图3显示测试损失与训练损失相当,这表明训练模型是通用的,能够处理从看不见的视角捕获的图像,而无需过度拟合;两个模型的测试损失与迭代图一起绘制,以使用初始层和外部参数评估网络的改进,如图4所示;从图2-图4可以看出,朴素模型比提出的模型更快收敛;但是,在数百万次迭代后,提出的模型的测试损失更低,而朴素模型饱和在训练过程中,从结果可以看出,具有不同内核大小和外部参数预测的网络可以更有效地隐式地学习对象细节,从而提高深度估计的精度;
体积可用于定量评估所提出算法的性能;表3显示了本方法的体积估算结果与确定体积估算方法精度的地面真实值的比较;
表3
Figure BDA0003477402310000101
给定Yale–CMU–Berkeley对象数据集中对象项的尺寸(高度、宽度和长度),可以根据给定对象尺寸计算地面真实体积;对于具有一般形状的对象,例如橙色、立方体、金枪鱼罐头和布丁盒,可以根据几何计算轻松计算体积;但是,对于不规则对象,无法使用提供的尺寸精确计算体积;正是由于这个原因,我们使用平均估计体积Vg作为另一个参考体积来评估所提出的算法在没有地面真实体积作为先验知识的情况下的性能;基于点云完成算法,使用图像渲染期间生成的已知外部参数计算平均估计体积Vg;对每个目标项目进行15次试验;如表所示,基于点云完成的体积估计结果很有希望,误差仅为2.4%(准确率为97.6%);该误差是通过对具有地面真实体积的不同目标项目,采用基于点云完成的体积估计误差的平均值获得的;这种稳健的性能意味着,这种技术可以作为一种参考来测量物体的体积,而不需要地面真实性;根据ICP算法,使用所提出的神经网络估计的外部参数计算平均估计体积Vp,并通过ICP算法进行优化;在提供地面真值体积的情况下,比较了地面真值体积与估计体积Vp的误差;对于没有地面真值的目标项目,使用平均估计体积Vg和平均估计体积Vp计算误差;所提出算法的总体性能如表3所示;如图5所示,由于不同的初始视角,结果中可以发现误差的小标准偏差;同时,为了更好地可视化点云完成算法的性能,在所选对象项上进行3D重建,这些对象项具有未看到的捕获视角;此外,为了评估其实时可操作性,还检查了完成点云的处理时间;整个过程需要0.84±0.02秒来估计单个食物对象的体积,因此优于基于立体的体积估计方法;
对对象进行三维重建的实验结果,该对象具有看不见的捕获视角;从两个观察角度的深度图像分别用于完成点云,基于点云完成和ICP算法对食品进行定量测量;
其中表3所示,b是已知的外在参数根据点云完成的平均估计量;c是点云完成的估计音量的错误率;d是在事先不知情的情况下使用迭数最接近点算法的平均估计量;e是迭数最接近点算法估计量的错误率。
实施例2:基于单深度图深度学习视图合成的食物体积估计方法的应用,将所述方法应用于膳食摄入的营养成分含量的估算。
在本实施例中,如图6所示,通过体积估计方法得出了每一种膳食的体积后,可以根据数据库得出膳食中每一种成分的含量,从而帮助使用者了解他们的饮食行为。
工作原理:通过深度传感技术和深度学习视图合成的集成方法,可以在任何方便的角度获取单个深度图像;通过采用网络结构和点云完成算法可以隐式地学习各种形状的三维结构,并能恢复食物中被遮挡的部分,提高体积估算的准确度;将食物体积估计方法应用于膳食摄入的营养成分含量估算,可以帮助使用者了解他们的饮食行为,并有针对性的干预措施能够解决潜在的健康问题。
本具体实施例仅仅是对本发明的解释,其并不是对本发明的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本发明的权利要求范围内都受到专利法的保护。

Claims (6)

1.基于单深度图深度学习视图合成的食物体积估计方法,其特征是:包括以下步骤:
1)将每个对象项放置在原点,通过方位旋转、仰角旋转、高度调整和中心移动四种运动方式来捕获不同视角的对象项深度图像;
2)将拍摄的图像进行分割和分类,使用多个外部摄像机参数随机渲染初始和对应的相反视角捕获的对象项的深度图像,并将捕获的深度图像渲染为训练数据集;
3)基于深度神经网络的视图合成方法将看不见的视角和使用看不见的对象项来预测使用输入图像的结果;
4)将初始深度图像和相对深度图像的相机坐标注册到同一世界坐标中,从而获得目标对象项的完整三维点云;
5)对步骤1)中的对象项深度图像进行预处理;
6)采用ICP算法对步骤5)中预处理后的点云进一步优化,使初始点云和合成点云融合在一起;
7)采用Alpha形状方法对对象项进行网格划分并形成三维网格,从而得到对象项的体积。
2.根据权利要求1所述的基于单深度图深度学习视图合成的食物体积估计方法,其特征是:所述步骤3)中的深度神经网络的视图合成的具体步骤为:
A)针对不同对象项建立不同大小内核的初始层;
B)通过几个卷积层和完全连接的层形成图像编码器;
C)将深度图像的矢量表示引导到图像解码器的若干卷积层中;
D)输出图像。
3.根据权利要求1所述的基于单深度图深度学习视图合成的食物体积估计方法,其特征是:所述步骤4)中获得目标对象项的完整三维点云的具体步骤为:
A):将原点的位置移动到初始相机的中心,使深度图像重新投影到世界坐标中,所述世界坐标为:
Figure FDA0003477402300000021
其中u、v表示图像中的坐标,X、Y和Z表示世界坐标中的坐标,Z是一个标量数,表示深度映射(u,v)和K∈R3x3是指固有的摄像机矩阵;
B):分别通过旋转矩阵和平移矩阵执行180°相机旋转和平移,并将旋转矩阵和平移矩阵合成点云注册到相同的世界坐标中,得出相对相机的位置;
沿X、Y、Z三轴的旋转矩阵为
Figure FDA0003477402300000022
其中θ是相机分别沿X、Y、Z三轴旋转的角度;
平移矩阵是指初始和相对摄像机位置之间的平移。
4.根据权利要求1所述的基于单深度图深度学习视图合成的食物体积估计方法,其特征是:所述步骤5)中预处理的具体步骤是:
A)采用双边过滤器填充推断深度图缺失的空间信息;
B)输入深度图并推断深度图中对象项被遮罩的轮廓,将相应的数据点重新投影到3D世界坐标中;
C)使用统计离群值移除过滤器将离群值从数据点中移除。
5.根据权利要求1所述的基于单深度图深度学习视图合成的食物体积估计方法,其特征是:所述步骤7)中Alpha形状方法的步骤为:
A)定义具有固定半径的球体,并从对象项的轮廓中选择起点;
B)球体以其圆周围绕对象项从起点旋转,依次撞击轮廓上的每一个点,直到循环闭合,得到三维网格;
C)通过步骤B)所得到的三维网格计算对象项的体积。
6.根据权利要求1至5任意一项所述的基于单深度图深度学习视图合成的食物体积估计方法的应用,其特征是:将所述方法应用于膳食摄入的营养成分含量的估算。
CN202210058901.0A 2022-01-19 2022-01-19 基于单深度图深度学习视图合成的食物体积估计方法 Pending CN114565659A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210058901.0A CN114565659A (zh) 2022-01-19 2022-01-19 基于单深度图深度学习视图合成的食物体积估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210058901.0A CN114565659A (zh) 2022-01-19 2022-01-19 基于单深度图深度学习视图合成的食物体积估计方法

Publications (1)

Publication Number Publication Date
CN114565659A true CN114565659A (zh) 2022-05-31

Family

ID=81711623

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210058901.0A Pending CN114565659A (zh) 2022-01-19 2022-01-19 基于单深度图深度学习视图合成的食物体积估计方法

Country Status (1)

Country Link
CN (1) CN114565659A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115068181A (zh) * 2022-06-09 2022-09-20 北京精培医学研究院 一种人工乳房拟合体及方法
CN116884572A (zh) * 2023-09-07 2023-10-13 北京四海汇智科技有限公司 一种基于图像处理的营养智能管理方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038879A (zh) * 2017-12-12 2018-05-15 众安信息技术服务有限公司 一种食品体积估计方法及其装置
CN113362385A (zh) * 2021-06-21 2021-09-07 山东产研信息与人工智能融合研究院有限公司 一种基于深度图像的货物体积测量方法及设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038879A (zh) * 2017-12-12 2018-05-15 众安信息技术服务有限公司 一种食品体积估计方法及其装置
CN113362385A (zh) * 2021-06-21 2021-09-07 山东产研信息与人工智能融合研究院有限公司 一种基于深度图像的货物体积测量方法及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FRANK P. -W. LO等: "Food Volume Estimation Based on Deep Learning View Synthesis from a Single Depth Map", 《NUTRIENTS》, pages 1 - 20 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115068181A (zh) * 2022-06-09 2022-09-20 北京精培医学研究院 一种人工乳房拟合体及方法
CN115068181B (zh) * 2022-06-09 2023-06-30 北京精培医学研究院 一种人工乳房拟合体及方法
CN116884572A (zh) * 2023-09-07 2023-10-13 北京四海汇智科技有限公司 一种基于图像处理的营养智能管理方法及系统
CN116884572B (zh) * 2023-09-07 2024-02-06 北京四海汇智科技有限公司 一种基于图像处理的营养智能管理方法及系统

Similar Documents

Publication Publication Date Title
Hartmann et al. Learned multi-patch similarity
CN108052942B (zh) 一种飞机飞行姿态的视觉图像识别方法
JP5833189B2 (ja) 被写体の三次元表現を生成する方法およびシステム
Long et al. Adaptive surface normal constraint for depth estimation
JP7542070B2 (ja) 偏光画像を含む異なる撮像モダリティで統計モデルを訓練するためのデータを合成するためのシステムおよび方法
CN114565659A (zh) 基于单深度图深度学习视图合成的食物体积估计方法
Agresti et al. Deep learning for confidence information in stereo and tof data fusion
CN110503686A (zh) 基于深度学习的物体位姿估计方法及电子设备
CN117036612A (zh) 一种基于神经辐射场的三维重建方法
EP3012781A1 (en) Method and apparatus for extracting feature correspondences from multiple images
Lo et al. A novel vision-based approach for dietary assessment using deep learning view synthesis
CN117422884A (zh) 三维目标检测方法、系统、电子设备及存储介质
CN115187748A (zh) 一种基于点云的类别级的物体的质心与位姿估计
CN113281779B (zh) 一种3d物体快速检测方法、装置、设备及介质
Taylor et al. VR props: an end-to-end pipeline for transporting real objects into virtual and augmented environments
Tomescu FoRConvD: An approach for food recognition on mobile devices using convolutional neural networks and depth maps
Comi et al. Snap-it, Tap-it, Splat-it: Tactile-Informed 3D Gaussian Splatting for Reconstructing Challenging Surfaces
CN117351078A (zh) 基于形状先验的目标尺寸与6d姿态估计方法
Ward et al. A model-based approach to recovering the structure of a plant from images
Qammaz et al. A hybrid method for 3d pose estimation of personalized human body models
Gallardo et al. Using Shading and a 3D Template to Reconstruct Complex Surface Deformations.
CN110864613B (zh) 一种基于电场力模型的食物体积测量方法
Zhang et al. A multiple camera system with real-time volume reconstruction for articulated skeleton pose tracking
Hong et al. Surface reconstruction of 3D objects using local moving least squares and KD trees
Lee et al. Using distance transform to solve real-time machine vision inspection problems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination