CN110336944B - 自动拍摄并分析服装图像的方法、装置、设备及系统 - Google Patents
自动拍摄并分析服装图像的方法、装置、设备及系统 Download PDFInfo
- Publication number
- CN110336944B CN110336944B CN201910610149.4A CN201910610149A CN110336944B CN 110336944 B CN110336944 B CN 110336944B CN 201910610149 A CN201910610149 A CN 201910610149A CN 110336944 B CN110336944 B CN 110336944B
- Authority
- CN
- China
- Prior art keywords
- image
- display point
- camera
- garment
- clothing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000012549 training Methods 0.000 claims abstract description 62
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 238000006243 chemical reaction Methods 0.000 claims abstract description 14
- 238000013461 design Methods 0.000 claims abstract description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 25
- 230000007246 mechanism Effects 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims 1
- 230000007547 defect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 229920000742 Cotton Polymers 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种自动拍摄并分析服装图像的方法、装置、设备、计算机可读存储介质及系统。其中,方法包括根据摄像头当前位置和整体图像拍摄位置生成图像拍摄指令,控制摄像头拍摄服装的整体图像;调用展示点检测模型检测该图像,得到各展示点在图中的位置信息,并根据图像坐标和世界坐标的比例换算关系计算得到各展示点的空间位置坐标;展示点检测模型的训练数据集的各样本图像均设置包含有展示点类别和位置的标签,展示点类别为做工展示、设计细节或时尚元素;最后根据摄像头当前位置和各展示点的空间位置生成细节图像拍摄指令,控制摄像头移动至各展示点以拍摄相应细节图像。本申请不仅得到了高质量服装拍摄图像,还提高了服装拍摄效率。
Description
技术领域
本发明实施例涉及图像拍摄分析技术领域,特别是涉及一种自动拍摄并分析服装图像的方法、装置、设备、计算机可读存储介质及系统。
背景技术
在服装销售行业,特别是线上销售,往往需要使用高质量的服装图像以相应的服装信息描述向客户展示服装。
目前服装的拍摄工作以人工拍摄为主,而要拍摄出高质量的、表达力丰富的比如做工展示、设计细节、时尚元素等服装图像,不仅对拍摄人员的素质要求非常高,而且拍摄效率比较低,尤其是针对大批量服装拍摄应用场景,拍摄成本较高。此外,由于每个人的拍摄水平不一样,对服装图像的展示点理解不一样,因此拍摄的图像效果也会存在差异。
发明内容
本公开实施例提供了一种自动拍摄并分析服装图像的方法、装置、设备、计算机可读存储介质及系统,解决相关技术中人工拍摄服装图像存在的弊端。
为解决上述技术问题,本发明实施例提供以下技术方案:
本发明实施例一方面提供了一种自动拍摄并分析服装图像的方法,包括:
根据摄像头当前位置和服装整体图像拍摄位置生成图像拍摄指令,以控制所述摄像头移动至所述服装整体图像拍摄位置并拍摄服装的整体图像;所述服装整体图像拍摄位置由服装挂放位置和预先设置的所述摄像头与所述服装的距离确定;
调用预先构建的展示点检测模型检测所述整体图像,得到各展示点在所述整体图像的位置信息,并根据图像坐标和世界坐标的比例换算关系计算得到各展示点的空间位置坐标;所述展示点检测模型的训练数据集的各样本图像均设置包含有展示点类别和各展示点在图像中位置的标签,所述展示点类别为做工展示、设计细节或时尚元素;
根据所述摄像头当前位置和各展示点的空间位置坐标生成细节图像拍摄指令,以控制所述摄像头移动至各展示点并拍摄相应细节图像。
可选的,所述根据所述摄像头当前位置和各展示点的空间位置坐标生成细节图像拍摄指令之后,还包括:
利用预先构建的服装类目识别模型识别所述整体图像,得到所述服装的类目信息;
利用预先构建的服装风格识别模型识别所述整体图像,得到所述服装的风格信息;
利用预先构建的图像文本生成模型对各展示点的细节图像进行自然语言描述;
根据所述类目信息、所述风格信息和各展示点的自然语言描述信息生成所述服装的图像信息描述数据。
可选的,所述图像文本生成模型利用卷积神经网络结构和长短期记忆网络结构通过跨模式的相似性度量学习文本训练数据集所得;
其中,所述文本训练数据集的每个样本图像均设置有展示点类别和描述语句对的标签,所述卷积神经网络结构用于训练各样本图像的展示点图像特征;所述长短期记忆网络结构用于训练各样本图像的自然语言描述。
可选的,所述服装类目识别模型为利用类目训练数据集训练卷积神经网络结构所得,所述类目训练数据集中的每个样本图像均设置有服装类目的标签;所述服装风格识别模型为利用风格训练数据集训练卷积神经网络结构所得,所述风格训练数据集中的每个样本图像均设置有服装风格的标签。
可选的,所述图像坐标和世界坐标的比例换算关系的计算过程包括:
根据线纹尺挂放位置及所述摄像头的当前位置生成线纹尺拍摄指令,以使所述摄像头拍摄线纹尺图像;
根据所述线纹尺目标刻度区域的刻度值l和在所述线纹尺图像中目标刻度区域内的像素点个数N,计算得到图像坐标和世界坐标的比例换算系数Coffset:
Coffset=l/N。
可选的,所述调用预先构建的展示点检测模型检测所述整体图像,得到各展示点在所述整体图像的位置信息包括:
调用预先构建的展示点检测模型利用单发检测器检测所述整体图像,得到各展示点在所述整体图像的位置信息;
其中,每个展示点的位置信息包括构成矩形框的四个坐标信息;所述展示点检测模型为利用所述训练数据集训练卷积神经网络模型所得,所述卷积神经网络模型的主干网络结构为残差网络。
本发明实施例另一方面提供了一种自动拍摄并分析服装图像的装置,包括:
整体图像拍摄模块,用于根据摄像头当前位置和服装整体图像拍摄位置生成图像拍摄指令,以控制所述摄像头移动至所述服装整体图像拍摄位置并拍摄服装的整体图像;所述服装整体图像拍摄位置由服装挂放位置和预先设置的所述摄像头与所述服装的距离确定;
展示点确定模块,用于调用预先构建的展示点检测模型检测所述整体图像,得到各展示点在所述整体图像的位置信息,并根据图像坐标和世界坐标的比例换算关系计算得到各展示点的空间位置坐标;所述展示点检测模型的训练数据集的各样本图像均设置包含有展示点类别和各展示点在图像中位置的标签,所述展示点类别为做工展示、设计细节或时尚元素;
细节图像拍摄模块,用于根据所述摄像头当前位置和各展示点的空间位置坐标生成细节图像拍摄指令,以控制所述摄像头移动至各展示点并拍摄相应细节图像。
本发明实施例还提供了一种自动拍摄并分析服装图像的设备,包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如前任一项所述自动拍摄并分析服装图像的方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有自动拍摄并分析服装图像的程序,所述自动拍摄并分析服装图像的程序被处理器执行时实现如前任一项所述自动拍摄并分析服装图像的方法的步骤。
本发明实施例最后还提供了一种自动拍摄并分析服装图像的系统,包括摄像头、摄像头驱动机构及自动拍摄分析服装图像处理器;所述摄像头安装在摄像头驱动机构上;所述摄像头驱动机构、所述摄像头分别与所述自动拍摄并分析服装图像处理器相连;
所述摄像头驱动机构用于根据所述自动拍摄分析服装图像处理器发送的图像拍摄指令中的位置移动信息,将所述摄像头移动至目标位置进行图像采集;
所述自动拍摄分析服装图像处理器用于执行存储器中存储的计算机程序时实现如上任一项所述自动拍摄并分析服装图像的方法的步骤。
本申请提供的技术方案的优点在于,根据预先设置的服装挂放位置、摄像头的当前位置以及摄像头与服装的距离得到控制摄像头移动至服装整体图像拍摄位置的移动信息和执行拍照的指令来实现自动拍摄服装图像;然后利用展示点检测模型在服装整体图像上确定各展示点的图像位置,并将图像位置转化为空间位置,基于各展示点的空间位置实现控制摄像头自动拍摄服装各展示点的细节图像;解决了相关技术中人工拍摄服装图像存在的弊端,不仅可以得到高质量的服装拍摄图像,还提高了服装拍摄的效率,降低了服装拍摄成本。
此外,本发明实施例还针对自动拍摄并分析服装图像的方法提供了相应的实现装置、设备、计算机可读存储介质及系统,进一步使得所述方法更具有实用性,所述装置、设备及计算机可读存储介质具有相应的优点。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
为了更清楚的说明本发明实施例或相关技术的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种自动拍摄并分析服装图像的方法的流程示意图;
图2为本发明实施例提供的另一种自动拍摄并分析服装图像的方法的流程示意图;
图3为本发明实施例提供的自动拍摄并分析服装图像的装置的一种具体实施方式结构图;
图4为本发明实施例提供的自动拍摄并分析服装图像的装置的另一种具体实施方式结构图。
图5为本发明实施例提供的自动拍摄并分析服装图像的系统的一种具体实施方式结构图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等是用于区别不同的对象,而不是用于描述特定的顺序。此外术语“包括”和“具有”以及他们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可包括没有列出的步骤或单元。
在介绍了本发明实施例的技术方案后,下面详细的说明本申请的各种非限制性实施方式。
首先参见图1,图1为本发明实施例提供的一种自动拍摄并分析服装图像的方法的流程示意图,本发明实施例可包括以下内容:
S101:根据摄像头当前位置和服装整体图像拍摄位置生成图像拍摄指令,以控制摄像头移动至服装整体图像拍摄位置并拍摄服装的整体图像。
在本申请中,可预先为服装设置好一个挂放位置,例如可设在摄影棚边缘处,并将该位置值存储在系统中;当挂放服装的位置更改后,需要将系统内存储的服装挂放位置进行更新。可为摄像头预先设置原点位置,原点位置即为摄像头每次执行完拍摄动作后回到的位置,例如原点位置可为按照摄像头的智能电动导轨的中心位置处,从而可避免每次在生成图像拍摄指令时,均需要获取摄像头的当前所处位置信息,进一步提高图像拍摄效率。
在本发明实施例中,服装整体图像拍摄位置由服装挂放位置和预先设置的摄像头与服装的距离确定,而摄像头与服装的距离可根据摄像棚的空间尺寸、待拍摄服装尺寸以及摄像头的物理参数确定,以使得在该距离处可保证摄像头拍摄到服装的图像为完整的服装图像,本领域技术人员可根据实际经验预先设置好摄像头与服装的距离存储在系统中,也可在拍摄前输入,这均不影响本申请的实现。
可以理解的是,摄像头可安装在驱动机构上,在驱动机构的驱动作用下摄像头可以从当前位置移动至拍摄位置处,然后执行图像拍摄操作,图像拍摄指令可以包括驱动机构的移动方向和移动距离,驱动机构根据图像拍摄指令中的移动方向和移动距离控制摄像头进行移动。可以理解的是,拍摄服装整体图像时,摄像头不能移动至服装挂放位置,否则镜头离服装太近,拍摄范围不够,只能拍摄服装细节图像,无法拍摄服装整体图像。在拍摄服装整体图像时,摄像头位置与服装挂放位置的距离在摄影棚空间允许范围内尽可能大,以确保能拍摄到服装全部。在拍摄服装展示点细节图像时,则需要拉近摄像头位置与服装挂放位置的距离,使摄像头聚焦到展示点细节。本领域技术人员可根据拍摄场景的不同来自定义设置摄像头与服装之间距离,例如垂直距离,以保证摄像头可以完整拍摄所需图像部分,举例来说,拍摄服装整体图像时,摄像头和服装之间的垂直距离要大于拍摄服装细节图像之间的垂直距离。相应的,在图像拍摄指令中还需要增加摄像头和待拍摄服装之间的垂直距离,驱动机构不仅可以在水平方向上移动摄像头,还可在垂直方向上移动摄像头。
S102:调用预先构建的展示点检测模型检测整体图像,得到各展示点在整体图像的位置信息,并根据图像坐标和世界坐标的比例换算关系计算得到各展示点的空间位置坐标。
在本申请中,展示点检测模型可为利用训练数据集通过监督学习方法训练卷积神经网络模型所得,训练好的模型部署在系统中。卷积神经网络模型的主干网络结构可为但并不限制于残差网络,例如ResNet-50。训练数据集中包含的各样本图像均设置包含有展示点类别和各展示点在图像中位置的标签,展示点类别可为但并不限制于做工展示、设计细节或时尚元素。可使用单发检测器来检测整体图像得到各展示点在整体图像的位置信息,当然,也可采用其他方法进行检测,本申请对此不做任何限定。
可以理解的是,由展示点检测模型检测得到服装整体图像中的展示点,以及各展示点在该服装图像中的具体位置,为了控制摄像头移动至各展示点,需要将图像中的位置转化为三维实体空间中的位置,可以预先计算图像坐标和世界坐标的比例换算关系,然后存储在系统中。一种实施方式中,图像坐标和世界坐标的比例换算关系可按照下述方法进行计算得到:
根据线纹尺挂放位置及摄像头的当前位置生成线纹尺拍摄指令,以使摄像头拍摄线纹尺图像;例如可将线纹尺置于服装挂放位置,然后利用摄像头拍摄线纹尺的整体图像或者是部分图像。
根据线纹尺目标刻度区域的刻度值l和在线纹尺图像中目标刻度区域内的像素点个数N,计算得到图像坐标和世界坐标的比例换算系数Coffset:Coffset=l/N。举例来说,以100mm刻度为例,对应的像素个数记为10000,则图像坐标和世界坐标的比例换算系数Coffset=1/100。
S103:根据摄像头当前位置和各展示点的空间位置坐标生成细节图像拍摄指令,以控制摄像头移动至各展示点并拍摄相应细节图像。
在该步骤中,摄像头在每个展示点均拍摄一个该展示点的图像,即细节图像,不同展示点处的摄像头和服装的垂直距离可能不同。在训练展示点检测模型时,还可为训练数据集中的各样本图像的标签中设置一个垂直距离,以便更好的拍摄细节图像。当然,也可预先设置一个细节图像拍摄距离值和整体图像拍摄距离值,在生成图像拍摄指令时调用该值。
在本发明实施例提供的技术方案中,根据预先设置的服装挂放位置和摄像头的当前位置,得到控制摄像头移动至挂放服装位置的移动信息和执行拍照的指令来实现自动拍摄服装图像;然后利用展示点检测模型在服装整体图像上确定各展示点的图像位置,并将图像位置转化为空间位置,基于各展示点的空间位置实现控制摄像头自动拍摄服装各展示点的细节图像;解决了相关技术中人工拍摄服装图像存在的弊端,不仅可以得到高质量的服装拍摄图像,还提高了服装拍摄的效率,降低了服装拍摄成本。
在一种具体的实施方式中,每个展示点的位置信息可为由构成矩形框的四个坐标构成,也就是说,每个展示点是具有一定面积的区域。以一个展示点为例介绍S102步骤的一种具体实现方法:
选取一个展示点记为PD',服装整体图像的宽度为W、高度为H,完成该展示点的图像坐标与摄像头驱动机构例如智能电动导轨平面的世界坐标转换,智能电动导轨平面坐标记为Prail。
将展示点PD'位置信息的四个坐标Pleftup、Pleftbottom、Prightup、Prightbottom的中心位置作为目标位置,记为Pcenter。将图像坐标的原点移到图像中心位置,与摄像头原点位置Ocamera对应,结合图像坐标与世界坐标比例换算系数Coffset,即可按照下述公式计算出展示点的图像坐标在智能电动导轨平面中对应的世界坐标:
Prail=(Pcenter-(H/2,W/2))*Coffset。
根据计算出来的展示点对应的智能电动导轨平面坐标Prail,驱动智能电动导轨,将摄像头移动至坐标Prail,使得摄像头位于展示点PD'的正前方。然后驱动智能电动导轨,将摄像头与展示点PD'间的距离拉近。摄像头与服装挂放位置的距离记为Ddetail,通常情况下,Ddetail越大,拍摄范围越大,Ddetail越小,拍摄范围越小,本发明实施例的Ddetail可设为20cm。最后使用摄像头拍摄展示点PD',得到展示点图像。
传统的服装图像拍摄和服装信息描述是分开完成的,在拍摄得到服装图像后,服装信息描述主要是人工编辑完成,服装的风格、时尚元素等编辑工作依赖于专家知识,也就是说,服装信息描述的丰富度和专业性与编辑的专业能力成正比,因此要得到满意的服装信息描述,往往需要付出较高的时间和资金成本。鉴于此,本申请还提供了自动生成服装信息描述数据,基于上述实施例,请参阅图2,还可包括:
S104:利用预先构建的服装类目识别模型识别整体图像,得到服装的类目信息。
在S104中,服装类目识别模型可为利用类目训练数据集通过监督学习方法训练卷积神经网络结构所得,训练好的模型部署在系统中。卷积神经网络模型的主干网络结构可为但并不限制于残差网络,例如ResNet-50。类目训练数据集中的每个样本图像均设置有服装类目的标签。服装类目可包括12类:西装、衬衫、短裤、长裤、裙子、皮衣、卫衣、马甲、背心、风衣、皮草、羽绒棉衣。训练数据集中的训练数据一部分可为公开数据集整理而来,另外一部分可由专业人员对服装图像标注而来。
S105:利用预先构建的服装风格识别模型识别整体图像,得到服装的风格信息。
在本发明实施例中,服装风格识别模型为利用风格训练数据集通过监督学习方法训练卷积神经网络结构所得,训练好的模型部署在系统中。卷积神经网络模型的主干网络结构可为但并不限制于残差网络,例如ResNet-50。风格训练数据集中的每个样本图像均设置有服装风格的标签。服装风格可包括16类:瑞丽、百搭、淑女、韩版、民族、欧美、学院、休闲、中性、嘻哈、田园、朋克、洛丽塔、街头、简约、波西米亚。训练数据集中的训练数据可由专业人员对样本图像标注而来。
S106:利用预先构建的图像文本生成模型对各展示点的细节图像进行自然语言描述。
在本申请中,图像文本生成模型为可利用卷积神经网络结构和长短期记忆网络结构通过跨模式的相似性度量学习文本训练数据集所得;其中,文本训练数据集的每个样本图像均设置有展示点类别和描述语句对的标签,文本训练数据集中包含大量样本图像,例如可包括20万张服装图像-描述语句对,各样本图像的标签为专业人员对服装图像进行描述标注而来。卷积神经网络结构用于训练各样本图像的展示点图像特征;长短期记忆网络结构用于训练各样本图像的自然语言描述。使用长短期记忆网络编码自然语言描述,使用卷积神经网络编码展示点图像特征,自然语言描述编码和图像特征编码构建成联合多模态空间,基于联合多模态空间中的图像和自然语言描述,通过跨模式的相似性度量学习完成模型训练。
S107:根据类目信息、风格信息和各展示点的自然语言描述信息生成服装的图像信息描述数据。
由上可知,本发明实施例不需要人为调整服装姿态或相机位置,只需人工将服装置于拍摄区域,即可自动拍摄表达力丰富的服装图像以及自动生成专业的服装图像信息描述,实现了服装信息描述编辑自动化,极大的优化了服装信息描述编辑成本和效率。
本发明实施例还针对自动拍摄并分析服装图像的方法提供了相应的实现装置,进一步使得所述方法更具有实用性。下面对本发明实施例提供的自动拍摄并分析服装图像的装置进行介绍,下文描述的自动拍摄并分析服装图像的装置与上文描述的自动拍摄并分析服装图像的方法可相互对应参照。
参见图3,图3为本发明实施例提供的自动拍摄并分析服装图像的装置在一种具体实施方式下的结构图,该装置可包括:
整体图像拍摄模块301,用于根据摄像头当前位置和服装整体图像拍摄位置生成图像拍摄指令,以控制摄像头移动至服装整体图像拍摄位置并拍摄服装的整体图像。
展示点确定模块302,用于调用预先构建的展示点检测模型检测整体图像,得到各展示点在整体图像的位置信息,并根据图像坐标和世界坐标的比例换算关系计算得到各展示点的空间位置坐标;展示点检测模型的训练数据集的各样本图像均设置包含有展示点类别和各展示点在图像中位置的标签,展示点类别为做工展示、设计细节或时尚元素。
细节图像拍摄模块303,用于根据摄像头当前位置和各展示点的空间位置坐标生成细节图像拍摄指令,以控制摄像头移动至各展示点并拍摄相应细节图像。
可选的,在本实施例的一些实施方式中,请参阅图4,所述装置例如还可以包括图像细节描述自动生成模块304,所述图像细节描述自动生成模块304可包括:
服装类目信息生成子模块,用于利用预先构建的服装类目识别模型识别整体图像,得到服装的类目信息;
服装风格信息生成子模块,用于利用预先构建的服装风格识别模型识别整体图像,得到服装的风格信息;
服装细节信息生成子模块,用于利用预先构建的图像文本生成模型对各展示点的细节图像进行自然语言描述;
图像信息描述生成模块,用于根据类目信息、风格信息和各展示点的自然语言描述信息生成服装的图像信息描述数据。
在该实施例的一些实施方式中,所述图像细节描述自动生成模块304还可包括图像文本生成模型训练子模块,所述图像文本生成模型训练子模块用于利用卷积神经网络结构和长短期记忆网络结构通过跨模式的相似性度量学习文本训练数据集得到图像文本生成模型;其中,文本训练数据集的每个样本图像均设置有展示点类别和描述语句对的标签,卷积神经网络结构用于训练各样本图像的展示点图像特征;长短期记忆网络结构用于训练各样本图像的自然语言描述。
在该实施例的另一些实施方式中,所述图像细节描述自动生成模块304还可包括服装类目识别模型训练子模块,所述服装类目识别模型训练子模块用于利用类目训练数据集训练卷积神经网络结构得到服装类目识别模型,类目训练数据集中的每个样本图像均设置有服装类目的标签。
此外,所述图像细节描述自动生成模块304还可包括服装风格识别模型训练子模块,所述服装风格识别模型训练子模块用于利用风格训练数据集训练卷积神经网络结构得到服装风格识别模型,风格训练数据集中的每个样本图像均设置有服装风格的标签。
可选的,在本发明实施例的另外一些实施方式中,所述展示点确定模块302还可包括转化系数计算子模块,所述转化系数计算子模块用于根据线纹尺挂放位置及摄像头的当前位置生成线纹尺拍摄指令,以使摄像头拍摄线纹尺图像;根据线纹尺目标刻度区域的刻度值l和在线纹尺图像中目标刻度区域内的像素点个数N,计算得到图像坐标和世界坐标的比例换算系数Coffset:
Coffset=l/N。
本发明实施例所述自动拍摄并分析服装图像的装置的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
由上可知,本发明实施例解决了解决相关技术中人工拍摄服装图像存在的弊端,不仅可以得到高质量的服装拍摄图像,还提高了服装拍摄的效率,降低了服装拍摄成本。
本发明实施例还提供了一种自动拍摄并分析服装图像的设备,具体可包括:
存储器,用于存储计算机程序;
处理器,用于执行计算机程序以实现如上任意一实施例所述自动拍摄并分析服装图像的方法的步骤。
本发明实施例所述自动拍摄并分析服装图像的设备的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
由上可知,本发明实施例解决了解决相关技术中人工拍摄服装图像存在的弊端,不仅可以得到高质量的服装拍摄图像,还提高了服装拍摄的效率,降低了服装拍摄成本。
本发明实施例还提供了一种计算机可读存储介质,存储有自动拍摄并分析服装图像的程序,所述自动拍摄并分析服装图像的程序被处理器执行时如上任意一实施例所述自动拍摄并分析服装图像的方法的步骤。
本发明实施例所述计算机可读存储介质的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
由上可知,本发明实施例解决了解决相关技术中人工拍摄服装图像存在的弊端,不仅可以得到高质量的服装拍摄图像,还提高了服装拍摄的效率,降低了服装拍摄成本。
本发明实施例最后还提供了一种自动拍摄并分析服装图像的系统,请参阅图5,本发明实施例包括下述内容:
自动拍摄并分析服装图像的系统可包括摄像头3、摄像头驱动机构2及自动拍摄分析服装图像处理器4。摄像头3安装在摄像头驱动机构1上,并设置在摄影棚1内;摄像头驱动机构2、摄像头3分别与自动拍摄并分析服装图像处理器4相连。
摄像头驱动机构2用于根据自动拍摄分析服装图像处理器4发送的图像拍摄指令中的位置移动信息,将摄像头3移动至目标位置进行图像采集。可选的,摄像头驱动机构2可为三轴智能电动导轨。
自动拍摄分析服装图像处理器4用于执行存储器中存储的计算机程序时实现如上任一个自动拍摄并分析服装图像的方法实施例中的步骤。
本发明实施例所述自动拍摄并分析服装图像的系统的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
由上可知,本发明实施例解决了解决相关技术中人工拍摄服装图像存在的弊端,不仅可以得到高质量的服装拍摄图像,还提高了服装拍摄的效率,降低了服装拍摄成本。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本发明所提供的一种自动拍摄并分析服装图像的方法、装置、设备、计算机可读存储介质及系统进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (10)
1.一种自动拍摄并分析服装图像的方法,其特征在于,包括:
根据摄像头当前位置和服装整体图像拍摄位置生成图像拍摄指令,以控制所述摄像头移动至所述服装整体图像拍摄位置并拍摄服装的整体图像;所述服装整体图像拍摄位置由服装挂放位置和预先设置的所述摄像头与所述服装的距离确定;
调用预先构建的展示点检测模型检测所述整体图像,得到各展示点在所述整体图像的位置信息,并根据图像坐标和世界坐标的比例换算关系计算得到各展示点的空间位置坐标;所述展示点检测模型的训练数据集的各样本图像均设置包含有展示点类别和各展示点在图像中位置的标签,所述展示点类别为做工展示、设计细节或时尚元素;
根据所述摄像头当前位置和各展示点的空间位置坐标生成细节图像拍摄指令,以控制所述摄像头移动至各展示点并拍摄相应细节图像。
2.根据权利要求1所述的自动拍摄并分析服装图像的方法,其特征在于,所述根据所述摄像头当前位置和各展示点的空间位置坐标生成细节图像拍摄指令之后,还包括:
利用预先构建的服装类目识别模型识别所述整体图像,得到所述服装的类目信息;
利用预先构建的服装风格识别模型识别所述整体图像,得到所述服装的风格信息;
利用预先构建的图像文本生成模型对各展示点的细节图像进行自然语言描述;
根据所述类目信息、所述风格信息和各展示点的自然语言描述信息生成所述服装的图像信息描述数据。
3.根据权利要求2所述的自动拍摄并分析服装图像的方法,其特征在于,所述图像文本生成模型利用卷积神经网络结构和长短期记忆网络结构通过跨模式的相似性度量学习文本训练数据集所得;
其中,所述文本训练数据集的每个样本图像均设置有展示点类别和描述语句对的标签,所述卷积神经网络结构用于训练各样本图像的展示点图像特征;所述长短期记忆网络结构用于训练各样本图像的自然语言描述。
4.根据权利要求2所述的自动拍摄并分析服装图像的方法,其特征在于,所述服装类目识别模型为利用类目训练数据集训练卷积神经网络结构所得,所述类目训练数据集中的每个样本图像均设置有服装类目的标签;所述服装风格识别模型为利用风格训练数据集训练卷积神经网络结构所得,所述风格训练数据集中的每个样本图像均设置有服装风格的标签。
5.根据权利要求1-4任意一项所述的自动拍摄并分析服装图像的方法,其特征在于,所述图像坐标和世界坐标的比例换算关系的计算过程包括:
根据线纹尺挂放位置及所述摄像头的当前位置生成线纹尺拍摄指令,以使所述摄像头拍摄线纹尺图像;
根据所述线纹尺目标刻度区域的刻度值l和在所述线纹尺图像中目标刻度区域内的像素点个数N,计算得到图像坐标和世界坐标的比例换算系数Coffset:
Coffset=l/N。
6.根据权利要求5所述的自动拍摄并分析服装图像的方法,其特征在于,所述调用预先构建的展示点检测模型检测所述整体图像,得到各展示点在所述整体图像的位置信息包括:
调用预先构建的展示点检测模型利用单发检测器检测所述整体图像,得到各展示点在所述整体图像的位置信息;
其中,每个展示点的位置信息包括构成矩形框的四个坐标信息;所述展示点检测模型为利用所述训练数据集训练卷积神经网络模型所得,所述卷积神经网络模型的主干网络结构为残差网络。
7.一种自动拍摄并分析服装图像的装置,其特征在于,包括:
整体图像拍摄模块,用于根据摄像头当前位置和服装整体图像拍摄位置生成图像拍摄指令,以控制所述摄像头移动至所述服装整体图像拍摄位置并拍摄服装的整体图像;所述服装整体图像拍摄位置由服装挂放位置和预先设置的所述摄像头与所述服装的距离确定;
展示点确定模块,用于调用预先构建的展示点检测模型检测所述整体图像,得到各展示点在所述整体图像的位置信息,并根据图像坐标和世界坐标的比例换算关系计算得到各展示点的空间位置坐标;所述展示点检测模型的训练数据集的各样本图像均设置包含有展示点类别和各展示点在图像中位置的标签,所述展示点类别为做工展示、设计细节或时尚元素;
细节图像拍摄模块,用于根据所述摄像头当前位置和各展示点的空间位置坐标生成细节图像拍摄指令,以控制所述摄像头移动至各展示点并拍摄相应细节图像。
8.一种自动拍摄并分析服装图像的设备,其特征在于,包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1至6任一项所述自动拍摄并分析服装图像的方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有自动拍摄并分析服装图像的程序,所述自动拍摄并分析服装图像的程序被处理器执行时实现如权利要求1至6任一项所述自动拍摄并分析服装图像的方法的步骤。
10.一种自动拍摄并分析服装图像的系统,其特征在于,包括摄像头、摄像头驱动机构及自动拍摄分析服装图像处理器;所述摄像头安装在摄像头驱动机构上;所述摄像头驱动机构、所述摄像头分别与所述自动拍摄并分析服装图像处理器相连;
所述摄像头驱动机构用于根据所述自动拍摄分析服装图像处理器发送的图像拍摄指令中的位置移动信息,将所述摄像头移动至目标位置进行图像采集;
所述自动拍摄分析服装图像处理器用于执行存储器中存储的计算机程序时实现如权利要求1至6任一项所述自动拍摄并分析服装图像的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910610149.4A CN110336944B (zh) | 2019-07-05 | 2019-07-05 | 自动拍摄并分析服装图像的方法、装置、设备及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910610149.4A CN110336944B (zh) | 2019-07-05 | 2019-07-05 | 自动拍摄并分析服装图像的方法、装置、设备及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110336944A CN110336944A (zh) | 2019-10-15 |
CN110336944B true CN110336944B (zh) | 2021-05-04 |
Family
ID=68144427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910610149.4A Active CN110336944B (zh) | 2019-07-05 | 2019-07-05 | 自动拍摄并分析服装图像的方法、装置、设备及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110336944B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112381607B (zh) * | 2020-11-12 | 2023-11-24 | 杭州时趣信息技术有限公司 | 一种网络商品排序方法、装置、设备及介质 |
CN112699880A (zh) * | 2020-12-31 | 2021-04-23 | 北京深尚科技有限公司 | 服装标签生成方法、装置、电子设备及介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102209965A (zh) * | 2008-11-09 | 2011-10-05 | 定制创新股份有限公司 | 定制支架、铸件以及用于设计和制造的装置和方法 |
CN102663624A (zh) * | 2012-04-19 | 2012-09-12 | 太仓欧卡网络服务有限公司 | 一种应用于电子商务的服装展示方法 |
CN103544621A (zh) * | 2013-11-05 | 2014-01-29 | 钱志湘 | 一种服饰组合图示方法 |
CN104123753A (zh) * | 2014-08-13 | 2014-10-29 | 中山大学 | 基于服装图片的三维虚拟试衣方法 |
ES2545681B1 (es) * | 2014-03-11 | 2016-06-21 | Jogo Tech, S.L. | Sistema para la optimización de probadores |
CN205334030U (zh) * | 2016-01-05 | 2016-06-22 | 杭州乐尚进出口有限公司 | 影像拍摄装置 |
CN106657937A (zh) * | 2017-03-06 | 2017-05-10 | 柳州智视科技有限公司 | 一种虚拟变换衣服颜色的装置及其实现方法 |
CN107729380A (zh) * | 2017-09-14 | 2018-02-23 | 北京康得新创科技股份有限公司 | 服饰搭配方法、终端、计算机终端 |
CN108229496A (zh) * | 2017-07-11 | 2018-06-29 | 北京市商汤科技开发有限公司 | 服饰关键点的检测方法和装置、电子设备、存储介质和程序 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0910117D0 (en) * | 2008-07-14 | 2009-07-29 | Holicom Film Ltd | Method and system for filming |
-
2019
- 2019-07-05 CN CN201910610149.4A patent/CN110336944B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102209965A (zh) * | 2008-11-09 | 2011-10-05 | 定制创新股份有限公司 | 定制支架、铸件以及用于设计和制造的装置和方法 |
CN102663624A (zh) * | 2012-04-19 | 2012-09-12 | 太仓欧卡网络服务有限公司 | 一种应用于电子商务的服装展示方法 |
CN103544621A (zh) * | 2013-11-05 | 2014-01-29 | 钱志湘 | 一种服饰组合图示方法 |
ES2545681B1 (es) * | 2014-03-11 | 2016-06-21 | Jogo Tech, S.L. | Sistema para la optimización de probadores |
CN104123753A (zh) * | 2014-08-13 | 2014-10-29 | 中山大学 | 基于服装图片的三维虚拟试衣方法 |
CN205334030U (zh) * | 2016-01-05 | 2016-06-22 | 杭州乐尚进出口有限公司 | 影像拍摄装置 |
CN106657937A (zh) * | 2017-03-06 | 2017-05-10 | 柳州智视科技有限公司 | 一种虚拟变换衣服颜色的装置及其实现方法 |
CN108229496A (zh) * | 2017-07-11 | 2018-06-29 | 北京市商汤科技开发有限公司 | 服饰关键点的检测方法和装置、电子设备、存储介质和程序 |
CN107729380A (zh) * | 2017-09-14 | 2018-02-23 | 北京康得新创科技股份有限公司 | 服饰搭配方法、终端、计算机终端 |
Also Published As
Publication number | Publication date |
---|---|
CN110336944A (zh) | 2019-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rogez et al. | Mocap-guided data augmentation for 3d pose estimation in the wild | |
Biswas et al. | Gesture recognition using microsoft kinect® | |
JP6428266B2 (ja) | 色補正装置、色補正方法および色補正用プログラム | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
US20110025834A1 (en) | Method and apparatus of identifying human body posture | |
CN108564641B (zh) | 基于ue引擎的表情捕捉方法及装置 | |
CN110728670A (zh) | 一种基于ar技术的低压设备运维方法 | |
CN108830185B (zh) | 基于多任务联合学习的行为识别及定位方法 | |
CN108229418B (zh) | 人体关键点检测方法和装置、电子设备、存储介质和程序 | |
CN110336944B (zh) | 自动拍摄并分析服装图像的方法、装置、设备及系统 | |
CN109951635A (zh) | 拍照处理方法、装置、移动终端以及存储介质 | |
CN108961547A (zh) | 一种商品识别方法、无人售货机及计算机可读存储介质 | |
CN109978805A (zh) | 拍照处理方法、装置、移动终端以及存储介质 | |
CN108112271A (zh) | 检测图像中的运动 | |
CN106709452A (zh) | 一种基于智能巡检机器人的仪表位置检测方法 | |
CN109241881A (zh) | 一种人体姿态估计方法 | |
CN113597614A (zh) | 图像处理方法和装置、电子设备及存储介质 | |
CN112368724A (zh) | 学习装置、学习系统以及学习方法 | |
Ashmawi et al. | Fitme: Body measurement estimations using machine learning method | |
JP2007134913A (ja) | 映像選択方法および映像選択装置 | |
CN113569594A (zh) | 一种人脸关键点的标注方法及装置 | |
CN110062132B (zh) | 剧场表演重建方法及装置 | |
WO2012153868A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
CN110298229A (zh) | 视频图像处理方法及装置 | |
CN106846302B (zh) | 一种工具正确取件的检测方法及基于此方法的考核台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |