CN115735118A - 用于确定座椅的褶皱区域的方法和装置 - Google Patents
用于确定座椅的褶皱区域的方法和装置 Download PDFInfo
- Publication number
- CN115735118A CN115735118A CN202280003905.7A CN202280003905A CN115735118A CN 115735118 A CN115735118 A CN 115735118A CN 202280003905 A CN202280003905 A CN 202280003905A CN 115735118 A CN115735118 A CN 115735118A
- Authority
- CN
- China
- Prior art keywords
- image
- wrinkle
- seat
- determining
- acquiring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000037303 wrinkles Effects 0.000 claims abstract description 288
- 238000013135 deep learning Methods 0.000 claims abstract description 62
- 238000012360 testing method Methods 0.000 claims description 78
- 238000011156 evaluation Methods 0.000 claims description 44
- 238000010409 ironing Methods 0.000 claims description 22
- 239000010985 leather Substances 0.000 claims description 21
- 239000004744 fabric Substances 0.000 claims description 17
- 238000005286 illumination Methods 0.000 claims description 15
- 238000004458 analytical method Methods 0.000 claims description 11
- 239000003550 marker Substances 0.000 claims description 7
- 238000010191 image analysis Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 18
- 239000000463 material Substances 0.000 description 17
- 230000015654 memory Effects 0.000 description 13
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 10
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 229910052742 iron Inorganic materials 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012369 In process control Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010965 in-process control Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004381 surface treatment Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D65/00—Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
- B62D65/005—Inspection and final control devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manufacturing & Machinery (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Image Processing (AREA)
Abstract
根据本公开的第一实施例,公开了一种方法,所述方法包括:获取整个座椅靠背的第一图像;获取整个座垫的第二图像;获取用于分析座椅靠背和座垫的图像的深度学习信息;使用深度学习信息从第一图像和第二图像中确定问题区域;获取问题区域的细节图像;并且使用细节图像确定褶皱区域。
Description
技术领域
本公开的第一实施例涉及一种用于确定座椅的褶皱区域的方法和装置。更具体地,本公开的第一实施例涉及一种用于通过以下方式确定座椅的褶皱区域的方法和装置:获取座椅靠背的图像和座垫的图像,获取用于分析座椅靠背和座垫的图像的深度学习信息,从而从座椅靠背和座垫的图像中获取包括问题区域的细节图像,并使用该细节图像确定褶皱区域。
此外,本公开的第二实施例涉及一种用于确定座椅的褶皱区域的方法和装置。更具体地,本公开的第二实施例涉及一种用于通过以下方式确定座椅的褶皱区域的方法和装置:获取座椅的图像,确定针对所获取的图像的多个单元区域导出的多个褶皱评估值是否大于阈值,并且确定与大于阈值的多个褶皱评估值相对应的一个或更多个单元区域的褶皱区域。
背景技术
由于生产效率和质量、劳动力成本的降低、过程控制的便利性和非接触行业的增长,已经越来越多地将自动化工艺引入各种工业环境中。这种自动化工艺已经应用于车辆制造工艺,以制造用于车辆的许多产品,诸如内部材料和外部材料。
传统的自动化工艺采用预设的操作控制算法而不是手动操作,手动操作将相同的工艺应用于大多数产品。
即使对于对变形敏感且因此必须经受用于去除褶皱的单独的附加工艺的织物或皮革座椅产品,这种自动化工艺也采用标准化的工艺。因此,不能确保一致的质量,并且在一些情况下可能批量生产出质量差的产品。
特别地,消费者对诸如座椅的车辆内部产品的便利性和质量的关注正在显著增长。消费者对座椅质量高度敏感,这是因为占据车辆内部的最大部分的座椅是驾驶员最大程度和最频繁接触的产品之一。然而,从整个座椅选择性地识别褶皱区域、确定所识别区域的褶皱并去除褶皱的技术尚未应用于常见的自动化工艺,这导致在时间和成本上的持续损失。
发明内容
技术任务
根据本公开的第一实施方式的将要实现的技术任务是提供一种用于通过以下方式确定褶皱区域的方法和装置:使用用于分析座椅靠背的第一图像和座垫的第二图像的深度学习信息来从第一图像和第二图像确定关于褶皱的问题区域,并获取所确定的问题区域的细节图像。
此外,根据本公开的第二实施例的将要实现的技术任务是提供一种用于通过以下方式确定褶皱区域的方法和装置:从图像的多个单元区域获取多个褶皱评估值,确定多个褶皱评估值是否大于阈值,并且基于与大于阈值的多个褶皱评估值相对应的一个或更多个单元区域的连续性来确定图像的褶皱区域。
本公开的任务不限于上述任务,并且能够从以下描述中清楚地理解未提及的其他任务。
解决技术任务的手段
作为用于实现上述技术任务的技术手段,根据本公开的第一方面的一种用于通过装置确定座椅的褶皱区域的方法可包括:获取整个座椅靠背的第一图像;获取整个座垫的第二图像;获取用于分析座椅靠背和座垫的图像的深度学习信息;使用深度学习信息从第一图像和第二图像中确定问题区域;获取问题区域的细节图像;并且使用细节图像确定褶皱区域。
此外,确定问题区域的步骤可包括:通过根据预定方式划分第一图像和第二图像中的每个来确定多个区域;并且使用深度学习信息将所述多个区域中的一个或更多个区域确定为问题区域,其中,细节图像可以是在面向座椅靠背或座垫的相机沿着经过所述多个区域的路径移动时获取的。
此外,获取细节图像的步骤可包括:基于对问题区域的预分析结果,根据相机的位置确定相机的移动速度;并且从以所述移动速度移动的相机获取细节图像。
此外,深度学习信息可以是基于对形成测试座椅的测试座椅靠背和测试座垫的图像分析结果而获取的。
此外,获取深度学习信息的步骤可包括:当面向测试座垫的第二照明装置操作时,从面向测试座椅靠背的第一测试相机获取测试座椅靠背的图像;当面向测试座椅靠背的第一照明装置操作时,从面向测试座垫的第二测试相机获取测试座垫的图像;并且使用测试座椅靠背的图像和测试座垫的图像来获取深度学习信息。
此外,所述方法还可包括:基于与褶皱区域相对应的褶皱尺寸和褶皱深度来确定褶皱区域的褶皱类型;确定与褶皱类型相对应的熨烫方式,熨烫方式包括熨烫次数和熨烫时间;并且根据熨烫方式熨烫褶皱区域。
根据本公开的第二方面的一种用于确定座椅的褶皱区域的装置可包括:一个或更多个相机,用于获取整个座椅靠背的第一图像和整个座垫的第二图像;以及处理器,用于获取用于分析座椅靠背和座垫的图像的深度学习信息,并且使用深度学习信息从第一图像和第二图像中确定问题区域,其中,所述一个或更多个相机可获取问题区域的细节图像,并且所述处理器可使用细节图像来确定褶皱区域。
此外,作为用于实现上述技术任务的技术手段,根据本公开的第三方面的一种用于通过装置确定座椅的褶皱区域的方法可包括:获取座椅的图像;确定构成图像且包括一个或更多个像素的多个单元区域;确定针对所述多个单元区域中的每个单元区域导出的褶皱评估值是否超过阈值;并且基于与超过所述阈值的褶皱评估值相对应的一个或更多个单元区域的连续性,确定图像的褶皱区域。
此外,构成所述多个单元区域的每个单元区域可以是单个像素。
此外,所述方法还可包括:在图像上显示褶皱区域;获取与褶皱区域相对应的标记图像;并且将标记图像与图像进行匹配以获取结果图像。
此外,所述方法还可包括:获取褶皱评估要素,褶皱评估要素包括所述多个单元区域的明度和饱和度、照明装置的亮度以及座椅的颜色中的至少一者;并且基于所获取的褶皱评估要素的组合结果来确定褶皱评估值。
此外,所述阈值可以是通过深度学习确定的,并且确定所述阈值的步骤可包括:使用预存储的学习模型对褶皱区域执行深度学习;并且基于深度学习的结果,确定用于确定所述多个单元区域的褶皱的所述阈值,并且所述方法还可包括:当深度学习的结果的准确度是预定值或更小值时,执行重新学习。
此外,确定褶皱评估值的步骤可包括:当座椅由皮革制成时,按照座椅的颜色、照明装置的亮度、明度和饱和度的顺序赋予权重;当座椅由织物制成时,按照照明装置的亮度、座椅的颜色、明度和饱和度的顺序赋予权重;并且基于权重确定褶皱评估值。
根据本公开的第四方面的一种用于确定座椅的褶皱区域的装置可包括:一个或更多个相机,用于获取座椅的图像;以及处理器,用于确定构成图像且包括一个或更多个像素的多个单元区域,确定针对所述多个单元区域中的每个单元区域导出的褶皱评估值是否超过阈值,并且基于与超过所述阈值的褶皱评估值相对应的一个或更多个单元区域的连续性来确定图像的褶皱区域。
本发明的其他具体内容被包括在具体实施方式和附图中。
发明效果
根据本公开的实施例,与用肉眼检测褶皱的常规技术相比,通过使用深度学习图像将多个区域中具有褶皱或损坏的一个或更多个区域确定为问题区域,可显著提高效率。
此外,本公开确定与每种类型的褶皱相对应的熨烫方式,并且为具有不同深度、尺寸等的褶皱提供了最佳熨烫方式,从而有效地去除褶皱。
此外,根据本公开的实施例,能够通过使用预存储的学习模型对褶皱区域执行深度学习并在深度学习结果的准确度低时执行重新学习,来以更高的准确度检测褶皱。
此外,与用肉眼检测座椅的褶皱的常规技术相比,本公开从深度学习中学习褶皱区域,从而显著提高效率。
本发明的效果不限于上述效果,并且应当理解,本发明领域的技术人员可从以下描述中清楚地理解在此未描述的其他效果。
附图说明
图1是示出根据实施例的装置的配置的示意性框图;
图2是示出由根据实施例的装置操作的每个步骤的流程图;
图3是示出根据实施例的结构类型的示例的示意图;
图4是示出根据实施例的机器人类型的示例的示意图;
图5是示出根据实施例的确定问题区域的示例的示意图;
图6是示出根据实施例的装置的配置的示意性框图;
图7是示出由根据实施例的装置操作的每个步骤的流程图;
图8是示出根据实施例的针对图像确定的褶皱区域的示意图;
图9是示出根据实施例的与褶皱区域相对应的标记图像的示意图;
图10是示出根据实施例的结果图像的示意图;以及
图11是示出根据实施例的结构类型的示意图。
具体实施方式
参照下面结合附图详细描述的实施例,本发明的优点和特点以及用于实现本发明的优点和特点的方法将是明显的。然而,本发明不限于下面描述的实施例,而是可以以不同的形式实现,并且实施例仅是为了使本发明的公开内容完整,并且将本发明的范围完全告知本发明所属领域的普通技术人员。本发明仅由权利要求的范围限定。
在此使用的术语仅用于描述实施例的目的,并不旨在限制本发明。在本说明书中,单数也包括复数,除非在短语中另有具体说明。如在此使用的,“包含”和/或“包括”不排除除了所提及的组件之外还存在或添加一个或更多个其他组件。在整个说明书中,相同的附图标记表示相同的元素,并且“和/或”包括所提到的项中的一个或更多个的每种组合。尽管“第一”、“第二”等被用于描述各种组件,但是这些组件当然不受这些术语的限制。这些术语仅用于将一个组件与另一组件区分开。因此,下面提到的第一组件可以是本发明的技术构思内的第二组件。
除非另有定义,否则在此使用的所有术语(包括技术术语和科学术语)可以以本领域技术人员通常理解的意义被使用。另外,在常用词典中定义的术语不被理想地或过度地解释,除非它们被明确地定义。
空间相对术语“下方”、“下面”、“下部”、“上方”、“上部”等可用于容易地描述组件与其他组件的相关性。空间相对术语应被理解为除了附图中所示的方向之外还包括在使用或操作中的组件的不同方向上的术语。例如,当翻转附图中所示的组件时,被描述为在另一组件的“下方”或“下面”的组件可位于另一组件的“上方”。因此,示例性术语“下方”可涵盖上方和下方两种朝向。组件也可朝向其他方向,使得可根据朝向来解释空间相对术语。
在下文中,将参照附图详细描述本发明的实施例。
在下文中,将参照图1至图5描述本公开的第一实施例。
图1是示出根据实施例的装置100的配置的示意性框图。
参照附图,装置100可包括一个或更多个相机110和处理器120。
相机110可获取整个座椅靠背的第一图像510和整个座垫的第二图像520。
座椅靠背可指整个座椅的用于支撑用户身体的背部的部分,并且座垫可指整个座椅的用于支撑用户身体的底部的部分。
座椅靠背和座垫通常用相同颜色的相同材料制造,但也可用不同颜色的不同材料制造。另外,座椅还可具有用于支撑用户身体的头部的头枕,并且一个或更多个相机110可获取整个头枕的第三图像。
处理器120可获取用于分析座椅靠背和座垫的图像的深度学习信息,并且使用深度学习信息从第一图像510和第二图像520确定问题区域。
另外,一个或更多个相机110可获取问题区域的细节图像,并且处理器120可使用细节图像确定褶皱区域。
下面参照附图描述上述配置的各种实施例。
另外,本领域技术人员能够理解,装置100还可包括除了图1所示的那些组件之外的其他通用组件。例如,装置100还可包括用于存储第一图像510和第二图像520的存储器(未示出)。根据另一实施例,本领域技术人员能够理解,可省略图1中所示的组件中的一些组件。
根据实施例的装置100可由用户或操作者使用,并且可包括具有触摸屏面板的所有类型的手持无线通信装置(诸如,移动电话、智能电话、个人数字助理(PDA)、便携式多媒体播放器(PMP)、平板PC等),并且除了上述之外还可包括可安装和执行应用的装置(诸如,台式PC、平板PC、膝上型PC、包括机顶盒的IPTV)。
装置100可被实现为终端,诸如,通过用于执行在此描述的功能的计算机程序而操作的计算机。
根据实施例的装置100可包括褶皱区域确定系统(未示出)和服务器(未示出),但不限于此。根据实施例的服务器可提供显示所确定的褶皱区域的应用,并且提供支持对褶皱区域进行深度学习的服务。
在下文中,主要描述根据实施例的独立地确定褶皱区域的装置100,但褶皱区域可通过与如上所述的服务器通信来确定。也就是说,根据实施例的装置100和服务器可在功能方面一体地实现,并且可省略服务器。能够理解的是,本发明不限于任何一个实施例。此外,术语“装置100”被描述为涵盖服务器的通用概念,因此,在装置100处提供通知的实施例可由服务器执行。
图2是示出由根据实施例的装置100操作的每个步骤的流程图。
在步骤S210和S220中,装置100可获取整个座椅靠背的第一图像510和整个座垫的第二图像520。
在实施例中,装置100可包括结构类型300和机器人类型400。例如,结构类型300可具有面向座椅靠背和座垫的相机110和照明装置,以通过在座椅经由传送带移动时控制一个或更多个相机110和照明装置获取第一图像510和第二图像520。机器人类型400可具有一个或更多个相机110和照明装置,并且沿着与座椅区域相对应的路径移动,以通过控制相机110和照明装置获取第一图像510和第二图像520。
通常,结构类型300可用于确定座椅的褶皱区域,并且机器人类型400可用于对座椅褶皱执行深度学习,但它们不必限于此。
在步骤S230中,装置100可获取用于分析座椅靠背和座垫的图像的深度学习信息。
在实施例中,深度学习信息可用于确定包括针对座椅获取的第一图像510和第二图像520的褶皱的问题区域。可基于对构成用于获取深度学习信息的测试座椅的测试座椅靠背310和测试座垫320的图像分析结果来获取深度学习信息。
例如,为了获取深度学习信息,装置100可在面向测试座垫320的第二照明装置360操作时从面向测试座椅靠背310的第一测试相机330获取座椅靠背的图像(S1),在面向测试座椅靠背310的第一照明装置340操作时从面向测试座垫320的第二测试相机350获取测试座垫320的图像(S2),并且使用测试座椅靠背310和测试座垫320的图像获取深度学习信息(S3)。
具体地,在面向测试座垫320的第二照明装置360在步骤S1中操作的情况下,当使用面向测试座垫320的第二测试相机350获取测试座垫320的图像时,第二照明装置360的光照射在位于第二照明装置360前方的座垫上,因此图像中未清楚地示出褶皱。另一方面,在第二照明装置360操作的情况下,当使用第一测试相机330获取测试座椅靠背310的图像时,褶皱区域被第二照明装置360遮蔽,因此可更容易地确定图像上的褶皱。
以类似的方式,在面向测试座椅靠背310的第一照明装置340在步骤S2中操作的情况下,当使用面向测试座垫320的第二测试相机350获取测试座垫320的图像时,可更容易地确定图像上的褶皱区域中的褶皱。
因此,在步骤S3中,装置100可通过使用在步骤S1获取的测试座椅靠背310的图像和在步骤S2中获取的测试座垫320的图像对图像中存在的包括褶皱区域的问题区域执行深度学习,来获取深度学习信息。
在实施例中,装置100可根据车辆类型、座椅类型、座椅颜色等的条件将深度学习信息分类为不同的类别,并且存储和管理信息。因此,装置100可分别获取与测试座椅的类型和颜色以及将要应用的车辆的类型相对应的深度学习信息。然后,在确定问题区域的步骤中,可从所获取的深度学习信息中使用与被用于进行褶皱区域的确定的座椅的类型和颜色以及将要应用的车辆的类型相对应的深度学习信息。
在步骤S240中,装置100可使用深度学习信息从第一图像510和第二图像520中确定问题区域。
例如,参照图5,装置100可通过根据预定方式(例如,划分为预定单元区域)划分第一图像510和第二图像520中的每个来确定多个区域530。在步骤S230中,装置100可使用在步骤S230中获取的深度学习信息将多个区域530中的一个或更多个区域确定为问题区域。
具体地,问题区域可能包括具有座椅褶皱和污染的部分,该部分导致质量下降。例如,装置100可通过划分为多个区域530使得每个图像被分割来更精确地检测具有细褶皱的问题区域。
例如,装置100可将第一图像510和第二图像520划分为多个区域530,以便具有与预定数量范围对应的像素(每个图像的最小单元区域),并且使用深度学习信息检测划分的多个区域530中的每个区域的褶皱。装置100可根据检测结果将多个区域530之中的包括褶皱的至少一个区域确定为问题区域。如此,可通过针对分割区域确定问题区域来更精确地确定褶皱区域。
在步骤S250中,装置100可获取在步骤S240中获取的问题区域的细节图像,并且在步骤S260中,装置可使用细节图像来确定褶皱区域。
当面向座椅靠背或座垫的相机110沿着经过多个区域530的路径移动时,可获取细节图像。
具体地,装置100可被实现为机器人类型400,机器人类型400用于确定座椅的褶皱区域、基于关于问题区域的预分析结果根据面向座椅靠背或座垫的相机110的位置确定移动速度、以及从以确定的移动速度移动的相机110获取细节图像。
例如,针对所有问题区域,装置100可主要对以下项进行预分析:需要一定时间量或更长时间量用于褶皱识别的区域的检测、需要一定时间量或更短时间量用于褶皱识别的区域的检测、褶皱的数量和深度以及褶皱区域的尺寸等,并且基于预分析结果对相对容易或相对难以检测到褶皱的区域的位置进行预分析。
装置100可基于预分析结果,针对相对容易或相对难以检测到褶皱的多个区域,以预定速度或更快的速度或者以预定速度或更慢的速度来确定移动速度。
例如,当根据预分析结果沿着经过问题区域的路径移动的相机110位于相对容易检测到褶皱的区域中时,装置100以预定速度或更快的速度确定相机110的移动速度,以快速经过对应的区域。当相机110位于相对难以检测到褶皱的区域中时,装置100可以以预定速度或更慢的速度确定相机110的移动速度,以缓慢地经过对应的区域。
针对确定难以检测到褶皱的区域,装置100以预定速度或更慢的速度确定相机110的移动速度,以更精确地检测褶皱,从而获取预定数量或更多数量的细节图像或者预定图像长度或更长图像长度的细节图像。针对确定容易检测到褶皱的区域,装置100以预定速度或更慢的速度确定相机110的移动速度,从而获取预定数量或更少数量的细节图像或者预定图像长度或更短图像长度的细节图像。如此,即使针对相同的问题区域,装置100也基于预分析结果来不同地确定相机110的移动速度,从而获取用于更有效的褶皱检测的细节图像。然后,装置100可基于所获取的细节图像来确定褶皱区域。因此,与简单地采用深度学习模型来检测多个图像的特征点或基于算法的传统技术不同,装置100允许非常精确的褶皱检测,这是因为装置100根据被划分为多个区域530的问题区域的褶皱程度使用以不同方式获取的多个细节图像来检测褶皱。
图3是示出根据实施例的结构类型300的示例的示意图。
参照附图,装置100可包括面向测试座椅靠背310的第一测试相机330和第一照明装置340以及面向测试座垫320的第二测试相机350和第二照明装置360,并且可被提供为结构类型300。
例如,为了获取深度学习信息,当操作第二照明装置360时,装置100可关闭第一照明装置340,使得第一照明装置340不操作,并且从第一测试相机330获取测试座椅靠背310的图像。此外,当操作第一照明装置340时,装置100可关闭第二照明装置360,使得第二照明装置360不操作,并且从第二测试相机350获取测试座垫320的图像。
在另一实施例中,当操作第一照明装置340或第二照明装置360时,另一照明装置可不被关闭。然而,为了获取更准确的深度学习信息,可优选的是关闭另一照明装置。此外,当第一测试相机330获取测试座椅靠背310的图像时,可关闭第二测试相机350以便第二测试相机350不操作,并且当第二测试相机350获取测试座垫320的图像时,可关闭第一测试相机330以便第一测试相机330不操作。然而,考虑到深度学习信息的准确度可随着获取每个座椅的各种图像而增加,可不关闭另一相机110。
在实施例中,结构类型300可被配置为经由传送带移动座椅(或测试座椅),并且在座椅移动时获取每个测试座椅的图像。
可通过控制每个相机110和照明装置的操作来获取有效的深度学习信息。
图4是示出根据实施例的机器人类型400的示例的示意图。
参照附图,装置100可被设置为具有一个或更多个可移动相机110和熨斗410的机器人类型400。因此,装置100可使用沿着与所确定的褶皱区域相对应的区域移动的熨斗410来熨烫该区域。
在实施例中,装置100可基于关于问题区域的预分析结果,根据相机110的位置来确定相机110的移动速度。装置100可从以移动速度沿着问题区域移动的相机110获取细节图像,并且使用细节图像来确定褶皱区域。
在实施例中,装置100可基于与所确定的褶皱区域相对应的褶皱尺寸和褶皱深度来确定褶皱区域的褶皱类型。
例如,褶皱类型可包括:第一类型褶皱,第一类型褶皱是严重的,褶皱的尺寸和深度超过预定值;第二类型褶皱,第二类型褶皱是中等的,褶皱的尺寸和深度在预定值之内;以及第三类型褶皱,第三类型褶皱是轻微的,褶皱的尺寸和深度为预定值或更小值。
此外,装置100可确定包括与被确定为第一类型褶皱、第二类型褶皱和第三类型褶皱中的至少一种褶皱类型相对应的熨烫次数和熨烫时间的熨烫方式,并且基于所确定的熨烫方式来熨烫褶皱区域。
例如,当与一个或更多个褶皱区域相对应的褶皱类型被确定为第一类型褶皱时,装置100可基于包括预定熨烫次数和时间的熨烫方式来熨烫褶皱区域。
因此,通过根据每个褶皱区域的不同尺寸和深度来确定褶皱类型,并且采用与褶皱类型相对应的熨烫方式用于熨烫,可以以最有效的方式针对每个褶皱区域来去除褶皱。
图5是示出根据实施例的确定问题区域的示例的示意图。
参照附图,例如,装置100可通过根据预定方法划分分别从座椅靠背和座垫获取的第一图像510和第二图像520来确定多个区域530。预定方法可划分包括预定数量的像素的多个区域。此外,装置100可基于从测试座椅的图像获取的深度学习信息,将多个区域530中的一个或更多个区域确定为问题区域。
装置100可通过针对分割区域确定问题区域来更精确地确定褶皱区域。
在实施例中,装置100可基于多个图像确定用于座椅材料的皮革或织物,并且根据座椅材料使用细节图像确定用于将基于细节图像中的像素的连续性确定的褶皱确定为褶皱区域的优先级。细节图像可包括关于褶皱的深度、褶皱的长度、褶皱的范围和褶皱的数量的信息,细节图像是根据预分析结果获取的且用于在确定出褶皱区域之前确定褶皱区域的图像。
例如,当确定的座椅材料是皮革时,在皮革表面上形成的褶皱比在其他材料上形成的褶皱相对更深,因此应当快速去除褶皱以使由褶皱引起的损坏最小化。在这方面,装置100可对来自细节图像的褶皱的深度是预定值或更大值的部分赋予最高权重,并且基于赋予的权重来确定褶皱区域。
此外,由于在由皮革制成的座椅上形成的褶皱较长,因此可认为是稍微严重的褶皱。然而,考虑到座椅的形状是根据人体的结构特征制造的,并且具有预定值或更大值的长度的褶皱可能是在制造座椅时产生的结构特征点,来自细节图像的褶皱具有预定值或更大值的长度的部分可被赋予第二高权重。
此外,当来自多个细节图像的多个褶皱的范围的宽度超过预定值或更大值时,优选的会是将多个褶皱确定为褶皱区域并去除多个褶皱。然而,可能存在可能使用皮革在座椅上形成图案的情况,因此来自细节图像的多个褶皱的范围是预定值或更大值的部分可被赋予第三高权重。
在另一实施例中,当所确定的座椅材料是织物时,与由皮革制成的座椅(具有较低数量的较深深度的褶皱)相比,形成有较高数量的较浅深度的褶皱。因此,可优选地确定褶皱是否对应于褶皱区域,因此装置100可对来自细节图像的多个褶皱的范围是预定值或更大值的部分赋予最高权重。
此外,当来自细节图像的褶皱长时,可优选的是将褶皱确定为褶皱区域。然而,考虑到由织物制成的座椅具有许多结构特征点(诸如接缝),褶皱区域应当比多个褶皱的范围更集中地确定。因此,褶皱具有预定值或更大值的长度的部分可被赋予第二高权重。
此外,当来自细节图像的褶皱具有预定值或更大值的深度时,可优选地将褶皱确定为褶皱区域。然而,与由诸如皮革的其他材料制成的座椅相比,由织物制成的座椅具有相对浅的褶皱,因此重要性略低。因此,褶皱具有预定值或更大值的深度的部分可被赋予第三高权重。
装置100可基于第一图像510和第二图像520来决定座椅的材料,并且基于针对用所决定的材料制造的座椅的细节图像中示出的褶皱不同地赋予的权重来确定用于确定褶皱区域的优先级,从而更准确地确定褶皱并且同时使座椅的损坏最小化。
在下文中,参照图6至图11描述本公开的第二实施例。
图6是示出根据实施例的装置1000的配置的示意性框图。
参照附图,装置1000可包括一个或更多个相机1100和处理器1200。
一个或更多个相机1100可获取座椅的图像3000。从相机1100获取的座椅的图像3000可包括整个座椅靠背6100的图像和整个座垫6200的图像。
例如,可将装置1000设置为结构类型6000。在这种情况下,相机1100可包括面向座椅靠背6100的第一测试相机6300和面向座垫6200的第二测试相机6500。此外,结构类型6000的装置1000还可包括面向座椅靠背6100的第一照明装置6400和面向座垫6200的第二照明装置6600,第一照明装置6400和第二照明装置6600与相机1100一起操作以从相机1100获取图像3000。装置1000可通过每个相机1100和照明装置的操作来获取座椅靠背6100的整体图像和细节图像以及座垫6200的整体图像和细节图像。
根据实施例的细节图像可根据预先确定预期与每个座椅的褶皱对应的区域的预分析结果来被获取,并且细节图像可包括预期与根据预分析结果确定的褶皱相对应的区域。
根据实施例的处理器1200可确定构成图像3000且包括一个或更多个像素的多个单元区域,确定针对多个单元区域中的每个单元区域导出的褶皱评估值是否超过阈值,并且基于与超过阈值的褶皱评估值相对应的一个或更多个单元区域3100的连续性来确定图像3000的褶皱区域。
下面参照附图详细描述上述配置的各种实施例。
另外,本领域技术人员能够理解,装置1000还可包括除了图6所示的组件之外的其他通用组件。例如,装置1000还可包括用于存储图像3000和预存储的学习模型的存储器(未示出)。根据另一实施例,本领域技术人员能够理解,可省略图6中所示的组件中的一些组件。
根据实施例的装置1000可由用户或操作者使用,并且可包括具有触摸屏面板的所有类型的手持无线通信装置(诸如,移动电话、智能电话、个人数字助理(PDA)、便携式多媒体播放器(PMP)、平板PC等),并且除了上述之外还可包括可安装和执行应用的装置(诸如,台式PC、平板PC、膝上型PC、包括机顶盒的IPTV)。
装置1000可被实现为终端,诸如,通过用于执行在此描述的功能的计算机程序而操作的计算机。
根据实施例的装置1000可包括褶皱区域确定系统(未示出)和服务器(未示出),但不限于此。根据实施例的服务器可提供显示所确定的褶皱区域的应用,并且提供支持褶皱区域的深度学习性能的服务。
在下文中,主要描述根据实施例的独立地确定褶皱区域的装置1000,但是褶皱区域可通过与如上所述的服务器通信来确定。也就是说,根据实施例的装置1000和服务器可在功能方面一体地实现,并且可省略服务器。能够理解的是,本发明不限于任何一个实施例。此外,术语“装置1000”被描述为涵盖服务器的通用概念,因此,在装置1000处提供通知的实施例可由服务器执行。
图7是示出由根据实施例的装置1000操作的每个步骤的流程图。
在步骤S210中,装置1000可获取座椅的图像3000。
在实施例中,装置1000可被提供为结构类型6000以获取座椅的图像3000。在这种情况下,装置1000可通过控制第一测试相机6300、第二测试相机6500、第一照明装置6400和第二照明装置6600的操作来获取座椅靠背6100的第一图像和座垫6200的第二图像。
可以以各种方式实现和执行获取每个座椅的图像的方法,但是根据本公开的优选方法可以是如下方法:当面向座垫6200的第二照明装置6600处于开启状态时从第一测试相机6300获取座椅靠背6100的第一图像,并且当第一照明装置6400处于开启状态时从第二测试相机6500获取座垫6200的第二图像。
该方法可解决以下问题:当相机1100和照明装置朝向相同方向时,由于直接照射在座椅上的光而不能清楚地识别褶皱区域。此外,当相机1100和照明装置被配置为如上地面向不同方向时,光与用于图像拍摄的目标座椅平行地照射,因此有曲线的褶皱区域被照射的光遮蔽,这使得褶皱区域更清晰。
在步骤S220中,装置1000可确定构成图像3000且包括一个或更多个像素的多个单元区域。
例如,构成多个单元区域的每个单元区域可以是单个像素。
构成图像3000的多个单元区域可包括预定数量的单个像素。可认为,与整个座椅的图像3000相比,褶皱的形状(诸如,褶皱的尺寸、范围、长度等)是精细分布的。因此,可通过将图像3000划分为由像素组成的多个单元区域来有效地导出褶皱评估值,因此可确定褶皱区域。
在步骤S230中,装置1000可确定针对多个单元区域中的每个单元区域导出的褶皱评估值是否超过阈值。
例如,装置1000可导出多个单元区域中的每个单元区域的褶皱评估值。这种褶皱评估值可以是用于确定在多个单元区域中的每个中是否存在褶皱、或者用于确定何种程度的褶皱为NG的值。
具体地,装置1000可获取包括多个单元区域的明度和饱和度、照明装置的亮度以及座椅的颜色中的至少一种的褶皱评估要素,并且基于所获取的褶皱评估要素的组合结果来确定褶皱评估值。
例如,褶皱评估要素可包括标准褶皱评估要素,诸如,多个单元区域(图像)的明度和饱和度、照明装置的亮度以及座椅的颜色。装置1000基本上基于座椅的图像3000检测并确定褶皱区域,因此装置使用所获取的图像3000中示出的明度和饱和度、照明装置的亮度以及座椅的颜色来确定褶皱。
可根据针对所获取的明度和饱和度、照明装置的亮度以及座椅的颜色的每个值的预存储的褶皱评估算法来组合褶皱评估要素,并且可基于组合结果来确定褶皱评估值。
在另一示例中,在确定褶皱评估值的步骤中,可针对由皮革制成的座椅或由织物制成的座椅不同地确定该值。
具体地,当座椅由皮革制成时,可按照座椅的颜色、照明装置的亮度、明度和饱和度的顺序赋予权重,并且装置1000可基于赋予的权重来确定褶皱评估值。
当座椅由皮革制成时,在许多情况下,座椅的颜色可以是明显不同的黑色、白色或棕色。因此,如果在不考虑座椅的颜色的情况下检测褶皱,则准确度非常低。因此,更有效的是最优先考虑座椅的颜色并检测褶皱。因此,座椅的颜色可被赋予最高权重。
此外,考虑到针对用户接触的许多方面的便利性,用于座椅的皮革是经过诸如表面处理的工艺制造的,因此与织物相比,皮革具有反射照明装置的一部分光的特性(光泽)。因此,照明装置的亮度可被赋予第二高权重,这是因为由于反射照明装置的一部分光的特性,所以尽管照明装置不是那么亮也能够在一定程度上检测褶皱。
此外,当图像3000具有太低的明度时,因为图像3000是暗的,所以被示出为阴影的褶皱的形状可能不清楚。当图像3000具有太高的明度时,因为图像3000是明亮的,所以部分褶皱消失。明度被赋予第三高权重,这是因为明度比饱和度重要。
此外,当图像3000具有高饱和度或低饱和度时,将难以清楚地识别座椅的颜色或清楚地检测褶皱的形状。然而,饱和度可被赋予最低权重,这是因为它不如其他要素重要。
在另一示例中,当座椅由织物制成时,由于织物的特性,照明装置的光被织物的表面结构散射,因此织物对照明装置的亮度非常敏感。因此,照明装置的亮度可被赋予最高权重。此外,由织物制成的座椅可以以各种颜色制造。因此,确定座椅的颜色并检测褶皱会更有效。因此,座椅的颜色可被赋予第二高权重。
此外,当图像3000具有太低的明度时,因为图像3000是暗的,所以被示出为阴影的褶皱的形状可能不清楚。当图像3000具有太高的明度时,因为图像3000是明亮的,所以部分褶皱消失。明度可被给予第三高权重,这是因为明度比饱和度更重要。
此外,当图像3000具有高饱和度或低饱和度时,将难以清楚地识别座椅的颜色或清楚地检测褶皱的形状。然而,饱和度可被给予最低权重,因为它不如其他要素重要。
如上所述,装置1000可基于根据座椅的材料以不同值和顺序赋予的权重来确定褶皱评估值。因此,可有效地检测待检测褶皱的每个座椅的褶皱。
根据实施例,装置1000可使用深度学习来确定阈值。
例如,装置1000可从存储器(未示出)或服务器(未示出)获取用于深度学习以确定褶皱的预存储的学习模型(例如,语义分割)。预存储的学习模型可包括在各种条件(座椅的颜色、明度和饱和度、照明装置的亮度、座椅的材料等)下针对座椅的褶皱预先标记的图像。
因此,装置1000可使用所获取的预存储的学习模型对褶皱区域执行深度学习以检测图像3000中的褶皱区域,并且基于深度学习结果来确定用于确定多个单元区域的褶皱的阈值。
根据实施例,当深度学习结果的准确度是预定值或更小值时,可通过使用预存储的学习模型执行重新学习来提高准确度。
在步骤S240中,装置1000可基于与超过阈值的褶皱评估值相对应的一个或更多个单元区域3100的连续性来确定图像3000的褶皱区域。例如,与超过阈值的多个褶皱评估值相对应的多个单元区域连续,并且连续性为预定值或更大值的多个单元区域可被确定为褶皱区域。
图8是示出根据实施例的针对图像3000确定的褶皱区域的示意图。
参照附图,如附图所示,装置1000可确定与超过阈值的褶皱评估值相对应的一个或更多个单元区域3100。每个单元区域与超过阈值的褶皱评估值相对应,因此可以是与褶皱相对应的区域。可基于这些区域分布的连续性来确定图像3000的褶皱区域。此外,连续性为预定值或更小值的单元区域可简单地与座椅的图案、结构或损坏相对应。在这种情况下,它们可不被确定为褶皱区域。
装置1000基于具有超过阈值的多个褶皱评估值的一个或更多个单元区域3100的连续性来确定褶皱区域,从而更清楚地将多个褶皱与座椅的图案、结构或损坏部分区分开,以提高确定褶皱区域的准确度。
图9是示出根据实施例的与褶皱区域相对应的标记图像4100的示意图。
参照附图,装置1000可获取与褶皱区域相对应的标记图像4100。标记图像4100可以是通过包括如在参照步骤S240和图8的描述中确定的褶皱区域以及褶皱区域的预定值的范围而被获取以代表褶皱区域的图像。
图10是示出根据实施例的结果图像5000的示意图。
参照附图,在确定褶皱区域的步骤中,装置1000可获取图像3000的褶皱区域的坐标,并且根据所获取的坐标在图像3000上显示褶皱区域。此外,装置1000可将与褶皱区域相对应的标记图像4100与显示有褶皱区域的图像3000进行匹配,以获取褶皱区域和标记图像4100彼此重叠的结果图像5000。
如此,通过接收显示有褶皱区域的图像3000与标记图像4100彼此匹配的结果图像5000,用户可更容易地用肉眼看到褶皱区域的确定结果。
图11是示出根据实施例的结构类型6000的示意图。
参照附图,装置1000可被提供为结构类型6000,以使用一个或更多个相机1100和照明装置获取座椅的图像3000。
例如,装置1000可包括面向座椅靠背6100的第一测试相机6300和面向座垫6200的第二测试相机6500。此外,结构类型6000的装置1000还可包括面向座椅靠背6100的第一照明装置6400和面向座垫6200的第二照明装置6600,第一照明装置6400和第二照明装置6600与相机1100一起操作以获取图像3000。装置1000可通过每个相机1100和照明装置的操作来获取座椅靠背6100的整体图像和细节图像以及座垫6200的整体图像和细节图像。
设置为结构类型6000的装置1000可解决以下问题:当相机1100和照明装置面向相同方向时,由于直接照射在座椅上的光而不能清楚地示出褶皱区域。此外,当相机1100和照明装置被配置为如上地面向不同方向时,照明装置的光与用于图像拍摄的目标座椅平行地照射,因此有曲线的褶皱区域被照射的光遮蔽,这使得褶皱区域更清晰。
根据实施例的装置1000可确定褶皱区域的褶皱级别,以代表褶皱区域上的褶皱严重程度。
具体地,可根据座椅的材料来确定不同的褶皱级别。
例如,当座椅由皮革制成时,可按照褶皱宽度、褶皱深度、褶皱长度和褶皱数量的顺序赋予权重,并且可基于赋予的权重来确定褶皱级别。
当座椅由皮革制成时,通常,在座椅上形成的褶皱是宽的,并且因为褶皱具有宽的宽度而认为褶皱在大面积上形成。因此,可对褶皱宽度赋予最高权重。此外,可对褶皱深度赋予第二高权重,这是因为当褶皱由于皮革的特性而深深地形成时,需要更快地去除褶皱。
此外,认为褶皱越长,褶皱越严重。然而,与宽褶皱和深褶皱相比,长褶皱可相对容易地去除,因此不那么重要。因此,可对褶皱长度赋予第三高权重。此外,认为褶皱越多,褶皱越严重。然而,相对较少的褶皱是由于皮革的特性而形成的,并且褶皱数量不如褶皱宽度、褶皱深度和褶皱长度重要。因此,可对褶皱数量赋予第四高权重。
当座椅由织物制成时,由于织物的特性,座椅容易以相对较小的力起皱,并且与由皮革制成的座椅相比形成更多的褶皱。因此,可对褶皱数量赋予最高权重。此外,与由皮革制成的座椅相比,相对频繁地形成长褶皱。因此,可对褶皱长度赋予第二高权重。
此外,织物容易扩张,而容易起皱,并且具有比皮革更大的弹性,这引起相对较少的深褶皱。因此,可对褶皱深度赋予第三高权重。由于上述原因,形成了窄的褶皱,并且褶皱宽度不太重要,这是因为通常形成的褶皱具有窄的宽度。因此,可对褶皱宽度赋予第四高权重。
装置1000可基于根据座椅的材料不同地赋予的权重来将褶皱区域的褶皱级别确定为严重褶皱的第一级别、中度褶皱的第二级别和轻度褶皱的第三级别中的任一个,并且基于所确定的褶皱级别提供询问检查在制造座椅的工艺期间是否发生问题的通知。
如此,通过基于所形成的褶皱根据座椅的材料而具有不同特征的事实来确定褶皱区域的级别,并且根据褶皱级别提供通知,从而能够支持快速确认在制造工艺期间是否发生问题。
而且,根据如上所述的实施例的装置100、1000可包括一个或更多个处理器120、1200和/或一个或更多个存储器。此外,为了便于描述,图1和图6仅示出了用于描述根据实施例的装置100、1000的必要组件,但是可系统地组合用于构成本发明的装置的常规组件(诸如显示器(未示出)),以执行图1至图11中描述的操作。
此外,存储器可包括易失性存储器和/或非易失性存储器。当由一个或更多个处理器120、1200执行时,一个或更多个存储器可存储用于一个或更多个处理器120、1200执行计算的命令。在本公开中,程序或命令可包括作为存储在存储器中的软件的操作系统,该操作系统管理服务器的资源、应用和/或中间件,该中间件向应用提供各种功能,使得应用能够使用装置的资源。
一个或更多个处理器120、1200可驱动软件(例如,程序、命令),以控制连接到处理器120、1200的装置的至少一个组件。此外,处理器120、1200可结合本公开执行各种操作,诸如,计算、处理、数据生成和处理等。此外,处理器120、1200可从存储器加载数据等或将其存储在存储器中。
根据实施例,可省略装置100、1000的至少一个组件,或者可添加其他组件。此外,附加地或可选地,一些组件被一体地实现或被实现为单个个体或多个个体。
结合本发明的实施例或算法步骤描述的方法可直接实现为硬件、由硬件执行的软件模块或者它们的组合。软件模块可以是随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程ROM(EPROM)、闪存、硬盘、可移除盘、CD-ROM或本领域公知的任何形式的计算机可读记录介质。
参照附图对本发明的实施例的上述描述旨在用于说明,并且本领域技术人员能够理解的是,在不改变本发明的技术精神或基本特征的情况下,本发明可以以其他特定形式实现。因此,应当理解,如上所述的实施例在所有方面都是示例性的,而不是限制性的。
Claims (14)
1.一种用于通过装置确定座椅的褶皱区域的方法,所述方法包括:
获取整个座椅靠背的第一图像;
获取整个座垫的第二图像;
获取用于分析座椅靠背和座垫的图像的深度学习信息;
使用深度学习信息从第一图像和第二图像中确定问题区域;
获取问题区域的细节图像;以及
使用细节图像确定褶皱区域。
2.根据权利要求1所述的方法,其中,确定问题区域的步骤包括:
通过根据预定方式划分第一图像和第二图像中的每个来确定多个区域;以及
使用深度学习信息将所述多个区域中的一个或更多个区域确定为问题区域,
其中,细节图像是在面向座椅靠背或座垫的相机沿着经过所述多个区域的路径移动时获取的。
3.根据权利要求1所述的方法,其中,获取细节图像的步骤包括:
基于对问题区域的预分析结果,根据相机的位置确定相机的移动速度;以及
从以所述移动速度移动的相机获取细节图像。
4.根据权利要求1所述的方法,其中,深度学习信息是基于对形成测试座椅的测试座椅靠背和测试座垫的图像分析结果而获取的。
5.根据权利要求4所述的方法,其中,获取深度学习信息的步骤包括:
当面向测试座垫的第二照明装置操作时,从面向测试座椅靠背的第一测试相机获取测试座椅靠背的图像;
当面向测试座椅靠背的第一照明装置操作时,从面向测试座垫的第二测试相机获取测试座垫的图像;以及
使用测试座椅靠背的图像和测试座垫的图像来获取深度学习信息。
6.根据权利要求1所述的方法,所述方法还包括:
基于与褶皱区域相对应的褶皱尺寸和褶皱深度来确定褶皱区域的褶皱类型;
确定与褶皱类型相对应的熨烫方式,熨烫方式包括熨烫次数和熨烫时间;以及
根据熨烫方式熨烫褶皱区域。
7.一种用于确定座椅的褶皱区域的装置,所述装置包括:
一个或更多个相机,用于获取整个座椅靠背的第一图像和整个座垫的第二图像;以及
处理器,用于获取用于分析座椅靠背和座垫的图像的深度学习信息,并且使用深度学习信息从第一图像和第二图像中确定问题区域,
其中,所述一个或更多个相机获取问题区域的细节图像,并且所述处理器使用细节图像来确定褶皱区域。
8.一种用于通过装置确定座椅的褶皱区域的方法,所述方法包括:
获取座椅的图像;
确定构成图像且包括一个或更多个像素的多个单元区域;
确定针对所述多个单元区域中的每个单元区域导出的褶皱评估值是否超过阈值;以及
基于与超过所述阈值的褶皱评估值相对应的一个或更多个单元区域的连续性,确定图像的褶皱区域。
9.根据权利要求8所述的方法,其中,构成所述多个单元区域的每个单元区域是单个像素。
10.根据权利要求8所述的方法,所述方法还包括:
在图像上显示褶皱区域;
获取与褶皱区域相对应的标记图像;以及
将标记图像与图像进行匹配以获取结果图像。
11.根据权利要求8所述的方法,所述方法还包括:
获取褶皱评估要素,褶皱评估要素包括所述多个单元区域的明度和饱和度、照明装置的亮度以及座椅的颜色中的至少一者;并且
基于所获取的褶皱评估要素的组合结果来确定褶皱评估值。
12.根据权利要求8所述的方法,其中,所述阈值是通过深度学习确定的,并且确定所述阈值的步骤包括:
使用预存储的学习模型对褶皱区域执行深度学习;以及
基于深度学习的结果,确定用于确定所述多个单元区域的褶皱的所述阈值,并且
所述方法还包括:
当深度学习的结果的准确度是预定值或更小值时,执行重新学习。
13.根据权利要求11所述的方法,其中,确定褶皱评估值的步骤包括:
当座椅由皮革制成时,按照座椅的颜色、照明装置的亮度、明度和饱和度的顺序赋予权重;
当座椅由织物制成时,按照照明装置的亮度、座椅的颜色、明度和饱和度的顺序赋予权重;以及
基于权重确定褶皱评估值。
14.一种用于确定座椅的褶皱区域的装置,所述装置包括:
一个或更多个相机,用于获取座椅的图像;以及
处理器,用于确定构成图像且包括一个或更多个像素的多个单元区域,确定针对所述多个单元区域中的每个单元区域导出的褶皱评估值是否超过阈值,并且基于与超过所述阈值的褶皱评估值相对应的一个或更多个单元区域的连续性来确定图像的褶皱区域。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0075047 | 2021-06-09 | ||
KR10-2021-0075048 | 2021-06-09 | ||
KR1020210075048A KR102327595B1 (ko) | 2021-06-09 | 2021-06-09 | 시트에 대한 주름 영역을 결정하는 방법 및 디바이스 |
KR1020210075047A KR102327594B1 (ko) | 2021-06-09 | 2021-06-09 | 시트에 대한 주름 영역을 결정하는 방법 및 디바이스 |
PCT/KR2022/008086 WO2022260431A1 (ko) | 2021-06-09 | 2022-06-08 | 시트에 대한 주름 영역을 결정하는 방법 및 디바이스 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115735118A true CN115735118A (zh) | 2023-03-03 |
Family
ID=84425280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280003905.7A Pending CN115735118A (zh) | 2021-06-09 | 2022-06-08 | 用于确定座椅的褶皱区域的方法和装置 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4354122A1 (zh) |
CN (1) | CN115735118A (zh) |
WO (1) | WO2022260431A1 (zh) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4762351B2 (ja) * | 2009-03-30 | 2011-08-31 | パナソニック株式会社 | 撮像検査装置および撮像検査方法 |
JP5036889B2 (ja) * | 2011-04-01 | 2012-09-26 | 株式会社日立製作所 | レビューsem |
KR20140008191A (ko) * | 2012-07-11 | 2014-01-21 | 현대자동차주식회사 | 자동차 시트의 주름 평가 시험방법 |
JP6574402B2 (ja) * | 2016-04-26 | 2019-09-11 | 古河電気工業株式会社 | 画像検査装置、画像検査方法及び画像検査プログラム |
WO2020153712A1 (ko) * | 2019-01-22 | 2020-07-30 | 주식회사 고영테크놀러지 | 기판 검사 장치 및 스크린 프린터의 결함 유형 결정 방법 |
KR102079661B1 (ko) * | 2019-05-24 | 2020-02-20 | 남현욱 | 인공지능형 스팀 전기다리미 |
KR102108956B1 (ko) * | 2019-11-13 | 2020-05-12 | 주식회사 만컴퍼니 | 인공지능을 활용한 머신비전 모듈형 소프트웨어를 갖는 머신비전 검사장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체 |
KR102327594B1 (ko) * | 2021-06-09 | 2021-11-18 | 주식회사 한울시스템 | 시트에 대한 주름 영역을 결정하는 방법 및 디바이스 |
KR102327595B1 (ko) * | 2021-06-09 | 2021-11-17 | 주식회사 한울시스템 | 시트에 대한 주름 영역을 결정하는 방법 및 디바이스 |
-
2022
- 2022-06-08 EP EP22820558.9A patent/EP4354122A1/en active Pending
- 2022-06-08 WO PCT/KR2022/008086 patent/WO2022260431A1/ko active Application Filing
- 2022-06-08 CN CN202280003905.7A patent/CN115735118A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022260431A1 (ko) | 2022-12-15 |
EP4354122A1 (en) | 2024-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11789491B2 (en) | Method for detecting foreign object and related electronic devices | |
CN111970506B (zh) | 镜头脏污检测方法、装置和设备 | |
KR102058427B1 (ko) | 검사 장치 및 방법 | |
CN102362291B (zh) | 脸部特征点检测装置及方法 | |
CN101211411B (zh) | 一种人体检测的方法和装置 | |
US20150355103A1 (en) | Inspection Apparatus, Inspection Method, And Program | |
US20180322656A1 (en) | Method for identification of candidate points as possible characteristic points of a calibration pattern within an image of the calibration pattern | |
EP2333720B1 (en) | System and method for detection of specularity in an image | |
US20200211221A1 (en) | Object recognition device and object recognition method | |
KR102327595B1 (ko) | 시트에 대한 주름 영역을 결정하는 방법 및 디바이스 | |
KR101477665B1 (ko) | 불균일한 텍스쳐 표면의 불량 검출방법 | |
US20190057498A1 (en) | Method and system for detecting line defects on surface of object | |
CN110596120A (zh) | 玻璃边界缺陷检测方法、装置、终端及存储介质 | |
KR20120014886A (ko) | 검사 레시피 생성 및 검사 레시피를 기반으로 한 검사 | |
KR102327594B1 (ko) | 시트에 대한 주름 영역을 결정하는 방법 및 디바이스 | |
US20120099762A1 (en) | Image processing apparatus and image processing method | |
JP5359377B2 (ja) | 欠陥検出装置、欠陥検出方法および欠陥検出プログラム | |
JP6278842B2 (ja) | 検査装置、検査方法およびプログラム | |
US11769248B2 (en) | Image processing device, image processing method, and image processing non-transitory computer readable medium for verifying detectable range of defect image | |
US10726569B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
KR102336110B1 (ko) | 딥러닝 모델을 이용한 가죽의 미세 불량 검사방법 | |
CN115735118A (zh) | 用于确定座椅的褶皱区域的方法和装置 | |
JP2005134966A5 (zh) | ||
US9846816B2 (en) | Image segmentation threshold value deciding method, gesture determining method, image sensing system and gesture determining system | |
Lee | 16‐4: Invited Paper: Region‐Based Machine Learning for OLED Mura Defects Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |