KR102327594B1 - 시트에 대한 주름 영역을 결정하는 방법 및 디바이스 - Google Patents

시트에 대한 주름 영역을 결정하는 방법 및 디바이스 Download PDF

Info

Publication number
KR102327594B1
KR102327594B1 KR1020210075047A KR20210075047A KR102327594B1 KR 102327594 B1 KR102327594 B1 KR 102327594B1 KR 1020210075047 A KR1020210075047 A KR 1020210075047A KR 20210075047 A KR20210075047 A KR 20210075047A KR 102327594 B1 KR102327594 B1 KR 102327594B1
Authority
KR
South Korea
Prior art keywords
image
test
seat
wrinkle
area
Prior art date
Application number
KR1020210075047A
Other languages
English (en)
Inventor
김호영
Original Assignee
주식회사 한울시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 한울시스템 filed Critical 주식회사 한울시스템
Priority to KR1020210075047A priority Critical patent/KR102327594B1/ko
Application granted granted Critical
Publication of KR102327594B1 publication Critical patent/KR102327594B1/ko
Priority to PCT/KR2022/008086 priority patent/WO2022260431A1/ko
Priority to EP22820558.9A priority patent/EP4354122A1/en
Priority to CN202280003905.7A priority patent/CN115735118A/zh

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • B62D65/005Inspection and final control devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • B62D65/02Joining sub-units or components to, or positioning sub-units or components with respect to, body shell or other sub-units or components
    • B62D65/14Joining sub-units or components to, or positioning sub-units or components with respect to, body shell or other sub-units or components the sub-units or components being passenger compartment fittings, e.g. seats, linings, trim, instrument panels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8835Adjustable illumination, e.g. software adjustable screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing
    • G01N2201/129Using chemometrical methods
    • G01N2201/1296Using chemometrical methods using neural networks

Abstract

디바이스가 시트(seat)에 대한 주름 영역을 결정하는 방법에 있어서, 백 시트(back seat)의 전체에 대한 제 1 이미지를 획득하는 단계; 쿠션 시트(cushion seat)의 전체에 대한 제 2 이미지를 획득하는 단계; 상기 백 시트 및 상기 쿠션 시트의 이미지의 분석에 이용되는 딥러닝 학습 정보를 획득하는 단계; 상기 딥러닝 학습 정보를 이용하여 상기 제 1 이미지 및 상기 제 2 이미지로부터 문제 영역을 결정하는 단계; 상기 문제 영역에 대한 디테일 이미지를 획득하는 단계; 및 상기 디테일 이미지를 이용하여 주름 영역을 결정하는 단계;를 포함하는, 방법이 개시된다.

Description

시트에 대한 주름 영역을 결정하는 방법 및 디바이스{Method and device for determining wrinkle area for seat}
본 발명은 시트에 대한 주름 영역을 결정하는 방법 및 디바이스에 관한 것이다. 보다 상세하게는 백 시트(Back seat)에 대한 이미지, 쿠션 시트(Cushion seat)에 대한 이미지를 획득하고, 백시트 및 쿠션 시트의 이미지 분석에 이용되는 딥러닝 학습 정보를 획득하여 이를 통해 백 시트 이미지 및 쿠션 시트 이미지로부터 문제 영역을 포함하는 디테일 이미지를 획득하고, 디테일 이미지를 이용하여 주름 영역을 결정하는 방법 및 디바이스에 관한 것이다.
제품 생산 효율 및 품질, 인건비 감소, 공정 제어 편의성 및 비대면 산업 발달 등의 이유로 각종 산업 환경에 대해 자동화 공정의 도입이 크게 증가하고 있으며, 이러한 자동화 공정은 차량 제조 공정에도 적용되어 내장재 및 외장재 등 다양한 차량용 제품들이 제조되고 있다.
이러한 종래 자동화 공정은 인력 대신 미리 설정된 동작 제어 알고리즘 등을 이용하여 공정을 수행하기 때문에 대부분의 제품에 동일한 공정이 수행된다는 특징이 있다.
그러나, 이러한 자동화 공정은 섬유 또는 가죽 등 변형에 민감하여 주름 제거 등에 대한 개별적인 추가 공정이 필요한 시트(Seat) 제품들에 대해서도 획일화된 공정으로 수행하기 때문에 균일한 품질이 보장되지 않고, 경우에 따라 품질 불량 제품이 대량으로 생산될 수 있다는 문제점이 존재한다.
특히, 시트와 같은 차량 실내 제품들의 편의성 및 품질 등에 대한 소비자 관심이 점차 높아지고 있고, 차량 실내에서 가장 큰 부피를 차지하고 있는 시트는 실질적으로 차량 운전자와의 접촉이 가장 많은 제품 중 하나라는 점에서 시트의 품질에 대한 소비자의 민감도가 높다고 볼 수 있음에도, 전체 시트 중 주름이 발생된 영역을 선택적으로 인식하거나, 인식된 영역에 대해 주름 여부를 판단하여 이를 제거하는 등의 기술은 일반적인 자동화 공정에 적용되지 않고 있어 지속적인 시간적, 비용적 손해가 발생하는 문제점이 존재한다.
공개특허 제10-2014-0008191호 (2014.01.21)
본 발명이 해결하고자 하는 과제는 백 시트에 대한 제 1 이미지 및 쿠션 시트에 대한 제 2 이미지의 분석에 이용되는 딥러닝 학습 정보를 이용하여 제 1 이미지 및 제 2 이미지로부터 주름과 관련된 문제 영역을 결정하고, 결정된 문제 영역에 대한 디테일 이미지를 획득하여 이로부터 주름 영역을 결정하는 방법 및 디바이스를 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면에 따른 디바이스가 시트(seat)에 대한 주름 영역을 결정하는 방법에 있어서, 백 시트(back seat)의 전체에 대한 제 1 이미지를 획득하는 단계; 쿠션 시트(cushion seat)의 전체에 대한 제 2 이미지를 획득하는 단계; 상기 백 시트 및 상기 쿠션 시트의 이미지의 분석에 이용되는 딥러닝 학습 정보를 획득하는 단계; 상기 딥러닝 학습 정보를 이용하여 상기 제 1 이미지 및 상기 제 2 이미지로부터 문제 영역을 결정하는 단계; 상기 문제 영역에 대한 디테일 이미지를 획득하는 단계; 및 상기 디테일 이미지를 이용하여 주름 영역을 결정하는 단계;를 포함하는, 방법을 제공할 수 있다.
또한, 상기 문제 영역을 결정하는 단계는 상기 제 1 이미지 및 상기 제 2 이미지 각각을 기설정 방식으로 구획하여 복수개의 영역을 결정하는 단계; 상기 딥러닝 학습 정보를 이용하여 상기 복수개의 영역 중 하나 이상의 영역을 상기 문제 영역으로 결정하는 단계;를 포함하고, 상기 디테일 이미지는 상기 백 시트 또는 상기 쿠션 시트를 지향하는 카메라가 상기 복수개의 영역을 순회하는 경로로 이동하는 과정에서 획득될 수 있다.
또한, 상기 디테일 이미지를 획득하는 단계는 상기 문제 영역에 대한 사전 분석 결과에 기초하여 상기 카메라의 위치에 따른 이동 속도를 결정하는 단계; 및 상기 이동 속도로 이동하는 상기 카메라로부터 상기 디테일 이미지를 획득하는 단계;를 포함할 수 있다.
또한, 상기 딥러닝 학습 정보는 테스트 시트를 구성하는 테스트 백 시트 및 테스트 쿠션 시트에 대한 이미지 분석 결과에 기초하여 획득될 수 있다.
또한, 상기 딥러닝 학습 정보를 획득하는 단계는 상기 테스트 쿠션 시트를 지향하는 제 2 조명이 동작하는 상태에서 상기 테스트 백 시트를 지향하는 제 1 테스트 카메라로부터 테스트 백 시트 이미지를 획득하는 단계; 상기 테스트 백 시트를 지향하는 제 1 조명이 동작하는 상태에서 상기 테스트 쿠션 시트를 지향하는 제 2 테스트 카메라로부터 테스트 쿠션 시트 이미지를 획득하는 단계; 및 상기 테스트 백 시트 이미지 및 상기 테스트 쿠션 시트 이미지를 이용하여 상기 딥러닝 학습 정보를 획득하는 단계;를 포함할 수 있다.
또한, 상기 주름 영역에 대응되는 주름 크기 및 주름 깊이에 기초하여 상기 주름 영역에 대한 주름 유형을 결정하는 단계; 상기 주름 유형에 대응되는 다림질 횟수 및 다림질 시간을 포함하는 다림질 방식을 결정하는 단계; 및 상기 다림질 방식에 기초하여 상기 주름 영역에 대한 다림질을 수행하는 단계;를 더 포함할 수 있다.
본 개시의 제 2 측면에 따른 시트에 대한 주름 영역을 결정하는 디바이스에 있어서, 백 시트의 전체에 대한 제 1 이미지 및 쿠션 시트의 전체에 대한 제 2 이미지를 획득하는 하나 이상의 카메라; 및 상기 백 시트 및 상기 쿠션 시트의 이미지의 분석에 이용되는 딥러닝 학습 정보를 획득하고, 상기 딥러닝 학습 정보를 이용하여 상기 제 1 이미지 및 상기 제 2 이미지로부터 문제 영역을 결정하는 프로세서;를 포함하고, 상기 하나 이상의 카메라는 상기 문제 영역에 대한 디테일 이미지를 획득하고, 상기 프로세서는 상기 디테일 이미지를 이용하여 주름 영역을 결정하는, 디바이스를 제공할 수 있다.
이 외에도 본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 개시의 일 실시 예에 따르면, 딥러닝 학습 이미지를 이용하여 복수개의 영역 중 하나 이상의 영역을 주름 또는 손상 등이 나타난 문제 영역으로 결정함으로써 육안으로 주름을 검출하는 종래 방식에 비해 효율성이 현저히 향상될 수 있다.
또한, 각각의 주름 유형에 대응되도록 다림질 방식을 결정함으로써 깊이, 면적 등이 상이한 주름들에 대한 최적의 다림질을 수행할 수 있게 되어 효과적인 주름 제거가 가능해진다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 따른 디바이스의 구성을 개략적으로 도시한 블록도이다.
도 2는 일 실시 예에 따른 디바이스가 동작하는 각 단계를 도시한 흐름도이다.
도 3은 일 실시 예에 따른 구조물 타입의 일 예를 개략적으로 도시한 도면이다.
도 4는 일 실시 예에 따른 로봇 타입의 일 예를 개략적으로 도시한 도면이다.
도 5는 일 실시 예에 따라 문제 영역을 결정하는 일 예를 개략적으로 도시한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시 예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전 하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
이하에서는 첨부된 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다.
도 1은 일 실시 예에 따른 디바이스(100)의 구성을 개략적으로 도시한 블록도이다.
도면을 참조하면, 디바이스(100)는 하나 이상의 카메라(110) 및 프로세서(120)를 포함할 수 있다.
카메라(110)는 백 시트(Back seat)의 전체에 대한 제 1 이미지(510) 및 쿠션 시트(Cushion seat)의 전체에 대한 제 2 이미지(520)를 획득할 수 있다.
백 시트는 전체 시트 중 사용자 신체 중 등 부분을 지지하도록 구성된 부분, 쿠션 시트는 전체 시트 중 사용자 신체 중 엉덩이 부분을 지지하도록 구성된 부분을 나타낼 수 있다.
일반적으로 백 시트와 쿠션 시트는 동일한 소재 및 동일한 색상으로 제조되는 경우 외에도, 각각 상이한 소재 및 상이한 색상으로 제조되는 경우가 존재할 수 있다. 또한, 시트에는 사용자 신체 중 머리 부분을 지지할 수 있는 헤드레스트(Headrest)가 더 포함될 수 있으며, 하나 이상의 카메라(110)는 헤드레스트의 전체에 대한 제 3 이미지를 획득할 수도 있다.
프로세서(120)는 백 시트 및 쿠션 시트의 이미지 분석에 이용되는 딥러닝 학습 정보를 획득하고, 딥러닝 학습 정보를 이용하여 제 1 이미지(510) 및 제 2 이미지(520)로부터 문제 영역을 결정할 수 있다.
또한, 하나 이상의 카메라(110)는 문제 영역에 대한 디테일 이미지를 획득하고, 프로세서(120)는 디테일 이미지를 이용하여 주름 영역을 결정할 수 있다.
전술한 구성들의 다양한 실시 예들은 아래의 도면들을 참조하여 아래에서 보다 상세히 설명하도록 한다.
더하여, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 디바이스(100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 디바이스(100)는 제 1 이미지(510) 및 제 2 이미지(520)를 저장하는 메모리(미도시)를 더 포함할 수 있다. 또는 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부 구성요소는 생략될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
일 실시 예에 따른 디바이스(100)는 사용자 또는 작업자에 의해 이용될 수 있고, 휴대폰, 스마트폰, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 태블릿 PC 등과 같이 터치 스크린 패널이 구비된 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있으며, 이 외에도 데스크탑 PC, 태블릿 PC, 랩탑 PC, 셋탑 박스를 포함하는 IPTV와 같이, 애플리케이션을 설치하고 실행할 수 있는 기반이 마련된 장치도 포함할 수 있다.
디바이스(100)는 본 명세서에서 설명되는 기능을 실현시키기 위한 컴퓨터 프로그램을 통해 동작하는 컴퓨터 등의 단말기로 구현될 수 있다.
일 실시 예에 따른 디바이스(100)는 주름 영역 결정 시스템(미도시) 및 서버(미도시)를 포함할 수 있으나, 이에 제한되지 않는다. 일 실시 예에 따른 서버는 결정된 주름 영역을 디스플레이하는 애플리케이션을 제공할 수 있으며, 주름 영역에 대한 딥러닝 학습 수행을 지원하는 서비스를 제공할 수 있다.
이하에서는 일 실시 예에 따른 디바이스(100)가 독립적으로 주름 영역을 결정하는 실시 예를 중심으로 서술하도록 하지만, 전술한 것처럼, 서버와의 연동을 통해 주름 영역을 결정할 수도 있다. 즉, 일 실시 예에 따른 디바이스(100)와 서버는 그 기능의 측면에서 통합 구현될 수 있고, 서버는 생략될 수도 있으며, 어느 하나의 실시 예에 제한되지 않음을 알 수 있다. 또한, 디바이스(100)라는 용어는 서버를 포괄하는 상위 개념으로 기재되었으며, 이에 따라 디바이스(100)에서 알람을 제공하는 실시 예들은 서버에 의해 수행될 수도 있다.
도 2는 일 실시 예에 따른 디바이스(100)가 동작하는 각 단계를 도시한 흐름도이다.
단계 S210 및 S220에서 디바이스(100)는 백 시트의 전체에 대한 제 1 이미지(510) 및 쿠션 시트의 전체에 대한 제 2 이미지(520)를 획득할 수 있다.
일 실시 예에서, 디바이스(100)는 구조물 타입(300) 및 로봇 타입(400)을 포함할 수 있다. 예를 들어, 구조물 타입(300)은 백 시트 및 쿠션 시트를 지향하는 카메라(110) 및 조명이 구비되어 컨베이어 벨트를 통해 시트가 이동되는 동안 하나 이상의 카메라(110) 및 조명 제어를 통해 제 1 이미지(510) 및 제 2 이미지(520)를 획득할 수 있다. 로봇 타입(400)은 하나 이상의 카메라(110) 및 조명을 구비하여 시트 영역에 대응되는 경로를 이동할 수 있도록 구성될 수 있으며, 카메라(110) 및 조명 제어를 통해 제 1 이미지(510) 및 제 2 이미지(520)를 획득할 수 있다.
일반적으로, 시트에 대한 주름 영역을 결정하기 위해서 구조물 타입(300)이 이용되고, 시트 주름에 대한 딥러닝 학습을 수행하기 위해 로봇 타입(400)이 이용될 수 있으나, 반드시 이에 제한되는 것은 아니다.
단계 S230 에서 디바이스(100)는 백 시트 및 쿠션 시트의 이미지의 분석에 이용되는 딥러닝 학습 정보를 획득할 수 있다.
일 실시 예에서 딥러닝 학습 정보는 시트에 대해 획득된 제 1 이미지(510) 및 제 2 에 대해 주름을 포함하는 문제 영역을 결정하기 위해 이용될 수 있다. 딥러닝 학습 정보를 획득하기 위한 테스트 시트를 구성하는 테스트 백 시트(310) 및 테스트 쿠션 시트(320)에 대한 이미지 분석 결과에 기초하여 획득될 수 있다.
예를 들어 딥러닝 학습 정보를 획득하기 위해, 디바이스(100)는 테스트 쿠션 시트(320)를 지향하는 제 2 조명(360)이 동작하는 상태에서 테스트 백 시트(310)를 지향하는 제 1 테스트 카메라(330)로부터 백 시트 이미지를 획득하고(S1), 테스트 백 시트(310)를 지향하는 제 1 조명(340)이 동작하는 상태에서 테스트 쿠션 시트(320)를 지향하는 제 2 테스트 카메라(350)로부터 테스트 쿠션 시트(320) 이미지를 획득하고(S2), 테스트 백 시트(310) 이미지 및 테스트 쿠션 시트(320) 이미지를 이용하여 딥러닝 학습 정보를 획득(S3)할 수 있다.
구체적으로, 단계 S1에서 테스트 쿠션 시트(320)를 지향하는 제 2 조명(360)이 동작하는 경우, 테스트 쿠션 시트(320)를 지향하는 제 2 테스트 카메라(350)를 이용하여 테스트 쿠션 시트(320) 이미지를 획득하게 되면 제 2 조명(360)의 광은 제 2 조명(360)의 정면에 위치한 쿠션 시트에 조사되기 때문에 이미지 상에 주름이 명확하게 나타나지 않는 반면, 제 2 조명(360)이 동작하는 경우 제 1 테스트 카메라(330)를 이용하여 테스트 백 시트(310) 이미지를 획득하게 되면 제 2 조명(360)에 의해 주름 영역에 그늘이 생겨 이미지 상에 주름을 판단하기에 용이할 수 있다.
이와 마찬가지로, 단계 S2에서 테스트 백 시트(310)를 지향하는 제 1 조명(340)이 동작하는 경우, 테스트 쿠션 시트(320)를 지향하는 제 2 테스트 카메라(350)를 이용하여 테스트 쿠션 시트(320) 이미지를 획득하게 되면 주름 영역이 이미지 상에서 주름을 판단하기에 용이할 수 있다.
이에 따라, 단계 S3에서 디바이스(100)는 단계 S1 및 단계 S2를 통해 획득된 테스트 백 시트(310) 이미지 및 테스트 쿠션 시트(320) 이미지를 이용하여 이미지 상에 존재하는 주름 영역을 포함하는 문제 영역에 대한 딥러닝 학습을 수행함으로써 딥러닝 학습 정보를 획득할 수 있다.
일 실시 예에서, 디바이스(100)는 차종, 시트 종류, 시트 색상 등의 조건에 따라서 딥러닝 학습 정보를 상이한 카테고리로 분류하여 저장, 관리할 수 있다. 이에 따라, 디바이스(100)는 테스트 시트의 종류, 색상, 적용되는 차종에 대응되는 딥러닝 학습 정보를 개별적으로 획득할 수 있다. 이후, 문제 영역을 결정하는 단계에서 복수의 딥러닝 학습 정보 중 주름 영역을 결정하기 위한 대상이 되는 시트의 종류, 색상 및 적용되는 차종에 대응되는 딥러닝 학습 정보가 이용될 수 있다.
단계 S240에서 디바이스(100)는 딥러닝 학습 정보를 이용하여 제 1 이미지(510) 및 제 2 이미지(520)로부터 문제 영역을 결정할 수 있다.
예를 들어, 도 5를 참조하면, 디바이스(100)는 제 1 이미지(510) 및 제 2 이미지(520) 각각을 기설정 방식(예: 기설정 단위 영역 별로 구획)으로 구획하여 복수개의 영역(530)을 결정할 수 있고, 단계 S230에서 획득된 딥러닝 학습 정보를 이용하여 복수개의 영역(530) 중 하나 이상의 영역을 문제 영역으로 결정할 수 있다.
구체적으로, 문제 영역은 시트 주름 및 오염 등 품질 저하 원인이 되는 부분을 포함하는 영역일 수 있다. 예를 들어 디바이스(100)는 각 이미지들을 세분화되도록 복수개의 영역(530)으로 구획함으로써 미세한 주름 등을 포함하는 문제 영역을 보다 정밀하게 검출할 수 있다.
예를 들면, 디바이스(100)는 제 1 이미지(510) 및 제 2 이미지(520)에 대해, 각 이미지의 최소 단위 영역인 픽셀을 기설정 개수 범위에 해당하는 픽셀을 포함하도록 복수개의 영역(530)을 구획할 수 있고, 딥러닝 학습 정보를 이용하여 구획된 복수개의 영역(530) 각각에 대해 주름을 검출할 수 있다. 디바이스(100)는 검출 결과에 따라 복수개의 영역(530) 중 주름을 포함하는 적어도 하나의 영역을 문제 영역으로 검출할 수 있다. 이처럼, 세분화된 영역에 대해 문제 영역을 결정함으로써 보다 정밀하게 주름 영역을 결정할 수 있다.
단계 S250에서 디바이스(100)는 단계 S240에서 획득된 문제 영역에 대한 디테일 이미지를 획득할 수 있고, 단계 S260에서는 디테일 이미지를 이용하여 주름 영역을 결정할 수 있다.
이러한 디테일 이미지는 백 시트 또는 쿠션 시트를 지향하는 카메라(110)가 복수개의 영역(530)을 순회하는 경로로 이동하는 과정에서 획득될 수 있다.
구체적으로, 디바이스(100)는 시트에 대한 주름 영역을 결정하기 위해 로봇 타입(400)으로 수행될 수 있고, 문제 영역에 대한 사전 분석 결과에 기초하여 백 시트 또는 쿠션 시트를 지향하는 카메라(110)의 위치에 따른 이동 속도를 결정할 수 있고, 결정된 이동 속도로 이동하는 카메라(110)로부터 디테일 이미지를 획득할 수 있다.
예를 들어, 디바이스(100)는 1차적으로 문제 영역들 전체에 대해서, 주름 인식에 일정 시간 이상 소요되는 영역, 일정 시간 이하로 소요되는 영역, 주름의 개수, 깊이 및 주름 영역의 크기 등을 검출하는 사전 분석을 수행하고, 사전 분석 결과에 기초하여 주름 검출이 비교적 쉬운 영역 또는 비교적 어려운 영역의 위치에 대한 사전 분석을 수행할 수 있다.
디바이스(100)는 이러한 사전 분석 결과에 기초하여 주름 검출이 비교적 쉬운 영역 또는 비교적 어려운 영역에 대한 기설정 속도 이상으로 이동 속도를 빠르게 결정하거나 기설정 속도 이하로 느리게 이동 속도를 결정할 수 있다.
예를 들어, 디바이스(100)는 사전 분석 결과에 따른 문제 영역을 순회하는 경로로 이동 중인 카메라(110)의 위치가 주름 검출이 비교적 쉬운 영역에 해당하는 경우 카메라(110)의 이동 속도를 기설정 속도 이상으로 결정하여 해당 영역에 대해서는 빠르게 이동하도록 할 수 있고, 카메라(110)의 위치가 주름 검출이 비교적 어려운 영역에 해당하는 경우 카메라(110)의 이동 속도를 기설정 속도 이하로 결정하여 해당 영역에 대해서는 느리게 이동하도록 할 수 있다.
디바이스(100)는 이와 같이 주름 검출 난이도가 높다고 판단되는 영역에 대해서는 보다 정밀한 주름 검출을 수행할 수 있도록 카메라(110)의 이동 속도를 기설정 속도 이하로 결정하여 기설정 개수 이상의 디테일 이미지 또는 기설정 영상 길이 이상의 디테일 이미지를 획득할 수 있고, 주름 검출 난이도가 낮다고 판단되는 영역에 대해서는 카메라(110)의 이동 속도를 기설정 속도 이하로 결정하여 기설정 개수 이하 또는 기설정 영상 길이 이하의 디테일 이미지를 획득할 수 있다. 이처럼 디바이스(100)는 동일한 문제 영역에 대해서도 사전 분석 결과에 따라 카메라(110)의 이동 속도를 상이하게 결정함으로써 보다 효율적인 주름 검출을 위한 디테일 이미지를 획득할 수 있다. 이후, 디바이스(100)는 획득된 디테일 이미지에 기초하여 주름 영역을 결정할 수 있다. 이에 따라, 이미지 상의 특징점 검출을 위해 단순 딥러닝 학습 모델을 적용하거나 알고리즘에 기반한 종래 기술과 달리 복수개의 영역(530)으로 구획된 문제 영역의 주름 정도에 따라서 상이한 방식으로 획득한 디테일 이미지를 이용하여 주름을 검출하기 때문에 매우 정밀한 주름 검출이 가능해진다.
도 3은 일 실시 예에 따른 구조물 타입(300)의 일 예를 개략적으로 도시한 도면이다.
도면을 참조하면, 디바이스(100)는 테스트 백 시트(310)를 지향하는 제 1 테스트 카메라(330) 및 제 1 조명(340), 테스트 쿠션 시트(320)를 지향하는 제 2 테스트 카메라(350) 및 제 2 조명(360)을 포함할 수 있고, 구조물 타입(300)으로 제공될 수 있다.
예를 들면, 디바이스(100)는 딥러닝 학습 정보를 획득하기 위해 제 2 조명(360)을 동작 시키는 경우 제 1 조명(340)이 동작하지 않도록 off 시킬 수 있고, 제 1 테스트 카메라(330)로부터 테스트 백 시트(310) 이미지를 획득할 수 있다. 또한, 제 1 조명(340)을 동작시키는 경우 제 2 조명(360)이 동작하지 않도록 off 시킬 수 있고, 제 2 테스트 카메라(350)로부터 테스트 쿠션 시트(320) 이미지를 획득할 수 있다.
다른 실시 예에서 제 1 조명(340) 또는 제 2 조명(360)을 동작시키는 경우 나머지 조명을 off 시키지 않을 수 있으나, 보다 정확한 딥러닝 학습 정보를 획득하기 위해서는 나머지 조명을 off 시키는 것이 바람직할 수 있다. 또한, 제 1 테스트 카메라(330)로부터 테스트 백 시트(310) 이미지를 획득하는 동안 제 2 테스트 카메라(350)가 동작하지 않도록 off 시킬 수 있고, 제 2 테스트 카메라(350)로부터 테스트 쿠션 시트(320) 이미지를 획득하는 동안 제 1 테스트 카메라(330)가 동작하지 않도록 off 시킬 수 있으나, 각 시트에 대한 다양한 이미지를 획득할수록 딥러닝 학습 정보의 정확도가 높아질 수 있다는 측면에서 나머지 카메라(110)의 동작을 off 시키지 않을 수도 있다.
일 실시 예에서 구조물 타입(300)은 컨베이어 벨트를 통해 시트(또는, 테스트 시트)를 이동시키도록 구성될 수 있고, 시트가 이동되는 과정에서 각 테스트 시트 이미지가 획득될 수 있다.
이처럼, 각각의 카메라(110) 및 조명의 동작을 제어함으로써 효과적인 딥러닝 학습 정보를 획득할 수 있다.
도 4는 일 실시 예에 따른 로봇 타입(400)의 일 예를 개략적으로 도시한 도면이다.
도면을 참조하면, 디바이스(100)는 이동 가능한 하나 이상의 카메라(110) 및 다리미(410)가 구비된 로봇 타입(400)으로 제공될 수 있다. 이에 따라, 디바이스(100)는 결정된 주름 영역에 대응되는 영역을 이동하는 다리미(410)를 이용하여 주름 영역에 대한 다림질을 수행할 수 있다.
일 실시 예에서, 디바이스(100)는 문제 영역에 대한 사전 분석 결과에 기초하여 카메라(110) 위치에 따라 카메라(110)의 이동 속도를 결정할 수 있다. 디바이스(100)는 이동 속도에 따라 문제 영역을 이동하는 카메라(110)로부터 디테일 이미지를 획득할 수 있고, 디테일 이미지를 이용하여 주름 영역을 결정할 수 있다.
일 실시 예에서, 디바이스(100)는 결정된 주름 영역에 대응되는 주름 크기 및 주름 깊이에 기초하여 주름 영역에 대한 주름 유형을 결정할 수 있다.
예를 들어, 주름 유형은 주름 크기 및 주름 깊이가 기설정 값을 초과하여 주름이 가장 심한 유형인 제 1 유형, 주름 크기 및 주름 깊이가 기설정 값의 범위에 해당하여 주름이 중간 정도인 제 2 유형, 주름 크기 및 주름 깊이가 기설정 값 이하에 대항하여 주름이 약한 유형인 제 3 유형을 포함할 수 있다.
또한, 디바이스(100)는 제 1 유형, 제 2 유형 및 제 3 유형 중 적어도 하나로 결정된 주름 유형에 대응되는 다림질 횟수 및 다림질 시간을 포함하는 다림질 방식을 결정할 수 있고, 결정된 다림질 방식에 기초하여 주름 영역에 대한 다림질을 수행할 수 있다.
예를 들어, 디바이스(100)는 하나 이상의 주름 영역에 대응되는 주름 유형을 제 1 유형으로 결정한 경우, 기설정된 다림질 횟수 및 다림질 시간을 포함하는 다림질 방식에 기초하여 주름 영역에 대한 다림질을 수행할 수 있다.
이처럼, 각각의 주름 영역 마다 상이한 크기 및 깊이에 따라서 주름 유형을 결정하고, 주름 유형에 해당하는 다림질 방식을 적용하여 다림질을 수행함으로써 각 주름 영역에 대해 가장 효과적인 방식으로 주름을 제거할 수 있다.
도 5는 일 실시 예에 따라 문제 영역을 결정하는 일 예를 개략적으로 도시한 도면이다.
도면을 참조하면, 예를 들어 디바이스(100)는 백 시트 및 구션 시트로부터 획득된 제 1 이미지(510) 및 제 2 이미지(520) 각각을 기설정 방식으로 구획하여 복수개의 영역(530)을 결정할 수 있다. 기설정 방식은 기설정 개수의 픽셀을 포함하도록 영역을 구획하는 방식일 수 있다. 또한, 디바이스(100)는 테스트 시트 이미지로부터 획득된 딥러닝 학습 정보에 기초하여 복수개의 영역(530) 중 하나 이상의 영역을 문제 영역으로 결정할 수 있다.
이처럼, 디바이스(100)는 세분화된 영역에 대해 문제 영역을 결정함으로써 보다 정밀하게 주름 영역을 결정할 수 있다.
일 실시 예에서, 디바이스(100)는 이미지에 따른 시트의 소재를 가죽 또는 섬유 등으로 결정할 수 있고, 시트의 소재에 따라서 디테일 이미지를 이용하여 디테일 이미지 상의 픽셀의 연속성에 기초하여 결정된 주름에 대해 주름 영역으로 결정하는 우선 순위를 결정할 수 있다. 디테일 이미지는 사전 분석 결과에 따라 획득되고, 주름 영역이 결정되기 전 주름 영역을 결정하기 위해 이용되는 이미지로 주름의 깊이, 주름의 길이, 주름의 영역 및 주름의 개수 등에 대한 정보를 포함할 수 있다.
예를 들어, 결정된 시트의 소재가 가죽인 경우, 가죽 표면에 형성되는 주름의 깊이는 다른 소재에 형성되는 주름의 깊이에 비해 비교적 깊기 때문에, 빠른 시간 안에 주름을 제거해야 주름으로 인한 손상을 최소화할 수 있다는 점에서 디바이스(100)는 디테일 이미지에 따른 주름의 깊이가 기설정 값 이상인 부분에 가장 높은 가중치를 부여할 수 있고, 부여된 가중치에 기초하여 주름 영역을 결정할 수 있다.
또한, 가죽 소재의 시트에 형성된 주름의 길이가 길수록 다소 심한 주름으로 볼 수 있으나, 인체 구조적 특징에 따라 시트의 형상이 제작되기 때문에 기설정 값 이상으로 긴 주름의 경우 시트 제작에 따라 형성되는 구조적 특징점일 수 있다는 점에서 디테일 이미지에 따른 주름의 길이가 기설정 값 이상인 부분에 2순위로 높은 가중치가 부여될 수 있다.
또한, 디테일 이미지에 따른 주름의 영역이 기설정 값 이상으로 넓은 경우 주름 영역으로 결정하여 이를 제거하도록 하는 것이 바람직하나, 가죽 소재를 활용하여 시트에 패턴을 형성하여 제작하는 경우가 존재할 수 있기 때문에 디테일 이미지에 따른 주름의 영역이 기설정 값 이상인 부분에 대해 3순위로 높은 가중치가 부여될 수 있다.
다른 실시 예에서, 결정된 시트의 소재가 섬유인 경우, 가죽 소재인 시트의 경우 깊이 형성되나 비교적 적은 수로 주름이 형성되나 섬유 소재인 시트의 경우 깊이가 얕은 대신 비교적 많은 수로 주름이 형성되기 때문에 이에 대한 주름 영역인지 여부를 판단하는 것이 가장 우선시 될 수 있어, 디바이스(100)는 디테일 이미지에 따른 주름의 영역이 기설정 값 이상인 부분에 대해 가장 높은 가중치를 부여할 수 있다.
또한, 디테일 이미지에 따른 주름의 길이가 길 경우 주름 영역으로 판단하는 것이 바람직할 수 있으나, 섬유 소재의 시트의 경우 봉제선과 같은 구조적 특징점이 다수 존재한다는 점에서 주름의 영역에 비해 더욱 집중적으로 주름 영역인지 여부를 판단해야하기 때문에 주름의 길이가 기설정 값 이상인 부분에 대해 2순위로 높은 가중치가 부여될 수 있다.
또한, 디테일 이미지에 따른 주름의 깊이가 기설정 값 이상인 경우 주름 영역으로 결정하는 것이 바람직할 수 있으나, 섬유 소재인 시트의 경우 가죽과 같은 다른 소재에 비해 주름이 비교적 얕게 형성되기 때문에 그 중요도가 다소 낮다는 점에서 주름의 깊이가 기설정 값 이상인 부분에 대해 3순위로 높은 가중치가 부여될 수 있다.
디바이스(100)는 이와 같이 제 1 이미지(510) 및 제 2 이미지(520)에 기초하여 시트의 소재를 결정할 수 있고, 결정된 소재로 제조된 시트에 대한 디테일 이미지 상에 나타난 주름에 대해 상이하게 부여된 가중치에 기초하여 주름 영역으로 결정하는 우선 순위를 결정함으로써, 주름에 대한 판단을 보다 정확하게 수행함과 동시에 시트의 손상을 최소화할 수 있다.
한편, 상술한 일 실시 예에 따른 디바이스(100)는 하나 이상의 프로세서(120) 및/또는 하나 이상의 메모리를 포함할 수 있다. 또한, 도 1에는 설명의 편의를 위해 일 실시 예에 따른 디바이스(100)를 설명하기 위한 필수적인 구성만이 도시되어 있지만, 디스플레이(미도시) 등 발명에 해당하는 장치를 구성하기 위한 종래의 여러 구성들이 유기적으로 결합되어 도 1내지 도 5에서 상술한 동작을 수행할 수도 있다.
또한, 메모리는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 하나 이상의 메모리는, 하나 이상의 프로세서(120)에 의한 실행 시, 하나 이상의 프로세서(120)가 연산을 수행하도록 하는 명령들을 저장할 수 있다. 본 개시에서, 프로그램 내지 명령은 메모리에 저장되는 소프트웨어로서, 서버의 리소스를 제어하기 위한 운영체제, 어플리케이션 및/또는 어플리케이션이 장치의 리소스들을 활용할 수 있도록 다양한 기능을 어플리케이션에 제공하는 미들 웨어 등을 포함할 수 있다.
하나 이상의 프로세서(120)는, 소프트웨어(예: 프로그램, 명령)를 구동하여 프로세서(120)에 연결된 장치의 적어도 하나의 구성요소를 제어할 수 있다. 또한 프로세서(120)는 본 개시와 관련된 다양한 연산, 처리, 데이터 생성, 가공 등의 동작을 수행할 수 있다. 또한 프로세서(120)는 데이터 등을 메모리로부터 로드하거나, 메모리에 저장할 수 있다
일 실시예에서는, 디바이스(100)의 구성요소들 중 적어도 하나가 생략되거나, 다른 구성요소가 추가될 수 있다. 또한 추가적으로(additionally) 또는 대체적으로(alternatively), 일부의 구성요소들이 통합되어 구현되거나, 단수 또는 복수의 개체로 구현될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시 예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100: 디바이스
110: 카메라
120: 프로세서
300: 구조물 타입 310: 테스트 백 시트
320: 테스트 쿠션 시트 330: 제 1 테스트 카메라
340: 제 1 조명 350: 제 2 테스트 카메라
360: 제 2 조명
400: 로봇 타입 410: 다리미
510: 제 1 이미지 520: 제 2 이미지
530: 복수개의 영역

Claims (7)

  1. 디바이스가 시트(seat)에 대한 주름 영역을 결정하는 방법에 있어서,
    백 시트(back seat)의 전체에 대한 제 1 이미지를 획득하는 단계;
    쿠션 시트(cushion seat)의 전체에 대한 제 2 이미지를 획득하는 단계;
    상기 백 시트 및 상기 쿠션 시트의 이미지의 분석에 이용되는 딥러닝 학습 정보를 획득하는 단계;
    상기 딥러닝 학습 정보를 이용하여 상기 제 1 이미지 및 상기 제 2 이미지로부터 문제 영역을 결정하는 단계;
    상기 문제 영역에 대한 디테일 이미지를 획득하는 단계; 및
    상기 디테일 이미지를 이용하여 주름 영역을 결정하는 단계;를 포함하고,
    상기 딥러닝 학습 정보는
    테스트 시트를 구성하는 테스트 백 시트 및 테스트 쿠션 시트에 대한 이미지 분석 결과에 기초하여 획득되고,
    상기 딥러닝 학습 정보를 획득하는 단계는
    상기 테스트 쿠션 시트를 지향하는 제 2 조명이 동작하는 상태에서 상기 테스트 백 시트를 지향하는 제 1 테스트 카메라로부터 테스트 백 시트 이미지를 획득하는 단계;
    상기 테스트 백 시트를 지향하는 제 1 조명이 동작하는 상태에서 상기 테스트 쿠션 시트를 지향하는 제 2 테스트 카메라로부터 테스트 쿠션 시트 이미지를 획득하는 단계; 및
    상기 테스트 백 시트 이미지 및 상기 테스트 쿠션 시트 이미지를 이용하여 상기 딥러닝 학습 정보를 획득하는 단계;를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 문제 영역을 결정하는 단계는
    상기 제 1 이미지 및 상기 제 2 이미지 각각을 기설정 방식으로 구획하여 복수개의 영역을 결정하는 단계; 및
    상기 딥러닝 학습 정보를 이용하여 상기 복수개의 영역 중 하나 이상의 영역을 상기 문제 영역으로 결정하는 단계;를 포함하고,
    상기 디테일 이미지는 상기 백 시트 또는 상기 쿠션 시트를 지향하는 카메라가 상기 복수개의 영역을 순회하는 경로로 이동하는 과정에서 획득되는, 방법.
  3. 제 1 항에 있어서,
    상기 디테일 이미지를 획득하는 단계는
    상기 문제 영역에 대한 사전 분석 결과에 기초하여 상기 카메라의 위치에 따른 이동 속도를 결정하는 단계; 및
    상기 이동 속도로 이동하는 상기 카메라로부터 상기 디테일 이미지를 획득하는 단계;를 포함하는, 방법.
  4. 삭제
  5. 삭제
  6. 제 1 항에 있어서,
    상기 주름 영역에 대응되는 주름 크기 및 주름 깊이에 기초하여 상기 주름 영역에 대한 주름 유형을 결정하는 단계;
    상기 주름 유형에 대응되는 다림질 횟수 및 다림질 시간을 포함하는 다림질 방식을 결정하는 단계; 및
    상기 다림질 방식에 기초하여 상기 주름 영역에 대한 다림질을 수행하는 단계;를 더 포함하는, 방법.
  7. 시트에 대한 주름 영역을 결정하는 디바이스에 있어서,
    백 시트의 전체에 대한 제 1 이미지 및 쿠션 시트의 전체에 대한 제 2 이미지를 획득하는 하나 이상의 카메라; 및
    상기 백 시트 및 상기 쿠션 시트의 이미지의 분석에 이용되는 딥러닝 학습 정보를 획득하고, 상기 딥러닝 학습 정보를 이용하여 상기 제 1 이미지 및 상기 제 2 이미지로부터 문제 영역을 결정하는 프로세서;를 포함하고,
    상기 하나 이상의 카메라는 상기 문제 영역에 대한 디테일 이미지를 획득하고,
    상기 프로세서는 상기 디테일 이미지를 이용하여 주름 영역을 결정하고,
    상기 딥러닝 학습 정보는
    테스트 시트를 구성하는 테스트 백 시트 및 테스트 쿠션 시트에 대한 이미지 분석 결과에 기초하여 획득되고,
    상기 프로세서는
    상기 테스트 쿠션 시트를 지향하는 제 2 조명이 동작하는 상태에서 상기 테스트 백 시트를 지향하는 제 1 테스트 카메라로부터 테스트 백 시트 이미지를 획득하고,
    상기 테스트 백 시트를 지향하는 제 1 조명이 동작하는 상태에서 상기 테스트 쿠션 시트를 지향하는 제 2 테스트 카메라로부터 테스트 쿠션 시트 이미지를 획득하고,
    상기 테스트 백 시트 이미지 및 상기 테스트 쿠션 시트 이미지를 이용하여 상기 딥러닝 학습 정보를 획득하는, 디바이스.
KR1020210075047A 2021-06-09 2021-06-09 시트에 대한 주름 영역을 결정하는 방법 및 디바이스 KR102327594B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020210075047A KR102327594B1 (ko) 2021-06-09 2021-06-09 시트에 대한 주름 영역을 결정하는 방법 및 디바이스
PCT/KR2022/008086 WO2022260431A1 (ko) 2021-06-09 2022-06-08 시트에 대한 주름 영역을 결정하는 방법 및 디바이스
EP22820558.9A EP4354122A1 (en) 2021-06-09 2022-06-08 Method and device for determining wrinkled region for seat
CN202280003905.7A CN115735118A (zh) 2021-06-09 2022-06-08 用于确定座椅的褶皱区域的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210075047A KR102327594B1 (ko) 2021-06-09 2021-06-09 시트에 대한 주름 영역을 결정하는 방법 및 디바이스

Publications (1)

Publication Number Publication Date
KR102327594B1 true KR102327594B1 (ko) 2021-11-18

Family

ID=78717262

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210075047A KR102327594B1 (ko) 2021-06-09 2021-06-09 시트에 대한 주름 영역을 결정하는 방법 및 디바이스

Country Status (1)

Country Link
KR (1) KR102327594B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022260431A1 (ko) * 2021-06-09 2022-12-15 주식회사 한울시스템 시트에 대한 주름 영역을 결정하는 방법 및 디바이스

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256338A (ja) * 2009-03-30 2010-11-11 Panasonic Corp 撮像検査装置および撮像検査方法
JP2011154037A (ja) * 2011-04-01 2011-08-11 Hitachi Ltd レビューsem
KR20140008191A (ko) 2012-07-11 2014-01-21 현대자동차주식회사 자동차 시트의 주름 평가 시험방법
KR102079661B1 (ko) * 2019-05-24 2020-02-20 남현욱 인공지능형 스팀 전기다리미
KR102108956B1 (ko) * 2019-11-13 2020-05-12 주식회사 만컴퍼니 인공지능을 활용한 머신비전 모듈형 소프트웨어를 갖는 머신비전 검사장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256338A (ja) * 2009-03-30 2010-11-11 Panasonic Corp 撮像検査装置および撮像検査方法
JP2011154037A (ja) * 2011-04-01 2011-08-11 Hitachi Ltd レビューsem
KR20140008191A (ko) 2012-07-11 2014-01-21 현대자동차주식회사 자동차 시트의 주름 평가 시험방법
KR102079661B1 (ko) * 2019-05-24 2020-02-20 남현욱 인공지능형 스팀 전기다리미
KR102108956B1 (ko) * 2019-11-13 2020-05-12 주식회사 만컴퍼니 인공지능을 활용한 머신비전 모듈형 소프트웨어를 갖는 머신비전 검사장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022260431A1 (ko) * 2021-06-09 2022-12-15 주식회사 한울시스템 시트에 대한 주름 영역을 결정하는 방법 및 디바이스

Similar Documents

Publication Publication Date Title
US9703380B2 (en) Vehicle operation input device
US11100316B2 (en) Activity recognition method using videotubes
US10176368B1 (en) Vehicle rear door control system
WO2018196837A1 (zh) 车辆定损图像获取方法、装置、服务器和终端设备
EP2864933B1 (en) Method, apparatus and computer program product for human-face features extraction
US10997465B2 (en) Information processing device, information processing method, and storage medium
US11216935B2 (en) Vision inspection management method and system inspecting based on process data
JP2021502627A (ja) 深層ニューラルネットワークを用いた画像処理システム及び処理方法
CN101211411B (zh) 一种人体检测的方法和装置
KR102327595B1 (ko) 시트에 대한 주름 영역을 결정하는 방법 및 디바이스
KR102327594B1 (ko) 시트에 대한 주름 영역을 결정하는 방법 및 디바이스
US9298972B2 (en) Image processing apparatus and image processing method
US20170249503A1 (en) Method for processing image with depth information and computer program product thereof
US8649559B2 (en) Method and interface of recognizing user's dynamic organ gesture and electric-using apparatus using the interface
US20210325971A1 (en) Method for controlling terminal apparatus, apparatus for controlling terminal apparatus, and computer-program product
CN106469308A (zh) 一种高效的题目搜索的方法和装置
US7079688B1 (en) Pattern recognition
TW201303705A (zh) 文字輸入裝置及顯示變更方法
JP2005134966A5 (ko)
US20160349981A1 (en) Control system for virtual mouse and control method thereof
EP4354122A1 (en) Method and device for determining wrinkled region for seat
CN112383826A (zh) 车载娱乐终端的控制方法、装置、存储介质、终端及汽车
US11954180B2 (en) Sensor fusion area of interest identification for deep learning
JP7286614B2 (ja) 基準位置設定方法及び虚像表示装置
CN113544741A (zh) 形状检测方法、形状检测系统以及程序

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant