KR102398750B1 - 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법 - Google Patents

3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법 Download PDF

Info

Publication number
KR102398750B1
KR102398750B1 KR1020170107779A KR20170107779A KR102398750B1 KR 102398750 B1 KR102398750 B1 KR 102398750B1 KR 1020170107779 A KR1020170107779 A KR 1020170107779A KR 20170107779 A KR20170107779 A KR 20170107779A KR 102398750 B1 KR102398750 B1 KR 102398750B1
Authority
KR
South Korea
Prior art keywords
item
image
module
article
delete delete
Prior art date
Application number
KR1020170107779A
Other languages
English (en)
Other versions
KR20190022041A (ko
Inventor
김종민
Original Assignee
트라이큐빅스 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 트라이큐빅스 인크. filed Critical 트라이큐빅스 인크.
Priority to KR1020170107779A priority Critical patent/KR102398750B1/ko
Publication of KR20190022041A publication Critical patent/KR20190022041A/ko
Application granted granted Critical
Publication of KR102398750B1 publication Critical patent/KR102398750B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • H04N5/247
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

본 발명은 3차원 공간 내 이미지 모듈 및 센서 모듈을 이용하여 물품 혹은 신발의 아이템을 인식하고, 아이템 정보를 데이터베이스화하는 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법에 관한 것으로, 물품이 위치하는 3차원 공간, 상기 3차원 공간 내 포함되어 상기 물품에 대한 이미지를 획득하는 이미지 모듈, 상기 물품에 반사된 광을 획득하는 센서 모듈 및 상기 물품에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하고, 상기 획득된 3차원 모델링 데이터에 따른 물품 정보를 데이터베이스화하는 제어부를 포함한다.

Description

3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법{AUTOMATIC PHOTOGRAPH SYSTEM OF ITEM USING 3D SPACE AND METHOD THEREOF}
본 발명은 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 3차원 공간 내 이미지 모듈 및 센서 모듈을 이용하여 물품 혹은 신발의 아이템을 인식하고, 인공지능에 필요한 아이템 정보를 데이터베이스화하는 기술에 관한 것이다.
최근에 각광받는 4차 산업혁명은 빅데이터, 사물인터넷, 인공지능과 딥러닝 등의 대표 키워드를 포함한다. 4차 산업혁명의 기술은 우리의 실생활에 직접적인 영향을 미칠 수 있으며, 기술은 우리의 삶에 편의적인 도구가 되는 것을 넘어 학습과 분석을 통해 진화하고 있다.
이러한 기술 발전에 따라 최근에는 사물 혹은 물건을 데이터로 변환하여 저장 및 관리하는 빅데이터(Big­Data)의 데이터베이스화에 대한 관심이 증가하고 있다.
사물 혹은 물건에 대한 정보를 데이터베이스화하기 위해서는 사물 혹은 물건에 대한 2차원 정보뿐만 아니라, 3차원 정보가 요구된다.
출원 특허인 한국공개특허 제10­2012­0041708호는 '3차원 디지털 정보를 이용한 물품관리시스템'에 관한 기술로, 3차원 스캔장비를 이용하여 물품에 대한 3차원 디지털정보를 획득하고, 물품을 식별하는 방법을 개시한다.
다만, 한국공개특허 제10­2012­0041708호는 3차원 스캔장비를 이용하여 물품에 대한 3차원 디지털정보를 생성하고, 3차원 디지털정보 중 물품식별에 필요한 데이터만을 추출하여 물품을 식별하는 방법으로, 카메라 및 센서 등의 모듈을 이용하는 것이 아닌 3차원 스캔장비를 이용함으로써, 물품에 대한 세부적인 데이터를 획득하는 데 한계가 존재하였다.
또한, 기존 기술은 물품의 개봉, 미개봉 상태에 대한 데이터, 불량품에 대한 데이터 및 중고 상태에 대한 데이터 등의 보다 세부적인 데이터를 획득하는데 한계가 존재하였다.
한국공개특허 제10­2012­0041708호(2012.05.02 공개), "3차원 디지털 정보를 이용한 물품관리시스템"
본 발명의 목적은 3차원 공간 내에 포함된 이미지 모듈 및 센서 모듈을 이용하여 3차원 모델링 데이터 및 아이템 정보를 획득할 수 있는 기술을 제공하고자 한다.
또한, 본 발명의 목적은 자동으로 회전하는 아이템에 대한 이미지 및 반사 광을 이용하여 3차원 모델링 데이터를 획득하고, 딥러닝(Deep Learning)에 필요한 이미지를 획득하여 빅데이터로부터 아이템 정보를 인식하여 데이터베이스화하는 기술을 제공하고자 한다.
또한, 본 발명의 목적은 정상적인 형태의 아이템뿐만 아니라, 개봉, 미개봉, 불량품 혹은 재고 상태의 아이템에 대한 보다 세부적인 아이템 정보를 획득하여 데이터베이스화하는 기술을 제공하고자 한다.
본 발명의 일실시예에 따른 아이템의 자동 촬영 시스템은 물품이 위치하는 3차원 공간, 상기 3차원 공간 내 포함되어 상기 물품에 대한 이미지를 획득하는 이미지 모듈, 상기 물품에 반사된 광을 획득하는 센서 모듈 및 상기 물품에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하고, 상기 획득된 3차원 모델링 데이터에 따른 물품 정보를 데이터베이스화하는 제어부를 포함한다.
상기 물품은 상기 3차원 공간 내의 테이블 상에 위치하며, 상기 테이블은 회전 가능한 것을 특징으로 할 수 있다.
상기 이미지 모듈은 카메라인 것을 특징으로 하며, 상기 물품의 형태(shape) 및 브랜드(brand)에 대한 상기 이미지를 획득할 수 있다.
상기 센서 모듈은 적외선 센서(Infrared Sensor) 또는 구조광(Structured Light)을 조사하는 프로젝터인 것을 특징으로 하며, 상기 물품에 반사된 광을 이용하여 상기 물품의 사이즈(Size)를 감지할 수 있다.
상기 제어부는 상기 이미지 모듈, 상기 센서 모듈 및 상기 테이블 중 적어도 어느 하나 이상의 회전을 제어할 수 있다.
상기 제어부는 상기 이미지 및 상기 반사된 광을 이용하여 상기 물품에 대한 3차원 모델링 데이터를 획득하고, 딥러닝(Deep Learning) 빅데이터를 이용하여 상기 물품 정보를 인식할 수 있다.
상기 제어부는 상기 물품에 대한 브랜드, 색상, 사이즈 및 형태뿐만 아니라, 무게, 카테고리 및 유통기한 중 적어도 어느 하나 이상을 포함하는 상기 물품 정보를 인식하며, 인식 결과 별로 저장, 유지 및 업데이트하여 데이터베이스화할 수 있다.
또한, 본 발명의 일실시예에 따른 아이템의 자동 촬영 시스템은 상기 3차원 공간 내 포함되며, 상기 물품의 무게를 감지하는 로드셀 센서를 더 포함할 수 있다.
본 발명의 일실시예에 따른 아이템의 자동 촬영 시스템은 신발이 위치하는 3차원 공간, 상기 3차원 공간 내 포함되어 상기 신발에 대한 이미지를 획득하는 이미지 모듈, 상기 신발에 반사된 광을 획득하는 센서 모듈 및 상기 신발에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하고, 상기 획득된 3차원 모델링 데이터에 따른 신발 정보를 데이터베이스화하는 제어부를 포함한다.
상기 신발은 상기 3차원 공간 내의 테이블 상에 위치하며, 상기 테이블은 회전 가능한 것을 특징으로 할 수 있다.
상기 이미지 모듈은 카메라인 것을 특징으로 하며, 상기 신발의 형태(shape) 및 브랜드(brand)에 대한 상기 이미지를 획득할 수 있다.
상기 센서 모듈은 적외선 센서(Infrared Sensor) 또는 구조광(Structured Light)을 조사하는 프로젝터인 것을 특징으로 하며, 상기 신발에 반사된 광을 이용하여 상기 신발의 사이즈(Size)를 감지할 수 있다.
상기 제어부는 상기 이미지 모듈, 상기 센서 모듈 및 상기 테이블 중 적어도 어느 하나 이상의 회전을 제어할 수 있다.
상기 제어부는 상기 이미지 및 상기 반사된 광을 이용하여 상기 신발에 대한 3차원 모델링 데이터를 획득하고, 딥러닝(Deep Learning) 빅데이터를 이용하여 상기 신발 정보를 인식할 수 있다.
상기 제어부는 상기 신발에 대한 브랜드, 색상, 사이즈 및 형태 중 적어도 어느 하나 이상의 상기 신발 정보를 인식하고, 인식 결과와 상기 신발 정보에 대응하는 소유자 정보를 매칭시켜 저장, 유지 및 업데이트하여 데이터베이스화할 수 있다.
본 발명의 실시예에 따른 아이템의 자동 촬영 시스템은 3차원 공간에 위치한 물품 혹은 신발의 아이템에 대한 이미지를 획득하는 이미지 모듈 및 상기 아이템에 반사된 광을 획득하는 센서 모듈을 이용하여 상기 아이템에 대한 3차원 모델링(3D Modeling) 데이터를 획득하고, 상기 획득된 3차원 모델링 데이터에 따른 아이템 정보를 데이터베이스화한다.
본 발명의 실시예에 따른 3차원 공간에 위치한 아이템을 자동으로 촬영하여 등록하는 시스템의 동작 방법에 있어서, 물품 혹은 신발의 상기 아이템에 대한 이미지 및 반사된 광을 획득하는 단계, 상기 아이템에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하는 단계 및 상기 획득된 3차원 모델링 데이터에 따른 아이템 정보를 데이터베이스화하는 단계를 포함하되, 상기 이미지는 상기 3차원 공간에 포함된 이미지 모듈로부터 획득되며, 상기 반사된 광은 상기 3차원 공간에 포함된 센서 모듈로부터 획득되는 것을 특징으로 한다.
본 발명의 실시예에 따르면, 3차원 공간 내에 포함된 이미지 모듈 및 센서 모듈을 이용하여 3차원 모델링 데이터 및 아이템 정보를 획득할 수 있다.
또한, 본 발명의 실시예에 따르면, 자동으로 회전하는 아이템에 대한 이미지 및 반사 광을 이용하여 3차원 모델링 데이터를 획득하고, 딥러닝(Deep Learning)에 필요한 이미지를 획득하여 빅데이터로부터 아이템 정보를 인식하여 데이터베이스화할 수 있다.
또한, 본 발명의 실시예에 따르면, 정상적인 형태의 아이템뿐만 아니라, 개봉, 미개봉, 불량품 혹은 재고 상태의 아이템에 대한 보다 세부적인 아이템 정보를 획득하여 데이터베이스화할 수 있다.
또한, 본 발명의 실시예에 따르면, 이미지 모듈 및 센서 모듈을 이용하여 아이템의 브랜드, 색상 및 사이즈에 대한 데이터를 획득하고, 인식된 아이템 정보와 아이템 소유자의 정보를 매칭하여 데이터베이스화할 수 있다.
도 1a 및 도 1b는 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예 및 개념도를 도시한 것이다.
도 2는 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.
도 3은 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.
도 4는 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.
도 5는 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템의 동작 방법의 흐름도를 도시한 것이다.
이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 발명은 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법에 관한 기술로, 3차원 공간 내 이미지 모듈 및 센서 모듈(또는 프로젝터 모듈)을 이용하여 아이템에 대한 아이템 정보를 획득하는 기술을 제안한다.
이하에서는 상기 아이템을 물품, 상품 및 신발로 한정하여 실시예들을 설명하고 있으나, 본 발명의 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법은 물품, 상품 혹은 신발뿐 아니라, 형태, 사이즈, 브랜드 및 카테고리 중 적어도 어느 하나 이상을 감지할 수 있는 사물이면 모두 적용 가능하다.
또한, 본 발명의 실시예에 따른 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법은 3차원 공간 내에 위치하는 아이템에 대한 실시간 이미지 및 반사 광을 이용하여 3차원 모델링 데이터를 획득하고, 3차원 모델링 데이터 및 아이템의 이미지에 딥러닝 빅데이터를 적용하여 아이템 정보를 인식 및 데이터화함으로써, 아이템의 개봉, 미개봉의 상태 또는 불량품 및 재고 상태를 파악할 수 있다.
이러한 본 발명의 실시예들에 따른 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법에 대해 도 1 내지 도 5를 참조하여 상세히 설명한다.
도 1a 및 도 1b는 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예 및 개념도를 도시한 것이다.
도 1a를 참조하면, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)은 3차원 공간 내 이미지 모듈 및 센서 모듈을 이용하여 물품 혹은 신발의 아이템을 인식하고, 아이템 정보를 데이터베이스화한다.
이에 따른, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)은 3차원 공간(110), 이미지 모듈(120), 센서 모듈(130) 및 제어부(140)를 포함한다.
3차원 공간(110) 내 아이템(10)이 위치한다. 실시예에 따라서, 3차원 공간(110)은 육면체 또는 육면체 중 한 면이 없는 형태로 상자(또는 박스(Box))의 형태일 수 있다. 이 때, 아이템(10)은 물품, 상품(사고파는 물품) 및 신발 중 적어도 어느 하나일 수 있으며, 상기 물품은 특정 공간 예를 들면, 마트, 쇼핑몰, 편의점, 백화점 등에서 판매되는 물품일 수 있으나, 종류는 이에 한정되지 않는다.
또한, 아이템(10)은 3차원 공간(110) 내의 테이블(150) 상에 위치하며, 테이블(150)은 회전 가능할 수 있다. 예를 들면, 테이블(150)은 360도 회전 가능하며, 테이블(150)의 회전, 회전 방향 및 회전 속도는 제어부(140)에 의해 제어될 수 있다.
이미지 모듈(120)은 3차원 공간(110) 내 포함되어 아이템(10)에 대한 이미지를 획득한다.
예를 들면, 이미지 모듈(120)은 카메라인 것을 특징으로 하며, 3차원 공간(110)의 복수의 측면 및 상/하면 중 적어도 하나 이상의 벽면에 부착된 형태일 수 있다. 이 때, 카메라는 복수 개일 수 있으며, 아이템(10)에 대한 3차원 모델링 데이터를 획득하기 위해 3차원 공간(110) 내 상/하/좌/우 사방의 서로 다른 위치, 및 아이템(10)의 다양한 각도에서 복수의 이미지를 획득할 수 있다.
또한, 이미지 모듈(120)은 테이블(150) 상에서 회전하는 아이템(10)에 대한 복수의 측면에서의 형태(shape), 브랜드(brand) 및 색상(color) 중 적어도 어느 하나 이상에 대한 이미지를 획득할 수 있다.
실시예에 따라서, 이미지 모듈(120)은 회전하는 아이템(10)에 대해 기 설정된 시간 마다 촬영하여 이미지를 획득할 수 있다. 이 때, 상기 기 설정된 시간은 아이템(10)의 보다 정확한 3차원 모델링 데이터 획득을 위해 최대한 많은 수의 이미지를 획득할 수 있는 시간으로, 회전하는 아이템(10) 속도에 따른 다양한 각도에서의 이미지 획득을 위한 시간일 수 있으며, 이는 본 발명이 적용되는 실시예, 아이템(10)의 크기 및 종류에 따라 다양하게 적용 가능하므로, 한정되지 않는다.
센서 모듈(130)은 아이템(10)에 반사된 광 또는 구조광을 획득한다. 이 때, 센서 모듈(130)은 구조광(Structured Light)의 프로젝터 모듈일 수 있으며, 광 센서(Photo Sensor) 또는 적외선 센서(Infrared Sensor)일 수 있다. 또한, 센서 모듈(130)은 3차원 공간(110)의 복수의 측면 및 상/하면 중 적어도 어느 하나의 벽면에 부착된 형태일 수 있으며, 단일 개인 것을 기본으로 하나, 실시예에 따라서는 복수 개일 수도 있다.
실시예에 따라서, 센서 모듈(130)은 발광부(미도시) 및 수광부(미도시)를 포함하여 일정한 광을 조사하고, 조사된 광은 아이템(10)의 특정 부분에 반사되어 입사될 수 있다. 다른 실시예에 따라서, 센서 모듈(130)은 구조광(미도시)을 조사하고, 조사된 광은 아이템(10)의 특정 부분에 조사되며, 카메라(120)를 통해 입사될 수도 있다. 이에 따라서, 센서 모듈(130)은 아이템(10)에 반사된 복수의 광 또는 구조광을 이용하여 아이템(10)의 사이즈(Size)를 감지할 수 있다.
또한, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)은 3차원 공간(100) 내 포함되며, 아이템(10)의 무게를 감지하는 로드셀 센서(160)를 더 포함할 수 있다.
예를 들면, 로드셀 센서(160)는 테이블(150) 하단에 위치할 수 있으며, 아이템(10)에 대한 무게를 감지할 수 있다. 이에 따라서 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)은 카테고리 별로 유사한 크기, 형태, 및 무게의 아이템(10)에 대한 무게를 감지함으로써, 복수의 아이템(10)을 보다 정확하게 식별할 수 있다.
다시 도 1a를 참조하면, 제어부(140)는 아이템(10)에 대한 이미지 및 반사 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하고, 획득된 3차원 모델링 데이터에 따른 아이템 정보를 데이터베이스화한다.
제어부(140)는 이미지 모듈(120) 및 센서 모듈(130)로부터 획득된 이미지와, 반사된 광 또는 구조광을 이용하여 아이템(10)에 대한 3차원 모델링 데이터를 회득할 수 있다. 예를 들면, 제어부(140)는 이미지 모듈(120)로부터 수신된 이미지에 따른 아이템(10)에 대한 색상(RGB) 데이터, 및 센서 모듈(130)로부터 수신된 반사 광에 따른 아이템(10)에 대한 깊이(Depth) 데이터로부터 고화질(High Definition, HD) 및 비디오 그래픽 어레이(Video Graphics Array, VGA)의 3차원 모델링 데이터를 획득할 수 있다.
이후, 제어부(140)는 아이템(10)에 대한 3차원 모델링 데이터 및 이미지 데이터에서 딥러닝(Deep Learning) 빅데이터를 이용하여 아이템 정보를 인식할 수 있다.
이 때, 제어부(140)는 아이템(10)에 대한 브랜드, 색상, 사이즈 및 형태뿐만 아니라, 무게, 카테고리 및 유통기한 중 적어도 어느 하나 이상을 포함하는 아이템 정보를 인식하며, 인식 결과에 따른 아이템 정보 및 3차원 모델링 데이터를 저장, 유지 및 업데이트할 수 있다. 실시예에 따라서, 제어부(140)는 아이템 정보 및 3차원 모델링 데이터를 기반으로 아이템의 정상적인 형태뿐 아니라, 개봉 및 미개봉 상태와, 불량품 혹은 재고 상태의 아이템(10)에 대한 보다 세부적인 데이터를 저장 및 유지할 수 있으며, 새로운 데이터를 업데이트하여 데이터베이스화할 수 있다.
다만, 저장되어 유지되는 데이터는 아이템의 종류에 따라 더욱 다양한 정보를 포함할 수 있고, 전술한 정보를 제외할 수도 있으므로 한정되지 않는다.
본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)의 제어부(140)는 3차원 공간(110) 내 포함된 복수의 이미지 모듈(120), 센서 모듈(130) 및 테이블(150) 중 적어도 어느 하나 이상의 회전을 제어할 수 있으며, 예를 들면, 회전 온(on)/오프(off), 회전 일시 정지, 회전 방향 및 회전 속도 중 적어도 어느 하나의 동작을 제어할 수 있다.
또한, 제어부(140)는 복수의 이미지 모듈(120), 센서 모듈(130) 및 로드셀 센서(160) 각각의 동작을 제어하여 특정 모듈 및 센서를 선택하여 데이터를 수신할 수 있다.
또한, 제어부(140)는 아이템 정보에 대응하는 소유자 정보를 매칭시켜 데이터베이스화할 수 있다. 예를 들면, 아이템(10)이 신발인 경우로 가정하면, 제어부(140)는 신발(10)에 대한 소유자 이름, 전화번호, 연락처, 주소, 의뢰 날짜 및 주의사항 중 적어도 어느 하나 이상을 포함하는 소유자 정보와, 3차원 모델링 데이터 및 아이템 정보를 매칭시켜 저장할 수 있다.
이에 따라서, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)은 저장, 유지 및 업데이트되는 데이터베이스를 이용하여 아이템(10) 관련 마케팅에 사용할 수 있으며, 데이터베이스를 외부 서버(예를 들면, 마트 서버, 물품 제공 서버 또는 신발 관련 서버)에 제공할 수도 있다.
도 1b는 본 발명의 실시예에 따른 제어부(140)와 카메라(120), 적외선 센서(130), 테이블(150) 및 로드셀 센서(160) 간의 통신을 개념적으로 설명하기 위해 도시한 것이다.
도 1b를 참조하면, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100) 내의 제어부(140)는 USB(Universal Serial Bus), USB 3.0 또는 USB­UART(Universal asynchronous receiver/transmitter: 범용 비동기화 송수신기)의 통신 방식을 이용하여 이미지 모듈인 카메라(120), 센서 모듈인 적외선 센서(130, 또는 구조광을 조사하는 프로젝터), 테이블(150) 및 로드셀 센서(160)와 연결될 수 있다.
또한, 제어부(140는 카메라(120)로부터 아이템(10)에 대한 이미지를 수신하고, 적외선 센서(130)로부터 아이템(10)에 반사된 광을 수신하며, 로드셀 센서(160)로부터 아이템(10)에 대한 무게 정보를 수신할 수 있다. 나아가, 제어부(140)는 카메라(120), 적외선 센서(130) 및 테이블(150)의 회전 온(on)/오프(off), 회전 일시 정지, 회전 방향 및 회전 속도 등을 제어할 수 있다.
실시예에 따라서, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100) 내의 제어부(140)는 카메라(120), 적외선 센서(130), 테이블(150) 및 로드셀 센서(160)와 유무선통신채널로 연결되어 데이터를 송수신할 수도 있다.
도 2는 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.
도 2를 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(200)은 3차원 공간(210) 내 테이블(250)을 제어하는 서브 제어모듈(241)을 포함한다.
3차원 공간(210)은 육면체 또는 육면체 중 한 면이 없는 형태로 상자(또는 박스(Box))의 형태일 수 있으며, 3차원 공간(210)의 각 면은 크로마키 스크린(Chroma­Key Screen, 211)으로 형성된 것일 수 있다.
또한, 아이템(10)은 3차원 공간(210) 내에 위치하며, 테이블(250) 상에 존재할 수 있다. 이 때, 테이블(250)은 360도 회전 가능하다. 또한, 아이템(10)은 물품 혹은 신발일 수 있다.
도 2를 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(200)은 육면체의 3차원 공간(210)의 복수의 측면 및 상/하면 중 적어도 어느 하나의 벽면에 부착된 센서 모듈(230)을 포함하며, 센서 모듈(230)은 광 센서(Photo Sensor) 또는 적외선 센서(Infrared Sensor)일 수 있고, 구조광을 조사하는 프로젝터일 수도 있다. 이 때, 센서 모듈(230)은 하나인 것을 기본으로 하나, 본 발명이 적용되는 실시예에 따라, 복수 개일 수도 있다.
센서 모듈(230)은 발광부(미도시) 및 수광부(미도시)를 포함할 수 있으며, 일정한 광을 조사하고, 아이템(10)의 특정 부분에 반사되어 입사되는 광을 획득하여 아이템(10)의 크기, 즉 사이즈(Size)를 감지할 수 있다. 또한, 센서 모듈(230)은 구조광(미도시)을 조사하고, 아이템(10)의 특정 부분에 조사된 광의 이미지를 획득하여 아이템(10)의 크기, 즉 사이즈(Size)를 감지할 수도 있다.
본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(200)은 센서 모듈(230)로부터 아이템(10)에 대해 반사된 광을 수신하여 아이템 정보를 데이터베이스화하는 제어부(240)를 포함한다. 이 때, 제어부(240)와 센서 모듈(230)은 USB 3.0로 연결될 수 있다.
또한, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(200)은 제어부(240)에 USB(Universal Serial Bus), USB 3.0 또는 USB­UART(Universal asynchronous receiver/transmitter: 범용 비동기화 송수신기)의 통신 방식으로 연결된 서브 제어모듈(241)을 더 포함할 수 있다.
서브 제어모듈(241)은 3차원 공간(210) 내 테이블(250)에 연결될 수 있으며, 실시예에 따라서는 센서 모듈(230)에 연결될 수도 있다. 나아가, 테이블(250) 또는 센서 모듈(230)에 연결된 서브 제어모듈(241)은 제어부(240)에 연결된 형태일 수 있다.
예를 들면, 서브 제어모듈(241)은 제어부(240)로부터 명령 신호를 수신하고, 명령 신호에 기초하여 테이블(250)의 회전, 회전 방향 및 회전 속도를 제어할 수 있으며, 센서 모듈(230)의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 조사 방향 및 조사 횟수를 제어할 수도 있다. 또한, 서브 제어모듈(241)은 센서 모듈(230)로부터 센싱된 반사 광에 대한 정보를 제어부(240)에 제공할 수 있다.
다만, 도 2에서는 제어부(240)가 센서 모듈(230)의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 조사 방향 및 조사 횟수를 제어하고, 센서 모듈(230)로부터 센싱된 반사 광에 대한 정보를 수신하는 것을 기본으로 한다.
도 3은 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.
도 3을 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(300)은 3차원 공간(310) 내 포함되어 아이템(10)에 대한 이미지를 획득하는 복수의 이미지 모듈(320) 및 복수의 이미지 모듈(320)을 제어하는 서브 제어모듈(341, 342)을 포함한다.
3차원 공간(310)은 육면체 또는 육면체 중 한 면이 없는 형태로 상자(또는 박스(Box))의 형태일 수 있으며, 3차원 공간(310)의 각 면은 크로마키 스크린(Chroma­Key Screen)으로 형성된 것일 수 있다.
또한, 3차원 공간(310)은 가장자리에 LED 라이트(Light Emitting Diode; LED Light)를 포함하며, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(300)은 LED 광원의 색상 및 조도를 자동으로 변경하므로, 아이템(10)에 대한 이미지를 보다 밝고 명확하게 획득할 수 있다. 이 때, 이미지 모듈(320)로부터 획득된 이미지는 720p 내지 1080p의 고해상도 영상인 것을 특징으로 한다.
또한, 아이템(10)은 3차원 공간(310) 내에 위치하며, 테이블(350) 상에 존재할 수 있다. 이 때, 테이블(350)은 360도 회전 가능하다. 또한, 아이템(10)은 물품, 상품 또는 신발일 수 있다.
도 3을 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(300)은 육면체의 3차원 공간(310)의 복수의 측면 및 상/하면 중 적어도 어느 하나 이상의 벽면에 부착된 복수의 이미지 모듈(320)을 포함하며, 이미지 모듈(320)은 카메라일 수 있다. 이 때, 이미지 모듈(320)은 육면체의 3차원 공간(310)에서 아이템(10)을 중심으로 네 방향에서의 복수의 측면 또는 천장인 상면에 주로 위치할 수 있으며, 아이템(10)에 대한 이미지를 일직선에서 획득하기 위한 위치 또는 아이템(10)에 대한 이미지를 다양한 각도에서 획득하기 위한 위치에 형성된 형태일 수 있다. 다만, 이미지 모듈(320)의 개수 및 위치는 이에 한정되지 않는다.
본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(300)은 이미지 모듈(320)로부터 아이템(10)에 대한 이미지를 수신하여 아이템 정보를 데이터베이스화하는 제어부(340)를 포함한다. 이 때, 제어부(340)는 복수의 서브 제어모듈(341, 342)과 USB(Universal Serial Bus)로 연결될 수 있다.
도 3을 참조하면, 테이블을 제어하는 서브 제어모듈(341)은 3차원 공간(310) 내 테이블(350)에 연결될 수 있으며, 카메라를 제어하는 서브 제어모듈(342)은 3차원 공간(310) 내 포함된 복수의 이미지 모듈(320)에 연결될 수 있다. 또한, 카메라를 제어하는 서브 제어모듈(342) 각각은 USB(Universal Serial Bus), USB 3.0 또는 USB­UART(Universal asynchronous receiver/transmitter: 범용 비동기화 송수신기)의 통신 방식으로 연결될 수 있다. 이 때, 카메라를 제어하는 서브 제어모듈(342)은 하나의 모듈 형태 또는 복수 개의 모듈 형태일 수 있다.
또한, 테이블을 제어하는 서브 제어모듈(341) 및 카메라를 제어하는 서브 제어모듈(342)은 제어부(340)로부터 명령 신호를 수신할 수 있다.
예를 들면, 테이블을 제어하는 서브 제어모듈(341)은 제어부(340)로부터 수신된 명령 신호에 기초하여 테이블(350)의 회전, 회전 방향 및 회전 속도를 제어할 수 있다. 또한, 카메라를 제어하는 서브 제어모듈(342)은 복수의 이미지 모듈(320) 각각의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 촬영 방향, 촬영 시간 및 촬영 횟수를 제어할 수도 있다.
또한, 카메라를 제어하는 서브 제어모듈(342)은 복수의 이미지 모듈(320)로부터 획득된 이미지를 제어부(340)에 제공할 수 있다.
도 4는 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.
도 4를 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(400)은 3차원 공간(410) 내 포함되어 아이템(10)에 대한 이미지 및 반사 광을 획득하는 복수의 이미지 모듈(420) 및 센서 모듈(430)과, 복수의 서브 제어모듈(441, 442)을 포함한다.
3차원 공간(410)은 육면체 또는 육면체 중 한 면이 없는 형태로 상자(또는 박스(Box))의 형태일 수 있으며, 3차원 공간(410)의 각 면은 크로마키 스크린(Chroma­Key Screen)으로 형성된 것일 수 있고, 가장자리에 LED 라이트(Light Emitting Diode; LED Light)를 포함한 형태일 수 있다.
또한, 아이템(10)은 3차원 공간(410) 내에 위치하며, 테이블(450) 상에 존재할 수 있다. 이 때, 테이블(450)은 360도 회전 가능하다. 또한, 아이템(10)은 물품, 상품 또는 신발일 수 있다.
도 4를 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(400)은 육면체의 3차원 공간(410)의 복수의 측면 및 상/하면 중 적어도 어느 하나 이상의 벽면에 부착된 복수의 이미지 모듈(420)을 포함하고, 육면체의 3차원 공간(410)의 복수의 측면 및 상/하면 중 적어도 어느 하나의 벽면에 부착된 센서 모듈(430)을 포함할 수 있다.
이 때, 이미지 모듈(420)은 카메라일 수 있으며, 센서 모듈(430)은 광 센서(Photo Sensor) 또는 적외선 센서(Infrared Sensor)일 수 있고, 구조광(Structured Light)을 조사하는 프로젝터일 수도 있다.
도 4를 참조하면, 복수의 이미지 모듈(420)은 육면체의 3차원 공간(410)에서 아이템(10)을 중심으로 네 방향에서의 복수의 측면 또는 천장인 상면에 주로 위치할 수 있으며, 센서 모듈(430)은 3차원 공간(410)의 측면에 단일로 위치할 수 있다. 다만, 이 때, 이미지 모듈(420) 및 센서 모듈(430)의 위치, 개수 및 부착 면은 이에 한정되지 아니함은 당연하다.
예를 들면, 이미지 모듈(420)은 아이템(10)에 대한 이미지를 일직선에서 획득하기 위한 위치 또는 아이템(10)에 대한 이미지를 다양한 각도에서 획득하기 위한 위치에 형성된 형태일 수 있으며, 3차원 모델링 데이터를 획득하기 위한 복수의 개수를 포함할 수 있다.
이 때, 이미지 모듈(420)은 아이템(10)에 대한 다양한 이미지를 획득하여 아이템의 형태(shape), 브랜드(brand) 및 색상(color)를 감지할 수 있다. 또한, 센서 모듈(430)은 발광부(미도시) 및 수광부(미도시)를 포함하여 일정한 광을 조사하고, 아이템의 특정 부분에 반사된 광을 획득하여 아이템의 크기, 즉 사이즈(Size)를 감지할 수 있다. 또한, 센서 모듈(430)은 구조광(미도시)을 조사하고, 아이템(10)의 특정 부분에 조사된 광의 이미지를 획득하여 아이템(10)의 크기, 즉 사이즈(Size)를 감지할 수도 있다.
본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(400)은 이미지 모듈(420) 및 센서 모듈(430)로부터 아이템(10)에 대한 이미지 및 반사된 광을 수신하여 3차원 모델링 데이터를 획득하고, 딥러닝 빅데이터를 이용하여 아이템 정보를 인식하며, 3차원 모델링 데이터 및 아이템 정보를 데이터베이스화하는 제어부(440)를 포함한다. 이 때, 제어부(440)는 복수의 서브 제어모듈(441, 442)과 USB(Universal Serial Bus)로 연결될 수 있다.
도 4를 참조하면, 테이블을 제어하는 서브 제어모듈(441)은 3차원 공간(410) 내 테이블(450)에 연결될 수 있으며, 카메라를 제어하는 서브 제어모듈(442)은 3차원 공간(410) 내 포함된 복수의 이미지 모듈(420)에 연결될 수 있다. 실시예에 따라서, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(400)은 3차원 공간(410) 내 포함된 센서 모듈(430)에 연결되어 센서 모듈을 제어하는 서브 제어모듈(미도시)을 더 포함할 수 있다.
또한, 카메라를 제어하는 서브 제어모듈(442) 각각은 USB(Universal Serial Bus), USB 3.0 또는 USB­UART(Universal asynchronous receiver/transmitter: 범용 비동기화 송수신기)의 통신 방식으로 연결될 수 있다. 이 때, 카메라를 제어하는 서브 제어모듈(442)은 하나의 모듈 형태 또는 복수 개의 모듈 형태일 수 있다.
또한, 테이블을 제어하는 서브 제어모듈(441), 카메라를 제어하는 서브 제어모듈(442) 및 센서 모듈을 제어하는 서브 제어모듈(미도시) 중 적어도 어느 하나 이상은 제어부(440)로부터 명령 신호를 수신할 수 있다.
예를 들면, 테이블을 제어하는 서브 제어모듈(441)은 제어부(440)로부터 수신된 명령 신호에 기초하여 테이블(450)의 회전, 회전 방향 및 회전 속도를 제어할 수 있다. 또한, 카메라를 제어하는 서브 제어모듈(442)은 복수의 이미지 모듈(420) 각각의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 촬영 방향, 촬영 시간 및 촬영 횟수를 제어할 수도 있다.
또한, 센서 모듈을 제어하는 서브 제어모듈(미도시)은 센서 모듈(430)의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 조사 방향 및 조사 횟수를 제어할 수도 있다. 또한, 카메라를 제어하는 서브 제어모듈(442) 및 센서 모듈을 제어하는 서브 제어모듈(미도시)은 복수의 이미지 모듈(420)로부터 획득된 이미지 및 센서 모듈(430)로부터 센싱된 반사 광에 대한 정보를 제어부(440)에 제공할 수 있다.
다만, 도 4에서는 제어부(440)가 센서 모듈(430)의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 조사 방향 및 조사 횟수를 제어하고, 센서 모듈(430)로부터 센싱된 반사 광에 대한 정보를 수신하는 것을 기본으로 한다.
도 5는 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템의 동작 방법의 흐름도를 도시한 것이다.
도 5에 도시된 방법은 도 1a에 도시된 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템에 의해 수행될 수 있다.
도 5를 참조하면, 단계 510에서 물품 혹은 신발의 아이템에 대한 이미지 및 반사된 광을 획득한다.
예를 들면, 단계 510은 육면체 또는 육면체 중 한 면이 없는 형태로 상자(또는 박스(Box)) 형태의 3차원 공간 내 포함된 이미지 모듈 및 센서 모듈로부터 아이템에 대한 이미지 및 반사된 광을 획득하는 단계일 수 있다.
이 때, 이미지 모듈은 카메라로 아이템에 대한 복수의 각도에서의 이미지를 획득하며, 센서 모듈은 광 센서 또는 적외선 센서로 아이템에 반사된 광을 획득할 수 있다.
단계 520에서 아이템에 대해 획득된 이미지 및 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득한다.
단계 520은 3차원 공간 내 이미지 모듈로부터 수신된 이미지에 따른 아이템에 대한 색상(RGB) 데이터, 및 센서 모듈로부터 수신된 반사 광에 따른 아이템에 대한 깊이(Depth) 데이터로부터 고화질(High Definition, HD) 및 비디오 그래픽 어레이(Video Graphics Array, VGA)의 3차원 모델링 데이터를 획득하는 단계일 수 있다.
단계 530에서 획득된 3차원 모델링 데이터에 따른 아이템 정보를 데이터베이스화한다.
예를 들면, 단계 530은 획득된 3차원 모델링 데이터에 딥러닝(Deep Learning) 빅데이터를 이용하여 아이템에 대한 브랜드, 색상, 사이즈 및 형태뿐만 아니라, 무게, 카테고리 및 유통기한 중 적어도 어느 하나 이상을 포함하는 아이템 정보를 인식하고, 인식된 아이템 정보 및 3차원 모델링 데이터를 저장, 유지 및 업데이트하여 데이터베이스화하는 단계일 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD­ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기­광 매체(magneto­optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
10: 아이템(물품 혹은 신발 등)
100, 200, 300, 400: 아이템의 자동 촬영 시스템
110, 210, 310, 410: 3차원 공간
120, 320, 420: 이미지 모듈(또는 카메라)
130, 230, 430: 센서 모듈(또는 적외선 센서)
150, 250, 350, 450: 테이블
160: 로드셀 센서
211: 크로마키 스크린

Claims (17)

  1. 회전 가능한 테이블 상에 물품이 위치하는 3차원 공간;
    상기 3차원 공간 내 포함되어 상기 물품에 대한 이미지를 획득하는 이미지 모듈;
    상기 물품에 반사된 광을 획득하는 센서 모듈;
    상기 3차원 공간 내 포함되며, 상기 물품의 무게를 감지하는 로드셀 센서;
    상기 물품에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하고, 상기 획득된 3차원 모델링 데이터에 따른 물품 정보를 데이터베이스화하며, 상기 이미지 모듈, 상기 센서 모듈 및 상기 테이블의 회전을 제어하는 제어부; 및
    상기 제어부와 연결되어 상기 이미지 모듈, 상기 테이블, 상기 센서 모듈 및 상기 로드셀 센서 각각을 독립적으로 제어하는 서브 제어모듈을 포함하되,
    상기 3차원 공간은
    각 면은 크로마키 스크린(Chroma-Key screen)으로 형성되고, 가장자리에 LED 라이트를 포함하며,
    상기 센서 모듈은
    상기 3차원 공간의 벽면에 부착되며, 적외선 센서(Infrared Sensor) 또는 구조광(Structured Light)을 조사하는 프로젝터로 상기 물품에 반사된 광을 이용하여 상기 물품의 사이즈(Size)를 감지하고,
    상기 제어부는
    상기 물품에 대한 브랜드, 색상, 사이즈 및 형태뿐만 아니라, 무게, 카테고리 및 유통기한을 포함하는 상기 물품 정보를 인식하며, 인식된 상기 물품 정보와 물품 소유자의 정보를 매칭하여 데이터베이스화하고,
    상기 제어부는
    상기 이미지 모듈 및 상기 센서 모듈로부터 획득된 이미지와 반사된 광 또는 구조광을 이용하여 상기 물품에 대한 3차원 모델링 데이터를 획득하며, 상기 3차원 모델링 데이터와 상기 이미지에서 딥러닝(Deep Learning) 빅데이터를 이용하여 상기 물품 정보를 인식하는 것을 특징으로 하는, 아이템의 자동 촬영 시스템.
  2. 삭제
  3. 제1항에 있어서,
    상기 이미지 모듈은
    카메라인 것을 특징으로 하며, 상기 물품의 형태(shape) 및 브랜드(brand)에 대한 상기 이미지를 획득하는 아이템의 자동 촬영 시스템.
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
KR1020170107779A 2017-08-25 2017-08-25 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법 KR102398750B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170107779A KR102398750B1 (ko) 2017-08-25 2017-08-25 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170107779A KR102398750B1 (ko) 2017-08-25 2017-08-25 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20190022041A KR20190022041A (ko) 2019-03-06
KR102398750B1 true KR102398750B1 (ko) 2022-05-16

Family

ID=65761206

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170107779A KR102398750B1 (ko) 2017-08-25 2017-08-25 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR102398750B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102578468B1 (ko) * 2023-06-02 2023-09-14 (주)샘터 온라인상 전시 제품의 실사 이미지 생성 시스템 및 그 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011242139A (ja) * 2010-05-14 2011-12-01 Pulstec Industrial Co Ltd 3次元形状測定装置及び3次元形状測定方法
KR101331923B1 (ko) * 2010-10-19 2013-11-22 주식회사 포스트큐브 무인우편창구용 시스템 및 그 제어방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120083060A (ko) * 2011-01-17 2012-07-25 주식회사 인스프리트 실시간 이미지 인식 및 태그 정보를 통한 증강현실구매기능이 구비된 이동통신시스템 및 그 제어방법
KR20120041708A (ko) 2012-02-17 2012-05-02 유철영 3차원 디지털 정보를 이용한 물품관리시스템
KR102166691B1 (ko) * 2014-02-27 2020-10-16 엘지전자 주식회사 객체의 3차원 형상을 산출하는 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011242139A (ja) * 2010-05-14 2011-12-01 Pulstec Industrial Co Ltd 3次元形状測定装置及び3次元形状測定方法
KR101331923B1 (ko) * 2010-10-19 2013-11-22 주식회사 포스트큐브 무인우편창구용 시스템 및 그 제어방법

Also Published As

Publication number Publication date
KR20190022041A (ko) 2019-03-06

Similar Documents

Publication Publication Date Title
JP7004017B2 (ja) 物体追跡システム、物体追跡方法、プログラム
TWI701604B (zh) 產生場景之距離圖之方法及裝置
US11481885B2 (en) Systems and methods for object dimensioning based on partial visual information
WO2018077011A1 (zh) 视觉识别系统及其方法、以及分类分拣系统及其方法
JP6126437B2 (ja) 画像処理装置および画像処理方法
JP2019530035A (ja) 在庫追跡のための複数のカメラシステム
US9177224B1 (en) Object recognition and tracking
Bateux et al. Histograms-based visual servoing
US10733450B1 (en) Multi-video annotation
Demaagd et al. Practical Computer Vision with SimpleCV: the simple way to make technology see
US10839554B2 (en) Image labeling for cleaning robot deep learning system
KR20190031431A (ko) 물품의 위치 파악, 식별 및 카운트하는 방법 및 시스템
US9349180B1 (en) Viewpoint invariant object recognition
US11907339B1 (en) Re-identification of agents using image analysis and machine learning
US9609305B1 (en) Feature-based rectification of stereo cameras
US20180189955A1 (en) Augumented reality (ar) method and system enhanced through efficient edge detection of image objects
US9594943B1 (en) Image capture enhancement using dynamic control image
US20170076428A1 (en) Information processing apparatus
US20190164281A1 (en) Robotic pill filling, counting, and validation
KR102398750B1 (ko) 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법
KR102433004B1 (ko) 인공 지능 기반의 무인 결제 장치 및 방법
KR20210068747A (ko) 물품관리 장치 및 이를 포함하는 물품 관리 시스템
WO2023083273A1 (zh) 抓取点信息获取方法、装置、电子设备和存储介质
KR102449325B1 (ko) 컨베이어 제어를 통한 겹침 방지 기능을 갖는 무인 결제 장치
EP4266693A1 (en) Electronic device for image processing and operation method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant