KR20190022041A - Automatic photograph system of item using 3d space and method thereof - Google Patents
Automatic photograph system of item using 3d space and method thereof Download PDFInfo
- Publication number
- KR20190022041A KR20190022041A KR1020170107779A KR20170107779A KR20190022041A KR 20190022041 A KR20190022041 A KR 20190022041A KR 1020170107779 A KR1020170107779 A KR 1020170107779A KR 20170107779 A KR20170107779 A KR 20170107779A KR 20190022041 A KR20190022041 A KR 20190022041A
- Authority
- KR
- South Korea
- Prior art keywords
- item
- image
- shoe
- article
- dimensional space
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/087—Inventory or stock management, e.g. order filling, procurement or balancing against orders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- H04N5/247—
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
Description
본 발명은 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 3차원 공간 내 이미지 모듈 및 센서 모듈을 이용하여 물품 혹은 신발의 아이템을 인식하고, 인공지능에 필요한 아이템 정보를 데이터베이스화하는 기술에 관한 것이다. The present invention relates to a system and method for automatically capturing an item using a three-dimensional space, and more particularly, to a system and method for automatically capturing an item using an image space module and a sensor module, And a technology for converting information into a database.
최근에 각광받는 4차 산업혁명은 빅데이터, 사물인터넷, 인공지능과 딥러닝 등의 대표 키워드를 포함한다. 4차 산업혁명의 기술은 우리의 실생활에 직접적인 영향을 미칠 수 있으며, 기술은 우리의 삶에 편의적인 도구가 되는 것을 넘어 학습과 분석을 통해 진화하고 있다.The 4th industrial revolution, which has recently been spotlighted, includes major keywords such as Big Data, Internet of Things, Artificial Intelligence and Deep Learning. The technology of the Fourth Industrial Revolution can have a direct impact on our lives, and technology is evolving through learning and analysis beyond being a convenient tool in our lives.
이러한 기술 발전에 따라 최근에는 사물 혹은 물건을 데이터로 변환하여 저장 및 관리하는 빅데이터(BigData)의 데이터베이스화에 대한 관심이 증가하고 있다.Recently, with the development of this technology, there has been an increasing interest in the database of BigData, which stores and manages objects or objects by converting them into data.
사물 혹은 물건에 대한 정보를 데이터베이스화하기 위해서는 사물 혹은 물건에 대한 2차원 정보뿐만 아니라, 3차원 정보가 요구된다.In order to make a database of objects or objects, three-dimensional information is required as well as two-dimensional information about objects or objects.
출원 특허인 한국공개특허 제1020120041708호는 '3차원 디지털 정보를 이용한 물품관리시스템'에 관한 기술로, 3차원 스캔장비를 이용하여 물품에 대한 3차원 디지털정보를 획득하고, 물품을 식별하는 방법을 개시한다.Korean Patent Laid-Open No. 1020120041708, which is a patent application, is a technology related to 'an article management system using three-dimensional digital information', in which three-dimensional digital information about an article is acquired using a three-dimensional scanning device, / RTI >
다만, 한국공개특허 제1020120041708호는 3차원 스캔장비를 이용하여 물품에 대한 3차원 디지털정보를 생성하고, 3차원 디지털정보 중 물품식별에 필요한 데이터만을 추출하여 물품을 식별하는 방법으로, 카메라 및 센서 등의 모듈을 이용하는 것이 아닌 3차원 스캔장비를 이용함으로써, 물품에 대한 세부적인 데이터를 획득하는 데 한계가 존재하였다. Korean Patent Laid-Open Publication No. 1020120041708 discloses a method for generating three-dimensional digital information on an article using a three-dimensional scanning device and extracting only data necessary for item identification among three-dimensional digital information, Dimensional scanner, rather than using a module such as a sensor or a sensor, there is a limit to obtaining detailed data on an article.
또한, 기존 기술은 물품의 개봉, 미개봉 상태에 대한 데이터, 불량품에 대한 데이터 및 중고 상태에 대한 데이터 등의 보다 세부적인 데이터를 획득하는데 한계가 존재하였다. In addition, the existing technology has limitations in obtaining more detailed data such as the opening of the article, the data on the unopened state, the data on the defective article, and the data on the used state.
본 발명의 목적은 3차원 공간 내에 포함된 이미지 모듈 및 센서 모듈을 이용하여 3차원 모델링 데이터 및 아이템 정보를 획득할 수 있는 기술을 제공하고자 한다. An object of the present invention is to provide a technique for acquiring three-dimensional modeling data and item information using an image module and a sensor module included in a three-dimensional space.
또한, 본 발명의 목적은 자동으로 회전하는 아이템에 대한 이미지 및 반사 광을 이용하여 3차원 모델링 데이터를 획득하고, 딥러닝(Deep Learning)에 필요한 이미지를 획득하여 빅데이터로부터 아이템 정보를 인식하여 데이터베이스화하는 기술을 제공하고자 한다. It is also an object of the present invention to acquire 3D modeling data using an image and reflected light for an automatically rotating item, acquire images necessary for deep learning, recognize item information from big data, And to provide a technology that makes it possible to
또한, 본 발명의 목적은 정상적인 형태의 아이템뿐만 아니라, 개봉, 미개봉, 불량품 혹은 재고 상태의 아이템에 대한 보다 세부적인 아이템 정보를 획득하여 데이터베이스화하는 기술을 제공하고자 한다. It is also an object of the present invention to provide a technique for acquiring more detailed item information on an item in a normal state, as well as an item in an unopened, unopened, defective, or stocked state, and creating a database.
본 발명의 일실시예에 따른 아이템의 자동 촬영 시스템은 물품이 위치하는 3차원 공간, 상기 3차원 공간 내 포함되어 상기 물품에 대한 이미지를 획득하는 이미지 모듈, 상기 물품에 반사된 광을 획득하는 센서 모듈 및 상기 물품에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하고, 상기 획득된 3차원 모델링 데이터에 따른 물품 정보를 데이터베이스화하는 제어부를 포함한다.An automatic photographing system for an item according to an embodiment of the present invention includes a three-dimensional space in which an article is placed, an image module included in the three-dimensional space to obtain an image for the article, a sensor And a control unit for acquiring 3D modeling data by using the image and the reflected light obtained for the article and converting the article information according to the obtained 3D modeling data into a database.
상기 물품은 상기 3차원 공간 내의 테이블 상에 위치하며, 상기 테이블은 회전 가능한 것을 특징으로 할 수 있다. The article is placed on a table in the three-dimensional space, and the table is rotatable.
상기 이미지 모듈은 카메라인 것을 특징으로 하며, 상기 물품의 형태(shape) 및 브랜드(brand)에 대한 상기 이미지를 획득할 수 있다.The image module is a camera, and the image of the shape and brand of the article can be obtained.
상기 센서 모듈은 적외선 센서(Infrared Sensor) 또는 구조광(Structured Light)을 조사하는 프로젝터인 것을 특징으로 하며, 상기 물품에 반사된 광을 이용하여 상기 물품의 사이즈(Size)를 감지할 수 있다.The sensor module is a projector for irradiating an infrared sensor or a structured light. The size of the article can be detected by using the light reflected from the article.
상기 제어부는 상기 이미지 모듈, 상기 센서 모듈 및 상기 테이블 중 적어도 어느 하나 이상의 회전을 제어할 수 있다.The control unit may control rotation of at least one of the image module, the sensor module, and the table.
상기 제어부는 상기 이미지 및 상기 반사된 광을 이용하여 상기 물품에 대한 3차원 모델링 데이터를 획득하고, 딥러닝(Deep Learning) 빅데이터를 이용하여 상기 물품 정보를 인식할 수 있다.The control unit may acquire three-dimensional modeling data for the article using the image and the reflected light, and may recognize the article information using deep learning big data.
상기 제어부는 상기 물품에 대한 브랜드, 색상, 사이즈 및 형태뿐만 아니라, 무게, 카테고리 및 유통기한 중 적어도 어느 하나 이상을 포함하는 상기 물품 정보를 인식하며, 인식 결과 별로 저장, 유지 및 업데이트하여 데이터베이스화할 수 있다. The control unit recognizes the article information including at least one of a brand, a color, a size and a form, as well as a weight, a category, and a shelf life of the article, and stores, maintains, have.
또한, 본 발명의 일실시예에 따른 아이템의 자동 촬영 시스템은 상기 3차원 공간 내 포함되며, 상기 물품의 무게를 감지하는 로드셀 센서를 더 포함할 수 있다.Further, an automatic photographing system of an item according to an embodiment of the present invention may further include a load cell sensor included in the three-dimensional space and sensing the weight of the article.
본 발명의 일실시예에 따른 아이템의 자동 촬영 시스템은 신발이 위치하는 3차원 공간, 상기 3차원 공간 내 포함되어 상기 신발에 대한 이미지를 획득하는 이미지 모듈, 상기 신발에 반사된 광을 획득하는 센서 모듈 및 상기 신발에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하고, 상기 획득된 3차원 모델링 데이터에 따른 신발 정보를 데이터베이스화하는 제어부를 포함한다.An automatic photographing system for an item according to an embodiment of the present invention includes a three-dimensional space in which a shoe is located, an image module included in the three-dimensional space to acquire an image for the shoe, a sensor And a control unit for obtaining 3D modeling data using the image and the reflected light obtained for the shoe, and converting the shoe information according to the obtained 3D modeling data into a database.
상기 신발은 상기 3차원 공간 내의 테이블 상에 위치하며, 상기 테이블은 회전 가능한 것을 특징으로 할 수 있다.The shoe is located on a table in the three-dimensional space, and the table is rotatable.
상기 이미지 모듈은 카메라인 것을 특징으로 하며, 상기 신발의 형태(shape) 및 브랜드(brand)에 대한 상기 이미지를 획득할 수 있다.The image module is a camera, and the image of the shape and brand of the shoe can be obtained.
상기 센서 모듈은 적외선 센서(Infrared Sensor) 또는 구조광(Structured Light)을 조사하는 프로젝터인 것을 특징으로 하며, 상기 신발에 반사된 광을 이용하여 상기 신발의 사이즈(Size)를 감지할 수 있다.The sensor module is a projector for illuminating an infrared sensor or a structured light. The size of the shoe can be detected by using light reflected from the shoe.
상기 제어부는 상기 이미지 모듈, 상기 센서 모듈 및 상기 테이블 중 적어도 어느 하나 이상의 회전을 제어할 수 있다.The control unit may control rotation of at least one of the image module, the sensor module, and the table.
상기 제어부는 상기 이미지 및 상기 반사된 광을 이용하여 상기 신발에 대한 3차원 모델링 데이터를 획득하고, 딥러닝(Deep Learning) 빅데이터를 이용하여 상기 신발 정보를 인식할 수 있다.The control unit may acquire three-dimensional modeling data for the shoe using the image and the reflected light, and may recognize the shoe information using Deep Learning Big Data.
상기 제어부는 상기 신발에 대한 브랜드, 색상, 사이즈 및 형태 중 적어도 어느 하나 이상의 상기 신발 정보를 인식하고, 인식 결과와 상기 신발 정보에 대응하는 소유자 정보를 매칭시켜 저장, 유지 및 업데이트하여 데이터베이스화할 수 있다. The control unit recognizes at least one piece of the shoe information among the brand, color, size, and shape of the shoe, and matches the recognition result and the owner information corresponding to the shoe information to store, maintain and update the database .
본 발명의 실시예에 따른 아이템의 자동 촬영 시스템은 3차원 공간에 위치한 물품 혹은 신발의 아이템에 대한 이미지를 획득하는 이미지 모듈 및 상기 아이템에 반사된 광을 획득하는 센서 모듈을 이용하여 상기 아이템에 대한 3차원 모델링(3D Modeling) 데이터를 획득하고, 상기 획득된 3차원 모델링 데이터에 따른 아이템 정보를 데이터베이스화한다.An automatic photographing system for an item according to an embodiment of the present invention includes an image module for acquiring an image of an item or item of shoes located in a three-dimensional space, and a sensor module for acquiring light reflected on the item, Dimensional modeling (3D modeling) data, and converts the item information according to the obtained three-dimensional modeling data into a database.
본 발명의 실시예에 따른 3차원 공간에 위치한 아이템을 자동으로 촬영하여 등록하는 시스템의 동작 방법에 있어서, 물품 혹은 신발의 상기 아이템에 대한 이미지 및 반사된 광을 획득하는 단계, 상기 아이템에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하는 단계 및 상기 획득된 3차원 모델링 데이터에 따른 아이템 정보를 데이터베이스화하는 단계를 포함하되, 상기 이미지는 상기 3차원 공간에 포함된 이미지 모듈로부터 획득되며, 상기 반사된 광은 상기 3차원 공간에 포함된 센서 모듈로부터 획득되는 것을 특징으로 한다. An operation method of a system for automatically photographing and registering an item located in a three-dimensional space according to an embodiment of the present invention, comprising: obtaining an image and reflected light for the item of the article or shoe; Acquiring 3D modeling data using the reflected image and the reflected light, and converting the acquired 3D modeling data into a database, wherein the image is stored in the three- Wherein the reflected light is obtained from an image module included in the space, and the reflected light is obtained from a sensor module included in the three-dimensional space.
본 발명의 실시예에 따르면, 3차원 공간 내에 포함된 이미지 모듈 및 센서 모듈을 이용하여 3차원 모델링 데이터 및 아이템 정보를 획득할 수 있다.According to an embodiment of the present invention, three-dimensional modeling data and item information can be obtained using an image module and a sensor module included in a three-dimensional space.
또한, 본 발명의 실시예에 따르면, 자동으로 회전하는 아이템에 대한 이미지 및 반사 광을 이용하여 3차원 모델링 데이터를 획득하고, 딥러닝(Deep Learning)에 필요한 이미지를 획득하여 빅데이터로부터 아이템 정보를 인식하여 데이터베이스화할 수 있다.According to an embodiment of the present invention, three-dimensional modeling data is acquired using an image and reflected light for an automatically rotating item, an image necessary for deep learning is acquired, and item information is extracted from the big data It can be recognized and databaseized.
또한, 본 발명의 실시예에 따르면, 정상적인 형태의 아이템뿐만 아니라, 개봉, 미개봉, 불량품 혹은 재고 상태의 아이템에 대한 보다 세부적인 아이템 정보를 획득하여 데이터베이스화할 수 있다. In addition, according to the embodiment of the present invention, more detailed item information about unopened, unopened, defective or in-stock items can be obtained and stored in a database, as well as normal items.
또한, 본 발명의 실시예에 따르면, 이미지 모듈 및 센서 모듈을 이용하여 아이템의 브랜드, 색상 및 사이즈에 대한 데이터를 획득하고, 인식된 아이템 정보와 아이템 소유자의 정보를 매칭하여 데이터베이스화할 수 있다. In addition, according to the embodiment of the present invention, data on the brand, color and size of the item can be acquired using the image module and the sensor module, and the recognized item information and the information of the item owner can be matched and databaseized.
도 1a 및 도 1b는 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예 및 개념도를 도시한 것이다.
도 2는 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.
도 3은 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.
도 4는 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.
도 5는 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템의 동작 방법의 흐름도를 도시한 것이다.Figs. 1A and 1B illustrate an application example and a conceptual diagram of an automatic photographing system of an item according to an embodiment of the present invention.
2 shows an application example of an automatic photographing system of an item according to another embodiment of the present invention.
FIG. 3 shows an application example of an automatic photographing system of an item according to another embodiment of the present invention.
FIG. 4 shows an application example of an automatic photographing system of an item according to another embodiment of the present invention.
Figure 5 shows a flow chart of a method of operation of an automatic photographing system of an item according to an embodiment of the present invention.
이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.
또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Also, terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the viewer, the intention of the operator, or the custom in the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.
본 발명은 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법에 관한 기술로, 3차원 공간 내 이미지 모듈 및 센서 모듈(또는 프로젝터 모듈)을 이용하여 아이템에 대한 아이템 정보를 획득하는 기술을 제안한다. The present invention relates to a system and method for automatically capturing an item using a three-dimensional space, and proposes a technique of acquiring item information on an item using an image module and a sensor module (or a projector module) in a three-dimensional space .
이하에서는 상기 아이템을 물품, 상품 및 신발로 한정하여 실시예들을 설명하고 있으나, 본 발명의 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법은 물품, 상품 혹은 신발뿐 아니라, 형태, 사이즈, 브랜드 및 카테고리 중 적어도 어느 하나 이상을 감지할 수 있는 사물이면 모두 적용 가능하다. In the following description, the items are described as articles, commodities, and shoes. However, the system and method for automatically capturing items using the three-dimensional space according to the present invention are not limited to the articles, And a category can be detected.
또한, 본 발명의 실시예에 따른 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법은 3차원 공간 내에 위치하는 아이템에 대한 실시간 이미지 및 반사 광을 이용하여 3차원 모델링 데이터를 획득하고, 3차원 모델링 데이터 및 아이템의 이미지에 딥러닝 빅데이터를 적용하여 아이템 정보를 인식 및 데이터화함으로써, 아이템의 개봉, 미개봉의 상태 또는 불량품 및 재고 상태를 파악할 수 있다.In addition, a system and method for automatically capturing an item using a three-dimensional space according to an embodiment of the present invention includes acquiring three-dimensional modeling data using a real-time image and reflected light for an item located in a three- Deep running big data is applied to the modeling data and the image of the item to recognize and dataize the item information so that the state of unopened items, defective items and defective items can be grasped.
이러한 본 발명의 실시예들에 따른 3차원 공간을 이용한 아이템의 자동 촬영 시스템 및 그 방법에 대해 도 1 내지 도 5를 참조하여 상세히 설명한다. A system and method for automatically capturing an item using a three-dimensional space according to embodiments of the present invention will be described in detail with reference to FIGS. 1 to 5. FIG.
도 1a 및 도 1b는 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예 및 개념도를 도시한 것이다.Figs. 1A and 1B illustrate an application example and a conceptual diagram of an automatic photographing system of an item according to an embodiment of the present invention.
도 1a를 참조하면, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)은 3차원 공간 내 이미지 모듈 및 센서 모듈을 이용하여 물품 혹은 신발의 아이템을 인식하고, 아이템 정보를 데이터베이스화한다.Referring to FIG. 1A, an
이에 따른, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)은 3차원 공간(110), 이미지 모듈(120), 센서 모듈(130) 및 제어부(140)를 포함한다.Accordingly, an
3차원 공간(110) 내 아이템(10)이 위치한다. 실시예에 따라서, 3차원 공간(110)은 육면체 또는 육면체 중 한 면이 없는 형태로 상자(또는 박스(Box))의 형태일 수 있다. 이 때, 아이템(10)은 물품, 상품(사고파는 물품) 및 신발 중 적어도 어느 하나일 수 있으며, 상기 물품은 특정 공간 예를 들면, 마트, 쇼핑몰, 편의점, 백화점 등에서 판매되는 물품일 수 있으나, 종류는 이에 한정되지 않는다.The
또한, 아이템(10)은 3차원 공간(110) 내의 테이블(150) 상에 위치하며, 테이블(150)은 회전 가능할 수 있다. 예를 들면, 테이블(150)은 360도 회전 가능하며, 테이블(150)의 회전, 회전 방향 및 회전 속도는 제어부(140)에 의해 제어될 수 있다.
이미지 모듈(120)은 3차원 공간(110) 내 포함되어 아이템(10)에 대한 이미지를 획득한다.The
예를 들면, 이미지 모듈(120)은 카메라인 것을 특징으로 하며, 3차원 공간(110)의 복수의 측면 및 상/하면 중 적어도 하나 이상의 벽면에 부착된 형태일 수 있다. 이 때, 카메라는 복수 개일 수 있으며, 아이템(10)에 대한 3차원 모델링 데이터를 획득하기 위해 3차원 공간(110) 내 상/하/좌/우 사방의 서로 다른 위치, 및 아이템(10)의 다양한 각도에서 복수의 이미지를 획득할 수 있다. For example, the
또한, 이미지 모듈(120)은 테이블(150) 상에서 회전하는 아이템(10)에 대한 복수의 측면에서의 형태(shape), 브랜드(brand) 및 색상(color) 중 적어도 어느 하나 이상에 대한 이미지를 획득할 수 있다. The
실시예에 따라서, 이미지 모듈(120)은 회전하는 아이템(10)에 대해 기 설정된 시간 마다 촬영하여 이미지를 획득할 수 있다. 이 때, 상기 기 설정된 시간은 아이템(10)의 보다 정확한 3차원 모델링 데이터 획득을 위해 최대한 많은 수의 이미지를 획득할 수 있는 시간으로, 회전하는 아이템(10) 속도에 따른 다양한 각도에서의 이미지 획득을 위한 시간일 수 있으며, 이는 본 발명이 적용되는 실시예, 아이템(10)의 크기 및 종류에 따라 다양하게 적용 가능하므로, 한정되지 않는다. Depending on the embodiment, the
센서 모듈(130)은 아이템(10)에 반사된 광 또는 구조광을 획득한다. 이 때, 센서 모듈(130)은 구조광(Structured Light)의 프로젝터 모듈일 수 있으며, 광 센서(Photo Sensor) 또는 적외선 센서(Infrared Sensor)일 수 있다. 또한, 센서 모듈(130)은 3차원 공간(110)의 복수의 측면 및 상/하면 중 적어도 어느 하나의 벽면에 부착된 형태일 수 있으며, 단일 개인 것을 기본으로 하나, 실시예에 따라서는 복수 개일 수도 있다. The
실시예에 따라서, 센서 모듈(130)은 발광부(미도시) 및 수광부(미도시)를 포함하여 일정한 광을 조사하고, 조사된 광은 아이템(10)의 특정 부분에 반사되어 입사될 수 있다. 다른 실시예에 따라서, 센서 모듈(130)은 구조광(미도시)을 조사하고, 조사된 광은 아이템(10)의 특정 부분에 조사되며, 카메라(120)를 통해 입사될 수도 있다. 이에 따라서, 센서 모듈(130)은 아이템(10)에 반사된 복수의 광 또는 구조광을 이용하여 아이템(10)의 사이즈(Size)를 감지할 수 있다. According to an embodiment, the
또한, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)은 3차원 공간(100) 내 포함되며, 아이템(10)의 무게를 감지하는 로드셀 센서(160)를 더 포함할 수 있다. The automatic photographing
예를 들면, 로드셀 센서(160)는 테이블(150) 하단에 위치할 수 있으며, 아이템(10)에 대한 무게를 감지할 수 있다. 이에 따라서 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)은 카테고리 별로 유사한 크기, 형태, 및 무게의 아이템(10)에 대한 무게를 감지함으로써, 복수의 아이템(10)을 보다 정확하게 식별할 수 있다. For example, the
다시 도 1a를 참조하면, 제어부(140)는 아이템(10)에 대한 이미지 및 반사 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하고, 획득된 3차원 모델링 데이터에 따른 아이템 정보를 데이터베이스화한다. Referring again to FIG. 1A, the
제어부(140)는 이미지 모듈(120) 및 센서 모듈(130)로부터 획득된 이미지와, 반사된 광 또는 구조광을 이용하여 아이템(10)에 대한 3차원 모델링 데이터를 회득할 수 있다. 예를 들면, 제어부(140)는 이미지 모듈(120)로부터 수신된 이미지에 따른 아이템(10)에 대한 색상(RGB) 데이터, 및 센서 모듈(130)로부터 수신된 반사 광에 따른 아이템(10)에 대한 깊이(Depth) 데이터로부터 고화질(High Definition, HD) 및 비디오 그래픽 어레이(Video Graphics Array, VGA)의 3차원 모델링 데이터를 획득할 수 있다. The
이후, 제어부(140)는 아이템(10)에 대한 3차원 모델링 데이터 및 이미지 데이터에서 딥러닝(Deep Learning) 빅데이터를 이용하여 아이템 정보를 인식할 수 있다.Then, the
이 때, 제어부(140)는 아이템(10)에 대한 브랜드, 색상, 사이즈 및 형태뿐만 아니라, 무게, 카테고리 및 유통기한 중 적어도 어느 하나 이상을 포함하는 아이템 정보를 인식하며, 인식 결과에 따른 아이템 정보 및 3차원 모델링 데이터를 저장, 유지 및 업데이트할 수 있다. 실시예에 따라서, 제어부(140)는 아이템 정보 및 3차원 모델링 데이터를 기반으로 아이템의 정상적인 형태뿐 아니라, 개봉 및 미개봉 상태와, 불량품 혹은 재고 상태의 아이템(10)에 대한 보다 세부적인 데이터를 저장 및 유지할 수 있으며, 새로운 데이터를 업데이트하여 데이터베이스화할 수 있다. At this time, the
다만, 저장되어 유지되는 데이터는 아이템의 종류에 따라 더욱 다양한 정보를 포함할 수 있고, 전술한 정보를 제외할 수도 있으므로 한정되지 않는다. However, the data stored and held may include more various information depending on the type of the item, and are not limited as they may exclude the above-described information.
본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)의 제어부(140)는 3차원 공간(110) 내 포함된 복수의 이미지 모듈(120), 센서 모듈(130) 및 테이블(150) 중 적어도 어느 하나 이상의 회전을 제어할 수 있으며, 예를 들면, 회전 온(on)/오프(off), 회전 일시 정지, 회전 방향 및 회전 속도 중 적어도 어느 하나의 동작을 제어할 수 있다. The
또한, 제어부(140)는 복수의 이미지 모듈(120), 센서 모듈(130) 및 로드셀 센서(160) 각각의 동작을 제어하여 특정 모듈 및 센서를 선택하여 데이터를 수신할 수 있다. The
또한, 제어부(140)는 아이템 정보에 대응하는 소유자 정보를 매칭시켜 데이터베이스화할 수 있다. 예를 들면, 아이템(10)이 신발인 경우로 가정하면, 제어부(140)는 신발(10)에 대한 소유자 이름, 전화번호, 연락처, 주소, 의뢰 날짜 및 주의사항 중 적어도 어느 하나 이상을 포함하는 소유자 정보와, 3차원 모델링 데이터 및 아이템 정보를 매칭시켜 저장할 수 있다. Also, the
이에 따라서, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100)은 저장, 유지 및 업데이트되는 데이터베이스를 이용하여 아이템(10) 관련 마케팅에 사용할 수 있으며, 데이터베이스를 외부 서버(예를 들면, 마트 서버, 물품 제공 서버 또는 신발 관련 서버)에 제공할 수도 있다. Accordingly, the automatic photographing
도 1b는 본 발명의 실시예에 따른 제어부(140)와 카메라(120), 적외선 센서(130), 테이블(150) 및 로드셀 센서(160) 간의 통신을 개념적으로 설명하기 위해 도시한 것이다.1B is a conceptual diagram illustrating communication between the
도 1b를 참조하면, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100) 내의 제어부(140)는 USB(Universal Serial Bus), USB 3.0 또는 USBUART(Universal asynchronous receiver/transmitter: 범용 비동기화 송수신기)의 통신 방식을 이용하여 이미지 모듈인 카메라(120), 센서 모듈인 적외선 센서(130, 또는 구조광을 조사하는 프로젝터), 테이블(150) 및 로드셀 센서(160)와 연결될 수 있다.Referring to FIG. 1B, the
또한, 제어부(140는 카메라(120)로부터 아이템(10)에 대한 이미지를 수신하고, 적외선 센서(130)로부터 아이템(10)에 반사된 광을 수신하며, 로드셀 센서(160)로부터 아이템(10)에 대한 무게 정보를 수신할 수 있다. 나아가, 제어부(140)는 카메라(120), 적외선 센서(130) 및 테이블(150)의 회전 온(on)/오프(off), 회전 일시 정지, 회전 방향 및 회전 속도 등을 제어할 수 있다.The
실시예에 따라서, 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템(100) 내의 제어부(140)는 카메라(120), 적외선 센서(130), 테이블(150) 및 로드셀 센서(160)와 유무선통신채널로 연결되어 데이터를 송수신할 수도 있다. The
도 2는 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.2 shows an application example of an automatic photographing system of an item according to another embodiment of the present invention.
도 2를 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(200)은 3차원 공간(210) 내 테이블(250)을 제어하는 서브 제어모듈(241)을 포함한다.Referring to FIG. 2, an automatic photographing
3차원 공간(210)은 육면체 또는 육면체 중 한 면이 없는 형태로 상자(또는 박스(Box))의 형태일 수 있으며, 3차원 공간(210)의 각 면은 크로마키 스크린(ChromaKey Screen, 211)으로 형성된 것일 수 있다. The three-
또한, 아이템(10)은 3차원 공간(210) 내에 위치하며, 테이블(250) 상에 존재할 수 있다. 이 때, 테이블(250)은 360도 회전 가능하다. 또한, 아이템(10)은 물품 혹은 신발일 수 있다. Also, the
도 2를 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(200)은 육면체의 3차원 공간(210)의 복수의 측면 및 상/하면 중 적어도 어느 하나의 벽면에 부착된 센서 모듈(230)을 포함하며, 센서 모듈(230)은 광 센서(Photo Sensor) 또는 적외선 센서(Infrared Sensor)일 수 있고, 구조광을 조사하는 프로젝터일 수도 있다. 이 때, 센서 모듈(230)은 하나인 것을 기본으로 하나, 본 발명이 적용되는 실시예에 따라, 복수 개일 수도 있다.2, an automatic photographing
센서 모듈(230)은 발광부(미도시) 및 수광부(미도시)를 포함할 수 있으며, 일정한 광을 조사하고, 아이템(10)의 특정 부분에 반사되어 입사되는 광을 획득하여 아이템(10)의 크기, 즉 사이즈(Size)를 감지할 수 있다. 또한, 센서 모듈(230)은 구조광(미도시)을 조사하고, 아이템(10)의 특정 부분에 조사된 광의 이미지를 획득하여 아이템(10)의 크기, 즉 사이즈(Size)를 감지할 수도 있다. The
본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(200)은 센서 모듈(230)로부터 아이템(10)에 대해 반사된 광을 수신하여 아이템 정보를 데이터베이스화하는 제어부(240)를 포함한다. 이 때, 제어부(240)와 센서 모듈(230)은 USB 3.0로 연결될 수 있다. An automatic photographing
또한, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(200)은 제어부(240)에 USB(Universal Serial Bus), USB 3.0 또는 USBUART(Universal asynchronous receiver/transmitter: 범용 비동기화 송수신기)의 통신 방식으로 연결된 서브 제어모듈(241)을 더 포함할 수 있다.In addition, the automatic photographing
서브 제어모듈(241)은 3차원 공간(210) 내 테이블(250)에 연결될 수 있으며, 실시예에 따라서는 센서 모듈(230)에 연결될 수도 있다. 나아가, 테이블(250) 또는 센서 모듈(230)에 연결된 서브 제어모듈(241)은 제어부(240)에 연결된 형태일 수 있다.The
예를 들면, 서브 제어모듈(241)은 제어부(240)로부터 명령 신호를 수신하고, 명령 신호에 기초하여 테이블(250)의 회전, 회전 방향 및 회전 속도를 제어할 수 있으며, 센서 모듈(230)의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 조사 방향 및 조사 횟수를 제어할 수도 있다. 또한, 서브 제어모듈(241)은 센서 모듈(230)로부터 센싱된 반사 광에 대한 정보를 제어부(240)에 제공할 수 있다.For example, the
다만, 도 2에서는 제어부(240)가 센서 모듈(230)의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 조사 방향 및 조사 횟수를 제어하고, 센서 모듈(230)로부터 센싱된 반사 광에 대한 정보를 수신하는 것을 기본으로 한다. 2, the
도 3은 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.FIG. 3 shows an application example of an automatic photographing system of an item according to another embodiment of the present invention.
도 3을 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(300)은 3차원 공간(310) 내 포함되어 아이템(10)에 대한 이미지를 획득하는 복수의 이미지 모듈(320) 및 복수의 이미지 모듈(320)을 제어하는 서브 제어모듈(341, 342)을 포함한다.3, an automatic photographing
3차원 공간(310)은 육면체 또는 육면체 중 한 면이 없는 형태로 상자(또는 박스(Box))의 형태일 수 있으며, 3차원 공간(310)의 각 면은 크로마키 스크린(ChromaKey Screen)으로 형성된 것일 수 있다. The three-
또한, 3차원 공간(310)은 가장자리에 LED 라이트(Light Emitting Diode; LED Light)를 포함하며, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(300)은 LED 광원의 색상 및 조도를 자동으로 변경하므로, 아이템(10)에 대한 이미지를 보다 밝고 명확하게 획득할 수 있다. 이 때, 이미지 모듈(320)로부터 획득된 이미지는 720p 내지 1080p의 고해상도 영상인 것을 특징으로 한다. In addition, the three-
또한, 아이템(10)은 3차원 공간(310) 내에 위치하며, 테이블(350) 상에 존재할 수 있다. 이 때, 테이블(350)은 360도 회전 가능하다. 또한, 아이템(10)은 물품, 상품 또는 신발일 수 있다.The
도 3을 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(300)은 육면체의 3차원 공간(310)의 복수의 측면 및 상/하면 중 적어도 어느 하나 이상의 벽면에 부착된 복수의 이미지 모듈(320)을 포함하며, 이미지 모듈(320)은 카메라일 수 있다. 이 때, 이미지 모듈(320)은 육면체의 3차원 공간(310)에서 아이템(10)을 중심으로 네 방향에서의 복수의 측면 또는 천장인 상면에 주로 위치할 수 있으며, 아이템(10)에 대한 이미지를 일직선에서 획득하기 위한 위치 또는 아이템(10)에 대한 이미지를 다양한 각도에서 획득하기 위한 위치에 형성된 형태일 수 있다. 다만, 이미지 모듈(320)의 개수 및 위치는 이에 한정되지 않는다.3, an automatic photographing
본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(300)은 이미지 모듈(320)로부터 아이템(10)에 대한 이미지를 수신하여 아이템 정보를 데이터베이스화하는 제어부(340)를 포함한다. 이 때, 제어부(340)는 복수의 서브 제어모듈(341, 342)과 USB(Universal Serial Bus)로 연결될 수 있다.An automatic photographing
도 3을 참조하면, 테이블을 제어하는 서브 제어모듈(341)은 3차원 공간(310) 내 테이블(350)에 연결될 수 있으며, 카메라를 제어하는 서브 제어모듈(342)은 3차원 공간(310) 내 포함된 복수의 이미지 모듈(320)에 연결될 수 있다. 또한, 카메라를 제어하는 서브 제어모듈(342) 각각은 USB(Universal Serial Bus), USB 3.0 또는 USBUART(Universal asynchronous receiver/transmitter: 범용 비동기화 송수신기)의 통신 방식으로 연결될 수 있다. 이 때, 카메라를 제어하는 서브 제어모듈(342)은 하나의 모듈 형태 또는 복수 개의 모듈 형태일 수 있다.3, the
또한, 테이블을 제어하는 서브 제어모듈(341) 및 카메라를 제어하는 서브 제어모듈(342)은 제어부(340)로부터 명령 신호를 수신할 수 있다.The
예를 들면, 테이블을 제어하는 서브 제어모듈(341)은 제어부(340)로부터 수신된 명령 신호에 기초하여 테이블(350)의 회전, 회전 방향 및 회전 속도를 제어할 수 있다. 또한, 카메라를 제어하는 서브 제어모듈(342)은 복수의 이미지 모듈(320) 각각의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 촬영 방향, 촬영 시간 및 촬영 횟수를 제어할 수도 있다.For example, the
또한, 카메라를 제어하는 서브 제어모듈(342)은 복수의 이미지 모듈(320)로부터 획득된 이미지를 제어부(340)에 제공할 수 있다.In addition, the
도 4는 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템의 적용 예를 도시한 것이다.FIG. 4 shows an application example of an automatic photographing system of an item according to another embodiment of the present invention.
도 4를 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(400)은 3차원 공간(410) 내 포함되어 아이템(10)에 대한 이미지 및 반사 광을 획득하는 복수의 이미지 모듈(420) 및 센서 모듈(430)과, 복수의 서브 제어모듈(441, 442)을 포함한다. 4, an automatic photographing
3차원 공간(410)은 육면체 또는 육면체 중 한 면이 없는 형태로 상자(또는 박스(Box))의 형태일 수 있으며, 3차원 공간(410)의 각 면은 크로마키 스크린(ChromaKey Screen)으로 형성된 것일 수 있고, 가장자리에 LED 라이트(Light Emitting Diode; LED Light)를 포함한 형태일 수 있다. The three-
또한, 아이템(10)은 3차원 공간(410) 내에 위치하며, 테이블(450) 상에 존재할 수 있다. 이 때, 테이블(450)은 360도 회전 가능하다. 또한, 아이템(10)은 물품, 상품 또는 신발일 수 있다.
도 4를 참조하면, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(400)은 육면체의 3차원 공간(410)의 복수의 측면 및 상/하면 중 적어도 어느 하나 이상의 벽면에 부착된 복수의 이미지 모듈(420)을 포함하고, 육면체의 3차원 공간(410)의 복수의 측면 및 상/하면 중 적어도 어느 하나의 벽면에 부착된 센서 모듈(430)을 포함할 수 있다.4, an automatic photographing
이 때, 이미지 모듈(420)은 카메라일 수 있으며, 센서 모듈(430)은 광 센서(Photo Sensor) 또는 적외선 센서(Infrared Sensor)일 수 있고, 구조광(Structured Light)을 조사하는 프로젝터일 수도 있다. In this case, the
도 4를 참조하면, 복수의 이미지 모듈(420)은 육면체의 3차원 공간(410)에서 아이템(10)을 중심으로 네 방향에서의 복수의 측면 또는 천장인 상면에 주로 위치할 수 있으며, 센서 모듈(430)은 3차원 공간(410)의 측면에 단일로 위치할 수 있다. 다만, 이 때, 이미지 모듈(420) 및 센서 모듈(430)의 위치, 개수 및 부착 면은 이에 한정되지 아니함은 당연하다.Referring to FIG. 4, the plurality of
예를 들면, 이미지 모듈(420)은 아이템(10)에 대한 이미지를 일직선에서 획득하기 위한 위치 또는 아이템(10)에 대한 이미지를 다양한 각도에서 획득하기 위한 위치에 형성된 형태일 수 있으며, 3차원 모델링 데이터를 획득하기 위한 복수의 개수를 포함할 수 있다. For example, the
이 때, 이미지 모듈(420)은 아이템(10)에 대한 다양한 이미지를 획득하여 아이템의 형태(shape), 브랜드(brand) 및 색상(color)를 감지할 수 있다. 또한, 센서 모듈(430)은 발광부(미도시) 및 수광부(미도시)를 포함하여 일정한 광을 조사하고, 아이템의 특정 부분에 반사된 광을 획득하여 아이템의 크기, 즉 사이즈(Size)를 감지할 수 있다. 또한, 센서 모듈(430)은 구조광(미도시)을 조사하고, 아이템(10)의 특정 부분에 조사된 광의 이미지를 획득하여 아이템(10)의 크기, 즉 사이즈(Size)를 감지할 수도 있다.At this time, the
본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(400)은 이미지 모듈(420) 및 센서 모듈(430)로부터 아이템(10)에 대한 이미지 및 반사된 광을 수신하여 3차원 모델링 데이터를 획득하고, 딥러닝 빅데이터를 이용하여 아이템 정보를 인식하며, 3차원 모델링 데이터 및 아이템 정보를 데이터베이스화하는 제어부(440)를 포함한다. 이 때, 제어부(440)는 복수의 서브 제어모듈(441, 442)과 USB(Universal Serial Bus)로 연결될 수 있다.An automatic photographing
도 4를 참조하면, 테이블을 제어하는 서브 제어모듈(441)은 3차원 공간(410) 내 테이블(450)에 연결될 수 있으며, 카메라를 제어하는 서브 제어모듈(442)은 3차원 공간(410) 내 포함된 복수의 이미지 모듈(420)에 연결될 수 있다. 실시예에 따라서, 본 발명의 다른 실시예에 따른 아이템의 자동 촬영 시스템(400)은 3차원 공간(410) 내 포함된 센서 모듈(430)에 연결되어 센서 모듈을 제어하는 서브 제어모듈(미도시)을 더 포함할 수 있다. 4, the
또한, 카메라를 제어하는 서브 제어모듈(442) 각각은 USB(Universal Serial Bus), USB 3.0 또는 USBUART(Universal asynchronous receiver/transmitter: 범용 비동기화 송수신기)의 통신 방식으로 연결될 수 있다. 이 때, 카메라를 제어하는 서브 제어모듈(442)은 하나의 모듈 형태 또는 복수 개의 모듈 형태일 수 있다. Each of the
또한, 테이블을 제어하는 서브 제어모듈(441), 카메라를 제어하는 서브 제어모듈(442) 및 센서 모듈을 제어하는 서브 제어모듈(미도시) 중 적어도 어느 하나 이상은 제어부(440)로부터 명령 신호를 수신할 수 있다. At least any one or more of the
예를 들면, 테이블을 제어하는 서브 제어모듈(441)은 제어부(440)로부터 수신된 명령 신호에 기초하여 테이블(450)의 회전, 회전 방향 및 회전 속도를 제어할 수 있다. 또한, 카메라를 제어하는 서브 제어모듈(442)은 복수의 이미지 모듈(420) 각각의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 촬영 방향, 촬영 시간 및 촬영 횟수를 제어할 수도 있다. For example, the
또한, 센서 모듈을 제어하는 서브 제어모듈(미도시)은 센서 모듈(430)의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 조사 방향 및 조사 횟수를 제어할 수도 있다. 또한, 카메라를 제어하는 서브 제어모듈(442) 및 센서 모듈을 제어하는 서브 제어모듈(미도시)은 복수의 이미지 모듈(420)로부터 획득된 이미지 및 센서 모듈(430)로부터 센싱된 반사 광에 대한 정보를 제어부(440)에 제공할 수 있다. The sub control module (not shown) for controlling the sensor module may control on / off, rotation, rotation direction, rotation speed, irradiation direction, and the number of irradiation of the
다만, 도 4에서는 제어부(440)가 센서 모듈(430)의 온(On)/오프(Off), 회전, 회전 방향, 회전 속도, 조사 방향 및 조사 횟수를 제어하고, 센서 모듈(430)로부터 센싱된 반사 광에 대한 정보를 수신하는 것을 기본으로 한다.4, the
도 5는 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템의 동작 방법의 흐름도를 도시한 것이다.Figure 5 shows a flow chart of a method of operation of an automatic photographing system of an item according to an embodiment of the present invention.
도 5에 도시된 방법은 도 1a에 도시된 본 발명의 실시예에 따른 아이템의 자동 촬영 시스템에 의해 수행될 수 있다.The method shown in FIG. 5 may be performed by an automatic photographing system of an item according to the embodiment of the present invention shown in FIG. 1A.
도 5를 참조하면, 단계 510에서 물품 혹은 신발의 아이템에 대한 이미지 및 반사된 광을 획득한다.Referring to FIG. 5, at
예를 들면, 단계 510은 육면체 또는 육면체 중 한 면이 없는 형태로 상자(또는 박스(Box)) 형태의 3차원 공간 내 포함된 이미지 모듈 및 센서 모듈로부터 아이템에 대한 이미지 및 반사된 광을 획득하는 단계일 수 있다.For example, step 510 may include obtaining image and reflected light for an item from an image module and a sensor module included in a three-dimensional space in the form of a box (or Box) in the form of one of a hexahedron or a hexahedron Step.
이 때, 이미지 모듈은 카메라로 아이템에 대한 복수의 각도에서의 이미지를 획득하며, 센서 모듈은 광 센서 또는 적외선 센서로 아이템에 반사된 광을 획득할 수 있다. At this time, the image module acquires an image at a plurality of angles with respect to the item with the camera, and the sensor module can acquire the light reflected on the item with an optical sensor or an infrared sensor.
단계 520에서 아이템에 대해 획득된 이미지 및 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득한다. At
단계 520은 3차원 공간 내 이미지 모듈로부터 수신된 이미지에 따른 아이템에 대한 색상(RGB) 데이터, 및 센서 모듈로부터 수신된 반사 광에 따른 아이템에 대한 깊이(Depth) 데이터로부터 고화질(High Definition, HD) 및 비디오 그래픽 어레이(Video Graphics Array, VGA)의 3차원 모델링 데이터를 획득하는 단계일 수 있다. Step 520 is a step of generating a High Definition (HD) image from the color (RGB) data for the item according to the image received from the image module in the three-dimensional space, and the depth data for the item according to the reflected light received from the sensor module. And a three-dimensional modeling data of a video graphics array (VGA).
단계 530에서 획득된 3차원 모델링 데이터에 따른 아이템 정보를 데이터베이스화한다. The item information according to the three-dimensional modeling data obtained in
예를 들면, 단계 530은 획득된 3차원 모델링 데이터에 딥러닝(Deep Learning) 빅데이터를 이용하여 아이템에 대한 브랜드, 색상, 사이즈 및 형태뿐만 아니라, 무게, 카테고리 및 유통기한 중 적어도 어느 하나 이상을 포함하는 아이템 정보를 인식하고, 인식된 아이템 정보 및 3차원 모델링 데이터를 저장, 유지 및 업데이트하여 데이터베이스화하는 단계일 수 있다.For example, in
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기광 매체(magnetooptical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CDROMs and DVDs, magnetic optical media such as floppy disks, magnetooptical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
10: 아이템(물품 혹은 신발 등)
100, 200, 300, 400: 아이템의 자동 촬영 시스템
110, 210, 310, 410: 3차원 공간
120, 320, 420: 이미지 모듈(또는 카메라)
130, 230, 430: 센서 모듈(또는 적외선 센서)
150, 250, 350, 450: 테이블
160: 로드셀 센서
211: 크로마키 스크린10: Item (goods or shoes, etc.)
100, 200, 300, 400: Automatic shooting system of items
110, 210, 310, 410: three-dimensional space
120, 320, 420: image module (or camera)
130, 230, 430: a sensor module (or an infrared sensor)
150, 250, 350, 450: table
160: Load cell sensor
211: Chroma key screen
Claims (17)
상기 3차원 공간 내 포함되어 상기 물품에 대한 이미지를 획득하는 이미지 모듈;
상기 물품에 반사된 광을 획득하는 센서 모듈; 및
상기 물품에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하고, 상기 획득된 3차원 모델링 데이터에 따른 물품 정보를 데이터베이스화하는 제어부
를 포함하는 아이템의 자동 촬영 시스템.A three-dimensional space in which the article is placed;
An image module included in the three-dimensional space to obtain an image for the article;
A sensor module for acquiring light reflected on the article; And
Dimensional modeling data by using the image and the reflected light obtained for the article, and converting the obtained article information into a database
Of the item.
상기 물품은
상기 3차원 공간 내의 테이블 상에 위치하며,
상기 테이블은 회전 가능한 것을 특징으로 하는 아이템의 자동 촬영 시스템.The method according to claim 1,
The article
Dimensional space on the table,
Characterized in that the table is rotatable.
상기 이미지 모듈은
카메라인 것을 특징으로 하며, 상기 물품의 형태(shape) 및 브랜드(brand)에 대한 상기 이미지를 획득하는 아이템의 자동 촬영 시스템. The method according to claim 1,
The image module
Characterized in that it is a camera, and the automatic photographing system of the item obtains the image for the shape and brand of the article.
상기 센서 모듈은
적외선 센서(Infrared Sensor) 또는 구조광(Structured Light)을 조사하는 프로젝터인 것을 특징으로 하며, 상기 물품에 반사된 광을 이용하여 상기 물품의 사이즈(Size)를 감지하는 아이템의 자동 촬영 시스템.The method according to claim 1,
The sensor module
Wherein the light source is a projector for illuminating an infrared sensor or a structured light and detects the size of the article using light reflected on the article.
상기 제어부는
상기 이미지 모듈, 상기 센서 모듈 및 상기 테이블 중 적어도 어느 하나 이상의 회전을 제어하는 것을 특징으로 하는 아이템의 자동 촬영 시스템. 3. The method of claim 2,
The control unit
Wherein the control unit controls rotation of at least one of the image module, the sensor module, and the table.
상기 제어부는
상기 이미지 및 상기 반사된 광을 이용하여 상기 물품에 대한 3차원 모델링 데이터를 획득하고, 딥러닝(Deep Learning) 빅데이터를 이용하여 상기 물품 정보를 인식하는 것을 특징으로 하는 아이템의 자동 촬영 시스템. The method according to claim 1,
The control unit
Acquiring three-dimensional modeling data for the article using the image and the reflected light, and recognizing the article information using deep learning big data.
상기 제어부는
상기 물품에 대한 브랜드, 색상, 사이즈 및 형태뿐만 아니라, 무게, 카테고리 및 유통기한 중 적어도 어느 하나 이상을 포함하는 상기 물품 정보를 인식하며, 인식 결과 별로 저장, 유지 및 업데이트하여 데이터베이스화하는 아이템의 자동 촬영 시스템. The method according to claim 6,
The control unit
Recognizing the article information including at least any one of a brand, a color, a size and a shape of the article, a weight, a category, and a shelf life, and storing, maintaining, Shooting system.
상기 3차원 공간 내 포함되며, 상기 물품의 무게를 감지하는 로드셀 센서
를 더 포함하는 아이템의 자동 촬영 시스템. The method according to claim 1,
A load cell sensor included in the three-dimensional space for sensing the weight of the article,
Further comprising an automatic photographing system for an item.
상기 3차원 공간 내 포함되어 상기 신발에 대한 이미지를 획득하는 이미지 모듈;
상기 신발에 반사된 광을 획득하는 센서 모듈; 및
상기 신발에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하고, 상기 획득된 3차원 모델링 데이터에 따른 신발 정보를 데이터베이스화하는 제어부
를 포함하는 아이템의 자동 촬영 시스템. A three dimensional space in which shoes are located;
An image module included in the three-dimensional space to obtain an image of the shoe;
A sensor module for acquiring light reflected on the shoe; And
Obtaining 3D modeling data by using the image and the reflected light obtained for the shoe, and converting the shoe information according to the obtained 3D modeling data into a database,
Of the item.
상기 신발은
상기 3차원 공간 내의 테이블 상에 위치하며,
상기 테이블은 회전 가능한 것을 특징으로 하는 아이템의 자동 촬영 시스템.10. The method of claim 9,
The shoe
Dimensional space on the table,
Characterized in that the table is rotatable.
상기 이미지 모듈은
카메라인 것을 특징으로 하며, 상기 신발의 형태(shape) 및 브랜드(brand)에 대한 상기 이미지를 획득하는 아이템의 자동 촬영 시스템. 10. The method of claim 9,
The image module
Characterized in that it is a camera, wherein the automatic shooting system of the item obtains the image of the shape and brand of the shoe.
상기 센서 모듈은
적외선 센서(Infrared Sensor) 또는 구조광(Structured Light)을 조사하는 프로젝터인 것을 특징으로 하며, 상기 신발에 반사된 광을 이용하여 상기 신발의 사이즈(Size)를 감지하는 아이템의 자동 촬영 시스템. 10. The method of claim 9,
The sensor module
Wherein the projector is a projector for illuminating an infrared sensor or a structured light, wherein the size of the shoe is detected using light reflected from the shoe.
상기 제어부는
상기 이미지 모듈, 상기 센서 모듈 및 상기 테이블 중 적어도 어느 하나 이상의 회전을 제어하는 것을 특징으로 하는 아이템의 자동 촬영 시스템. 11. The method of claim 10,
The control unit
Wherein the control unit controls rotation of at least one of the image module, the sensor module, and the table.
상기 제어부는
상기 이미지 및 상기 반사된 광을 이용하여 상기 신발에 대한 3차원 모델링 데이터를 획득하고, 딥러닝(Deep Learning) 빅데이터를 이용하여 상기 신발 정보를 인식하는 것을 특징으로 하는 아이템의 자동 촬영 시스템. 10. The method of claim 9,
The control unit
Acquiring three-dimensional modeling data for the shoe using the image and the reflected light, and recognizing the shoe information using deep learning big data.
상기 제어부는
상기 신발에 대한 브랜드, 색상, 사이즈 및 형태 중 적어도 어느 하나 이상의 상기 신발 정보를 인식하고, 인식 결과와 상기 신발 정보에 대응하는 소유자 정보를 매칭시켜 저장, 유지 및 업데이트하여 데이터베이스화하는 아이템의 자동 촬영 시스템.15. The method of claim 14,
The control unit
Wherein the shoe information recognizing unit recognizes at least one of the shoe information of the shoe, color, size and shape of the shoe, matches the shoe information with the owner information corresponding to the shoe information, stores the shoe information, system.
물품 혹은 신발의 상기 아이템에 대한 이미지 및 반사된 광을 획득하는 단계;
상기 아이템에 대해 획득된 상기 이미지 및 상기 반사된 광을 이용하여 3차원 모델링(3D Modeling) 데이터를 획득하는 단계; 및
상기 획득된 3차원 모델링 데이터에 따른 아이템 정보를 데이터베이스화하는 단계를 포함하되,
상기 이미지는 상기 3차원 공간에 포함된 이미지 모듈로부터 획득되며, 상기 반사된 광은 상기 3차원 공간에 포함된 센서 모듈로부터 획득되는 것을 특징으로 하는 아이템의 자동 촬영 방법.A method of operating a system for automatically capturing and registering items located in a three-dimensional space,
Obtaining an image and reflected light for said item of article or shoe;
Obtaining 3D modeling data using the image and the reflected light acquired for the item; And
And converting the item information according to the obtained three-dimensional modeling data into a database,
Wherein the image is obtained from an image module included in the three-dimensional space, and the reflected light is obtained from a sensor module included in the three-dimensional space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170107779A KR102398750B1 (en) | 2017-08-25 | 2017-08-25 | Automatic photograph system of item using 3d space and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170107779A KR102398750B1 (en) | 2017-08-25 | 2017-08-25 | Automatic photograph system of item using 3d space and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190022041A true KR20190022041A (en) | 2019-03-06 |
KR102398750B1 KR102398750B1 (en) | 2022-05-16 |
Family
ID=65761206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170107779A KR102398750B1 (en) | 2017-08-25 | 2017-08-25 | Automatic photograph system of item using 3d space and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102398750B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102578468B1 (en) * | 2023-06-02 | 2023-09-14 | (주)샘터 | Actual image generation system and method for online exhibition products |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011242139A (en) * | 2010-05-14 | 2011-12-01 | Pulstec Industrial Co Ltd | Device and method for measuring three dimensional shape |
KR20120041708A (en) | 2012-02-17 | 2012-05-02 | 유철영 | Using three-dimensional digital information goods management system |
KR20120083060A (en) * | 2011-01-17 | 2012-07-25 | 주식회사 인스프리트 | Mobile communication system having an augmented reality purchasing function using a real-time image recognition and tag information and controlling method therefor |
KR101331923B1 (en) * | 2010-10-19 | 2013-11-22 | 주식회사 포스트큐브 | System for automatic postal teller and control method thereof |
KR20150101749A (en) * | 2014-02-27 | 2015-09-04 | 엘지전자 주식회사 | Device for estimating three-dimensional shape of object and method thereof |
-
2017
- 2017-08-25 KR KR1020170107779A patent/KR102398750B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011242139A (en) * | 2010-05-14 | 2011-12-01 | Pulstec Industrial Co Ltd | Device and method for measuring three dimensional shape |
KR101331923B1 (en) * | 2010-10-19 | 2013-11-22 | 주식회사 포스트큐브 | System for automatic postal teller and control method thereof |
KR20120083060A (en) * | 2011-01-17 | 2012-07-25 | 주식회사 인스프리트 | Mobile communication system having an augmented reality purchasing function using a real-time image recognition and tag information and controlling method therefor |
KR20120041708A (en) | 2012-02-17 | 2012-05-02 | 유철영 | Using three-dimensional digital information goods management system |
KR20150101749A (en) * | 2014-02-27 | 2015-09-04 | 엘지전자 주식회사 | Device for estimating three-dimensional shape of object and method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102578468B1 (en) * | 2023-06-02 | 2023-09-14 | (주)샘터 | Actual image generation system and method for online exhibition products |
Also Published As
Publication number | Publication date |
---|---|
KR102398750B1 (en) | 2022-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11315262B1 (en) | Tracking objects in three-dimensional space using calibrated visual cameras and depth cameras | |
US11798152B2 (en) | Systems and methods for object dimensioning based on partial visual information | |
TWI701604B (en) | Method and apparatus of generating a distance map of a scene | |
US11313677B2 (en) | Automated surveying of real world objects | |
JP2019530035A (en) | Multiple camera systems for inventory tracking | |
KR20190031431A (en) | Method and system for locating, identifying and counting articles | |
JP2023134626A (en) | Range finder for determining at least one piece of geometric information | |
JP6844692B2 (en) | Learning data generator, learning data generation method, and program | |
US10891739B2 (en) | Object tracking with a holographic projection | |
US10839554B2 (en) | Image labeling for cleaning robot deep learning system | |
JP2019537541A (en) | An adaptive process to guide inventory work performed by humans | |
US11568654B2 (en) | Object recognition method and object recognition device performing the same | |
US11354885B1 (en) | Image data and simulated illumination maps | |
US20190164281A1 (en) | Robotic pill filling, counting, and validation | |
CN106133477A (en) | The location estimation of the light source according to light area of coverage illumination apparatus | |
US11809634B2 (en) | Identifying an object in a field of view | |
WO2021034681A1 (en) | Systems and methods for image capture and shelf content detection | |
KR20190022041A (en) | Automatic photograph system of item using 3d space and method thereof | |
Li et al. | Using Kinect for monitoring warehouse order picking operations | |
Lutz et al. | Probabilistic object recognition and pose estimation by fusing multiple algorithms | |
US11398094B1 (en) | Locally and globally locating actors by digital cameras and machine learning | |
JP2021003929A (en) | Learning datum generation device and object detection device | |
US11443516B1 (en) | Locally and globally locating actors by digital cameras and machine learning | |
JP2022535887A (en) | Apparatus and method for forming at least one ground truth database for an object recognition system | |
KR20220083347A (en) | Method, apparatus, and computer program for measuring volume of objects by using image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |