KR20220095675A - System and method of recogning airport baggage vision sorter - Google Patents

System and method of recogning airport baggage vision sorter Download PDF

Info

Publication number
KR20220095675A
KR20220095675A KR1020200187429A KR20200187429A KR20220095675A KR 20220095675 A KR20220095675 A KR 20220095675A KR 1020200187429 A KR1020200187429 A KR 1020200187429A KR 20200187429 A KR20200187429 A KR 20200187429A KR 20220095675 A KR20220095675 A KR 20220095675A
Authority
KR
South Korea
Prior art keywords
baggage
luggage
photographing unit
vision
barcode
Prior art date
Application number
KR1020200187429A
Other languages
Korean (ko)
Inventor
백인엽
박창무
양석철
임원래
도기영
이환주
정상훈
Original Assignee
한국공항공사
주식회사 칸정보기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국공항공사, 주식회사 칸정보기술 filed Critical 한국공항공사
Priority to KR1020200187429A priority Critical patent/KR20220095675A/en
Publication of KR20220095675A publication Critical patent/KR20220095675A/en
Priority to KR1020230072594A priority patent/KR20230098745A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C3/00Sorting according to destination
    • B07C3/10Apparatus characterised by the means used for detection ofthe destination
    • B07C3/14Apparatus characterised by the means used for detection ofthe destination using light-responsive detecting means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C3/00Sorting according to destination
    • B07C3/02Apparatus characterised by the means used for distribution
    • B07C3/08Apparatus characterised by the means used for distribution using arrangements of conveyors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C3/00Sorting according to destination
    • B07C3/18Devices or arrangements for indicating destination, e.g. by code marks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02WCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
    • Y02W90/00Enabling technologies or technologies with a potential or indirect contribution to greenhouse gas [GHG] emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are an airport baggage vision recognition sorter system and method for improving baggage sorting accuracy and reaching an accurate drop-off point. According to an embodiment of the present invention, an airport baggage vision recognition sorter system comprises: a primary photographing unit which obtains feature data and barcode information from a first baggage image of the baggage photographed by a vision camera, and registers the feature data and barcode information in a server; and a secondary photographing unit which obtains feature data from a second baggage image of unclassified baggage photographed by the vision camera if the baggage is determined as unclassified baggage because the barcode information is not recognized in a barcode recognition system, and classifies and processes the unclassified baggage by extracting the registered barcode information corresponding to the obtained feature data from the server.

Description

공항 수하물 비전인식 소터 시스템 및 방법{SYSTEM AND METHOD OF RECOGNING AIRPORT BAGGAGE VISION SORTER}Airport Baggage Vision Recognition Sorter System and Method

본 발명은, 바코드 인식과 비전 인식을 병행하여, 보다 높은 정확도로 수화물을 분류, 처리할 수 있게 하는, 공항 수하물 비전인식 소터 시스템 및 방법에 관한 것이다.The present invention relates to an airport baggage vision recognition sorter system and method, which can classify and process baggage with higher accuracy by performing barcode recognition and vision recognition in parallel.

현재 공항에서 사용되고 있는 수하물 분류 시스템인 소터 시스템은, 수하물에 부착된 바코드 정보를 인식하여, 수하물을 지정된 장소로 도착시키는 시스템이다.The sorter system, which is a baggage sorting system currently used in airports, recognizes barcode information attached to baggage and arrives the baggage to a designated place.

소터 시스템은 현재 95%의 정확도를 가지고 있지만, 바코드 정보를 읽지 못하여 분류되지 않는 5%의 오분류 수하물은, 여전히 번거로운 수작업의 형태로 재분류되고 있는 실정이다.Although the sorter system currently has an accuracy of 95%, 5% of misclassified baggage that is not classified because it cannot read barcode information is still being reclassified in the form of cumbersome manual work.

즉, 현재의 소터 시스템은 바코드 정보 만을 읽어 수화물을 분류하고 있어, 바코드 정보를 읽지 못한 수화물의 분류에 대해서는 인적 자원이 투입되어야 하는 한계가 있어 왔다.That is, the current sorter system classifies luggage by reading only barcode information, so there has been a limit in that human resources must be input for the classification of luggage that does not read barcode information.

따라서, 수화물의 분류에 있어, 비전 인식 모델을 적용하여, 보다 높은 정확도로 수화물은 분류하는 새로운 방식의 등장이 절실히 요구된다.Accordingly, there is an urgent need for a new method of classifying luggage with higher accuracy by applying a vision recognition model in luggage classification.

본 발명의 실시예는, 인공지능 카메라를 체크인 데스크에 설치하여 바코드 정보와 수하물의 외부 형태를 1차 촬영 수집해두고, 바코드 인식기 통과 시 인식되지 않은 수하물에 대해 2차 촬영을 함으로써, 외부 형태의 비교를 통해 1차 촬영시에 수집한 바코드 정보를 이용하여 수하물의 분류 작업 정확도를 향상시키고, 수하물을 정확한 하차지점에 도달시키는, 공항 수하물 비전인식 소터 시스템 및 방법을 제공하는 것을 해결과제로 한다.In an embodiment of the present invention, an artificial intelligence camera is installed at the check-in desk to collect barcode information and the external shape of the luggage, and secondary pictures are taken for unrecognized luggage when passing through the barcode reader, thereby comparing the external shape. A task to solve is to provide an airport baggage vision recognition sorter system and method that improves the accuracy of baggage sorting by using the barcode information collected during the first shooting through

또한, 본 발명의 실시예는, 체크인 데스크에 설치된 카메라와 PC에서 1차 촬영된 영상을 인공지능을 통해 추출한 특징데이터를 서버에 업로드하고, 미분류된 수하물을 2차 촬영하여 인공지능으로 특징데이터를 추출한 후, 서버에 업로드된 특징데이터를 다운로드받아 미분류된 수하물들에 대해서만 특징데이터들끼리 비교함으로써 시스템의 전체 부하를 분산시키고 줄이는 것을 목적으로 한다.In addition, an embodiment of the present invention uploads feature data extracted through artificial intelligence from a camera and a PC installed at the check-in desk to a server, and then takes a second shot of unclassified baggage and uses artificial intelligence to transmit the feature data. After extraction, the purpose of distributing and reducing the overall load of the system is to download the feature data uploaded to the server and compare the feature data only for unclassified baggage.

본 발명의 일실시예에 따른, 공항 수하물 비전인식 소터 시스템은, 비전 카메라에서 촬영한 수화물의 제1 수화물 이미지로부터 특징데이터와 바코드 정보를 획득하고, 상기 특징데이터와 상기 바코드 정보를 대응시켜 서버에 등록하는 1차 촬영부; 및 상기 수화물이 바코드 인식 시스템에서 바코드 정보가 인식되지 않아 미분류 수화물로 정해지면, 비전 카메라에서 촬영한 상기 미분류 수화물의 제2 수화물 이미지로부터 특징데이터를 획득하고, 상기 획득한 특징데이터에 대응하여 등록된 바코드 정보를 상기 서버로부터 추출 함으로써, 상기 미분류 수화물에 대해 분류 처리하는 2차 촬영부를 포함 할 수 있다.According to an embodiment of the present invention, the airport baggage vision recognition sorter system acquires feature data and barcode information from a first baggage image of baggage photographed by a vision camera, and matches the feature data with the barcode information to a server the first recording unit to register; And if the baggage is determined as unclassified baggage because barcode information is not recognized by the barcode recognition system, feature data is obtained from the second baggage image of the unclassified baggage photographed by the vision camera, and registered corresponding to the acquired feature data By extracting barcode information from the server, it may include a secondary photographing unit that sorts and processes the unclassified baggage.

또한, 본 발명의 실시예에 따른, 공항 수하물 비전인식 소터 방법은, 1차 촬영부에서, 비전 카메라에서 촬영한 수화물의 제1 수화물 이미지로부터 특징데이터와 바코드 정보를 획득하는 단계; 상기 1차 촬영부에서, 상기 특징데이터와 상기 바코드 정보를 대응시켜 서버에 등록하는 단계; 상기 수화물이 바코드 인식 방법에서 바코드 정보가 인식되지 않아 미분류 수화물로 정해지면, 2차 촬영부에서, 비전 카메라에서 촬영한 상기 미분류 수화물의 제2 수화물 이미지로부터 특징데이터를 획득하는 단계; 및 상기 2차 촬영부에서, 상기 획득한 특징데이터에 대응하여 등록된 바코드 정보를 상기 서버로부터 추출 함으로써, 상기 미분류 수화물에 대해 분류 처리하는 단계를 포함하여 구성할 수 있다.In addition, according to an embodiment of the present invention, the airport baggage vision recognition sorter method includes: obtaining, in a primary photographing unit, characteristic data and barcode information from a first baggage image of the baggage photographed by the vision camera; registering, in the primary photographing unit, the characteristic data and the barcode information in correspondence with the server; If the baggage is determined as unclassified baggage because barcode information is not recognized in the barcode recognition method, acquiring characteristic data from a second baggage image of the unclassified baggage photographed by a vision camera in a secondary photographing unit; and in the secondary photographing unit, by extracting barcode information registered in response to the acquired characteristic data from the server, classifying the unclassified baggage.

본 발명의 일실시예에 따르면, 인공지능 카메라를 체크인 데스크에 설치하여 바코드 정보와 수하물의 외부 형태를 1차 촬영 수집해두고, 바코드 인식기 통과 시 인식되지 않은 수하물에 대해 2차 촬영을 함으로써, 외부 형태의 비교를 통해 1차 촬영시에 수집한 바코드 정보를 이용하여 수하물의 분류 작업 정확도를 향상시키고, 수하물을 정확한 하차지점에 도달시키는, 공항 수하물 비전인식 소터 시스템 및 방법을 제공할 수 있다.According to an embodiment of the present invention, an artificial intelligence camera is installed at the check-in desk to collect barcode information and the external shape of the luggage, and the external shape is taken by taking a secondary picture of the unrecognized luggage when passing through the barcode reader. Through the comparison, it is possible to provide an airport baggage vision recognition sorter system and method that improves the accuracy of the baggage sorting operation by using the barcode information collected during the first filming and reaches the correct drop-off point.

또한, 본 발명의 일실시예에 따르면, 체크인 데스크에 설치된 카메라와 PC에서 1차 촬영된 영상을 인공지능을 통해 추출한 특징데이터를 서버에 업로드하고, 미분류된 수하물을 2차 촬영하여 인공지능으로 특징데이터를 추출한 후, 서버에 업로드된 특징데이터를 다운로드받아 미분류된 수하물들에 대해서만 특징데이터들끼리 비교함으로써 시스템의 전체 부하를 분산시키고 줄일 수 있다.In addition, according to an embodiment of the present invention, feature data extracted through artificial intelligence from a camera and a PC installed at the check-in desk are uploaded to the server, and unclassified baggage is captured secondly to be characterized by artificial intelligence. After extracting the data, it is possible to distribute and reduce the overall load of the system by downloading the feature data uploaded to the server and comparing the feature data only for unclassified baggage.

도 1은 본 발명의 일실시예에 따른 공항 수하물 비전인식 소터 시스템의 구성을 도시한 블록도이다.
도 2는 본 발명의 일실시예에 따른 시스템 개략도이다.
도 3은 체크인 데스크(카운터)에 설치되는 1차 촬영부를 예시하기 위한 도이다.
도 4는 2차 비전인식 인식률에 따른 전체 성공률의 변화를 설명하기 위한 도이다.
도 5는 본 발명의 일실시예에 따른, 공항 수하물 비전인식 소터 방법을 도시한 흐름도이다.
1 is a block diagram showing the configuration of an airport baggage vision recognition sorter system according to an embodiment of the present invention.
2 is a schematic diagram of a system according to an embodiment of the present invention;
3 is a diagram for illustrating a primary photographing unit installed at a check-in desk (counter).
4 is a diagram for explaining a change in the overall success rate according to the secondary vision recognition recognition rate.
5 is a flowchart illustrating an airport baggage vision recognition sorter method according to an embodiment of the present invention.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

도 1은 본 발명의 일실시예에 따른 공항 수하물 비전인식 소터 시스템의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of an airport baggage vision recognition sorter system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른, 공항 수하물 비전인식 소터 시스템(100)은, 1차 촬영부(110), 및 2차 촬영부(120)를 포함하여 구성할 수 있다.Referring to FIG. 1 , the airport baggage vision recognition sorter system 100 according to an embodiment of the present invention may include a primary photographing unit 110 and a secondary photographing unit 120 .

우선, 1차 촬영부(110)는 비전 카메라에서 촬영한 수화물의 제1 수화물 이미지로부터 특징데이터와 바코드 정보를 획득한다. 즉, 1차 촬영부(110)는 제1 수화물 이미지에 대해 비전 인식을 하여, 수화물의 외형에 관한 특징데이터와, 수화물에 태깅되어 있는 바코드 정보를 인식하는 역할을 할 수 있다.First, the primary photographing unit 110 acquires feature data and barcode information from the first baggage image of the baggage photographed by the vision camera. That is, the primary photographing unit 110 may perform a vision recognition for the first luggage image, and may serve to recognize characteristic data regarding the appearance of the luggage and barcode information tagged on the luggage.

여기서, 비전 카메라는, 이미지 데이터를 캡처하여 압축되지 않은 상태의 제1 수화물 이미지를 생성 함으로써, 수화물에 대한 외형 탐지와 정보 코드 판독이 가능하도록 하는 비전 머신의 일종일 수 있다.Here, the vision camera may be a kind of vision machine that captures image data and generates an uncompressed image of the first luggage, so that it is possible to detect the shape of the luggage and read the information code.

또한, 특징데이터는, 수화물이 갖는 외형적 특징에 관한 데이터로서, 예컨대 수화물의 가로/세로/높이 길이, 형태, 컬러, 질감, 손잡이/바퀴 유무 등의 외형적 특징을 포함할 수 있다.In addition, the characteristic data is data regarding the external characteristics of the luggage, and may include, for example, external characteristics such as width/length/height length, shape, color, texture, and presence or absence of a handle/wheel of the luggage.

또한, 바코드 정보는, 체크인시 승객의 수화물의 겉면에 태깅되는 막대 모양의 선과 숫자 등의 조합 정보를 지칭할 수 있다.In addition, the barcode information may refer to combination information such as a bar-shaped line and a number that are tagged on the surface of a passenger's baggage upon check-in.

또한, 비전 인식은, AI 시각을 이용하여, 수화물에 태깅되는 바코드 정보를, 제1 수화물 이미지로부터, 의미 있는 정보로서 추출하는 기술일 수 있다. 이러한 비전 인식은, 딥러닝과 딥뷰 기술이 접목되면서 자율주행차, 산업용 로봇, 의료영상 진단기술, 스마트홈, 지능형 CCTV, 출입 통제, 안면인식, 공장 자율화 같은 다양한 산업에서 활용되고 있다.In addition, vision recognition may be a technology of extracting barcode information tagged on luggage as meaningful information from the first luggage image using AI time. Such vision recognition is being used in various industries such as autonomous vehicles, industrial robots, medical imaging technology, smart home, intelligent CCTV, access control, facial recognition, and factory automation as deep learning and deep view technologies are combined.

다시 말해, 1차 촬영부(110)는 수화물을 촬영한 제1 수화물 이미지로부터, 수화물 외형의 특징 데이터와, 체크인 시에 부여된 바코드 정보를 획득할 수 있다.In other words, the primary photographing unit 110 may obtain the characteristic data of the appearance of the luggage and barcode information given at the time of check-in from the first luggage image obtained by photographing the luggage.

또한, 1차 촬영부(110)는 상기 특징데이터와 상기 바코드 정보를 대응시켜 서버에 등록한다. 즉, 1차 촬영부(110)는 특징 데이터를 이용하여, 수화물의 바코드 정보를 확보할 수 있도록, 특징 데이터와 바코드 정보를 서로 대응시켜 서버에 유지하는 역할을 할 수 있다.In addition, the primary photographing unit 110 registers the characteristic data and the barcode information in correspondence with the server. That is, the primary photographing unit 110 may play a role of maintaining the characteristic data and the barcode information in the server by matching them with each other so that the barcode information of the luggage can be secured by using the characteristic data.

2차 촬영부(120)는 상기 수화물이 바코드 인식 시스템에서 바코드 정보가 인식되지 않아 미분류 수화물로 정해지면, 비전 카메라에서 촬영한 상기 미분류 수화물의 제2 수화물 이미지로부터 특징데이터를 획득한다. 즉, 2차 촬영부(120)는 바코드 인식이 되지 않는 미분류 수화물에 대해, 비전 인식을 하여, 수화물의 외형에 관한 특징데이터를 다시 인식하는 역할을 할 수 있다.When the baggage is determined as unclassified baggage because barcode information is not recognized by the barcode recognition system, the secondary photographing unit 120 acquires characteristic data from the second baggage image of the unclassified baggage photographed by the vision camera. That is, the secondary photographing unit 120 may perform a vision recognition for unclassified baggage for which barcode recognition is not performed, and may play a role of re-recognizing the characteristic data regarding the appearance of the baggage.

바코드 인식 시스템은 수화물에 태깅된 바코드 자체를 읽어, 해당 수화물이 이동되어야 하는 이동처를 식별하고, 이동 장치로 전달하여, 수화물이 식별된 이동처로 이동, 분류시키는 장치일 수 있다.The barcode recognition system may be a device that reads the barcode itself tagged on the luggage, identifies a moving destination to which the corresponding baggage is to be moved, and transmits it to the moving device, so that the baggage is moved to and sorted by the identified moving destination.

상기 미분류 수화물은 수화물이 전도되거나, 바코드가 훼손되는 등의 장애에 따라, 바코드 인식 시스템에서 바코드를 정확하게 읽지 못해 이동처가 식별되지 못한 수화물을 지칭할 수 있다.The uncategorized luggage may refer to luggage whose moving destination cannot be identified because the barcode recognition system cannot accurately read the barcode according to obstacles such as the luggage being overturned or the barcode being damaged.

이후, 2차 촬영부(120)는 상기 획득한 특징데이터에 대응하여 등록된 바코드 정보를 상기 서버로부터 추출 함으로써, 상기 미분류 수화물에 대해 분류 처리한다. 즉, 2차 촬영부(120)는 제2 수화물 이미지의 특징데이터와 선정된 범위에서 동일성을 갖는, 제1 수화물 이미지의 특징데이터를 서버에서 찾고, 찾은 특징데이터에 대응되어 보관되는 바코드 정보를 검색하여, 미분류 수화물의 이동처를 추정하는 역할을 할 수 있다.Thereafter, the secondary photographing unit 120 classifies the unclassified baggage by extracting barcode information registered in response to the acquired characteristic data from the server. That is, the secondary photographing unit 120 searches the server for the characteristic data of the first luggage image having the sameness as the characteristic data of the second luggage image within a selected range, and searches for barcode information stored in correspondence to the found characteristic data. Thus, it can serve to estimate the destination of unclassified baggage.

상기 선정된 범위는 본 발명의 운영자가 경험과 실험을 통해 유연하게 정할 수 있고, 예컨대 제2 수화물 이미지의 특징데이터와 제1 수화물 이미지의 특징데이터 간의 동일 정도가 99% 인 것으로 정할 수 있다.The selected range may be flexibly determined by the operator of the present invention through experience and experimentation, and for example, it may be determined that the same degree between the characteristic data of the second luggage image and the characteristic data of the first luggage image is 99%.

궁극적으로, 2차 촬영부(120)는 서버에서 추출된 바코드 정보를 바코드 인식 시스템으로 전달 함으로써, 상기 바코드 인식 시스템으로 하여금, 상기 미분류 수화물이 올바른 이동처로 이동, 분류되도록 지원 할 수 있다.Ultimately, the secondary photographing unit 120 transmits the barcode information extracted from the server to the barcode recognition system, so that the barcode recognition system can support the movement and sorting of the unclassified baggage to the correct moving destination.

실시예에 따라, 공항 수하물 비전인식 소터 시스템(100)은 구성인 1차 촬영부(110)와 2차 촬영부(120)의 설치 위치를 특정 할 수 있다.According to an embodiment, the airport baggage vision recognition sorter system 100 may specify the installation positions of the primary photographing unit 110 and the secondary photographing unit 120 that are components.

즉, 1차 촬영부(110)는, 체크인 카운터에 설치되고, 2차 촬영부(120)는, 상기 바코드 인식 시스템의 후단에 설치될 수 있다. 이러한 설치 위치는, 바코드가 태깅되는 시점에서 1차 촬영부(110)에 의해 수화물의 바코드 정보를 보다 명확하게 인식할 수 있게 하고, 또한 바코드 인식 시스템에서 바코드 인식이 정상적으로 이루어지지 않는 미분류 수화물에 대해 2차 촬영부(120)에 의해 특징데이터를 신속하게 획득할 수 있게 하는 장소일 수 있다.That is, the primary photographing unit 110 may be installed at the check-in counter, and the secondary photographing unit 120 may be installed at the rear end of the barcode recognition system. This installation position allows the barcode information of the luggage to be more clearly recognized by the primary photographing unit 110 at the time when the barcode is tagged, and also for unclassified luggage in which barcode recognition is not normally performed in the barcode recognition system. It may be a place where feature data can be quickly acquired by the secondary photographing unit 120 .

또한, 공항 수하물 비전인식 소터 시스템(100)은 구성인 1차 촬영부(110)와 2차 촬영부(120)에 부속되는 비전 카메라에서의 촬영 방향을 특정 할 수 있다.In addition, the airport baggage vision recognition sorter system 100 may specify a photographing direction in the vision camera attached to the primary photographing unit 110 and the secondary photographing unit 120 .

즉, 비전 카메라는, 위쪽에서 아래쪽으로 비스듬하게 설치되는 4개의 카메라에서, 서로 상이한 4개의 시야방향으로, 상기 제1 수화물 이미지 또는 상기 제2 수화물 이미지를 촬영할 수 있다. 이를 통해, 비전 카메라는 수화물의 전후좌우 전방향을 촬영하는 수화물 이미지를 생성하여, 수화물에 대한 외형이 보다 정확하게 파악되도록 할 수 있다.That is, the vision camera may photograph the first luggage image or the second luggage image in four different viewing directions from the four cameras installed obliquely from top to bottom. Through this, the vision camera can generate a luggage image that captures the front, back, left, right, and omnidirectional directions of the luggage, so that the outer shape of the luggage can be more accurately grasped.

실시예에 따라, 공항 수하물 비전인식 소터 시스템(100)은 다양한 알고리즘을 사용하여, 수화물 이미지로부터 바코드 정보를 획득할 수 있다.According to an embodiment, the airport baggage vision recognition sorter system 100 may use various algorithms to obtain barcode information from the baggage image.

즉, 1차 촬영부(110)는, YOLO Algorism, CNN과 SIFT, 및 Template Matching Algorism 중 적어도 하나를 적용하여, 상기 제1 수화물 이미지로부터 상기 바코드 정보를 획득할 수 있다.That is, the primary photographing unit 110 may obtain the barcode information from the first luggage image by applying at least one of YOLO Algorism, CNN and SIFT, and Template Matching Algorism.

YOLO(You Only Look Once) Algorism은 R-CNN(Region with Convolutional Neural Network)의 느린 성능을 개선하기 위해 고안된 것으로, R-CNN은 region proposal이라는 수백 개의 이미지 후보를 생성하고 각각에 대해 분류하는 반면, YOLO Algorism은 격자 그리드로 나누어 한 번에 클래스를 판단하고 이를 통합해 최종 객체를 구분 함으로써, 빠른 속도로 객체인 바코드 정보의 획득을 가능하게 한다.YOLO (You Only Look Once) Algorism is designed to improve the slow performance of Region with Convolutional Neural Network (R-CNN), which generates hundreds of image candidates called region proposals and classifies them for each, while YOLO Algorism makes it possible to acquire barcode information, which is an object, at a high speed by dividing it into a grid grid to determine a class at a time and integrating it to classify the final object.

SIFT(Scale Invariant Feature Transform)는 이미지에서 Feature를 추출하는 대표적인 알고리즘 중의 하나로, 이미지의 scale(크기), Rotation(회전)에 불변하는 feature(특징)을 추출하기 때문에, 이미지가 회전해도 크기가 변해도 항상 그 위치에서 뽑히는 특징으로서의 바코드 정보의 획득을 가능하게 한다.SIFT (Scale Invariant Feature Transform) is one of the representative algorithms for extracting features from images. It enables the acquisition of barcode information as a feature to be pulled from the position.

Template Matching Algorism은 참조 영상(reference image)에서 템플릿(template) 영상과 매칭되는 위치를 탐색하는 알고리즘으로서, 에지, 코너점, 주파수 변환 등의 특징 공간으로 변환하여 템플릿 매칭을 수행하고, 영상의 밝기 등에 덜 민감하도록 정규화 과정을 통해, 특징인 바코드 정보의 획득을 가능하게 한다.Template Matching Algorism is an algorithm that searches a reference image for a location that matches a template image. It performs template matching by converting it into a feature space such as edge, corner point, and frequency transformation, and the brightness of the image. Through a normalization process to be less sensitive, it is possible to obtain characteristic barcode information.

실시예에 따라, 공항 수하물 비전인식 소터 시스템(100)은 2차 촬영부(120)에 의한 특징데이터의 추출에 따른 바코드 정보를 추출할 수 없는 미분류 수화물에 대해, 분류 전문 인력에 의한 수동적인 분류 작업이 이루어지도록 유도할 수 있다.According to an embodiment, the airport baggage vision recognition sorter system 100 is passively classified by a classification expert for unclassified baggage that cannot extract barcode information according to the extraction of feature data by the secondary photographing unit 120 . It can induce work to be done.

이를 위해, 2차 촬영부(120)는, 상기 제2 수화물 이미지로부터 획득한 특징데이터와 정해진 비율 이내에서 일치하는 특징데이터가 상기 서버에 등록되어 있지 않으면, 상기 미분류 수화물에 대해 수동분류 처리를 안내할 수 있다.To this end, the secondary photographing unit 120 guides the manual classification process for the unclassified baggage if the feature data that matches the feature data obtained from the second baggage image within a predetermined ratio is not registered in the server. can do.

상기 수동분류 처리에 대한 안내는, 미분류 수화물의 발생과 관련한 정보를, 분류 전문 인력에 보유한 단말로 전송하거나 음성으로 통보하는 것 등을 예시할 수 있다.The guidance on the manual sorting process may include transmitting information related to the generation of unclassified baggage to a terminal possessed by a sorting expert or notifying it by voice.

즉, 2차 촬영부(120)는 제2 수화물 이미지의 특징데이터와 선정된 범위에서 동일성을 갖는, 제1 수화물 이미지의 특징데이터를 서버에서 찾을 수 없는 경우, 해당 미분류 수화물을 수동분류 처리되게 하여, 미분류 수화물이 적절한 이동처로 이동하도록 지원 할 수 있다.That is, when the secondary photographing unit 120 cannot find the characteristic data of the first luggage image having the sameness with the characteristic data of the second luggage image in the selected range in the server, the unclassified luggage is manually classified. In other words, it can support the movement of unclassified baggage to an appropriate place of movement.

본 발명의 일실시예에 따르면, 인공지능 카메라를 체크인 데스크에 설치하여 바코드 정보와 수하물의 외부 형태를 1차 촬영 수집해두고, 바코드 인식기 통과 시 인식되지 않은 수하물에 대해 2차 촬영을 함으로써, 외부 형태의 비교를 통해 1차 촬영시에 수집한 바코드 정보를 이용하여 수하물의 분류 작업 정확도를 향상시키고, 수하물을 정확한 하차지점에 도달시키는, 공항 수하물 비전인식 소터 시스템 및 방법을 제공할 수 있다.According to an embodiment of the present invention, an artificial intelligence camera is installed at the check-in desk to collect barcode information and the external shape of the luggage, and the external shape is taken by taking a secondary picture of the unrecognized luggage when passing through the barcode reader. Through the comparison, it is possible to provide an airport baggage vision recognition sorter system and method that improves the accuracy of the baggage sorting operation by using the barcode information collected during the first filming and reaches the correct drop-off point.

또한, 본 발명의 일실시예에 따르면, 체크인 데스크에 설치된 카메라와 PC에서 1차 촬영된 영상을 인공지능을 통해 추출한 특징데이터를 서버에 업로드하고, 미분류된 수하물을 2차 촬영하여 인공지능으로 특징데이터를 추출한 후, 서버에 업로드된 특징데이터를 다운로드받아 미분류된 수하물들에 대해서만 특징데이터들끼리 비교함으로써 시스템의 전체 부하를 분산시키고 줄일 수 있다.In addition, according to an embodiment of the present invention, feature data extracted through artificial intelligence from a camera and a PC installed at the check-in desk are uploaded to the server, and unclassified baggage is captured secondly to be characterized by artificial intelligence. After extracting the data, it is possible to distribute and reduce the overall load of the system by downloading the feature data uploaded to the server and comparing the feature data only for unclassified baggage.

수하물 분류에 있어, 기존에는, 바코드 인식 물품 자동 분류기술을 이용하여, 물품에 부착된 바코드를 읽어 분류하는 1차 분류 기능의 시스템 만으로 구성되어 있어서, 1차 분류 시 바코드가 미 인식되면 수작업으로 재분류하여야 하는 불편함이 있어 왔다.In the case of baggage classification, conventionally, it consists of only a system with a primary classification function that reads and sorts barcodes attached to goods using barcode recognition automatic goods classification technology. There has been inconvenience to classify.

이러한 수작업에 의한 재분류 작업은, 대량의 수하물을 취급하는 공항에 있어, 인적/물적 부담을 가중시키는 원인이 되고 있다.This manual reclassification operation is a cause of aggravating the human/material burden in airports that handle a large amount of baggage.

기 설치된 바코드 인식 물품 자동 분류시스템인 소터(sorter) 시스템은, 설치시 많은 비용이 들어가고, 약 95%의 물품 분류 성능을 가지고 있는 시스템이다.The pre-installed sorter system, which is an automatic sorting system for barcode recognition, costs a lot to install, and has about 95% of sorting performance.

본 발명에서는, 기존의 설치된 소터 시스템을 유지하면서 추가적인 시스템의 설치를 통해, 총 2단계 제품의 분류 시스템을 구축 함으로써, 현재 95%의 선별율을 98% 이상의 성능으로 개선할 수 있는, 공항 수하물 비전인식 소터 시스템 및 방법을 제공한다.In the present invention, the airport baggage vision, which can improve the current 95% sorting rate to 98% or more, by building a total two-stage product classification system through the installation of an additional system while maintaining the existing installed sorter system A recognition sorter system and method are provided.

이에 따라, 본 발명에 의해서는, 현장노동자의 근무환경 개선과 분류 정확도 상승으로 인한 고객만족 등을, 많은 비용이 드는 시스템 전체의 개선이 아닌 저비용 고효율 시스템을 개발하여 보급할 수 있다.Accordingly, according to the present invention, it is possible to develop and disseminate a low-cost and high-efficiency system to improve the working environment of field workers and increase customer satisfaction due to increased classification accuracy, rather than the costly improvement of the entire system.

도 2는 본 발명의 일실시예에 따른 시스템 개략도이다.2 is a schematic diagram of a system according to an embodiment of the present invention;

도 2에 도시한 바와 같이, 공항 수하물 비전인식 소터 시스템(100)은, 체크인 데스크(카운터)에 인공지능 카메라를 설치하여 수하물을 1차 촬영한다. 즉, 공항 수하물 비전인식 소터 시스템(100)은, 수하물 분류 시작점에서 제품 비전인식을 하여, 수하물의 외형과 바코드 정보를 획득 할 수 있다.As shown in FIG. 2 , the airport baggage vision recognition sorter system 100 installs an artificial intelligence camera at the check-in desk (counter) to first photograph the baggage. That is, the airport baggage vision recognition sorter system 100 may acquire the appearance and barcode information of the baggage by performing product vision recognition at the starting point of baggage classification.

공항 수하물 비전인식 소터 시스템(100)은, 바코드 인식 시스템을 통해 (1차)바코드 인식을 수행할 수 있다.The airport baggage vision recognition sorter system 100 may perform (primary) barcode recognition through the barcode recognition system.

또한, 공항 수하물 비전인식 소터 시스템(100)은, 바코드 인식 시스템 후단으로, 인공지능 카메라를 배치하여, 바코드 인식 시스템에서 바코드 인식이 제대로 이루어지지 않는 수하물에 대해 2차 촬영을 할 수 있다.In addition, the airport baggage vision recognition sorter system 100, by arranging an artificial intelligence camera at the rear end of the barcode recognition system, may take a secondary photograph for baggage whose barcode recognition is not properly performed in the barcode recognition system.

이후, 공항 수하물 비전인식 소터 시스템(100)은, 1차, 2차 촬영된 수하물의 영상들을 비교하여, 바코드 인식이 이루어지지 않는 수하물에 대한 바코드 정보를, 1차 촬영된 영상으로부터 획득하여, 비전인식 데이터 정보 기반 인식을 함으로써, 수하물을 올바르게 분류될 수 있도록 한다.Then, the airport baggage vision recognition sorter system 100 compares the images of the first and second photographed baggage, and obtains barcode information about the baggage for which barcode recognition is not performed, from the first photographed image, By performing recognition data information-based recognition, baggage can be classified correctly.

공항 수하물 비전인식 소터 시스템(100)은, 최신 인공지능 영상인식 기술을 적용하여, 사람의 눈보다 더 뛰어난 인식 성능으로 수하물을 올바르게 찾을 수 있도록 지원할 수 있다.The airport baggage vision recognition sorter system 100 may apply the latest artificial intelligence image recognition technology to support correctly finding baggage with better recognition performance than the human eye.

도 3은 체크인 데스크(카운터)에 설치되는 1차 촬영부를 예시하기 위한 도이다.3 is a diagram for illustrating a primary photographing unit installed at a check-in desk (counter).

도 3에서와 같이, 1차 촬영부(310)는 체크인 데스크에 비전카메라 4대를 4방향의 위쪽에서 아래쪽으로 비스듬하게 수하물을 촬영할 수 있도록 설치하여 구성한다. 4대의 카메라는 한 대의 PC에 연결되며, 이 PC는 네트워크와 연결된다As shown in FIG. 3 , the primary photographing unit 310 is configured by installing four vision cameras at the check-in desk so that the luggage can be photographed obliquely from the top to the bottom in four directions. 4 cameras are connected to one PC, which is connected to the network

1차 촬영부(310)는 AI 카메라와 체크인 날짜 및 사전 분류 카메라를 교차 확인하여 수하물의 형상을 인식한다.The primary photographing unit 310 cross-checks the AI camera, the check-in date, and the pre-classification camera to recognize the shape of the baggage.

수하물의 형상 인식 방법으로는, 예컨대 YOLO Algorism, CNN과 SIFT, Template Matching Algorism 등을 활용할 수 있다.As a method of recognizing the shape of a luggage, for example, YOLO Algorism, CNN and SIFT, Template Matching Algorism, etc. can be used.

YOLO Algorism은 수하물의 브랜드와 특징을 인식하고, ROI 인식을 통한 수하물의 경계를 확인하며, 동작속도가 매우 빠르다는 특징이 있다.YOLO Algorism recognizes the brand and characteristics of luggage, checks the boundaries of luggage through ROI recognition, and has a very fast operation speed.

CNN은 시각적 이미지를 분석하는 데 사용되는 인공신경망의 한 종류이고, SIFT(Scale Invariant Feature Transform)은 특징점을 추출하는 방법일 수 있다.CNN is a type of artificial neural network used to analyze visual images, and SIFT (Scale Invariant Feature Transform) may be a method for extracting feature points.

1차 촬영부(310)는 CNN과 SIFT를 활용한 수화물의 세밀한 특징을 추적 및 분류할 수 있다.The primary photographing unit 310 may track and classify detailed features of luggage using CNN and SIFT.

Template Matching Algorism은 전 단계에서 추출된 정보를 조합하고, BASS 시스템에 저장된 정보와 매칭하여 수하물을 확인할 수 있다.The Template Matching Algorism combines the information extracted from the previous steps and matches the information stored in the BASS system to check baggage.

2차 촬영부(320)는 바코드 인식 시스템 후단으로 설치되고, 1차 촬영부(310)와 유사하게 4대의 카메라를 4방향의 위쪽에서 아래쪽으로 비스듬하게 수하물을 촬영할 수 있도록 설치하여 구성한다. 4대의 카메라는 한 대의 PC에 연결되며, 이 PC는 네트워크 및 바코드 인식 시스템과 연결된다.The secondary photographing unit 320 is installed at the rear end of the barcode recognition system, and similarly to the primary photographing unit 310, four cameras are installed so as to be able to photograph the baggage obliquely from top to bottom in 4 directions. Four cameras are connected to one PC, which is connected to the network and barcode recognition system.

1차 촬영부(310)는 수화물을 체크인 데스크에서 컨베이어로 옮길 때, 설치된 4대의 비전카메라로 4방향에서 수하물을 사진 촬영하고, 연결된 PC를 통해 인공지능으로 처리하여 특징데이터를 추출한 후, 수하물의 바코드 정보와 함께 특징데이터를 서버로 업로드할 수 있다. When the baggage is moved from the check-in desk to the conveyor, the primary photographing unit 310 takes photos of the baggage in four directions with four installed vision cameras, processes it with artificial intelligence through a connected PC, extracts characteristic data, and Feature data can be uploaded to the server along with barcode information.

2차 촬영부(320)는 바코드 시스템이 분류하지 못한 미 분류 수하물이 발생하면, 설치된 4대의 비전카메라로 4방향에서 다시 한번 수하물을 사진 촬영하고, 연결된 PC를 통해 인공지능으로 처리하여 특징데이터를 추출한 후, 서버에 업로드된 특징데이터과 비교한다. 2차 촬영부(320)는 비교 결과, 신뢰성 있는 점수로 매칭되는 수하물의 바코드 정보를 확인하고, 확인된 바코드 정보에 따라 수하물이 자동분류 되도록 할 수 있다.The secondary photographing unit 320, when unsorted baggage that the barcode system cannot classify occurs, takes photos of the baggage again in four directions with four installed vision cameras, and processes the characteristic data with artificial intelligence through a connected PC. After extraction, it is compared with the feature data uploaded to the server. As a result of the comparison, the secondary photographing unit 320 may check the barcode information of the baggage that matches the reliable score, and automatically classify the baggage according to the checked barcode information.

1차 촬영부(310)는 수하물을 4방향으로 촬영함에 따라 수하물의 전체 특징을 놓치지 않게 하며, 2차 촬영부(320)는 역시 수하물을 4방향으로 촬영함으로써 이동과정에서 발생하는 회전 등에 대해 강인하게 특징을 정합 할 수 있다.The primary photographing unit 310 does not miss the overall characteristics of the baggage as it shoots the baggage in four directions, and the secondary photographing unit 320 also takes the baggage in four directions, so it is strong against rotations that occur during the movement process. characteristics can be matched.

공항 수하물 비전인식 소터 시스템(100)은, 실제 공항에서 이동되는 많은 양의 실제 수하물들에 대해 1차 촬영부(310) 및 2차 촬영부(320)에서 4방향 영상을 촬영하고, 이를 기존의 바코드 시스템을 활용하여 매칭함으로써, 인공지능의 학습데이터로 활용할 수 있다.The airport baggage vision recognition sorter system 100 shoots a four-way image from the primary photographing unit 310 and the secondary photographing unit 320 for a large amount of actual baggage moved at the actual airport, and By matching using the barcode system, it can be used as learning data for artificial intelligence.

공항 수하물 비전인식 소터 시스템(100)은, 인공지능을 활용하여 CNN 기반의 특징추출 네트워크를 적용하고 실제 다양하고 많은 수의 수하물들에 대해 학습을 함으로써, 수하물의 색깔, 모양, 손잡이 형태, 특징적인 패턴 등을 잘 찾을 수 있도록 자동적으로 학습되어, 실제 수하물을 높은 정확도로 분류할 수 있다.The airport baggage vision recognition sorter system 100 applies a CNN-based feature extraction network using artificial intelligence and actually learns about various and large numbers of baggage, so that the color, shape, handle shape, and characteristic features of the baggage It is automatically learned to find patterns, etc., and can classify real baggage with high accuracy.

공항 수하물 비전인식 소터 시스템(100)은 체크인 데스크에 설치된 카메라와 PC에서 촬영된 영상을 인공지능을 통해 추출한 특징데이터 만을 서버에 업로드하고, 2차 촬영부(320)에서 수하물을 촬영하여 인공지능으로 특징데이터를 추출한 후, 서버에 업로드된 특징데이터들을 다운로드받아 미분류된 수하물들에 대해서만 특징데이터들끼리 비교함으로써 시스템의 전체 부하를 분산시키고 줄일 수 있도록 한다.The airport baggage vision recognition sorter system 100 uploads only the feature data extracted from the images captured by the camera and PC installed at the check-in desk through artificial intelligence to the server, and the secondary photographing unit 320 takes the baggage and uses it as artificial intelligence. After extracting the feature data, download the feature data uploaded to the server and compare the feature data only for unclassified baggage to distribute and reduce the overall load of the system.

도 4는 2차 비전인식 인식률에 따른 전체 성공률의 변화를 설명하기 위한 도이다.4 is a diagram for explaining a change in the overall success rate according to the secondary vision recognition recognition rate.

공항 수하물 비전인식 소터 시스템(100)은 인공지능 비전인식을 기반으로 공항 소터 시스템의 정확도와 안전성을 향상시킬 수 있다. 공항 수하물 비전인식 소터 시스템(100)은 기존의 소터 시스템의 1차 바코드 인식과 인공지능 비전인식 시스템의 2차 객체정밀인식을 더하여 98% 이상의 인식률 상승이 가능하다.The airport baggage vision recognition sorter system 100 can improve the accuracy and safety of the airport sorter system based on artificial intelligence vision recognition. The airport baggage vision recognition sorter system 100 can increase the recognition rate by more than 98% by adding the primary barcode recognition of the existing sorter system and the secondary object precision recognition of the artificial intelligence vision recognition system.

예컨대, 1년 동안 OO 공항에서 약 1250만 명의 고객이 수하물을 이용하였고, 95%의 정확도와 1500만 개의 짐으로 단순 계산하면, 미분류 수하물은 75만개가 발생된 것으로 추정할 수 있다.For example, if about 12.5 million customers used baggage at OO Airport for one year, and a simple calculation with 95% accuracy and 15 million pieces of baggage, it can be estimated that 750,000 pieces of unclassified baggage were generated.

도 4에서와 같이, 2차 비전인식 인식률이 50% 이면, 공항 수하물 비전인식 소터 시스템(100)은 97.5%의 정확도로, 1500만 개의 짐에 대한 미분류 수하물의 개수를, 37.5만개로 줄일 수 있다.As shown in Figure 4, if the secondary vision recognition recognition rate is 50%, the airport baggage vision recognition sorter system 100 can reduce the number of unsorted baggage for 15 million pieces of baggage to 375,000 with an accuracy of 97.5%. .

만약, 비전인식 인식률을 95% 로 향상시키면, 공항 수하물 비전인식 소터 시스템(100)은 99.75%의 정확도로, 1500만 개의 짐에 대한 미분류 수하물의 개수를, 3.75만개로 획기적으로 줄일 수 있다.If the vision recognition recognition rate is improved to 95%, the airport baggage vision recognition sorter system 100 can dramatically reduce the number of unsorted baggage for 15 million pieces of baggage to 375 thousand with an accuracy of 99.75%.

본 발명에 따른 공항 수하물 비전인식 소터 시스템(100)은 1차와 2차 분류작업 완료 시 98% 이상의 정확도로 연간 5만 개 이하로 미 분류 물품을 줄이는 것을 목표로 한다.The airport baggage vision recognition sorter system 100 according to the present invention aims to reduce unsorted items to less than 50,000 items per year with an accuracy of 98% or more when the first and second sorting tasks are completed.

공항 수하물 비전인식 소터 시스템(100)은 딥러닝을 통해 정확도를 상승시키는 경우, 체크인 카운터에서 별도에 바코드 없이 체크인 시 인공지능 비전인식 카메라를 단독 사용하는 방식을 적용 함으로써 업무의 단계를 줄이고 나아가 바코드의 분실로 발생되는 미 분류를 줄일 수 있다.When the airport baggage vision recognition sorter system 100 increases the accuracy through deep learning, it reduces the steps of work by applying a method of using an artificial intelligence vision recognition camera alone at check-in without a separate barcode at the check-in counter, thereby reducing the steps of the barcode It is possible to reduce misclassification caused by loss.

공항 수하물 비전인식 소터 시스템(100)은 빅데이터 기반 운영을 통해 체크인시 이동물품의 상태를 기록하여 이동중 물품에 문제 발생 시 신속한 대처로 고객 서비스를 강화할 수 있다. The airport baggage vision recognition sorter system 100 records the status of moving goods at check-in through big data-based operation, so that customer service can be strengthened by promptly responding to problems with goods in transit.

공항 수하물 비전인식 소터 시스템(100)은 4차산업 AI기반 고부가 제품으로 스마트 에어포트로의 발전에 도움이 되며 성수기 공항의 수하물 처리 시설의 과부하를 예방할 수 있다.The airport baggage vision recognition sorter system 100 is a high value-added product based on AI for the 4th industry, which helps in the development of smart airports and can prevent overload of baggage handling facilities at airports during peak season.

이하, 도 5에서는 본 발명의 실시예들에 따른 공항 수하물 비전인식 소터 시스템(100)의 작업 흐름을 상세히 설명한다.Hereinafter, a work flow of the airport baggage vision recognition sorter system 100 according to embodiments of the present invention will be described in detail with reference to FIG. 5 .

본 실시예에 따른 공항 수하물 비전인식 소터 방법은, 공항 수하물 비전인식 소터 시스템(100)에 의해 수행될 수 있다.The airport baggage vision recognition sorter method according to the present embodiment may be performed by the airport baggage vision recognition sorter system 100 .

도 5는 본 발명의 일실시예에 따른, 공항 수하물 비전인식 소터 방법을 도시한 흐름도이다.5 is a flowchart illustrating an airport baggage vision recognition sorter method according to an embodiment of the present invention.

우선, 공항 수하물 비전인식 소터 시스템(100)의 1차 촬영부는, 비전 카메라에서 촬영한 수화물의 제1 수화물 이미지로부터 특징데이터와 바코드 정보를 획득한다(510). 단계(510)은 제1 수화물 이미지에 대해 비전 인식을 하여, 수화물의 외형에 관한 특징데이터와, 수화물에 태깅되어 있는 바코드 정보를 인식하는 과정일 수 있다.First, the primary photographing unit of the airport baggage vision recognition sorter system 100 acquires feature data and barcode information from the first baggage image of the baggage photographed by the vision camera ( 510 ). Step 510 may be a process of recognizing the characteristic data regarding the appearance of the luggage and barcode information tagged on the luggage by performing vision recognition on the first luggage image.

여기서, 비전 카메라는, 이미지 데이터를 캡처하여 압축되지 않은 상태의 제1 수화물 이미지를 생성 함으로써, 수화물에 대한 외형 탐지와 정보 코드 판독이 가능하도록 하는 비전 머신의 일종일 수 있다.Here, the vision camera may be a kind of vision machine that captures image data and generates an uncompressed image of the first luggage, so that it is possible to detect the shape of the luggage and read the information code.

또한, 특징데이터는, 수화물이 갖는 외형적 특징에 관한 데이터로서, 예컨대 수화물의 가로/세로/높이 길이, 형태, 컬러, 질감, 손잡이/바퀴 유무 등의 외형적 특징을 포함할 수 있다.In addition, the characteristic data is data regarding the external characteristics of the luggage, and may include, for example, external characteristics such as width/length/height length, shape, color, texture, and presence or absence of a handle/wheel of the luggage.

또한, 바코드 정보는, 체크인시 승객의 수화물의 겉면에 태깅되는 막대 모양의 선과 숫자 등의 조합 정보를 지칭할 수 있다.In addition, the barcode information may refer to combination information such as a bar-shaped line and a number that are tagged on the surface of a passenger's baggage upon check-in.

또한, 비전 인식은, AI 시각을 이용하여, 수화물에 태깅되는 바코드 정보를, 제1 수화물 이미지로부터, 의미 있는 정보로서 추출하는 기술일 수 있다. 이러한 비전 인식은, 딥러닝과 딥뷰 기술이 접목되면서 자율주행차, 산업용 로봇, 의료영상 진단기술, 스마트홈, 지능형 CCTV, 출입 통제, 안면인식, 공장 자율화 같은 다양한 산업에서 활용되고 있다.In addition, vision recognition may be a technology of extracting barcode information tagged on luggage as meaningful information from the first luggage image using AI time. Such vision recognition is being used in various industries such as autonomous vehicles, industrial robots, medical imaging technology, smart home, intelligent CCTV, access control, facial recognition, and factory automation as deep learning and deep view technologies are combined.

다시 말해, 1차 촬영부는 수화물을 촬영한 제1 수화물 이미지로부터, 수화물 외형의 특징 데이터와, 체크인 시에 부여된 바코드 정보를 획득할 수 있다.In other words, the primary photographing unit may obtain the characteristic data of the appearance of the luggage and barcode information provided at check-in from the first luggage image obtained by photographing the luggage.

또한, 공항 수하물 비전인식 소터 시스템(100)의 1차 촬영부는 상기 특징데이터와 상기 바코드 정보를 대응시켜 서버에 등록한다(520). 단계(520)은 특징 데이터를 이용하여, 수화물의 바코드 정보를 확보할 수 있도록, 특징 데이터와 바코드 정보를 서로 대응시켜 서버에 유지하는 과정일 수 있다.In addition, the primary photographing unit of the airport baggage vision recognition sorter system 100 registers the characteristic data and the barcode information in correspondence with the server ( 520 ). Step 520 may be a process of maintaining the feature data and barcode information in a server by matching them with each other so that the barcode information of the luggage can be secured using the feature data.

계속해서, 공항 수하물 비전인식 소터 시스템(100)의 2차 촬영부(120)는 상기 수화물이 바코드 인식 시스템에서 바코드 정보가 인식되지 않아 미분류 수화물로 정해지면, 비전 카메라에서 촬영한 상기 미분류 수화물의 제2 수화물 이미지로부터 특징데이터를 획득한다(530). 단계(530)은 바코드 인식이 되지 않는 미분류 수화물에 대해, 비전 인식을 하여, 수화물의 외형에 관한 특징데이터를 다시 인식하는 과정일 수 있다.Subsequently, the secondary photographing unit 120 of the airport baggage vision recognition sorter system 100 determines that the baggage is unclassified baggage because barcode information is not recognized by the barcode recognition system. 2 Acquire feature data from the hydrate image ( 530 ). Step 530 may be a process of re-recognizing the characteristic data regarding the appearance of the baggage by performing vision recognition on unclassified baggage for which barcode recognition is not performed.

바코드 인식 시스템은 수화물에 태깅된 바코드 자체를 읽어, 해당 수화물이 이동되어야 하는 이동처를 식별하고, 이동 장치로 전달하여, 수화물이 식별된 이동처로 이동, 분류시키는 장치일 수 있다.The barcode recognition system may be a device that reads the barcode itself tagged on the luggage, identifies a moving destination to which the corresponding baggage is to be moved, and transmits it to the moving device, so that the baggage is moved to and sorted by the identified moving destination.

상기 미분류 수화물은 수화물이 전도되거나, 바코드가 훼손되는 등의 장애에 따라, 바코드 인식 시스템에서 바코드를 정확하게 읽지 못해 이동처가 식별되지 못한 수화물을 지칭할 수 있다.The uncategorized luggage may refer to luggage whose moving destination cannot be identified because the barcode recognition system cannot accurately read the barcode according to obstacles such as the luggage being overturned or the barcode being damaged.

이후, 공항 수하물 비전인식 소터 시스템(100)의 2차 촬영부는 상기 획득한 특징데이터에 대응하여 등록된 바코드 정보를 상기 서버로부터 추출 함으로써, 상기 미분류 수화물에 대해 분류 처리한다(540). 단계(540)은 제2 수화물 이미지의 특징데이터와 선정된 범위에서 동일성을 갖는, 제1 수화물 이미지의 특징데이터를 서버에서 찾고, 찾은 특징데이터에 대응되어 보관되는 바코드 정보를 검색하여, 미분류 수화물의 이동처를 추정하는 과정일 수 있다.Thereafter, the secondary photographing unit of the airport baggage vision recognition sorter system 100 extracts barcode information registered in response to the acquired characteristic data from the server, thereby classifying the unclassified baggage (540). In step 540, the server finds the characteristic data of the first luggage image having the sameness as the characteristic data of the second luggage image in a selected range, and retrieves barcode information stored in correspondence with the found characteristic data, It may be a process of estimating a moving destination.

상기 선정된 범위는 본 발명의 운영자가 경험과 실험을 통해 유연하게 정할 수 있고, 예컨대 제2 수화물 이미지의 특징데이터와 제1 수화물 이미지의 특징데이터 간의 동일 정도가 99% 인 것으로 정할 수 있다.The selected range may be flexibly determined by the operator of the present invention through experience and experimentation, and for example, it may be determined that the same degree between the characteristic data of the second luggage image and the characteristic data of the first luggage image is 99%.

궁극적으로, 2차 촬영부는 서버에서 추출된 바코드 정보를 바코드 인식 시스템으로 전달 함으로써, 상기 바코드 인식 시스템으로 하여금, 상기 미분류 수화물이 올바른 이동처로 이동, 분류되도록 지원 할 수 있다.Ultimately, the secondary photographing unit transmits the barcode information extracted from the server to the barcode recognition system, so that the barcode recognition system can support the unclassified luggage to be moved and sorted to the correct moving destination.

실시예에 따라, 공항 수하물 비전인식 소터 시스템(100)은 구성인 1차 촬영부와 2차 촬영부의 설치 위치를 특정 할 수 있다.According to an embodiment, the airport baggage vision recognition sorter system 100 may specify the installation positions of the primary photographing unit and the secondary photographing unit, which are components.

즉, 1차 촬영부는, 체크인 카운터에 설치되고, 2차 촬영부는, 상기 바코드 인식 시스템의 후단에 설치될 수 있다. 이러한 설치 위치는, 바코드가 태깅되는 시점에서 1차 촬영부에 의해 수화물의 바코드 정보를 보다 명확하게 인식할 수 있게 하고, 또한 바코드 인식 시스템에서 바코드 인식이 정상적으로 이루어지지 않는 미분류 수화물에 대해 2차 촬영부에 의해 특징데이터를 신속하게 획득할 수 있게 하는 장소일 수 있다.That is, the primary photographing unit may be installed at the check-in counter, and the secondary photographing unit may be installed at the rear end of the barcode recognition system. This installation location allows the barcode information of the luggage to be more clearly recognized by the primary photographing unit at the time when the barcode is tagged, and also secondary photographing for unclassified luggage where barcode recognition is not normally performed in the barcode recognition system It may be a place where feature data can be quickly acquired by the department.

또한, 공항 수하물 비전인식 소터 시스템(100)은 구성인 1차 촬영부와 2차 촬영부에 부속되는 비전 카메라에서의 촬영 방향을 특정 할 수 있다.In addition, the airport baggage vision recognition sorter system 100 may specify a photographing direction in the vision camera attached to the primary photographing unit and the secondary photographing unit.

즉, 비전 카메라는, 위쪽에서 아래쪽으로 비스듬하게 설치되는 4개의 카메라에서, 서로 상이한 4개의 시야방향으로, 상기 제1 수화물 이미지 또는 상기 제2 수화물 이미지를 촬영할 수 있다. 이를 통해, 비전 카메라는 수화물의 전후좌우 전방향을 촬영하는 수화물 이미지를 생성하여, 수화물에 대한 외형이 보다 정확하게 파악되도록 할 수 있다.That is, the vision camera may photograph the first luggage image or the second luggage image in four different viewing directions from the four cameras installed obliquely from top to bottom. Through this, the vision camera can generate a luggage image that captures the front, back, left, right, and omnidirectional directions of the luggage, so that the outer shape of the luggage can be more accurately grasped.

실시예에 따라, 공항 수하물 비전인식 소터 시스템(100)은 다양한 알고리즘을 사용하여, 수화물 이미지로부터 바코드 정보를 획득할 수 있다.According to an embodiment, the airport baggage vision recognition sorter system 100 may use various algorithms to obtain barcode information from the baggage image.

즉, 1차 촬영부는, YOLO Algorism, CNN과 SIFT, 및 Template Matching Algorism 중 적어도 하나를 적용하여, 상기 제1 수화물 이미지로부터 상기 바코드 정보를 획득할 수 있다.That is, the primary photographing unit may obtain the barcode information from the first luggage image by applying at least one of YOLO Algorism, CNN and SIFT, and Template Matching Algorism.

YOLO(You Only Look Once) Algorism은 R-CNN(Region with Convolutional Neural Network)의 느린 성능을 개선하기 위해 고안된 것으로, R-CNN은 region proposal이라는 수백 개의 이미지 후보를 생성하고 각각에 대해 분류하는 반면, YOLO Algorism은 격자 그리드로 나누어 한 번에 클래스를 판단하고 이를 통합해 최종 객체를 구분 함으로써, 빠른 속도로 객체인 바코드 정보의 획득을 가능하게 한다.YOLO (You Only Look Once) Algorism is designed to improve the slow performance of Region with Convolutional Neural Network (R-CNN), which generates hundreds of image candidates called region proposals and classifies them for each, while YOLO Algorism makes it possible to acquire barcode information, which is an object, at a high speed by dividing it into a grid grid to determine a class at a time and integrating it to classify the final object.

SIFT(Scale Invariant Feature Transform)는 이미지에서 Feature를 추출하는 대표적인 알고리즘 중의 하나로, 이미지의 scale(크기), Rotation(회전)에 불변하는 feature(특징)을 추출하기 때문에, 이미지가 회전해도 크기가 변해도 항상 그 위치에서 뽑히는 특징으로서의 바코드 정보의 획득을 가능하게 한다.SIFT (Scale Invariant Feature Transform) is one of the representative algorithms for extracting features from images. It enables the acquisition of barcode information as a feature to be pulled from the position.

Template Matching Algorism은 참조 영상(reference image)에서 템플릿(template) 영상과 매칭되는 위치를 탐색하는 알고리즘으로서, 에지, 코너점, 주파수 변환 등의 특징 공간으로 변환하여 템플릿 매칭을 수행하고, 영상의 밝기 등에 덜 민감하도록 정규화 과정을 통해, 특징인 바코드 정보의 획득을 가능하게 한다.Template Matching Algorism is an algorithm that searches a reference image for a location that matches a template image. It performs template matching by converting it into a feature space such as edge, corner point, and frequency transformation, and the brightness of the image. Through a normalization process to be less sensitive, it is possible to obtain characteristic barcode information.

실시예에 따라, 공항 수하물 비전인식 소터 시스템(100)은 2차 촬영부에 의한 특징데이터의 추출에 따른 바코드 정보를 추출할 수 없는 미분류 수화물에 대해, 분류 전문 인력에 의한 수동적인 분류 작업이 이루어지도록 유도할 수 있다.According to the embodiment, the airport baggage vision recognition sorter system 100 performs a passive classification operation by a classification expert for unclassified baggage that cannot extract barcode information according to the extraction of feature data by the secondary photographing unit. can be induced.

이를 위해, 2차 촬영부는, 상기 제2 수화물 이미지로부터 획득한 특징데이터와 정해진 비율 이내에서 일치하는 특징데이터가 상기 서버에 등록되어 있지 않으면, 상기 미분류 수화물에 대해 수동분류 처리를 안내할 수 있다.To this end, the secondary photographing unit may guide the manual classification process for the unclassified baggage if the feature data that matches the feature data obtained from the second baggage image within a predetermined ratio is not registered in the server.

상기 수동분류 처리에 대한 안내는, 미분류 수화물의 발생과 관련한 정보를, 분류 전문 인력에 보유한 단말로 전송하거나 음성으로 통보하는 것 등을 예시할 수 있다.The guidance on the manual sorting process may include transmitting information related to the generation of unclassified baggage to a terminal possessed by a sorting expert or notifying it by voice.

즉, 2차 촬영부는 제2 수화물 이미지의 특징데이터와 선정된 범위에서 동일성을 갖는, 제1 수화물 이미지의 특징데이터를 서버에서 찾을 수 없는 경우, 해당 미분류 수화물을 수동분류 처리되게 하여, 미분류 수화물이 적절한 이동처로 이동하도록 지원 할 수 있다.That is, if the secondary photographing unit cannot find the characteristic data of the first luggage image having the sameness as the characteristic data of the second luggage image in a selected range on the server, the unclassified luggage is manually sorted, so that the unclassified luggage is We can support you to move to an appropriate place of movement.

본 발명의 일실시예에 따르면, 인공지능 카메라를 체크인 데스크에 설치하여 바코드 정보와 수하물의 외부 형태를 1차 촬영 수집해두고, 바코드 인식기 통과 시 인식되지 않은 수하물에 대해 2차 촬영을 함으로써, 외부 형태의 비교를 통해 1차 촬영시에 수집한 바코드 정보를 이용하여 수하물의 분류 작업 정확도를 향상시키고, 수하물을 정확한 하차지점에 도달시키는, 공항 수하물 비전인식 소터 시스템 및 방법을 제공할 수 있다.According to an embodiment of the present invention, an artificial intelligence camera is installed at the check-in desk to collect barcode information and the external shape of the luggage, and the external shape is taken by taking a secondary picture of the unrecognized luggage when passing through the barcode reader. Through the comparison, it is possible to provide an airport baggage vision recognition sorter system and method that improves the accuracy of the baggage sorting operation by using the barcode information collected during the first filming and reaches the correct drop-off point.

또한, 본 발명의 일실시예에 따르면, 체크인 데스크에 설치된 카메라와 PC에서 1차 촬영된 영상을 인공지능을 통해 추출한 특징데이터를 서버에 업로드하고, 미분류된 수하물을 2차 촬영하여 인공지능으로 특징데이터를 추출한 후, 서버에 업로드된 특징데이터를 다운로드받아 미분류된 수하물들에 대해서만 특징데이터들끼리 비교함으로써 시스템의 전체 부하를 분산시키고 줄일 수 있다.In addition, according to an embodiment of the present invention, feature data extracted through artificial intelligence from a camera and a PC installed at the check-in desk are uploaded to the server, and unclassified baggage is captured secondly to be characterized by artificial intelligence. After extracting the data, it is possible to distribute and reduce the overall load of the system by downloading the feature data uploaded to the server and comparing the feature data only for unclassified baggage.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

100 : 공항 수하물 비전인식 소터 시스템
110 : 1차 촬영부
120 : 2차 촬영부
100: Airport baggage vision recognition sorter system
110: 1st filming unit
120: 2nd filming unit

Claims (11)

비전 카메라에서 촬영한 수화물의 제1 수화물 이미지로부터 특징데이터와 바코드 정보를 획득하고, 상기 특징데이터와 상기 바코드 정보를 대응시켜 서버에 등록하는 1차 촬영부; 및
상기 수화물이 바코드 인식 시스템에서 바코드 정보가 인식되지 않아 미분류 수화물로 정해지면,
비전 카메라에서 촬영한 상기 미분류 수화물의 제2 수화물 이미지로부터 특징데이터를 획득하고, 상기 획득한 특징데이터에 대응하여 등록된 바코드 정보를 상기 서버로부터 추출 함으로써, 상기 미분류 수화물에 대해 분류 처리하는 2차 촬영부
를 포함하는 공항 수하물 비전인식 소터 시스템.
a primary photographing unit that acquires characteristic data and barcode information from a first luggage image of the luggage photographed by the vision camera, and registers the characteristic data and the barcode information in correspondence with the server; and
If the baggage is determined as unclassified baggage because barcode information is not recognized by the barcode recognition system,
Secondary shooting of classifying and processing the unclassified luggage by obtaining characteristic data from the second luggage image of the unclassified luggage photographed by the vision camera, and extracting barcode information registered in response to the acquired characteristic data from the server wealth
Airport baggage vision recognition sorter system that includes.
제1항에 있어서,
상기 1차 촬영부는,
체크인 카운터에 설치되고,
상기 2차 촬영부는,
상기 바코드 인식 시스템의 후단에 설치되는
공항 수하물 비전인식 소터 시스템.
According to claim 1,
The first photographing unit,
installed at the check-in counter,
The secondary photographing unit,
installed at the rear end of the barcode recognition system
Airport Baggage Vision Recognition Sorter System.
제1항에 있어서,
상기 비전 카메라는,
위쪽에서 아래쪽으로 비스듬하게 설치되는 4개의 카메라에서, 서로 상이한 4개의 시야방향으로, 상기 제1 수화물 이미지 또는 상기 제2 수화물 이미지를 촬영하는
공항 수하물 비전인식 소터 시스템.
According to claim 1,
The vision camera is
In four cameras installed obliquely from top to bottom, in four different viewing directions, the first luggage image or the second luggage image is taken
Airport Baggage Vision Recognition Sorter System.
제1항에 있어서,
상기 1차 촬영부는,
YOLO Algorism, CNN과 SIFT, 및 Template Matching Algorism 중 적어도 하나를 적용하여, 상기 제1 수화물 이미지로부터 상기 바코드 정보를 획득하는
공항 수하물 비전인식 소터 시스템.
According to claim 1,
The first photographing unit,
Applying at least one of YOLO Algorism, CNN and SIFT, and Template Matching Algorism to obtain the barcode information from the first luggage image
Airport Baggage Vision Recognition Sorter System.
제1항에 있어서,
상기 2차 촬영부는,
상기 제2 수화물 이미지로부터 획득한 특징데이터와 정해진 비율 이내에서 일치하는 특징데이터가 상기 서버에 등록되어 있지 않으면,
상기 미분류 수화물에 대해 수동분류 처리를 안내하는
공항 수하물 비전인식 소터 시스템.
According to claim 1,
The secondary photographing unit,
If the characteristic data obtained from the second luggage image and the characteristic data matching within a predetermined ratio are not registered in the server,
Guide to the manual sorting process for the unsorted baggage
Airport Baggage Vision Recognition Sorter System.
1차 촬영부에서, 비전 카메라에서 촬영한 수화물의 제1 수화물 이미지로부터 특징데이터와 바코드 정보를 획득하는 단계;
상기 1차 촬영부에서, 상기 특징데이터와 상기 바코드 정보를 대응시켜 서버에 등록하는 단계;
상기 수화물이 바코드 인식 방법에서 바코드 정보가 인식되지 않아 미분류 수화물로 정해지면,
2차 촬영부에서, 비전 카메라에서 촬영한 상기 미분류 수화물의 제2 수화물 이미지로부터 특징데이터를 획득하는 단계; 및
상기 2차 촬영부에서, 상기 획득한 특징데이터에 대응하여 등록된 바코드 정보를 상기 서버로부터 추출 함으로써, 상기 미분류 수화물에 대해 분류 처리하는 단계
를 포함하는 공항 수하물 비전인식 소터 방법.
obtaining, in the primary photographing unit, characteristic data and barcode information from a first baggage image of the baggage photographed by the vision camera;
registering, in the primary photographing unit, the characteristic data and the barcode information in correspondence with the server;
If the baggage is determined as unclassified baggage because barcode information is not recognized in the barcode recognition method,
obtaining, in the secondary photographing unit, characteristic data from a second baggage image of the unclassified baggage photographed by a vision camera; and
In the secondary photographing unit, by extracting barcode information registered in response to the acquired characteristic data from the server, sorting processing for the unclassified luggage
Airport baggage vision recognition sorter method comprising a.
제6항에 있어서,
상기 1차 촬영부는,
체크인 카운터에 설치되고,
상기 2차 촬영부는,
상기 바코드 인식 방법의 후단에 설치되는
공항 수하물 비전인식 소터 방법.
7. The method of claim 6,
The first photographing unit,
installed at the check-in counter,
The secondary photographing unit,
installed at the rear end of the barcode recognition method
Airport Baggage Vision Recognition Sorter Method.
제6항에 있어서,
상기 비전 카메라는,
위쪽에서 아래쪽으로 비스듬하게 설치되는 4개의 카메라에서, 서로 상이한 4개의 시야방향으로, 상기 제1 수화물 이미지 또는 상기 제2 수화물 이미지를 촬영하는
공항 수하물 비전인식 소터 방법.
7. The method of claim 6,
The vision camera is
In four cameras installed obliquely from top to bottom, in four different viewing directions, the first luggage image or the second luggage image is taken
Airport Baggage Vision Recognition Sorter Method.
제6항에 있어서,
상기 1차 촬영부에서, YOLO Algorism, CNN과 SIFT, 및 Template Matching Algorism 중 적어도 하나를 적용하여, 상기 제1 수화물 이미지로부터 상기 바코드 정보를 획득하는 단계
를 더 포함하는 공항 수하물 비전인식 소터 방법.
7. The method of claim 6,
Obtaining the barcode information from the first luggage image by applying at least one of YOLO Algorism, CNN and SIFT, and Template Matching Algorism in the first photographing unit
Airport baggage vision recognition sorter method further comprising.
제6항에 있어서,
상기 제2 수화물 이미지로부터 획득한 특징데이터와 정해진 비율 이내에서 일치하는 특징데이터가 상기 서버에 등록되어 있지 않으면,
상기 2차 촬영부에서, 상기 미분류 수화물에 대해 수동분류 처리를 안내하는 단계
를 더 포함하는 공항 수하물 비전인식 소터 방법.
7. The method of claim 6,
If the characteristic data obtained from the second luggage image and the characteristic data matching within a predetermined ratio are not registered in the server,
In the secondary photographing unit, guiding the manual sorting process for the unsorted baggage
Airport baggage vision recognition sorter method further comprising.
제6항 내지 제10항 중 어느 한 항의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체.
A computer-readable recording medium recording a program for executing the method of any one of claims 6 to 10.
KR1020200187429A 2020-12-30 2020-12-30 System and method of recogning airport baggage vision sorter KR20220095675A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200187429A KR20220095675A (en) 2020-12-30 2020-12-30 System and method of recogning airport baggage vision sorter
KR1020230072594A KR20230098745A (en) 2020-12-30 2023-06-07 System and method of recogning airport baggage vision sorter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200187429A KR20220095675A (en) 2020-12-30 2020-12-30 System and method of recogning airport baggage vision sorter

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230072594A Division KR20230098745A (en) 2020-12-30 2023-06-07 System and method of recogning airport baggage vision sorter

Publications (1)

Publication Number Publication Date
KR20220095675A true KR20220095675A (en) 2022-07-07

Family

ID=82397834

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200187429A KR20220095675A (en) 2020-12-30 2020-12-30 System and method of recogning airport baggage vision sorter
KR1020230072594A KR20230098745A (en) 2020-12-30 2023-06-07 System and method of recogning airport baggage vision sorter

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230072594A KR20230098745A (en) 2020-12-30 2023-06-07 System and method of recogning airport baggage vision sorter

Country Status (1)

Country Link
KR (2) KR20220095675A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220142322A (en) * 2021-04-13 2022-10-21 주식회사 가치소프트 Method and apparatus for arranging and discharging items discharged in a random order
CN117037127A (en) * 2023-10-07 2023-11-10 四川省机场集团有限公司成都天府国际机场分公司 Pallet distribution method based on luggage type

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220142322A (en) * 2021-04-13 2022-10-21 주식회사 가치소프트 Method and apparatus for arranging and discharging items discharged in a random order
CN117037127A (en) * 2023-10-07 2023-11-10 四川省机场集团有限公司成都天府国际机场分公司 Pallet distribution method based on luggage type
CN117037127B (en) * 2023-10-07 2023-12-12 四川省机场集团有限公司成都天府国际机场分公司 Pallet distribution method based on luggage type

Also Published As

Publication number Publication date
KR20230098745A (en) 2023-07-04

Similar Documents

Publication Publication Date Title
US11049278B2 (en) System and method for visual identification, and system and method for classifying and sorting
KR20230098745A (en) System and method of recogning airport baggage vision sorter
Wang et al. Regionlets for generic object detection
US10140508B2 (en) Method and apparatus for annotating a video stream comprising a sequence of frames
Pelapur et al. Persistent target tracking using likelihood fusion in wide-area and full motion video sequences
US20160092736A1 (en) System and method for object re-identification
Nguyen et al. Object detection using scale invariant feature transform
KR101781358B1 (en) Personal Identification System And Method By Face Recognition In Digital Image
JP2009069996A (en) Image processing device and image processing method, recognition device and recognition method, and program
US11783384B2 (en) Computer vision systems and methods for automatically detecting, classifying, and pricing objects captured in images or videos
CN105303150A (en) Method and system for implementing image processing
CN112633297A (en) Target object identification method and device, storage medium and electronic device
CN112580657A (en) Self-learning character recognition method
US20210216767A1 (en) Method and computing system for object recognition or object registration based on image classification
US20230381971A1 (en) Method and computing system for object registration based on image classification
CN111461143A (en) Picture copying identification method and device and electronic equipment
KR101817440B1 (en) The 3d model-based object recognition techniques and systems with a multi-camera
KR20230150625A (en) Baggage sorting system
Jain et al. Number plate detection using drone surveillance
Seal et al. An approach towards development of automated attendance system using face detection and recognition
Avola et al. A new descriptor for keypoint-based background modeling
Kaimkhani et al. UAV with Vision to Recognise Vehicle Number Plates
KR102224218B1 (en) Method and Apparatus for Deep Learning based Object Detection utilizing Video Time Information
Singh et al. ESD safety wear detection and voice alert using deep learning and embedded system
KR102631815B1 (en) Method and system for processing airport baggage

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination