KR102603692B1 - Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers - Google Patents

Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers Download PDF

Info

Publication number
KR102603692B1
KR102603692B1 KR1020230056843A KR20230056843A KR102603692B1 KR 102603692 B1 KR102603692 B1 KR 102603692B1 KR 1020230056843 A KR1020230056843 A KR 1020230056843A KR 20230056843 A KR20230056843 A KR 20230056843A KR 102603692 B1 KR102603692 B1 KR 102603692B1
Authority
KR
South Korea
Prior art keywords
information
traveler
unit
criminal
entrants
Prior art date
Application number
KR1020230056843A
Other languages
Korean (ko)
Inventor
김준연
Original Assignee
뉴인테크 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 뉴인테크 주식회사 filed Critical 뉴인테크 주식회사
Priority to KR1020230056843A priority Critical patent/KR102603692B1/en
Application granted granted Critical
Publication of KR102603692B1 publication Critical patent/KR102603692B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/0723Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/077Constructional details, e.g. mounting of circuits in the carrier
    • G06K19/07701Constructional details, e.g. mounting of circuits in the carrier the record carrier comprising an interface suitable for human interaction
    • G06K19/07713Constructional details, e.g. mounting of circuits in the carrier the record carrier comprising an interface suitable for human interaction the interface, upon reception of an interrogation signal, being capable of signaling to indicate its position to a user or a detection device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10297Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves arrangements for handling protocols designed for non-contact record carriers such as RFIDs NFCs, e.g. ISO/IEC 14443 and 18092
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

본 발명에서는 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자를 조회하고 지정하는 단계, 입국심사대에 설치된 CCTV 카메라가 촬영한 영상정보를 이용한 입국자에 대한 안면 인식을 통해 지정된 우범 여행자 정보와 대조하여 우범 여행자를 식별하고 특정하는 단계, 특정된 우범 여행자의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계, 입국장 내에 설치된 CCTV 카메라가 촬영한 영상정보를 이용해 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계, 생성된 우범 여행자의 객체 특징정보와 입국장 내 입국자들의 객체 특징정보에 대한 동일성 및 유사도를 검출하는 단계, 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 추출되는 입국자를 인식해 당해 우범 여행자로 지정하는 단계, 지정된 우범 여행자의 객체 특징정보를 추가로 저장하고 세관 상황실 및 세관 요원에게 제공하는 단계를 포함하는 전자 태그를 이용한 입국장 내 우범 여행자 실시간 추적 시스템을 개시한다.In the present invention, the step of comparing the preliminary analysis information on entrants with the traveler database of the traveler information system to search and designate the most criminal travelers among entrants, and facial recognition of entrants using video information captured by a CCTV camera installed at the immigration checkpoint A step of identifying and specifying a high-crime traveler by comparing it with the designated high-crime traveler information, a step of extracting the facial features, color and texture features, and gait features of the identified high-crime traveler, and generating and storing object characteristic information in real time, within the entry hall. A step of generating and storing object characteristic information in real time by extracting facial features, color and texture characteristics, and gait characteristics of entrants using video information captured by installed CCTV cameras. A step of detecting the identity and similarity of object characteristic information, a step of recognizing an entrant whose similarity to at least one of the object characteristic information of the entrant in the entry hall is extracted above a predetermined threshold and designating the person as a high-crime traveler, A real-time tracking system for offenders at the entry hall using electronic tags is disclosed, which includes additionally storing object characteristic information and providing it to the customs situation room and customs agents.

Figure R1020230056843
Figure R1020230056843

Description

전자 태그를 이용한 입국장 내 우범 여행자 실시간 추적 시스템 및 방법{MOVING LINE TRACKING SYSTEM AND METHOD FOR ARRIVAL HALL USING ELECTRONIC TAG OF LIABILITY TO CRIME TRAVELERS}Real-time tracking system and method for frequent travelers at the arrival hall using electronic tags {MOVING LINE TRACKING SYSTEM AND METHOD FOR ARRIVAL HALL USING ELECTRONIC TAG OF LIABILITY TO CRIME TRAVELERS}

본 발명은 여행자 휴대품 신고서에 전자 태그를 부착하고, 이를 이용해 입국장 내 우범 여행자를 실시간으로 추적하여 감시하기 위한 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 공항이나 항만의 입국장 내에서 입국 단계부터 우범 여행자로 추정되는 입국자가 CIQ 통관 절차를 피하기 위해 환복이나 변장을 하더라도 이동 동선을 따라 효율적이고 지속적으로 추적하여 철저히 관찰 및 감시할 수 있는 전자 태그를 이용한 입국장 내 우범 여행자 추적 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for attaching an electronic tag to a traveler's personal belongings declaration form and using it to track and monitor in real time travelers who commit criminal offenses within the entry hall of an airport or port, from the entry stage. This is about a system and method for tracking offenders at the entry gate using electronic tags that can efficiently and continuously track and thoroughly observe and monitor an entrant suspected of being a foreign national even if he/she changes clothes or disguises himself/herself to avoid CIQ customs procedures.

오늘날 상품, 자본, 서비스의 국가 간 이동과 국내외를 드나드는 내외국인 수는 폭발적으로 늘고 있어 공항이나 항만에서 입국하는 모든 여행자의 수하물을 검사하는 것은 현실적으로 불가능한 일이다.Today, as the movement of goods, capital, and services between countries and the number of domestic and foreign nationals entering and leaving the country are increasing explosively, it is realistically impossible to inspect the baggage of all incoming travelers at airports or ports.

이에 따라 전세계 각국의 세관은 무기나 외화 밀반입, 밀수, 마약 매매, 테러 따위의 전과가 있는 여행객이나 과거에 통관 절차를 제대로 이행하지 않은 여행객 등 범죄를 저지를 우려가 있는 우범 여행자에 대한 정보를 사전에 입수 및 데이트베이스화하여 그 우범 여행자를 대상으로 자국 내의 입국장을 통과 시 집중적으로 감시 및 단속함으로써 세관 검사의 효율화를 꾀하고 있다.Accordingly, customs offices around the world are proactively collecting information on travelers who are at risk of committing crimes, such as travelers with a record of smuggling weapons or foreign currency, smuggling, drug trafficking, or terrorism, or travelers who have not properly completed customs procedures in the past. It is seeking to improve the efficiency of customs inspections by obtaining information and using it as a database to intensively monitor and crack down on travelers who have committed criminal offenses as they pass through the port of entry within the country.

근래에는 면세범위를 넘는 물품을 세관에 자진 신고하지 않는 경우가 많아지면서 여행객이 고가의 물품을 구매하여 반입하는 경우 그 구매 내역 및 정보를 사전에 전달받아 추적 및 정밀 검사하기 위한 여행자정보시스템(TIS : Traveller Information System)을 구축하여 운용하고 있다.In recent years, as more and more people do not voluntarily report goods exceeding the duty-free range to customs, when travelers purchase expensive goods and bring them in, the Traveler Information System (TIS) is used to track and closely inspect the purchase details and information in advance. : Traveler Information System) has been established and operated.

즉, 세관은 승객예약정보(PNR : Passenger Name Record)와 승객정보사전확인시스템(APIS : Advance Passenger Information System)을 통해 항공기(이하, 선박 포함) 도착 전에 항공사(이하, 선박회사 포함)로부터 승객명부를 입수한 뒤 정보분석관이 승객들의 여행 이력, 행선지, 면세점 사용 등 정보를 미리 분석하고, 그 승객별 분석결과를 입국심사관과 정부 관계부처(기관)에 제공하여 우범 여행자를 선별 검사하고 일반 여행자는 신속히 통과시키고 있다.In other words, customs collects passenger lists from airlines (hereinafter, including shipping companies) before the arrival of an aircraft (hereinafter, including ships) through Passenger Name Record (PNR) and Advance Passenger Information System (APIS). After obtaining the information, the information analyst analyzes the passengers' travel history, destination, use of duty-free shops, etc. in advance, and provides the analysis results for each passenger to the immigration inspector and government agencies (agencies) to screen and inspect the most serious travelers. It is being passed quickly.

이때, 여행자정보시스템을 이용하여 여행자의 사전 분석 정보를 우범 여행자 DB와 대조하여 검사 대상자를 지정 및 결정한다.At this time, the traveler information system is used to compare the traveler's preliminary analysis information with the high-crime traveler database to designate and determine test subjects.

아울러 입국자들의 이동 동선을 따라 점점이 설치된 CCTV 카메라를 이용하여 검사 대상자의 이동을 추적하고, 세관 요원(rover)은 검사 대상자의 정보를 PDA로 전송받아 동태를 감시하며 검사지정관(marshal)은 마샬 라인(marshal line)을 통과하는 입국자를 세관 검사대로 안내한다.In addition, the movement of inspection subjects is tracked using CCTV cameras installed along the movement lines of incoming immigrants, customs agents (rovers) receive information on inspection subjects via PDA and monitor their movements, and inspection designated officers (marshals) are on the marshal line. Entrants passing through the marshal line are guided to the customs inspection station.

그런데 최근 출입국관리사무소의 입국 심사대 무인자동화 및 칸막이 설치 등 입국장 환경 변화로 인해 CCTV 영상정보에서 검사 대상자의 얼굴을 정확하게 식별하는 데에 한계가 있을 뿐만 아니라 검사 대상자가 반드시 거쳐야 하는 세관(customs), 출입국관리(immigration), 검역(quarantine) 세 가지 통관 절차를 피하거나 세관 요원을 따돌리기 위해 환복 및 변장을 하고 이동할 경우 추적 및 감시가 상당히 어려운 문제점이 있다.However, due to recent changes in the entry hall environment, such as unmanned automation and the installation of partitions at the immigration office, there are not only limitations in accurately identifying the face of the test subject from CCTV video information, but also customs and immigration that the test subject must go through. If you change clothes or disguise yourself to avoid the three customs procedures (immigration and quarantine) or to elude customs agents, tracking and surveillance becomes quite difficult.

한편, 지능형 영상감시(IVS : Intelligent Video Surveillance) 시스템은 CCTV로부터 얻어지는 영상정보에서 배경 영역을 분리한 뒤 이동하는 객체, 즉 감시대상을 추출 및 인식하여 추적하며, 식별된 객체나 추적 중인 객체로부터 감시 상황에 적합한 이벤트를 발생시킨다.Meanwhile, the Intelligent Video Surveillance (IVS) system separates the background area from the video information obtained from CCTV and then extracts, recognizes and tracks moving objects, i.e. surveillance targets, and monitors the identified objects or the objects being tracked. Generates an event appropriate for the situation.

이러한 지능형 영상감시 시스템에서 이동 객체를 분리하는 방법은 가우시안 혼합 모델(GMM : Gaussian mixture model), 배경 차(Background subtraction) 등이 있다.Methods for separating moving objects in this intelligent video surveillance system include Gaussian mixture model (GMM) and background subtraction.

지능형 영상감시 시스템에서 이동 객체를 식별하는 방법은 윤곽선 기반 분류, 모션 기반 분류 방법 등이 있으며, 특히 윤곽선 기반 분류는 추출된 이동 객체에서 점들과 박스 형태 모양, 윤곽선 및 블롭(Blob)들의 데이터 집합들을 사용하여 분류한다.Methods for identifying moving objects in an intelligent video surveillance system include contour-based classification and motion-based classification methods. In particular, contour-based classification uses data sets of dots, box-shaped shapes, outlines, and blobs from extracted moving objects. Classify using

지능형 영상감시 시스템에서 이동 객체의 색상 정보를 사용하는 방법은 Mean Shift와 CAMshift 알고리즘 등이 있다. 이들 알고리즘은 선택된 탐색 윈도우의 색상 밀도 분포를 이용해 객체를 고속으로 추출한다.Methods for using color information of moving objects in an intelligent video surveillance system include Mean Shift and CAMshift algorithms. These algorithms extract objects at high speed using the color density distribution of the selected search window.

이동 객체를 추적하는 방법, 즉 이전 영상에서 식별된 이동 객체를 현재 영상에서 찾는 기법은 영역 기반 추적(Region-based tracking), 활성 윤곽선 기반 추적(Active contour-based tracking), 특징 기반 추적(Feature-based tracking), 모델 기반 추적(Model- based tracking) 등 4가지 범주로 나눌 수 있다.Methods for tracking moving objects, that is, techniques for finding moving objects identified in previous images in the current image include region-based tracking, active contour-based tracking, and feature-based tracking. It can be divided into four categories, including based tracking and model-based tracking.

여기서 영역 기반 추적 알고리즘은 움직이는 객체에 해당하는 이미지의 변화나 구조적인 특성(대개 추적 객체는 인간이며 인간의 머리, 몸통, 하체 등의 구조를 사용)을 이용한 방법으로, 객체가 갖는 고유한 특성을 어떻게 모델화하는지에 따라 추적 성능이 좌우될 수 있다.Here, the area-based tracking algorithm is a method that uses changes in the image corresponding to the moving object or structural characteristics (usually the tracking object is a human and uses the structure of the human head, torso, lower body, etc.), and uses the unique characteristics of the object. Tracking performance can depend on how you model it.

활성 윤곽선 기반 추적 알고리즘은 윤곽선을 경계로 윤곽을 표현하고 연속된 프레임에서 동적으로 윤곽을 갱신하여 객체를 추적하는 방법으로, 윤곽선이 반드시 추출되어야 하는 전제로 인해 윤곽선의 추출 여부에 추적의 성능이 결정되는 데다 추적 초기화에 매우 민감해 자동 추적이 어려운 문제점이 있다.The active contour-based tracking algorithm is a method of tracking objects by expressing the contour using the contour boundary and dynamically updating the contour in consecutive frames. Due to the premise that the contour must be extracted, tracking performance is determined by whether or not the contour is extracted. In addition, it is very sensitive to tracking initialization, making automatic tracking difficult.

특징 기반 추적 알고리즘은 특징들의 요소들과 고 수준의 클러스터링을 통해 이미지 간의 특징을 일치시킴으로써 물체를 인식 및 추적하는 방법으로, 이동 객체의 특징이 다수 확보될 경우 추적에 용이하지만 특징점 추출을 위한 많은 연산량, 특징점 추출을 위한 이동 객체 영상의 제약(크기, 색상 조합 등)과 같은 문제점이 있다.The feature-based tracking algorithm is a method of recognizing and tracking objects by matching features between images through feature elements and high-level clustering. It is easy to track when a large number of features of a moving object are secured, but requires a large amount of computation to extract feature points. , there are problems such as limitations (size, color combination, etc.) of moving object images for feature point extraction.

모델 기반 추적 알고리즘은 사전에 객체의 구조적인 특징을 실측해 모델링한 뒤 매칭하는 방법으로, 주로 객체의 행동 인식을 위한 방법이다.The model-based tracking algorithm is a method that measures the structural characteristics of an object in advance, models it, and then matches it, and is mainly used to recognize object behavior.

한편, 인천국제공항공사는 입·출국장 등 공항 내 교통 약자의 이동 편의를 지원하고, 발열체크나 공항 시설물에 대한 정보 제공 등 다양한 스마트 서비스를 강화하기 위해 AI 기반 자율 주행과 각종 첨단 정보통신(ICT) 기술이 접목된 안내로봇을 도입하여 운영하고 있다Meanwhile, Incheon International Airport Corporation provides AI-based autonomous driving and various advanced information and communications (ICT) services to support the convenience of transportation for the transportation vulnerable within the airport, such as at the arrival and departure halls, and to strengthen various smart services such as temperature checks and provision of information about airport facilities. We have introduced and are operating a guidance robot that incorporates technology.

또한, 청소 능력, 라이다(LiDAR) 센서와 비전 센서를 탑재한 자율주행 기능, 장애물 회피 기술은 물론 공항 내 청소가 필요한 구역의 지도를 데이터베이스에 담아 주변 상황을 인지하여 스스로 건물 내부를 자유롭게 이동하면서 청소하는 무인 자율주행 청소로봇 및 여행객을 쫓아다니면서 짐을 대신 운반해 주는 서비스 로봇을 도입하여 운영하고 있다.In addition, it has cleaning capabilities, an autonomous driving function equipped with LiDAR and vision sensors, obstacle avoidance technology, and a database of areas that need cleaning within the airport, allowing it to recognize the surrounding situation and move freely inside the building on its own. We have introduced and are operating an unmanned, self-driving cleaning robot that cleans and a service robot that follows travelers and carries their luggage for them.

한편, 이동 로봇을 이용하여 사람을 추적하는 기법은 통상 이동 로봇이 사전에 지정된 사람, 즉 특정인에 대한 특징점을 이용하여 특정인과 일정 거리를 유지하면서 계속 따라다니는 방식이다.Meanwhile, the technique of tracking a person using a mobile robot is a method in which the mobile robot continues to follow a pre-designated person, that is, using the characteristic points of the specific person while maintaining a certain distance from the specific person.

예컨대, SURF(Speeded Up Robust Features), SIFT(Scale-Invariant Feature Transform), ORB(Oriented FAST and rotated Binary robust independent elementary feature), RGB 히스토그램 등의 특징점 추출 알고리즘을 이용하여 프레임마다 특정인 인식에 따른 특징점 점수를 계산하고, 사전에 지정된 특정인에 대한 특징점을 물체 인식 방법을 이용하여 추출하고, 추출한 특징점을 이용하여 특정인을 지속적으로 추적한다.For example, using feature point extraction algorithms such as SURF (Speed Up Robust Features), SIFT (Scale-Invariant Feature Transform), ORB (Oriented FAST and rotated Binary robust independent elementary feature), and RGB histogram, feature point scores are based on recognition of a specific person for each frame. is calculated, feature points for a specific person designated in advance are extracted using an object recognition method, and the specific person is continuously tracked using the extracted feature points.

이 경우 특징점 계산의 부정확성으로 인해 추적 목표인 특정인의 추적 실패로 놓쳐버리는 일이 자주 발생할 뿐만 아니라 특정인의 비전 프레임(vision frame) 단위로 NNP(Nearest Neighbor Person) 추적 시 겹침 현상 때문에 특정인에 대한 식별자를 다시 할당해야 하는 문제점이 있었다.In this case, not only does the tracking target, a specific person, often fail to be missed due to inaccuracy in calculating feature points, but also the identifier for the specific person is There was a problem that required re-allocation.

또한, 이동하고 있는 특정인과 이동 로봇 사이의 거리가 멀어지거나 특정인과 이동 로봇 사이에 장애물이 위치할 경우 이동 로봇이 특정인을 추적하기 위한 적절한 주행 경로를 결정할 수 없는 문제점이 있었다.Additionally, when the distance between a specific moving person and the mobile robot increases or an obstacle is located between the specific person and the mobile robot, there is a problem in which the mobile robot cannot determine an appropriate driving path to track the specific person.

한편, 대부분의 국가에서는 여행자가 신고 물품(주류, 담배 제품, 동물, 신선 식품, 식물 재료, 종자, 토양, 육류 및 동물성 제품)을 국경을 넘어 반입할 때 세관 신고서를 작성하도록 요구한다.Meanwhile, most countries require travelers to fill out a customs declaration form when bringing declared goods (alcohol, tobacco products, animals, fresh food, plant materials, seeds, soil, meat and animal products) across their borders.

즉, 여행자는 해외에서 취득한 모든 것을 입국 시에 신고해야 하며, 이를 위해 입국장에서 이른바 여행자 휴대품 신고서에 여행자의 인적 사항, 신고 대상 물품의 소지 여부 따위를 작성하여 제출하고 있다.In other words, travelers must report everything they have acquired abroad upon entering the country, and for this purpose, they fill out and submit the so-called traveler's personal belongings declaration form at the port of entry, including the traveler's personal information and whether they possess items subject to reporting.

한편, 무선 주파수 인식(RFID: Radio Frequency Identification)은 무선 주파수를 사용하여 고유한 식별 정보를 가지고 있는 태그(tag)로부터 비접촉식으로 정보를 독출하거나 기록함으로써 태그가 부착된 물건, 동물, 사람 등을 인식, 추적 및 관리할 수 있도록 하는 기술이다.Meanwhile, Radio Frequency Identification (RFID) uses radio frequencies to read or record information in a non-contact manner from a tag containing unique identification information, thereby recognizing tagged objects, animals, people, etc. , it is a technology that allows tracking and management.

RFID 시스템은 고유한 식별 정보를 지니고 물건이나 동물 등에 부착되는 다수의 태그(electronic tag 또는 transponder)와 태그의 정보를 읽거나 쓰기 위한 RFID 리더(Reader 또는 Interrogator)로 구성된다.The RFID system consists of a number of tags (electronic tags or transponders) that carry unique identification information and are attached to objects or animals, and an RFID reader (reader or interrogator) to read or write the information on the tags.

이러한 RFID 시스템은 리더와 태그 사이의 상호 통신 방식에 따라 상호 유도 방식과 전자기파 방식으로 구분되고, 태그가 자체 전력으로 동작하는지 여부에 따라 능동형과 수동형으로 구분되며, 사용하는 주파수에 따라 장파, 중파, 단파, 초단파 및 극초단파형으로 구분된다.These RFID systems are divided into mutual induction and electromagnetic wave methods depending on the mutual communication method between the reader and tag. They are divided into active and passive types depending on whether the tag operates with its own power. Depending on the frequency used, long wave, medium wave, It is divided into short wave, ultra-short wave and ultra-high wave types.

한편, RFID 시스템을 이용한 물체 위치 측정 기술에는 일반적으로 물체에 RF Tag를 부착한 상태에서 RF Reader를 이용하여 물체의 위치를 측정하는데. 이때 사용되는 물체 위치 인식 방법으로는 거리에 따라 감소되는 신호의 세기에 따라 인식하는 RSSI((Received Signal Strength Indication), 물체가 RF Reader에 도착하는 신호의 시간 차이를 이용한 TDOA(Time Difference Of Arrival), 신호의 도착 시간을 이용한 TOA(Time Of Arrival), 각도를 이용하여 물체 위치를 측정하는 AOA(Angle Of Angle) 등이 있다.Meanwhile, object location measurement technology using an RFID system generally measures the location of an object using an RF reader with an RF tag attached to the object. The object location recognition methods used at this time include RSSI (Received Signal Strength Indication), which recognizes according to the signal strength that decreases with distance, and TDOA (Time Difference Of Arrival), which uses the time difference between the signal from the object to the RF reader. , TOA (Time Of Arrival), which uses the arrival time of the signal, and AOA (Angle Of Angle), which measures the object position using the angle.

특히 RSSI를 이용하여 거리를 측정하는 방법은 고정된 리더로부터 거리에 따라 신호를 받는 태그의 신호 세기를 측정하는 것으로, 송신 신호의 물리적인 특성상 거리에 따라 신호 세기의 감소가 일어나는 점에 착안하여 태그의 송신 신호를 리더에서 수신할 때 신호의 파워 손실 혹은 경로 손실(Path Loss)로 인한 강도와 감쇠되는 수신 신호의 세기를 측정하여 태그와 리더 간의 거리를 측정하는 방법이다.In particular, the method of measuring distance using RSSI is to measure the signal strength of a tag that receives a signal according to the distance from a fixed reader. Considering the fact that the signal strength decreases with distance due to the physical characteristics of the transmitted signal, the tag This is a method of measuring the distance between a tag and a reader by measuring the strength of the signal's power loss or path loss and the strength of the attenuated received signal when the reader receives the transmitted signal.

여기서 상술한 배경기술 또는 종래기술은 본 발명자가 보유하거나 본 발명을 도출 및 완성하는 과정에서 습득한 정보로서 본 발명의 기술적 의의를 이해하는 데 도움이 되고 선행기술조사 및 심사에 유용하게 사용하기 위한 것일 뿐, 본 발명의 출원 전에 당해 발명이 속하는 기술 분야에서 일반적으로 알려지고 널리 사용되는 기술을 의미하는 것은 아님을 밝힌다.The background or prior art described above herein is information possessed by the present inventor or acquired in the process of deriving and completing the present invention, and is helpful in understanding the technical significance of the present invention and useful for prior art search and examination. It is to be clarified that this does not mean a technology that is generally known and widely used in the technical field to which the invention pertains before the application of the present invention.

KRKR 10-2015-009407410-2015-0094074 A(2015.08.19)A(2015.08.19) KRKR 10-2018-004025510-2018-0040255 A(2018.04.20)A(2018.04.20) KRKR 10-180858710-1808587 B1(2017.12.07)B1(2017.12.07)

이에 본 발명자는 상술한 제반 사항을 종합적으로 고려함과 동시에 기존의 입국장 내 우범 여행자 추적 시스템이 지닌 기술적 한계 및 문제점들을 해결하려는 발상에서, 입국 심사대를 통과한 우범 여행자가 CIQ 통관 절차를 피하기 위해 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하더라도 여행자 휴대품 신고서에 부착된 전자 태그를 이용해 이동 동선을 따라 효율적으로 추적하여 철저히 관찰 및 지속적으로 감시할 수 있고, 이를 통해 관제의 정확성은 물론 세관 업무의 효율성을 높일 수 있는 새로운 구조의 입국장 내 우범 여행자 추적 시스템 및 방법을 개발하고자 각고의 노력을 기울여 부단히 연구하던 중 그 결과로써 본 발명을 창안하게 되었다.Accordingly, the present inventor comprehensively considered all of the above-mentioned matters and, at the same time, with the idea of solving the technical limitations and problems of the existing traveler tracking system in the entry hall, the inventor sought to allow a serious traveler who passed the immigration checkpoint to avoid the CIQ customs clearance procedure. Even if you disguise yourself, such as wearing heavy makeup, glasses, or a mask, or change your clothes, you can efficiently track your movement path using the electronic tag attached to the traveler's personal belongings declaration form and thoroughly observe and continuously monitor it. This ensures the accuracy of traffic control. Of course, the present invention was created as a result of continuous research with great effort to develop a new system and method for tracking offenders in the entry hall with a new structure that could increase the efficiency of customs work.

따라서 본 발명이 해결하고자 하는 기술적 과제 및 목적은 여행자 휴대품 신고서에 부착된 전자 태그를 이용해 입국장 내의 우범 여행자가 환복이나 변장을 하더라도 지속적으로 이동을 추적 및 감시할 수 있도록 하는 입국장 내 우범 여행자 추적 시스템 및 방법을 제공하는 데 있는 것이다.Therefore, the technical problem and purpose to be solved by the present invention is a tracking system for travelers with criminal offenses at the entry port that uses electronic tags attached to the traveler's belongings declaration form to continuously track and monitor the movement of criminal travelers within the entry port even if they change clothes or disguise themselves. The purpose is to provide a method.

여기서 본 발명이 해결하고자 하는 기술적 과제 및 목적은 이상에서 언급한 기술적 과제 및 목적으로 국한하지 않으며, 언급하지 않은 또 다른 기술적 과제 및 목적들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 명확하게 이해할 수 있을 것이다.Here, the technical problems and objectives to be solved by the present invention are not limited to the technical problems and objectives mentioned above, and other technical problems and objectives not mentioned can be understood from the description below as a matter of common knowledge in the technical field to which the present invention pertains. Those who have it will be able to understand it clearly.

상술한 바와 같은 본 발명의 기술적 과제를 해결하기 위한 새로운 착상을 구체화하면서 특정의 기술적 목적을 효과적으로 달성하기 위한 본 발명의 실시 태양(aspect)에 따른 구체적인 수단은, 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자 정보를 입력받는 우범여행자정보입력부, 입국 심사대에 설치되어 있는 복수 개의 제1CCTV 카메라로부터 영상정보를 입력받는 제1영상정보입력부, 상기 제1영상정보입력부를 통해 입력받은 영상정보에서 입국자의 객체를 식별하고, 상기 우범여행자정보입력부를 통해 입력받은 우범 여행자 정보와 대조하여 우범 여행자를 탐지하는 우범여행자탐지부, 탐지된 우범 여행자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제1객체특징정보추출부, 입국장 내에 설치되어 있는 복수 개의 제2CCTV 카메라로부터 영상정보를 입력받는 제2영상정보입력부, 상기 제2영상정보입력부를 통해 입력받은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제2객체특징정보추출부, 상기 제1객체특징정보추출부에서 생성된 우범 여행자의 객체 특징정보와 상기 제2객체특징정보추출부에서 생성된 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 제1유사도검출부, 입국장 내 입국자들 중 상기 제1유사도검출부에서 검출된 유사도 값이 미리 정해진 임계치 이상인 입국자를 인식해 당해 우범 여행자로 특정하는 제1우범여행자특정부, 입국 심사대에 설치되어 있는 복수 개의 제1CCTV 카메라와 입국장 내에 설치되어 있는 복수 개의 제2CCTV 카메라, 입국장 내에 배치되어 있는 복수 개의 자율주행 로봇 및 리더기에 대한 각각의 식별정보와 배치정보, 특정된 우범 여행자의 객체 특징정보와 영상정보를 저장하는 저장부, 특정된 우범 여행자의 객체 특징정보와 영상정보를 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 제공하는 전송부, 상기 자율주행 로봇들의 기능을 제어하고, 시스템의 전반적인 작동을 제어하는 제어부, 상기 자율주행 로봇들과 각각 무선으로 데이터 통신을 하는 데이터통신부, 상기 데이터통신부를 통해 입력받고 상기 자율주행 로봇들의 카메라로 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제3객체특징정보추출부, 상기 제1우범여행자특정부에서 특정된 우범 여행자의 객체 특징정보와 상기 제3객체특징정보추출부에서 생성된 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 제2유사도검출부, 상기 제2유사도검출부에서 검출된 유사도 값이 미리 정해진 임계치 이상인 입국자를 인식해 우범 여행자로 재특정하는 제2우범여행자특정부, 상기 자율주행 로봇들로부터 수신되는 영상정보와 GPS를 기반으로 각각의 위치를 실시간으로 인식하는 위치인식부, 상기 자율주행 로봇들의 위치정보를 디스플레이부에 표시되도록 하는 GIS표시부, 상기 자율주행 로봇의 카메라로 촬영하여 얻은 우범 여행자가 포함된 영상정보를 상기 디스플레이부에 실시간으로 출력되도록 하는 이벤트알람부, 입국장 내의 구역별로 복수 개가 설치되고, 일정거리 내에 위치하는 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그의 수신신호세기 값과 고유식별정보를 수신하는 리더기 및 상기 리더기로부터 상기 전자 태그의 수신신호세기 값과 고유식별정보를 수집하여 입국자의 위치정보를 생성하고, 이를 상기 제2우범여행자특정부에서 특정한 우범 여행자 관련정보와 상기 자율주행 로봇들의 위치정보를 토대로 한 상기 우범 여행자의 위치정보와 비교하여 기설정된 기준 범위 내에 있으면, 상기 우범 여행자에게 상기 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그의 고유식별정보를 매칭하여 상기 우범 여행자와 상기 입국자를 합체시키는 정보조합부를 포함하여 채용하는 것을 특징으로 하는 전자 태그를 이용한 입국장 내 우범 여행자 실시간 추적 시스템을 제시한다.Specific means according to the aspect of the present invention for effectively achieving a specific technical purpose while embodying a new idea for solving the technical problem of the present invention as described above include preliminary analysis information on entrants and traveler information. A criminal traveler information input unit that compares the system's criminal traveler databases to receive information on criminal travelers among entrants, a first video information input unit that receives video information from a plurality of first CCTV cameras installed at the immigration checkpoint, and the first video information. A criminal traveler detection unit that identifies the object of the entrant from the image information input through the input unit and detects the criminal traveler by comparing it with the criminal traveler information input through the illegal traveler information input unit, the facial characteristics, color and A first object characteristic information extraction unit that extracts texture characteristics and gait characteristics to generate and store object characteristic information in real time, and a second image information input unit that receives image information from a plurality of second CCTV cameras installed in the arrival hall. , a second object feature information extraction unit that generates and stores object feature information in real time by extracting facial features, color and texture features, and gait features of entrants from the image information input through the second image information input unit, the first The first similarity detection unit, which detects the identity and similarity between the object characteristic information of the serious traveler generated in the object characteristic information extraction unit and the object characteristic information of the entrants in the arrival hall generated in the second object characteristic information extraction unit, among the entrants in the arrival hall. The first traveler identification unit, which recognizes entrants whose similarity value detected by the first similarity detection unit is higher than a predetermined threshold and identifies them as the traveler concerned, a plurality of first CCTV cameras installed at the immigration checkpoint, and a plurality of first CCTV cameras installed in the entry hall A second CCTV camera, each identification information and arrangement information for a plurality of self-driving robots and readers placed in the arrival hall, a storage unit for storing object characteristic information and image information of a specified high-crime traveler, and an object of a specific high-crime traveler A transmission unit that provides characteristic information and image information to the customs situation room, customs agents (rovers), and inspection officers (marshal), a control unit that controls the functions of the autonomous robots and the overall operation of the system, and the autonomous robots. and a data communication unit that communicates data wirelessly, extracting the facial features, color and texture features, and gait features of entrants from the image information received through the data communication unit and captured by the cameras of the self-driving robots, and providing object characteristic information. A third object characteristic information extraction unit that generates and stores in real time, between the object characteristic information of a serious traveler identified in the first criminal traveler specification unit and the object characteristic information of entrants in the arrival hall generated by the third object characteristic information extraction unit. A second similarity detection unit that detects identity and similarity, a second traveler specification unit that recognizes entrants whose similarity value detected by the second similarity detection unit is higher than a predetermined threshold and re-identifies them as high-crime travelers, and receives information from the self-driving robots. A location recognition unit that recognizes each location in real time based on image information and GPS, a GIS display unit that displays the location information of the self-driving robots on the display, and a traveler who is a criminal obtained by taking pictures with the camera of the self-driving robots. An event alarm unit that outputs the included video information to the display unit in real time, is installed in a plurality of units for each zone in the arrival hall, and receives the signal strength value of the electronic tag attached to the traveler's belongings declaration form carried by an entrant located within a certain distance, and A reader receives unique identification information, and the received signal strength value and unique identification information of the electronic tag are collected from the reader to generate location information of the entering person, which is then combined with the information related to the serious traveler specified in the second serious traveler identification unit and the above. If it is within a preset standard range by comparing the location information of the criminal traveler based on the location information of self-driving robots, the unique identification information of the electronic tag attached to the traveler's belongings declaration form carried by the entering person is matched to the criminal traveler. We present a real-time tracking system for offenders at the entry hall using electronic tags, which includes an information combination unit that combines the offenders with the offenders entering the country.

이로써 본 발명은 공항이나 항만의 입국 심사대를 통과한 우범 여행자가 CIQ 통관 절차를 피하기 위해 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하더라도 이동 동선을 따라 추적할 수 있을 뿐만 아니라 고정형 CCTV 카메라의 촬영 범위를 벗어난 입국장 내 사각지대에 우범 여행자가 숨거나 위치하더라도 자율주행 로봇을 활용하여 사람 키 정도의 높이에서 여러 각도로 근접 촬영한 객체 특징정보를 수집 및 분석할 수 있어 더욱 효율적으로 우범 여행자를 탐지 및 추적하여 철저히 관찰 및 감시할 수 있다.As a result, the present invention not only allows a traveler who has passed through immigration at an airport or port to be tracked along his or her movement line even if he or she disguises himself or changes clothes, such as wearing heavy makeup, glasses, or a mask, within the entry hall to avoid CIQ customs procedures. Even if a serious traveler is hiding or located in a blind spot in the arrival hall outside the shooting range of a fixed CCTV camera, the self-driving robot can be used to collect and analyze object characteristic information taken close up from various angles from a height of about the height of a person, making it more efficient. This allows for thorough observation and surveillance by detecting and tracking erroneous travelers.

또한, 본 발명의 바람직한 실시 태양(aspect)으로 상기 제어부는, 상기 자율주행 로봇들로부터 영상정보를 수신하고, 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 확인하며, 상기 재특정된 우범 여행자와 입국장 내 특정 장소 사이의 거리에 해당하는 상대 위치정보에 근거하여, 상기 상대 위치정보가 기준 범위를 벗어난 경우, 당해 자율주행 로봇(R)과 가장 인접하는 다른 자율주행 로봇의 이동 방향을 상기 특정 장소로 변경하도록 제어하고, 그 다른 자율주행 로봇으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인할 수 있다.In addition, in a preferred aspect of the present invention, the control unit receives image information from the self-driving robots, uses the received image information to confirm the location of the re-specified traveler, and uses the received image information to determine the location of the re-specified traveler. Based on the relative location information corresponding to the distance between the offender and a specific place in the arrival hall, if the relative location information is outside the standard range, the direction of movement of the autonomous robot (R) and the other autonomous robot closest to it is determined. It is possible to control the change to the specific location and re-confirm the location of the re-specified traveler using image information received from the other self-driving robot.

그리고 본 발명의 바람직한 다른 실시 태양(aspect)에 따른 구체적인 수단은, 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자를 조회하고 지정하는 단계, 입국 심사대에 설치된 복수 개의 제1CCTV 카메라가 촬영하여 얻은 영상정보를 이용해 입국 심사대를 통과하는 입국자의 안면을 인식하고, 이를 지정된 우범 여행자 정보와 대조하여 우범 여행자를 식별하고 탐지하는 단계, 탐지된 우범 여행자의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계, 입국장 내에 설치된 복수 개의 제2CCTV 카메라가 촬영하여 얻은 영상정보를 이용해 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계, 생성된 우범 여행자의 객체 특징정보와 입국장 내 입국자들의 객체 특징정보에 대한 동일성 및 유사도를 검출하는 단계, 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 추출되는 입국자를 인식해 당해 우범 여행자로 특정하는 단계, 특정된 우범 여행자의 객체 특징정보 및 영상정보를 추가로 저장하고 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 제공하는 단계, 입국장 내 자율주행 로봇들이 카메라로 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계, 생성된 입국장 내 입국자들의 객체 특징정보와 이미 특정된 우범 여행자의 객체 특징정보 간 동일성 및 유사도를 검출하는 단계, 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 검출되는 입국자를 인식해 우범 여행자로 재특정하는 단계 및 자율주행 로봇들로부터 수신되는 영상정보와 GPS를 기반으로 각각의 위치를 실시간으로 인식하는 단계, 상기 정보조합부가 상기 리더기로부터 상기 전자 태그의 수신신호세기 값과 고유식별정보를 수집하여 입국자의 위치정보를 생성하고, 상기 제2우범여행자특정부에서 특정한 우범 여행자 관련정보와 상기 자율주행 로봇들의 위치정보를 토대로 한 상기 우범 여행자의 위치정보와 상기 입국자의 위치정보를 비교하여 기설정된 기준 범위 내에 있으면, 상기 우범 여행자에게 상기 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그의 고유식별정보를 매칭하여 상기 우범 여행자와 상기 입국자를 합체시키는 단계 및 상기 GIS표시부가 상기 정보조합부에서 합체시킨 상기 우범 여행자와 상기 입국자의 위치정보를 디스플레이부를 통해 표시하는 단계를 포함하여 이루어지는 것을 특징으로 하는 입국장 내 우범 여행자 추적 방법을 제시한다.And the specific means according to another preferred aspect of the present invention is the step of comparing the preliminary analysis information on entrants with the high-crime traveler database of the traveler information system to query and designate high-crime travelers among entrants, installed at the immigration checkpoint. A step of recognizing and detecting the face of an entrant passing through the immigration checkpoint using video information captured by a plurality of first CCTV cameras, and comparing this with designated high-crime traveler information to identify and detect the high-crime traveler, facial characteristics of the detected high-crime traveler, A step of extracting color and texture features and gait features to generate and store object feature information in real time; facial features, color and texture features, and gait of entrants using image information captured by a plurality of second CCTV cameras installed in the entry hall Extracting features and generating and storing object characteristic information in real time, detecting the identity and similarity of the created object characteristic information of the criminal traveler and the object characteristic information of entrants in the arrival hall, at least one of the object characteristic information of entrants in the arrival hall A step of recognizing an entrant whose similarity is greater than a predetermined threshold and specifying the person as a criminal traveler; additionally storing the object characteristic information and image information of the identified criminal traveler; and sending information to the customs situation room, customs agent (rover), and inspection sheet. A step of providing to the marshal, a step of generating and storing object feature information in real time by extracting facial features, color and texture features, and gait features of entrants from the image information obtained by cameras taken by self-driving robots in the arrival hall; Detecting the identity and similarity between the created object characteristic information of entrants in the entry hall and the object characteristic information of already identified high-crime travelers, entrants whose similarity to at least one of the object characteristic information of entrants in the arrival hall is detected to be higher than a predetermined threshold A step of recognizing and re-identifying as a serious traveler and recognizing each location in real time based on image information and GPS received from self-driving robots, wherein the information combination unit determines the received signal strength value of the electronic tag from the reader. and unique identification information is collected to generate location information of the entrant, and the location information of the offender and the location of the entrant are based on the information related to the offender specified by the second offender traveler specification department and the location information of the self-driving robots. Comparing the information and if it is within a preset standard range, matching the unique identification information of the electronic tag attached to the traveler's belongings declaration form carried by the entering person to the high-crime traveler and combining the high-crime traveler with the entrant, and the GIS display unit We present a method for tracking criminal travelers in an entry hall, which includes the step of displaying the location information of the criminal travelers and the entrants combined in the information combination unit through a display unit.

이로써 본 발명은 공항이나 항만의 입국 심사대를 통과한 우범 여행자가 CIQ 통관 절차를 피하기 위해 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하더라도 이동 동선을 따라 효율적으로 추적하여 철저히 관찰 및 감시할 수 있다.Accordingly, the present invention allows for efficient tracking and thorough observation of criminal travelers who have passed through immigration at an airport or port, along their movement lines, even if they disguise themselves or change clothes, such as wearing heavy makeup, glasses, and a mask, within the entry hall to avoid CIQ customs clearance procedures. and can be monitored.

또한, 본 발명의 바람직한 실시 태양(aspect)으로 상기 단계 중 상기 자율주행 로봇들로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 확인하며, 상기 재특정된 우범 여행자와 입국장 내 특정 장소 사이의 거리에 해당하는 상대 위치정보에 근거하여, 상기 상대 위치정보가 기준 범위를 벗어난 경우, 당해 자율주행 로봇과 가장 인접하는 다른 자율주행 로봇의 이동 방향을 상기 특정 장소로 변경하도록 제어하고, 그 다른 자율주행 로봇으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인할 수 있다.In addition, as a preferred aspect of the present invention, the location of the re-specified high-crime traveler is confirmed using image information received from the autonomous robots during the above step, and the re-specified high-crime traveler and a specific location within the entry hall are confirmed. Based on the relative position information corresponding to the distance between them, if the relative position information is outside the reference range, control the movement direction of the autonomous robot and another autonomous robot closest to the specific location to be changed to the specific location, and The location of a re-identified traveler can be re-confirmed using image information received from another autonomous robot.

또한, 본 발명의 바람직한 실시 태양(aspect)은 상기 단계 중 추출된 우범 여행자의 얼굴 특징 영상과 입국장 내 입국자들의 얼굴 특징 영상에서 추출한 특징점 기술자를 비교하여 서로 비슷한 특징점을 찾는 특징점 매칭으로 얼굴 특징의 동일성 및 유사도를 검출할 수 있다.In addition, a preferred aspect of the present invention is to compare the facial feature image of the criminal traveler extracted during the above step with the feature point descriptor extracted from the facial feature image of the entrants in the entry hall and perform feature point matching to find similar feature points, thereby ensuring the identity of the facial features. and similarity can be detected.

또한, 본 발명의 바람직한 실시 태양(aspect)은 상기 단계 중 추출된 우범 여행자의 색상 특징 영상과 입국장 내 입국자들의 색상 특징 영상에서 컬러 히스토그램(color histogram)을 생성하고 주요 이미지 특징을 추출 및 서로 비교하여 미리 설정한 임계치 이상의 경우에만 색상 특징의 동일성 및 유사도를 검출할 수 있다.In addition, a preferred aspect of the present invention is to generate a color histogram from the color feature images of the criminal travelers and the color feature images of the entrants in the entry hall extracted during the above steps, extract the main image features, and compare them with each other. The identity and similarity of color features can be detected only when it exceeds a preset threshold.

또한, 본 발명의 바람직한 실시 태양(aspect)은 상기 단계 중 추출된 우범 여행자의 질감 특징 영상과 입국장 내 입국자들의 질감 특징 영상을 이미지 세그멘테이션(image segmentation)한 후, 객체의 MBR(Minimum Boundary Rectangle)을 구성하고, 각 이미지 내에 포함되어 있는 객체의 MBR에 대한 웨이블릿 변환(wavelet transform)을 적용하여 질감 특징을 생성하고, 이의 동일성 및 유사도를 검출할 수 있다.In addition, a preferred aspect of the present invention is to perform image segmentation on the texture feature images of the serious traveler extracted during the above step and the texture feature images of the entrants in the entry hall, and then determine the Minimum Boundary Rectangle (MBR) of the object. By configuring and applying wavelet transform to the MBR of the object included in each image, texture features can be generated and their identity and similarity can be detected.

또한, 본 발명의 바람직한 실시 태양(aspect)은 상기 단계 중 입국 심사대에 설치된 복수 개의 제1CCTV 카메라가 촬영하여 얻은 영상정보로부터 이진 실루엣 동영상 시퀀스를 획득한 뒤, 그 실루엣 동영상 시퀀스로부터 정규화시킨 실루엣 영상을 획득하고, 그 정규화시킨 실루엣 영상으로부터 식별 가능한 걸음걸이 특징정보를 추출한 뒤 추출한 걸음걸이 특징정보들을 입국장 내에 설치된 복수 개의 제2CCTV 카메라가 촬영하여 얻은 영상정보의 걸음걸이 특징정보와 비교하여 걸음걸이 특징의 동일성 및 유사도를 검출할 수 있다.In addition, a preferred aspect of the present invention is to obtain a binary silhouette video sequence from image information captured by a plurality of first CCTV cameras installed at the immigration checkpoint during the above step, and then obtain a silhouette image normalized from the silhouette video sequence. After extracting identifiable gait feature information from the obtained and normalized silhouette image, the extracted gait feature information is compared with the gait feature information of the image information obtained by shooting a plurality of second CCTV cameras installed in the arrival hall to determine the gait feature information. Identity and similarity can be detected.

상기와 같은 기술적 과제를 해결하고자 특유한 해결 수단이 기초하고 있는 본 발명의 기술사상 및 실시 예(embodiment)에 따르면, 공항이나 항만의 입국 심사대를 통과한 우범 여행자가 CIQ 통관 절차를 피하기 위해 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하더라도 여행자 휴대품 신고서에 부착된 전자 태그를 이용해 이동 동선을 따라 보다 효율적으로 추적하여 철저히 관찰하고 지속적으로 감시할 수 있다.According to the technical idea and embodiment of the present invention, which is based on a unique solution to solve the above technical problems, a serious traveler who has passed the immigration checkpoint at an airport or port enters the port of entry to avoid CIQ customs procedures. Even if you disguise yourself, such as wearing heavy makeup, glasses, or a mask, or change your clothes, you can thoroughly observe and continuously monitor by tracking your movements more efficiently by using the electronic tag attached to the traveler's carry-on declaration form.

즉, 특정된 우범 여행자 관련정보와 자율주행 로봇(R)들의 위치정보를 토대로 한 우범 여행자의 위치정보와, 입국장 내의 구역별로 설치되어 있는 리더기로 수집한 입국자의 위치정보를 이용하여 우범 여행자와 입국자를 매칭하는 방식으로 서로 합체시켜 감시하고 추적함으로써 관제의 정확성 및 신뢰성을 높임은 물론이고 세관 업무의 효율성을 제고할 수 있다.In other words, the location information of the offender travelers based on the information related to the specified travelers and the location information of the autonomous robots (R), and the location information of the entrants collected by the readers installed in each area within the arrival hall are used to identify the offenders and entrants. By monitoring and tracking by combining them in a matching manner, it is possible to increase the accuracy and reliability of customs control as well as improve the efficiency of customs work.

더구나 입국장 내에서 운영되는 안내로봇이나 청소로봇과 같은 자율주행 로봇을 활용하여 실시간으로 우범 여행자의 위치와 이동을 확인함으로써 입국장 내에서의 입국자 밀집도가 높은 경우 또는 화장실이나 면세점 내부, 기둥이나 조형물의 뒤쪽 등 고정형 CCTV 카메라의 촬영 범위를 벗어난 입국장 내 사각지대에 우범 여행자가 숨거나 위치하더라도 사람 키 정도의 높이에서 여러 각도로 근접 촬영한 객체 특징정보를 수집 및 분석할 수 있어 우범 여행자 탐지의 신뢰성 및 추적 효율을 향상시킬 수 있다.Furthermore, autonomous robots such as guide robots or cleaning robots operated within the arrival hall can be used to check the location and movement of offenders in real time, such as in cases where the density of entrants within the arrival hall is high, inside restrooms or duty-free shops, or behind pillars or sculptures. Even if a criminal traveler is hiding or located in a blind spot within the arrival hall outside the shooting range of a fixed CCTV camera, object characteristic information taken close-up from various angles from a height of about the height of a person can be collected and analyzed, thereby improving the reliability and tracking of criminal traveler detection. Efficiency can be improved.

여기서 본 발명의 효과들은 이상에서 언급한 효과들로 국한하지 않으며, 언급하지 않은 또 다른 효과들은 청구범위의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 명확하게 이해할 수 있을 것이다.Here, the effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 실시 예에 따른 전자 태그를 이용한 입국장 내 우범 여행자 실시간 추적 시스템을 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 실시 예에 따른 전자 태그를 이용한 입국장 내 우범 여행자 추적 방법을 설명하기 위한 순서도이다.
Figure 1 is a block diagram schematically showing a real-time tracking system for serious travelers in an entry hall using an electronic tag according to an embodiment of the present invention.
Figure 2 is a flowchart illustrating a method of tracking a serious traveler in an entry hall using an electronic tag according to an embodiment of the present invention.

이하, 본 발명에 따른 실시 예를 첨부된 도면을 참조하여 보다 구체적으로 설명한다.Hereinafter, embodiments according to the present invention will be described in more detail with reference to the attached drawings.

이에 앞서, 후술하는 용어들은 본 발명에서의 기능을 고려하여 정의된 것으로서, 이는 본 발명의 기술적 사상에 부합되는 개념과 당해 기술분야에서 통용 또는 통상적으로 인식되는 의미로 해석하여야 함을 명시한다.Prior to this, the terms described below are defined in consideration of their functions in the present invention, and should be interpreted as concepts consistent with the technical idea of the present invention and meanings commonly used or commonly recognized in the relevant technical field.

또한, 본 발명과 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Additionally, if it is determined that a detailed description of a known function or configuration related to the present invention may obscure the gist of the present invention, the detailed description will be omitted.

여기서 첨부된 도면들은 기술의 구성 및 작용에 대한 설명의 편의와 이해를 돕기 위해 일부분을 과장하거나 간략화하여 도시될 수 있고, 그 도면상의 각 구성요소가 실제의 크기 및 형태와 정확하게 일치하는 것은 아님을 밝힌다.The drawings attached herein may be shown with exaggerated or simplified portions to facilitate explanation and understanding of the composition and operation of the technology, and each component in the drawings does not exactly match the actual size and shape. Reveal.

아울러 본 명세서에서 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함하는 의미이며, 또 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in this specification, the term and/or refers to a combination of a plurality of related described items or includes any item among a plurality of related described items, and when a part includes a certain element, this means that it is specifically opposed to Unless otherwise stated, it does not mean excluding other components, but rather including other components.

즉, 본 명세서에서 설시(說示)하는 '포함하다' 또는 '가지다' 등의 용어는 특징, 개수, 단계, 공정, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계, 공정, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해해야 한다.In other words, terms such as 'include' or 'have' used in this specification mean the existence of features, numbers, steps, processes, operations, components, parts, or a combination thereof. It should be understood that it does not exclude the presence or addition of other features, numbers, steps, processes, operations, components, parts, or combinations thereof.

아울러 각 공정 및 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 공정 및 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, each process and step may occur differently from the specified order unless a specific order is clearly stated in the context. That is, each process and step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the opposite order.

한편, 본 발명에서 사용하는 "부" 및 "유닛"의 의미는 장치 또는 시스템에서 목적하는 적어도 하나의 기능이나 어느 일정한 동작을 처리하는 단위 또는 역할을 하는 모듈 형태를 의미하며, 이는 하드웨어나 소프트웨어 혹은 하드웨어 및 소프트웨어의 결합 등을 통한 수단이나 독립적인 동작을 수행할 수 있는 디바이스 또는 어셈블리 등으로 구현할 수 있다.Meanwhile, the meaning of “unit” and “unit” used in the present invention refers to a module that plays a role or a unit that processes at least one function or certain operation desired in a device or system, which is hardware, software, or It can be implemented through a combination of hardware and software, or as a device or assembly that can perform independent operations.

그리고 본 발명에서 사용하는 "모듈"의 의미는 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있고, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)할 수 있고, 일체로 구성된 부품의 최소 단위 또는 그 일부일 수 있고, 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부일 수도 있으며, 기계적으로 또는 전자적으로 구현할 수 있다.And the meaning of "module" used in the present invention may mean a unit containing one or a combination of two or more of hardware, software, or firmware, and may include unit, logic, logic, etc. It can be used interchangeably with terms such as logical block, component, and circuit, and can be the minimum unit of an integrated part or a part thereof, and performs one or more functions. It may be the smallest unit or a part thereof, and may be implemented mechanically or electronically.

그리고 본 발명에서 사용하는 상단, 하단, 상면, 하면, 또는 상부, 하부, 상측, 하측, 전후, 좌우 등의 용어는 각 구성요소에 있어 상대적인 위치를 구별하기 위해 편의상 사용한 것이다. 예를 들어, 도면상의 위쪽을 상부로 아래쪽을 하부로 명명하거나 지칭하고, 길이 방향을 전후 방향으로, 폭 방향을 좌우 방향으로 명명하거나 지칭할 수 있다.In addition, terms such as top, bottom, upper surface, lower surface, or upper, lower, upper, lower, front, back, left and right used in the present invention are used for convenience to distinguish the relative positions of each component. For example, the upper part of the drawing may be referred to as upper and the lower part as lower, the longitudinal direction may be referred to as the front-to-back direction, and the width direction may be referred to as the left-right direction.

또한, 본 발명에서 사용하는 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는 데 사용할 수 있다. 즉, 제1, 제2 등의 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하는 목적으로 사용할 수 있다.Additionally, terms such as first and second used in the present invention can be used to describe various components. That is, terms such as first, second, etc. can be used only for the purpose of distinguishing one component from another component.

도 1에 도시한 바와 같이 본 발명의 실시 예에 따른 전자 태그를 이용한 입국장 내 우범 여행자 실시간 추적 시스템은 입국 심사대에 중첩되지 않게 설치되어 있는 복수 개의 제1CCTV 카메라(C1)와, 입국장 내에 중첩되지 않게 설치되어 있는 복수 개의 제1CCTV 카메라(C2)가 촬영하여 얻은 영상정보 및 입국장 내에 배치되어 있는 복수 개의 자율주행 로봇(R)들이 카메라로 촬영하여 얻은 영상정보를 입력받아 화면에 표시할 수 있다.As shown in Figure 1, the real-time tracking system for serious travelers in the arrival hall using an electronic tag according to an embodiment of the present invention includes a plurality of first CCTV cameras (C1) installed not overlapping at the immigration checkpoint and Image information obtained by filming by a plurality of installed first CCTV cameras (C2) and video information obtained by filming by a plurality of self-driving robots (R) placed in the arrival hall can be input and displayed on the screen.

그리고 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템은 복수 개의 제1 및 제2CCTV 카메라(C1)(C2)들과 각각 무선 또는 유선 네트워크를 통해 연결되어 있고, 복수 개의 자율주행 로봇(R)들과 무선 네트워크를 통해 데이터 통신이 가능하게 연결되어 있어 그 각각으로부터 촬영된 영상을 실시간으로 전송받거나 데이터를 송신 또는 수신할 수 있다.In addition, the system for tracking criminal travelers in the entry hall according to an embodiment of the present invention is connected to a plurality of first and second CCTV cameras (C1) (C2) through a wireless or wired network, respectively, and a plurality of autonomous robots (R) Since data communication is possible through a wireless network, images captured from each of them can be transmitted in real time, or data can be transmitted or received.

아울러 복수 개의 제1 및 제2CCTV 카메라(C1)(C2)들과 복수 개의 자율주행 로봇(R)들에 대한 각각의 식별정보와 배치정보 등과 같은 각종 정보를 등록받아 저장할 수 있다.In addition, various information such as identification information and placement information for the plurality of first and second CCTV cameras (C1) (C2) and the plurality of self-driving robots (R) can be registered and stored.

여기서 제1 및 제2CCTV 카메라((C1)(C2)별 정보 및 자율주행 로봇(R)별 정보는 각각에 부여된 고유 아이디 및 설치 위치정보를 포함할 수 있다.Here, the information for the first and second CCTV cameras (C1) (C2) and the information for the autonomous robot (R) may include a unique ID and installation location information assigned to each.

한편, 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템은 시스템 장치, 서버 등의 하드웨어적 구성으로 구현되거나 복수 개의 제1 및 제2CCTV 카메라(C1)(C2), 복수 개의 자율주행 로봇(R) 등과 통신 가능하게 연결된 장치 내지 시스템 등에 탑재되어 본 발명의 프로세싱을 수행하는 소프트웨어의 형태로도 구현될 수도 있음은 물론이다.Meanwhile, the system for tracking criminal travelers in the entry hall according to an embodiment of the present invention is implemented with a hardware configuration such as a system device and a server, or includes a plurality of first and second CCTV cameras (C1) (C2), a plurality of autonomous robots (R ) Of course, it can also be implemented in the form of software that is mounted on a device or system communicatively connected to the like and performs the processing of the present invention.

구체적으로, 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템을 구성하는 주요 요소는 우범여행자정보입력부(11), 제1영상정보입력부(12), 우범여행자탐지부(13), 제1특징추출부(14), 제2영상정보입력부(15), 제2특징추출부(16), 제1유사도검출부(17), 제1우범여행자특정부(18), 저장부(19), 전송부(20), 제어부(21), 데이터통신부(22), 제3특징추출부(23), 제2유사도검출부(24), 제2우범여행자특정부(25), 위치인식부(26), GIS표시부(27), 디스플레이부(28), 이벤트알람부(29), 리더기(30), 정보조합부(31) 및 관리자입력부(32)를 포함하고 있다.Specifically, the main elements that make up the criminal traveler tracking system in the entry hall according to the embodiment of the present invention are the criminal traveler information input unit 11, the first image information input unit 12, the criminal traveler detection unit 13, and the first feature. Extraction unit 14, second image information input unit 15, second feature extraction unit 16, first similarity detection unit 17, first criminal traveler specification unit 18, storage unit 19, transmission unit (20), control unit 21, data communication unit 22, third feature extraction unit 23, second similarity detection unit 24, second criminal traveler identification unit 25, location recognition unit 26, GIS It includes a display unit 27, a display unit 28, an event alarm unit 29, a reader 30, an information combination unit 31, and an administrator input unit 32.

여기서 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템을 구성하는 각 구성요소는 물리적으로 구분되는 구성요소보다는 논리적으로 구분되는 구성요소로 이해할 수 있다.Here, each component that constitutes the system for tracking criminal travelers in the entry hall according to an embodiment of the present invention can be understood as a logically distinct component rather than a physically distinct component.

즉, 각 구성요소는 본 발명의 기술 사상을 실현하기 위한 논리적인 구성요소에 해당하므로 서로 통합 또는 분리되더라도 본 발명의 논리 구성이 수행하는 기능이 실현될 수 있다면 본 발명의 범위 내에 있다고 해석되어야 하며, 동일 또는 유사한 기능을 수행하는 구성요소라면 그 명칭 상의 일치성 여부와는 무관히 본 발명의 범위 내에 있다고 해석되어야 함은 물론이다.In other words, each component corresponds to a logical component for realizing the technical idea of the present invention, so if the function performed by the logical configuration of the present invention can be realized even if integrated or separated from each other, it should be interpreted as being within the scope of the present invention. , of course, any component that performs the same or similar function should be construed as being within the scope of the present invention, regardless of consistency in name.

우범여행자정보입력부(11)는 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자 정보를 입력받을 수 있도록 하는 역할을 한다.The crime-prone traveler information input unit 11 compares the preliminary analysis information on entrants with the trespasser traveler database of the traveler information system and serves to receive information on trespassers among entrants.

제1영상정보입력부(12)는 입국 심사대에 설치되어 있는 복수 개의 제1CCTV 카메라(C1)들이 촬영하여 전송하는 영상정보를 입력받는 역할을 한다.The first image information input unit 12 serves to receive image information captured and transmitted by a plurality of first CCTV cameras C1 installed at the immigration checkpoint.

여기서 제1영상정보입력부(12)는 입국 심사대에 설치되어 있는 복수 개의 제1CCTV 카메라(C1)들로부터 영상정보를 전송받기 위한 네트워크 인터페이스 기능을 제공할 수 있다.Here, the first image information input unit 12 can provide a network interface function for receiving image information from a plurality of first CCTV cameras (C1) installed at the immigration counter.

우범여행자탐지부(13)는 입국 심사대에 설치되어 있는 복수 개의 제1CCTV 카메라(C1)들이 촬영하여 전송하는 영상을 이미지 프로세싱하여 그 영상정보에서 입국자의 객체를 식별하고, 우범여행자정보입력부(11)를 통해 입력받은 우범 여행자 정보와 대조하여 우범 여행자를 탐지하는 역할을 한다.The criminal traveler detection unit 13 processes images captured and transmitted by a plurality of first CCTV cameras C1 installed at the immigration checkpoint to identify the object of the entrant from the video information, and the illegal traveler information input unit 11 It plays a role in detecting anomalous travelers by comparing them with the anomalous traveler information entered through .

제1특징추출부(14)는 탐지된 우범 여행자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 역할을 한다.The first feature extraction unit 14 extracts the facial features, color and texture features, and gait features of detected criminal travelers and generates and stores object feature information in real time.

즉, 제1특징추출부(14)는 입국 심사대에 설치되어 있는 복수 개의 제1CCTV 카메라(C1)가 촬영하여 얻은 영상정보에서 우범 여행자를 인식하고, 인식된 우범 여행자를 학습하여 객체 특징정보를 추출한다.In other words, the first feature extraction unit 14 recognizes a criminal traveler from image information obtained by filming by a plurality of first CCTV cameras C1 installed at the immigration checkpoint, and extracts object characteristic information by learning the recognized criminal traveler. do.

제2영상정보입력부(15)는 입국장에 설치되어 있는 복수 개의 제2CCTV 카메라(C2)가 촬영하여 전송하는 영상정보를 입력받는 역할을 한다.The second image information input unit 15 serves to receive image information captured and transmitted by a plurality of second CCTV cameras (C2) installed at the arrival hall.

여기서 제2영상정보입력부(15)는 입국장에 설치되어 있는 복수 개의 제2CCTV 카메라(C2)들로부터 영상정보를 전송받기 위한 네트워크 인터페이스 기능을 제공할 수 있다.Here, the second image information input unit 15 can provide a network interface function for receiving image information from a plurality of second CCTV cameras (C2) installed at the arrival hall.

제2특징추출부(16)는 입국장 내 입국자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 역할을 한다.The second feature extraction unit 16 extracts facial features, color and texture features, and gait features of entrants in the arrival hall, and generates and stores object feature information in real time.

즉, 제2특징추출부(16)는 입국장에 설치되어 있는 복수 개의 제2CCTV 카메라(C2)가 촬영하여 얻은 영상정보로부터 입국자들의 객체 특징정보를 추출한다.That is, the second feature extraction unit 16 extracts object characteristic information of entrants from image information obtained by filming by a plurality of second CCTV cameras (C2) installed at the arrival hall.

제1유사도검출부(17)는 생성된 우범 여행자의 객체 특징정보와 입국장 내 입국자들의 객체 특징정보 간의 동일성 및 유사도를 검출하는 역할을 한다.The first similarity detection unit 17 serves to detect the identity and similarity between the generated object characteristic information of a serious traveler and the object characteristic information of entrants in the entry hall.

제1우범여행자특정부(18)는 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상 일치하는 입국자를 인식해 당해 우범 여행자로 특정하는 역할을 한다.The first criminal traveler identification unit 18 recognizes entrants whose similarity to at least one of the object characteristic information of entrants in the entry hall matches a predetermined threshold or higher and identifies them as a trespassing traveler.

즉, 제1우범여행자특정부(18)는 유사도 분석을 통해 사전 탐지된 우범 여행자와 입국장 내 입국자 간의 동일성 또는 유사성을 판단한다.In other words, the first criminal traveler identification unit 18 determines the identity or similarity between the previously detected criminal traveler and the entrant at the entry hall through similarity analysis.

저장부(19)는 시스템의 동작과 관련된 각종 정보 및 데이터를 비롯하여 입국 심사대에 설치된 복수 개의 제1CCTV 카메라(C1)와, 입국장 내에 설치된 복수 개의 제2CCTV 카메라(C2) 및 입국장 내에 배치되어 있는 복수 개의 자율주행 로봇(R) 및 입국장 내에 구역별로 설치되어 있는 복수 개의 리더기(30)에 대한 각각의 고유번호, 식별정보, 화각정보, 배치정보, 주행경로정보, 임무정보, 위치정보, 상태정보, 동작정보, 특정된 우범 여행자의 객체 특징정보와 영상정보를 저장하고, 제어부(21)의 제어에 따라 제공하는 역할을 한다.The storage unit 19 contains various information and data related to the operation of the system, as well as a plurality of first CCTV cameras (C1) installed at the immigration checkpoint, a plurality of second CCTV cameras (C2) installed in the arrival hall, and a plurality of second CCTV cameras (C2) arranged in the arrival hall. Each unique number, identification information, angle of view information, placement information, driving path information, mission information, location information, status information, and operation for the autonomous robot (R) and a plurality of readers (30) installed for each zone in the arrival hall. It serves to store information, object characteristic information and image information of a identified serious traveler and provide them under the control of the control unit 21.

그리고 저장부(19)에는 복수 개의 제1 및 제2CCTV 카메라(C1)(C2)들과 자율주행 로봇(R)들 중 특정 제1 및 제2CCTV 카메라(C1)(C2) 또는 자율주행 로봇(R)들에 대한 식별정보, 위치정보, 화각정보, 상태정보, 배치정보, 배치된 장소정보 및 영상정보 중 적어도 어느 하나가 매칭된 매칭정보로서 존재할 수 있고, 이는 특정 제1 및 제2CCTV 카메라(C1)(C2) 또는 자율주행 로봇(R)이 위치한 공간(또는 장소, 영역)을 특정하거나 해당 공간에 위치한 우범 여행자의 위치를 확인하는 데 유용하게 활용될 수 있다.And the storage unit 19 includes a plurality of first and second CCTV cameras (C1) (C2) and a specific first and second CCTV camera (C1) (C2) or a self-driving robot (R) among the self-driving robots (R). ), at least one of identification information, location information, angle of view information, status information, arrangement information, placed location information, and image information may exist as matched matching information, which may exist as matching information for specific first and second CCTV cameras (C1). ) (C2) or can be usefully used to specify the space (or place, area) where the autonomous robot (R) is located or to confirm the location of a frequent traveler located in that space.

또한, 저장부(19)에는 입국장에 대한 2차원 또는 3차원 지도(map 또는 지도정보)가 저장됨으로써 자율주행 로봇(R) 또는 우범 여행자의 현재 위치를 파악하거나, 자율주행 로봇(R)의 주행 경로를 설정 및 주행에 활용할 수 있다.In addition, the storage unit 19 stores a two-dimensional or three-dimensional map (map or map information) of the arrival hall to determine the current location of the self-driving robot (R) or a serious traveler, or to determine the current location of the self-driving robot (R) or a traveler who is a criminal. You can use it for setting and driving routes.

여기서 입국장에 대한 2차원 또는 3차원 지도는 자율주행 로봇(R)에서 수신되는 영상정보를 기반으로 자율주행 로봇(R)의 현재 위치를 파악하기 위해 영상정보에 기반하여 위치를 추정하는 데이터로 구성될 수 있다.Here, the 2D or 3D map of the arrival hall consists of data that estimates the location based on the image information to determine the current location of the autonomous robot (R) based on the image information received from the autonomous robot (R). It can be.

여기서 저장부(19)는 롬, 램, 하드디스크, 플래시메모리, SSD(Solid State Disk) 등과 같은 각종 저장매체로 구현할 수 있다.Here, the storage unit 19 can be implemented with various storage media such as ROM, RAM, hard disk, flash memory, and solid state disk (SSD).

한편, 자율주행 로봇(R)은 복수의 바퀴를 구동시켜 주행하고, 다양한 경로를 통해 임무 수행 예정 시간에 대한 정보를 수신하며, 해당 시간에 임무를 수행하도록 프로그래밍할 수 있고, 또 제어부(21)의 제어에 의해 입국장 내에서 순찰, 안내, 청소, 방역, 운반 등의 다양한 동작 및 기능을 수행할 수 있다.Meanwhile, the self-driving robot (R) drives by driving multiple wheels, receives information about the scheduled mission performance time through various paths, and can be programmed to perform the mission at that time, and the control unit 21 Through control, various operations and functions such as patrolling, guidance, cleaning, quarantine, and transportation can be performed within the arrival hall.

그리고 자율주행 로봇(R)은 시스템의 제어부(21)와 입국장 내 상황 정보 등을 포함한 신호를 송수신할 수 있다. And the self-driving robot (R) can transmit and receive signals including situation information within the arrival hall with the system control unit 21.

또한, 자율주행 로봇(R)은 입국장 내 복수 개의 제2CCTV 카메라(C2)로부터 각 구역을 촬영한 영상정보를 수신하고 종합하여 입국장의 상황을 모니터링할 수 있다.In addition, the self-driving robot (R) can monitor the situation at the arrival hall by receiving and synthesizing video information captured in each area from the plurality of second CCTV cameras (C2) in the arrival hall.

아울러 자율주행 로봇(R)은 관리자로부터 직접 명령을 수신할 수 있다. 예를 들어, 자체 화면을 터치하는 입력 또는 음성 입력 등을 통해 관리자로부터 명령을 직접 수신하고, 수신된 명령에 따라 순찰, 안내, 청소 등의 동작을 수행할 수 있다.In addition, the self-driving robot (R) can receive commands directly from the manager. For example, commands can be received directly from the manager through input such as touching the screen or voice input, and actions such as patrolling, guiding, and cleaning can be performed according to the received command.

그리고 자율주행 로봇(R)은 고해상도의 카메라를 비롯하여 위치추적 및 위치조회를 위한 GPS 신호를 송·수신하는 위성항법장치(GPS), 자율주행을 위한 라이다(LiDAR) 센서, 비전 센서 등의 센서들이 탑재되어 있어 카메라로 촬영한 영상을 통해 동작 환경에 대한 인식 및 작업 판단을 할 수 있고, 또 RF(Radio Frequency) 신호로 송·수신할 수 있다.And the self-driving robot (R) includes sensors such as a high-resolution camera, a global navigation system (GPS) that transmits and receives GPS signals for location tracking and location inquiry, a LiDAR sensor for autonomous driving, and a vision sensor. Since it is equipped with a camera, it is possible to recognize the operating environment and make task decisions through images captured by the camera, and can also transmit and receive RF (Radio Frequency) signals.

또한, 자율주행 로봇(R)은 동작을 제어하기 위한 제어모듈을 포함할 수 있고, 다양한 종류의 센서들로부터 획득한 센서정보를 이용하여 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.In addition, the self-driving robot (R) may include a control module to control operations, obtain status information using sensor information obtained from various types of sensors, or detect (recognize) the surrounding environment and objects. Alternatively, it may generate map data, determine a travel route and driving plan, determine a response to an interaction, or determine an action.

여기서 자율주행 로봇(R)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서정보를 이용할 수 있다.Here, the autonomous robot (R) may use sensor information obtained from at least one sensor among lidar, radar, and camera to determine the movement path and driving plan.

특히, 자율주행 로봇(R)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.In particular, the self-driving robot (R) can recognize the environment or objects in areas where the view is obscured or over a certain distance by receiving sensor information from external devices, or receive recognized information directly from external devices. .

그리고 자율주행 로봇(R)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다.Additionally, the self-driving robot (R) can recognize the surrounding environment and objects using a learning model composed of at least one artificial neural network, and can determine an operation using the recognized surrounding environment information or object information.

또한, 자율주행 로봇(R)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 주행할 수 있다.In addition, the self-driving robot (R) determines the movement path and driving plan using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and controls the driving unit to determine the movement path. You can drive according to your driving plan.

여기서 맵 데이터에는 자율주행 로봇(R)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예를 들어, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 의자, 사람 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있으며, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.Here, the map data may include object identification information about various objects placed in the space where the autonomous robot (R) moves. For example, map data may include object identification information for fixed objects such as walls and doors and movable objects such as flower pots, chairs, and people. The object identification information includes name, type, distance, location, etc. may be included.

또한, 자율주행 로봇(R)은 관리자의 제어/상호작용에 기초하여 구동부를 제어함으로써 동작을 수행하거나 주행할 수 있다.Additionally, the self-driving robot (R) can perform operations or drive by controlling the driving unit based on the manager's control/interaction.

예를 들어, 자율주행 로봇(R)은 임무 정보를 수신하고, 특정 장소로 이동하기 위해 주행하며, 제어부(21)로부터 우범 여행자 위치정보를 수신하고, 그 위치정보에 기반하여 우범 여행자와 특정 장소 사이의 거리를 산출할 수 있다.For example, the self-driving robot (R) receives mission information, drives to move to a specific place, receives location information of a high-traffic traveler from the control unit 21, and matches the high-crime traveler to a specific location based on the location information. The distance between them can be calculated.

전송부(20)는 특정된 우범 여행자의 객체 특징정보와 영상정보를 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 전송하는 역할을 한다.The transmission unit 20 serves to transmit the object characteristic information and image information of the identified serious traveler to the customs situation room, customs agent (rover), and inspection officer (marshal).

제어부(21)는 자율주행 로봇(R)들의 기능을 원격 제어하고, 시스템의 전반적인 작동을 제어한다.The control unit 21 remotely controls the functions of the self-driving robots (R) and controls the overall operation of the system.

그리고 제어부(21)는 입국 심사대에 설치되어 있는 복수 개의 제1CCTV 카메라(C1) 및 입국장 내에 설치되어 있는 복수 개의 제2CCTV 카메라(C2)에서 전송되는 영상을 이미지 프로세싱하여 선택적으로 디스플레이부(28)에 표시하도록 제어한다.And the control unit 21 image-processes the images transmitted from the plurality of first CCTV cameras (C1) installed at the immigration checkpoint and the plurality of second CCTV cameras (C2) installed in the arrival hall and selectively displays them on the display unit (28). Control to display.

또한, 제어부(21)는 자율주행 로봇(R)들로부터 영상정보를 수신하고, 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 확인한다.Additionally, the control unit 21 receives image information from the self-driving robots (R) and uses the received image information to confirm the location of the re-specified traveler.

이때, 제어부(21)는 재특정된 우범 여행자와 입국장 내 면세점, 화장실, 상점, 방역시설, 조형물, 통로 등과 같은 특정 장소 사이의 거리에 해당하는 상대 위치정보에 근거하여, 그 상대 위치정보가 기준 범위를 벗어난 경우, GPS 신호 등을 이용하여 당해 자율주행 로봇(R)과 가장 인접하는 다른 자율주행 로봇(R)을 선택한 후, 이를 재특정된 우범 여행자의 위치와 가장 가까운 입국장 내 면세점, 화장실, 상점, 방역시설, 조형물, 통로 등과 같은 특정 장소(또는 목적지)로 이동하도록 제어하고, 그 다른 자율주행 로봇(R)으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인함으로써 가변적인 현장 상황에 맞춰 효율적으로 신속하게 대응하는 유연성 및 운용 효율성을 극대화할 수 있다.At this time, the control unit 21 uses the relative location information corresponding to the distance between the re-specified high-crime traveler and a specific place such as a duty-free shop, restroom, store, quarantine facility, sculpture, passage, etc. in the arrival hall, and the relative location information is used as a standard. If it is out of range, select another autonomous robot (R) closest to the self-driving robot (R) using GPS signals, etc., and then use it to go to the duty-free shop, restroom, or It controls movement to a specific place (or destination) such as a store, quarantine facility, sculpture, passage, etc., and re-confirms the location of the re-specified high-crime traveler using video information received from the other autonomous robot (R). Flexibility and operational efficiency can be maximized by efficiently and quickly responding to field conditions.

예를 들어, 제어부(21)는 재특정된 우범 여행자가 미리 정해진 조형물 A로부터 5M를 초과하여 떨어지는 경우 당해 자율주행 로봇(R)의 배정(할당)된 서비스 영역을 벗어나는 것으로 판단하고, 재특정된 우범 여행자의 현위치 또는 사전에 조형물 A를 포함하는 서비스 영역을 배정(할당)받았거나 현재 조형물 A와 가장 가까운 곳에 위치하는 다른 자율주행 로봇(R)을 재특정된 우범 여행자 쪽 또는 조형물 A 쪽으로 이동하도록 제어할 수 있다.For example, the control unit 21 determines that if the respecified serious traveler falls more than 5M from the predetermined sculpture A, the control unit 21 is outside the assigned service area of the self-driving robot (R), and Move another self-driving robot (R) that has been allocated (allocated) to the current location of the offender A or a service area including sculpture A in advance or is currently located closest to sculpture A toward the respecified offender traveler or to sculpture A. You can control it to do so.

여기서 상대 위치정보는 입국장 내 면세점, 화장실, 상점, 방역시설, 조형물, 통로 등과 같은 특정 장소와 재특정된 우범 여행자가 동일 층(floor)에 존재한다고 가정할 때, 특정 장소로부터 재특정된 우범 여행자가 얼마만큼 떨어져 있는지에 대한 정보를 의미할 수 있다.Here, the relative location information refers to a specific place such as a duty-free shop, restroom, store, quarantine facility, sculpture, passage, etc. in the arrival hall, assuming that the re-specified high-crime traveler is on the same floor. It can mean information about how far away is.

그리고 제어부(21)는 관리자로부터 복수 개의 제1 및 제2CCTV 카메라(C1)(C2)들 중 주 CCTV 카메라를 설정받을 수 있고, 도중에 관리자의 선택에 따라 주 CCTV 카메라를 변경할 수도 있다.In addition, the control unit 21 can receive the main CCTV camera setting among the plurality of first and second CCTV cameras (C1) (C2) from the manager, and can also change the main CCTV camera according to the manager's selection along the way.

또한, 제어부(21)는 이동이 중지된 객체의 근거리 영상(줌영상/고해상도 영상)을 촬영하도록 PTZF(Pan, Tilt, Zoom, Focal length) 구동이 가능한 복수의 CCTV 카메라(C1)(C2)를 각각 제어할 수 있다.In addition, the control unit 21 uses a plurality of CCTV cameras (C1) (C2) capable of operating PTZF (Pan, Tilt, Zoom, Focal length) to capture close-range images (zoom images/high-resolution images) of objects that have stopped moving. Each can be controlled.

그리고 제어부(21)는 자율주행 로봇(R)으로부터 수신되는 영상정보의 식별 표지에 근거하여, 자율주행 로봇(R)의 식별정보를 추출하여 특정하고, 그 현재 위치를 파악할 수 있다. 이외에도 제어부(21)는 영상이 촬영된 시간 및 영상을 촬영한 자율주행 로봇(R)에 매칭된 위치정보 중 적어도 하나를 이용하여, 해당 영상을 촬영한 자율주행 로봇(R)의 현재 위치를 특정할 수 있다.And the control unit 21 can extract and specify identification information of the self-driving robot (R) based on the identification mark of the image information received from the self-driving robot (R) and determine its current location. In addition, the control unit 21 uses at least one of the time when the image was captured and the location information matched to the autonomous robot (R) that captured the image, to specify the current location of the autonomous robot (R) that captured the image. can do.

아울러 제어부(21)는 자율주행 로봇(R)에서 획득된 영상에 대해 3층, A구역(1)과 같이 좌표정보를 특정할 수 있고, 특정된 좌표정보는 자율주행 로봇(R)의 현재 위치정보가 될 수 있다.In addition, the control unit 21 can specify coordinate information, such as the 3rd floor, area A (1), for the image acquired from the autonomous robot (R), and the specified coordinate information is the current location of the autonomous robot (R). It can be information.

이때, 제어부(21)는 자율주행 로봇(R)으로부터 획득된 영상정보와 vision(또는 visual) 기반의 SLAM(Simultaneous Localization and Mapping) 기술에 의하여 생성된 지도를 비교함으로써 자율주행 로봇(R)의 위치(또는 현재 위치)를 추정할 수 있다. 이 경우 제어부(21)는 자율주행 로봇(R)에서 획득된 영상과 이미 생성된 지도를 구성하는 이미지들 간의 이미지 비교를 이용하여 자율주행 로봇(R)에서 획득된 영상과 가장 비슷한 이미지를 특정하고, 특정된 이미지에 매칭된 위치정보를 획득하는 방식으로 자율주행 로봇(R)의 위치정보를 특정할 수 있다.At this time, the control unit 21 determines the location of the self-driving robot (R) by comparing the image information acquired from the self-driving robot (R) with the map generated by vision (or visual)-based SLAM (Simultaneous Localization and Mapping) technology. (or current location) can be estimated. In this case, the control unit 21 uses image comparison between the image acquired from the self-driving robot R and the images constituting the already created map to specify the image most similar to the image obtained from the self-driving robot R. , the location information of the self-driving robot (R) can be specified by obtaining location information matched to the specified image.

즉, 제어부(21)는 자율주행 로봇(R)에서 영상이 획득되면, 획득된 영상을 이용하여 자율주행 로봇의 위치(또는 현재 위치)를 특정할 수 있고, 저장부(19)에 이미 저장된 지도정보로부터, 자율주행 로봇(R)에서 획득된 영상에 대응되는 위치정보(예를 들어, 좌표정보)를 추출할 수 있다.That is, when an image is acquired from the self-driving robot (R), the control unit 21 can specify the location (or current location) of the self-driving robot using the acquired image, and the map already stored in the storage unit 19 From the information, location information (eg, coordinate information) corresponding to the image acquired from the autonomous robot (R) can be extracted.

그리고 제어부(21)는 영상을 촬영한 제2CCTV 카메라(C2) 또는 자율주행 로봇(R)의 식별정보와 매칭된 위치정보를 저장부(19)로부터 추출하여 우범 여행자의 위치로 특정할 수 있다.In addition, the control unit 21 can extract the location information matched with the identification information of the second CCTV camera (C2) or the self-driving robot (R) that captured the video from the storage unit 19 and specify it as the location of the serious traveler.

한편, 제어부(21)는 마우스, 키보드, 터치패드 등과 같은 입력장치와 연결되는 관리자입력부(30)를 통해 추적 시스템의 동작과 관련된 명령을 입력받을 수 있고, 입력 또는 출력되는 신호, 데이터, 정보 등을 처리 및 제공할 수 있다.Meanwhile, the control unit 21 can receive commands related to the operation of the tracking system through the administrator input unit 30, which is connected to an input device such as a mouse, keyboard, touchpad, etc., and inputs or outputs signals, data, information, etc. can be processed and provided.

데이터통신부(22)는 자율주행 로봇(R)들과 각각 무선으로 데이터 통신을 하는 역할을 한다.The data communication unit 22 serves to communicate data wirelessly with each autonomous robot (R).

예를 들어, 데이터통신부(22)는 자율주행 로봇(R)으로부터 영상정보, 센싱정보 등의 데이터를 실시간으로 수신하고 자율주행 로봇(R)으로 제어명령을 전송할 수 있다.For example, the data communication unit 22 can receive data such as image information and sensing information from the self-driving robot (R) in real time and transmit control commands to the self-driving robot (R).

여기서 데이터통신부(22)는 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 어느 하나를 지원하는 통신 방식으로 자율주행 로봇(R)과 통신할 수 있다.Here, the data communication department 22 includes WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), and WiMAX (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), 5G (5th Generation Mobile Telecommunication), infrared communication It is possible to communicate with an autonomous robot (R) using a communication method that supports at least one of (Infrared Data Association; IrDA), UWB (Ultra-Wideband), and Wireless USB (Wireless Universal Serial Bus) technologies.

제3객체특징정보추출부(23)는 데이터통신부(22)를 통해 입력받고 자율주행 로봇(R)들의 카메라로 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 역할을 한다.The third object characteristic information extraction unit 23 extracts the facial features, color and texture features, and gait features of entrants from the image information received through the data communication unit 22 and captured by the cameras of the autonomous robots (R). It plays a role in generating and storing object characteristic information in real time.

제2유사도검출부(24)는 제1우범여행자특정부(18)에서 특정된 우범 여행자의 객체 특징정보와 제3객체특징정보추출부(23)에서 생성된 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 역할을 한다.The second similarity detection unit 24 determines the identity between the object characteristic information of the serious traveler identified in the first criminal traveler specification unit 18 and the object characteristic information of entrants in the entry hall generated by the third object characteristic information extraction unit 23. It plays a role in detecting similarity.

제2우범여행자특정부(25)는 제2유사도검출부(24)에서 검출된 유사도 값이 미리 정해진 임계치 이상인 입국자를 인식해 우범 여행자로 재특정하는 역할을 한다.The second criminal traveler identification unit 25 recognizes entrants whose similarity value detected by the second similarity detection unit 24 is higher than a predetermined threshold and re-identifies them as illegal travelers.

즉, 제2우범여행자특정부(25)는 유사도 분석을 통해 사전 탐지된 우범 여행자와 입국장 내 입국자 간의 동일성 또는 유사성을 판단하여 당해 우범 여행자로 재특정한다.In other words, the second criminal traveler identification unit 25 determines the identity or similarity between the illegal traveler detected in advance and the person entering the port of entry through similarity analysis and re-identifies the illegal traveler as the illegal traveler.

위치인식부(26)는 자율주행 로봇(R)들로부터 수신되는 영상정보와 GPS를 기반으로 그 각각의 위치를 실시간으로 인식하는 역할을 한다.The location recognition unit 26 serves to recognize each location in real time based on image information and GPS received from the autonomous robots (R).

GIS표시부(27)는 자율주행 로봇(R)들의 GPS 좌표값 등의 실시간 위치정보를 입력받아 입국 심사대와 입국장 안내도와 함께 디스플레이부(28)에 표시되도록 하는 역할을 한다.The GIS display unit 27 serves to receive real-time location information such as GPS coordinates of self-driving robots (R) and display it on the display unit 28 along with guidance maps for the immigration checkpoint and arrival hall.

즉, GIS표시부(27)는 자율주행 로봇(R)으로부터 전송되는 신호를 수신하고 위치정보를 확인하여 GPS 전자지도로 디스플레이부(28)에 표시한다.That is, the GIS display unit 27 receives signals transmitted from the autonomous robot R, checks the location information, and displays it on the display unit 28 as a GPS electronic map.

디스플레이부(28)는 제어부(21)의 제어에 따라 시스템의 동작과 관련된 각종 정보 및 데이터를 화면에 표시하는 기능 및 역할을 한다.The display unit 28 has a function and role of displaying various information and data related to the operation of the system on the screen under the control of the control unit 21.

즉, 디스플레이부(28)는 복수 개의 제1 및 제2CCTV 카메라(C1)(C2) 및 복수의 자율주행 로봇(R)에서 촬영하여 전송되는 영상정보를 모니터 화면에 표시할 수 있다.That is, the display unit 28 can display image information captured and transmitted from a plurality of first and second CCTV cameras C1 and C2 and a plurality of self-driving robots R on a monitor screen.

예를 들어, 시스템에서 구동되는 응용 프로그램의 실행화면 정보, 또는 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.For example, execution screen information of an application running on the system, or UI (User Interface) and GUI (Graphic User Interface) information according to execution screen information, may be displayed.

여기서 디스플레이부(28)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.Here, the display unit 28 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display ( It may include at least one of a flexible display, a 3D display, and an e-ink display.

이벤트알람부(29)는 자율주행 로봇(R)들의 카메라로 촬영하여 얻은 우범 여행자가 포함된 영상정보를 디스플레이부(28)에 실시간으로 출력되도록 하는 역할을 한다.The event alarm unit 29 serves to output video information including a serious traveler captured by the cameras of the self-driving robots (R) to the display unit 28 in real time.

예를 들어, 이벤트알람부(29)는 디스플레이부(28)에 표시되는 우범 여행자 객체에 대하여 경보를 발생하고, 우범 여행자의 현재 위치좌표, 우범 여행자를 촬영한 자율주행 로봇(R)의 고유번호를 표시한다.For example, the event alarm unit 29 generates an alarm for a criminal traveler object displayed on the display unit 28, and provides the current location coordinates of the criminal traveler and the unique number of the autonomous robot (R) that photographed the criminal traveler. Displays .

리더기(30)는 일정거리 내에 위치하는 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그(T)의 수신신호세기 값(RSSI)과 고유식별정보를 수신하기 위해 입국장 내의 구역별로 복수 개가 설치되어 있다.A plurality of readers (30) are installed in each area of the arrival hall to receive the received signal strength value (RSSI) and unique identification information of the electronic tag (T) attached to the traveler's belongings declaration form held by an entrant located within a certain distance. .

그리고 리더기(30)는 근거리 무선통신 가능 영역 및 범위 내에 위치하는 전자 태그(T)를 검출하여 수신신호세기 값과 고유식별정보를 획득하고, 신호 손실 및 경로 손실에 따른 수신신호세기 값을 기준으로 리더기(30)와 해당 전자 태그(T) 사이의 절대 거리를 산출하여 위치정보를 생성한다.And the reader 30 detects an electronic tag (T) located within the short-distance wireless communication area and range, obtains the received signal strength value and unique identification information, and based on the received signal strength value according to signal loss and path loss. Location information is generated by calculating the absolute distance between the reader 30 and the corresponding electronic tag (T).

즉, 리더기(30)는 전자 태그(T)로부터 입력받은 수신신호세기 값에 따라 해당 전자 태그(T)가 부착된 여행자 휴대품 신고서를 소지한 입국자와의 거리를 연산하여 위치정보로 변환할 수 있다.In other words, the reader 30 can calculate the distance to an entrant holding a traveler's belongings declaration form with the corresponding electronic tag (T) attached according to the received signal strength value input from the electronic tag (T) and convert it into location information. .

예를 들면, 1m 거리 내에서 리더기(30)에 수신되는 기준 수신신호세기 값이 '1'이고, 그 수신신호세기 값은 1m당 1%가 감쇄한다고 가정하면, 리더기(30)에서 수신신호세기 값을 입력받았을 때, 그 세기 값이 0.95로 측정된 경우, 입력받은 수신신호세기 값의 감쇄된 비율만큼 거리변화율을 연산함으로써 리더기(30)에서 약 4m의 떨어진 거리에 입국자가 위치했다는 것을 판단할 수 있다.For example, assuming that the standard received signal strength value received by the reader 30 within a distance of 1 m is '1' and that the received signal strength value is attenuated by 1% per 1 m, the received signal strength at the reader 30 is When the value is input, if the intensity value is measured to be 0.95, it can be determined that the entrant is located at a distance of about 4 m from the reader 30 by calculating the distance change rate by the attenuation ratio of the received signal intensity value. You can.

여기서 리더기(30)는 여행자 휴대품 신고서에 부착된 전자 태그(T)의 RFID 또는 NFC 태그로부터 그 수신신호세기 값(RSSI)과 고유식별번호를 자동으로 독출하여 저장하는 전자 태그 리더로 이루어질 수 있다.Here, the reader 30 may be an electronic tag reader that automatically reads and stores the received signal strength value (RSSI) and unique identification number from the RFID or NFC tag of the electronic tag (T) attached to the traveler's carry-on declaration form.

정보조합부(31)는 리더기(30)로부터 전자 태그(T)의 수신신호세기 값과 고유식별정보 및 거리정보를 수집하여 입국자의 위치정보를 생성한다.The information combination unit 31 collects the received signal strength value, unique identification information, and distance information of the electronic tag (T) from the reader 30 and generates location information of the entrant.

아울러 정보조합부(31)는 제2우범여행자특정부(25)에서 특정한 우범 여행자 관련정보와 자율주행 로봇(R)들의 위치정보를 토대로 우범 여행자의 위치정보와 입국자의 위치정보를 비교하여 기설정된 기준 범위 내에 있으면, 우범 여행자에게 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그(T)의 고유식별정보를 매칭하여 우범 여행자와 상기 입국자를 합체시킨다.In addition, the information combination unit 31 compares the location information of the offender traveler and the location information of the entrant based on the information related to the traveler specific to the offender and the location information of the self-driving robots (R) in the second offender identification unit 25, and determines the previously established information. If it is within the standard range, the unique identification information of the electronic tag (T) attached to the traveler's belongings declaration form held by the inbound traveler is matched to the infringing traveler and the entrant is merged.

한편, 전자 태그(T)는 고유식별정보를 제공하는 역할을 하기 위해 입국자가 소지한 여행자 휴대품 신고서에 부착되어 있다.Meanwhile, an electronic tag (T) is attached to the traveler's belongings declaration form held by the entering person in order to provide unique identification information.

그리고 전자 태그(T)는 무선 주파수 인식과 읽기 및 쓰기가 가능하고 고유식별정보 등의 데이터를 저장하는 메모리 칩과, 이 메모리 칩에 저장된 고유식별정보를 근거리 무선통신을 통해 리더기(30)로 전송하는 트랜시버와, RFID, NFC 등의 근거리 무선통신용 인터페이스를 갖는 마이크로 컨트롤러 유닛(Micro Controller Unit)과, 작동에 필요한 전원을 공급하는 역할을 하는 박막 배터리가 하나로 얇게 패키징 또는 조립된 전자장치로 이루어질 수 있다.In addition, the electronic tag (T) is capable of radio frequency recognition, reading and writing, and has a memory chip that stores data such as unique identification information, and transmits the unique identification information stored in this memory chip to the reader 30 through short-distance wireless communication. It can be made up of a thinly packaged or assembled electronic device that includes a transceiver, a microcontroller unit with an interface for short-distance wireless communication such as RFID and NFC, and a thin film battery that supplies power required for operation. .

그리고 트랜시버는 리더기(30)로부터 전달된 에너지를 모아 유도 기전력을 발생하는 안테나 코일부를 포함할 수 있으며, 이 안테나 코일부에는 무선전력전송 및 통신에 필요한 주파수 매칭을 위한 하나 이상의 콘덴서가 포함될 수도 있다.In addition, the transceiver may include an antenna coil unit that generates induced electromotive force by collecting energy transferred from the reader 30, and this antenna coil unit may include one or more condensers for frequency matching required for wireless power transmission and communication. .

여기서 근거리 무선통신은 RFID(radio frequency identification), NFC(Near Field Communication), 블루투스(Bluetooth), 와이파이(WiFi), 지그비(Zig bee), 비콘(beacon), LoRa(Long Range) 등의 다양한 방식으로 구현될 수 있으며, 특히 RFID는 LFID(Low-Frequency Identification), HFID(high-Frequency Identification), UHFID(ultrahigh-Frequency Identification) 등의 개념을 포함할 수 있음은 물론이다.Here, short-range wireless communication uses various methods such as RFID (radio frequency identification), NFC (Near Field Communication), Bluetooth, WiFi, Zig Bee, beacon, and LoRa (Long Range). It can be implemented, and in particular, RFID can include concepts such as low-frequency identification (LFID), high-frequency identification (HFID), and ultrahigh-frequency identification (UHFID).

또한, 전자 태그(T)의 표면은 외부의 물리적 충격이나 습기 등으로부터 보호하기 위해 폴리이미드 등의 가요성 소재로 이루어진 보호층으로 덮인 구조일 수 있다.Additionally, the surface of the electronic tag T may be covered with a protective layer made of a flexible material such as polyimide to protect against external physical shock or moisture.

관리자입력부(32)는 관리자로부터 관리 및 제어명령을 입력받는 역할을 한다.The administrator input unit 32 serves to receive management and control commands from the administrator.

여기서 관리자입력부(32)의 종류에는 특별히 제한을 두지 않으며, 기계식 (mechanical) 입력수단 및 터치식 입력수단 중 적어도 어느 하나를 포함할 수 있다.Here, there is no particular limitation on the type of the manager input unit 32, and it may include at least one of a mechanical input means and a touch-type input means.

예를 들어, 관리자입력부(32)는 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있으며, 터치스크린으로 이루어질 경우 디스플레이부(28)는 정보를 출력하는 역할과 정보를 입력받는 역할을 모두 수행할 수 있다.For example, the administrator input unit 32 consists of a virtual key, soft key, or visual key displayed on the touch screen through software processing, or is placed in a part other than the touch screen. It can be made of a touch key, and when it is made of a touch screen, the display unit 28 can perform both the role of outputting information and the role of receiving information.

한편, 도 1 및 도 2를 참조하여 본 발명의 실시 예에 따른 전자 태그를 이용한 입국장 내 우범 여행자 추적 시스템을 이용한 추적 방법을 설명하면 다음과 같다.Meanwhile, with reference to FIGS. 1 and 2, a tracking method using a tracking system for frequent travelers in an entry hall using an electronic tag according to an embodiment of the present invention will be described as follows.

먼저, 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자를 조회하고 지정한다(S101).First, preliminary analysis information on entrants is compared with the traveler database of the traveler information system to search for and designate trespassers among entrants (S101).

이어서, 입국 심사대에 중첩되지 않게 설치되어 있는 복수 개의 제1CCTV 카메라(C1)가 촬영하여 얻은 영상정보를 이용해 입국 심사대를 통과하는 입국자의 안면 인식을 실시간으로 수행하고, 이를 지정된 우범 여행자 정보와 대조하여 우범 여행자를 식별하고 탐지한다(S103).Subsequently, facial recognition of entrants passing through the immigration checkpoint is performed in real time using video information captured by a plurality of first CCTV cameras (C1) installed without overlapping at the immigration checkpoint, and this is compared with the designated traveler information. Identify and detect erroneous travelers (S103).

이때, 입국 심사대에 설치되어 있는 복수 개의 제1CCTV 카메라(C1)로부터 영상정보가 수신되면 영상정보를 파싱(parsing) 내지 분석하여 영상정보 내에 관심의 대상이 되는 객체(object)를 검지할 수 있다.At this time, when image information is received from a plurality of first CCTV cameras (C1) installed at the immigration counter, the image information can be parsed or analyzed to detect objects of interest within the image information.

여기서 관심의 대상이 되는 객체(object)는 관심의 목표 내지 그 대상을 의미하며, 사람일 수 있다. Here, the object of interest refers to the goal or object of interest and may be a person.

또한, 영상정보에서 객체를 추출하는 방법은 이진화, 라벨링 프로세싱, 에지 검출 등의 방법을 포함하는 영상 차분 알고리즘, 옵티컬 프로우(Optical flow) 알고리즘, 모델 정합 알고리즘 등 다양한 방법이 적용될 수 있으며, 객체의 검지 결과는 최소포함사각형(MER : Minimum Enclosing Rectangle)을 이용하여 표현할 수 있다.In addition, various methods can be applied to extract objects from image information, such as image difference algorithms including methods such as binarization, labeling processing, and edge detection, optical flow algorithms, and model matching algorithms. Detection results can be expressed using a Minimum Enclosing Rectangle (MER).

즉, 객체의 특성에 따라 MER의 너비, 높이, 중심점 좌표, 밀도정보, 너비/높이 간 비율 정보 등을 정의하고 정의된 MER과 영상정보 내 포함된 객체의 너비, 높이 등의 특성을 상호 대비하여 특정 관심 대상인 객체를 검지/구분하는 방법이 이용된다.In other words, the MER's width, height, center point coordinates, density information, and width/height ratio information are defined according to the characteristics of the object, and the defined MER and characteristics such as the width and height of the object included in the image information are compared to each other. A method is used to detect/classify objects that are of particular interest.

계속해서, 탐지된 우범 여행자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장한다(S105)Continuing, the facial features, color and texture features, and gait features of detected criminal travelers are extracted to generate and store object feature information in real time (S105).

이때, 걸음걸이 인식(Gait recognition)은 카메라를 통해 획득한 사람의 걸음걸이 정보를 저장하고 분석해 특징을 추출한다.At this time, gait recognition extracts features by storing and analyzing the person's gait information obtained through a camera.

여기서 걸음걸이 특징은 획득된 영상에서 배경을 삭제하고 실루엣의 윤곽선 정보를 기반으로 특징을 추출한 후 DB 내 특징과 비교하는 방법으로 인식할 수 있다.Here, the gait feature can be recognized by deleting the background from the acquired image, extracting the feature based on the outline information of the silhouette, and comparing it with the feature in the DB.

또는 키, 머리와 골반 사이의 길이, 골반과 발 사이의 최대 길이, 양쪽 발 사이의 거리 등을 이용한 모델 기반 방법으로 인식할 수도 있다.Alternatively, it can be recognized using a model-based method using height, length between head and pelvis, maximum length between pelvis and feet, and distance between both feet.

즉, 걷고 있는 사람을 비전 카메라로 촬영한 동영상으로부터 이진 실루엣 동영상 시퀀스를 획득한 뒤 실루엣 동영상 시퀀스로부터 정규화시킨 실루엣 영상을 획득하고, 정규화시킨 실루엣 영상으로부터 식별 가능한 걸음걸이 특징정보를 추출한 뒤 추출한 특징정보들을 컴퓨터에 저장된 특징정보들과 비교하여 대상을 식별할 수 있다.That is, a binary silhouette video sequence is obtained from a video of a walking person with a vision camera, a normalized silhouette image is obtained from the silhouette video sequence, and identifiable gait feature information is extracted from the normalized silhouette image. The object can be identified by comparing it with characteristic information stored in the computer.

계속해서, 입국장 내에 중첩되지 않게 설치되어 있는 복수 개의 제2CCTV 카메라(C2)가 촬영하여 얻은 영상정보를 이용해 입국장 내에 위치하는 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장한다(S107).Subsequently, the facial features, color and texture features, and gait characteristics of entrants located in the arrival hall are extracted using the image information obtained by filming by a plurality of second CCTV cameras (C2) installed without overlapping in the arrival hall, and object characteristic information is obtained. Create and save in real time (S107).

이어서, 생성된 우범 여행자의 객체 특징정보와 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출한다(S109).Next, the identity and similarity between the generated object characteristic information of the serious traveler and the object characteristic information of the entrants in the entry hall are detected (S109).

여기서 얼굴 특징의 동일성 및 유사도는 추출된 우범 여행자의 얼굴 특징 영상과 입국장 내 입국자들의 얼굴 특징 영상에서 추출한 특징점 기술자를 비교하여 서로 비슷한 특징점을 찾는 특징점 매칭으로 검출할 수 있다.Here, the identity and similarity of facial features can be detected through feature point matching to find similar feature points by comparing the feature point descriptors extracted from the extracted facial feature images of criminal travelers and the facial feature images of entrants in the entry hall.

이때, 동일성 및 유사도는 객체 특징정보의 상호 대조 결과 RGB 정보가 70% 이상 일치하는 등 미리 정해진 임계치 이상일 일치할 경우 동일 및 유사한 것으로 판단할 수 있다(S111).At this time, identity and similarity can be determined to be identical and similar when the object characteristic information matches more than a predetermined threshold, such as RGB information matches 70% or more as a result of mutual comparison (S111).

그리고 색상 특징의 동일성 및 유사도는 추출된 우범 여행자의 색상 특징 영상과 입국장 내 입국자들의 색상 특징 영상에서 컬러 히스토그램(color histogram)을 생성하고 주요 이미지 특징을 분할 및 추출하여 서로 비교한 후 미리 설정한 임계치 이상의 경우에만 검출할 수 있다.In addition, the identity and similarity of color features are determined by creating a color histogram from the extracted color feature images of criminal travelers and the color feature images of entrants in the entry hall, dividing and extracting main image features, comparing them, and then setting a preset threshold. Detection is possible only in the above cases.

또한, 질감 특징의 동일성 및 유사도는 추출된 우범 여행자의 질감 특징 영상과 입국장 내 입국자들의 질감 특징 영상을 이미지 세그멘테이션(image segmentation)한 후, 객체의 MBR(Minimum Boundary Rectangle)을 구성하고, 각 이미지 내에 포함되어 있는 객체의 MBR에 대한 웨이블릿 변환(wavelet transform)을 적용하여 질감 특징을 생성하여 검출할 수 있다.In addition, the identity and similarity of texture features are determined by performing image segmentation on the extracted texture feature images of criminal travelers and texture feature images of entrants in the arrival hall, then constructing the MBR (Minimum Boundary Rectangle) of the object, within each image. Texture features can be generated and detected by applying wavelet transform to the MBR of the included object.

그리고 걸음걸이 특징의 동일성 및 유사도는 입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)가 촬영하여 얻은 영상정보로부터 이진 실루엣 동영상 시퀀스를 획득한 뒤, 그 실루엣 동영상 시퀀스로부터 정규화시킨 실루엣 영상을 획득하고, 그 정규화시킨 실루엣 영상으로부터 식별 가능한 걸음걸이 특징정보를 추출한 뒤, 추출한 걸음걸이 특징정보들을 입국장 내에 설치되어 있는 복수 개의 제2CCTV 카메라(C2)가 촬영하여 얻은 영상정보의 걸음걸이 특징정보와 비교하여 검출할 수 있다.In addition, the identity and similarity of gait characteristics are obtained by obtaining a binary silhouette video sequence from image information obtained by shooting by a plurality of CCTV cameras (C1) installed at the immigration counter, and then obtaining a normalized silhouette image from the silhouette video sequence. After extracting identifiable gait feature information from the normalized silhouette image, the extracted gait feature information is compared with the gait feature information of the image information obtained by filming by a plurality of second CCTV cameras (C2) installed in the arrival hall. It can be detected.

이어서, 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상 일치하는 입국자를 인식해 입국장 내에 위치하는 당해 우범 여행자로 특정한다(S113).Subsequently, an entrant whose similarity in at least one of the object characteristic information of the entrant within the entry hall matches more than a predetermined threshold is recognized and identified as a high-crime traveler located within the entry hall (S113).

즉, 우범 여행자와 입국장 내 입국자의 각 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징 간의 상호 비교 및 분석을 통해 사전에 탐지된 우범 여행자와 비교 대상인 입국장 내 입국자가 어느 정도의 유사성이 있는지를 분석하여 유사의 정도를 판단한다.In other words, through mutual comparison and analysis between the facial features, color and texture features, and gait characteristics of the criminal travelers and the entrants in the arrival hall, we analyze the degree of similarity between the previously detected criminal travelers and the entrants in the arrival hall to be compared. Determine the degree of similarity.

예를 들어, 사전 탐지된 우범 여행자가 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하였을 경우 입국장 내 입국자 중 그 걸음걸이 특징이 사전 탐지된 우범 여행자와 미리 정해진 임계치인 70% 이상 유사한 자를 우범 여행자로 판단할 수 있다.For example, if a pre-detected high-crime traveler disguises himself or changes his clothes by wearing heavy makeup, glasses, or a mask within the arrival hall, his gait characteristics are compared to the pre-detected high-crime traveler among the travelers in the arrival hall, a predetermined threshold of 70%. People similar to the above can be judged to be bad travelers.

이후, 특정된 우범 여행자의 객체 특징정보와 영상정보를 추가로 저장하고, 해당 영상정보를 캡처하여 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 무선통신망을 통해 실시간으로 전송한다(S115).Afterwards, the object characteristic information and video information of the identified criminal traveler are additionally stored, and the video information is captured and transmitted in real time to the customs situation room, customs agent (rover), and inspection officer (marshal) through a wireless communication network (S115) ).

이어서, 입국장 내 자율주행 로봇(R)들이 카메라로 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장한다(S117).Next, autonomous robots (R) in the arrival hall extract the facial features, color and texture features, and gait features of entrants from the image information obtained by shooting with cameras, and generate and store object feature information in real time (S117).

그리고 생성된 입국장 내 입국자들의 객체 특징정보와 이미 특정된 우범 여행자의 객체 특징정보 간 동일성 및 유사도를 검출한다(S119).Then, the identity and similarity between the object characteristic information of the entrants in the created arrival hall and the object characteristic information of the already identified high-crime traveler are detected (S119).

여기서 얼굴 특징의 동일성 및 유사도는 추출된 우범 여행자의 얼굴 특징 영상과 입국장 내 입국자들의 얼굴 특징 영상에서 추출한 특징점 기술자를 비교하여 서로 비슷한 특징점을 찾는 특징점 매칭으로 검출할 수 있다.Here, the identity and similarity of facial features can be detected through feature point matching to find similar feature points by comparing the feature point descriptors extracted from the extracted facial feature images of criminal travelers and the facial feature images of entrants in the entry hall.

이때, 동일성 및 유사도는 객체 특징정보의 상호 대조 결과 RGB 정보가 70% 이상 일치하는 등 미리 정해진 임계치 이상인 일치할 경우 동일 및 유사한 것으로 판단할 수 있다(S121).At this time, the identity and similarity can be determined to be identical and similar when the object feature information matches more than a predetermined threshold, such as RGB information matches more than 70% as a result of mutual comparison (S121).

그리고 색상 특징의 동일성 및 유사도는 추출된 우범 여행자의 색상 특징 영상과 입국장 내 입국자들의 색상 특징 영상에서 컬러 히스토그램(color histogram)을 생성하고 주요 이미지 특징을 분할 및 추출하여 서로 비교한 후 미리 설정한 임계치 이상의 경우에만 검출할 수 있다.In addition, the identity and similarity of color features are determined by creating a color histogram from the extracted color feature images of criminal travelers and the color feature images of entrants in the entry hall, dividing and extracting main image features, comparing them, and then setting a preset threshold. Detection is possible only in the above cases.

또한, 질감 특징의 동일성 및 유사도는 추출된 우범 여행자의 질감 특징 영상과 입국장 내 입국자들의 질감 특징 영상을 이미지 세그멘테이션(image segmentation)한 후, 객체의 MBR(Minimum Boundary Rectangle)을 구성하고, 각 이미지 내에 포함되어 있는 객체의 MBR에 대한 웨이블릿 변환(wavelet transform)을 적용하여 질감 특징을 생성하여 검출할 수 있다.In addition, the identity and similarity of texture features are determined by performing image segmentation on the extracted texture feature images of criminal travelers and texture feature images of entrants in the arrival hall, then constructing the MBR (Minimum Boundary Rectangle) of the object, within each image. Texture features can be generated and detected by applying wavelet transform to the MBR of the included object.

그리고 걸음걸이 특징의 동일성 및 유사도는 입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)가 촬영하여 얻은 영상정보로부터 이진 실루엣 동영상 시퀀스를 획득한 뒤, 그 실루엣 동영상 시퀀스로부터 정규화시킨 실루엣 영상을 획득하고, 그 정규화시킨 실루엣 영상으로부터 식별 가능한 걸음걸이 특징정보를 추출한 뒤, 추출한 걸음걸이 특징정보들을 입국장 내에 배치된 복수의 자율주행 로봇(R)이 촬영하여 얻은 영상정보의 걸음걸이 특징정보와 비교하여 검출할 수 있다.In addition, the identity and similarity of gait characteristics are obtained by obtaining a binary silhouette video sequence from image information obtained by shooting by a plurality of CCTV cameras (C1) installed at the immigration counter, and then obtaining a normalized silhouette image from the silhouette video sequence. After extracting identifiable gait feature information from the normalized silhouette image, the extracted gait feature information is detected by comparing it with the gait feature information of the image information obtained by shooting by a plurality of self-driving robots (R) placed in the arrival hall. can do.

이후, 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 일치하는 것으로 검출되는 입국자를 인식해 우범 여행자로 재특정한다(S123).Afterwards, the entrants whose similarity to at least one of the object characteristic information of the entrants in the entry hall is detected to be equal to or higher than a predetermined threshold are recognized and re-specified as serious travelers (S123).

즉, 이미 특정된 우범 여행자와 입국장 내 입국자의 각 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징 간의 상호 비교 및 분석을 통해 사전에 탐지된 우범 여행자와 비교 대상인 입국장 내 입국자가 어느 정도의 유사성이 있는지를 분석하여 유사의 정도를 판단한다.In other words, through mutual comparison and analysis between the facial features, color and texture features, and gait characteristics of the already specified criminal travelers and the entrants in the entry hall, what degree of similarity is there between the previously detected criminal travelers and the entrants in the arrival hall to be compared? Analyze to determine the degree of similarity.

예를 들어, 사전 탐지된 우범 여행자가 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하였을 경우 입국장 내 입국자 중 그 걸음걸이 특징이 사전 탐지된 우범 여행자와 미리 정해진 임계치인 70% 이상 유사한 자를 우범 여행자로 판단할 수 있다.For example, if a pre-detected high-crime traveler disguises himself or changes his clothes by wearing heavy makeup, glasses, or a mask within the arrival hall, his gait characteristics are compared to the pre-detected high-crime traveler among the travelers in the arrival hall, a predetermined threshold of 70%. People similar to the above can be judged to be bad travelers.

이 과정에서 자율주행 로봇(R)들로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 확인하며, 아울러 재특정된 우범 여행자와 입국장 내 특정 장소 사이의 거리에 해당하는 상대 위치정보, 즉 입국장 내 면세점, 화장실, 상점, 방역시설, 조형물, 통로 등과 같은 특정 장소와 우범 여행자 사이의 거리에 해당하는 상대 위치정보에 근거하여, 그 상대 위치정보가 기준 범위를 벗어난 경우, 당해 자율주행 로봇(R)과 가장 인접하는 다른 자율주행 로봇(R)의 이동 방향을 재특정된 우범 여행자의 현위치 또는 그와 가장 가까운 입국장 내 면세점, 화장실, 상점, 방역시설, 조형물, 통로 등과 같은 특정 장소(또는 목적지)로 변경하도록 제어하고, 그 다른 자율주행 로봇(R)으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인할 수 있다.In this process, the location of the re-specified high-crime traveler is confirmed using the image information received from the autonomous robots (R), and relative location information corresponding to the distance between the re-specified high-crime traveler and a specific place in the arrival hall is provided. In other words, based on the relative location information corresponding to the distance between a specific place such as a duty-free shop, restroom, store, quarantine facility, sculpture, passage, etc. in the arrival hall and a frequent traveler, if the relative location information is outside the standard range, the self-driving robot The direction of movement of the other autonomous robot (R) closest to (R) is determined by the current location of the re-specified traveler or a specific location such as a duty-free shop, restroom, store, quarantine facility, sculpture, passageway, etc. in the nearest arrival hall ( or destination), and the location of the re-specified traveler can be re-confirmed using image information received from the other autonomous robot (R).

이를테면, 입국장 내에서 재특정된 우범 여행자의 위치를 확인하고 추적 중인 자율주행 로봇(R)이 당해 배정(할당)된 구역 또는 미리 정해진 경로를 벗어나면서까지 쫓아가거나 근접 미행할 경우 우범 여행자가 눈치를 채고 도주하거나 회피할 수 있으므로, 가장 인접하는 다른 자율주행 로봇(R)에 인계하도록 명령 및 제어함과 동시에 그 다른 자율주행 로봇(R)은 재특정된 우범 여행자의 위치를 확인하고 이동하여 추적하도록 명령 및 제어할 수 있다.For example, if an autonomous robot (R) that is tracking or checking the location of a re-identified criminal traveler within the arrival hall chases or closely follows him even outside the assigned area or predetermined route, the criminal traveler may not notice. Since it can run away or evade, it commands and controls to hand over to the other autonomous robot (R) closest to it, and at the same time, the other autonomous robot (R) checks the location of the re-specified traveler and moves to track it. Command and control is possible.

즉, 재특정된 우범 여행자가 미리 정해진 조형물 A로부터 5M를 초과하여 떨어지는 경우 당해 자율주행 로봇(R)의 배정(할당)된 구역 또는 설정 경로, 서비스 영역을 벗어나는 것으로 판단하고, 재특정된 우범 여행자의 현위치 또는 사전에 조형물 A를 포함하는 서비스 영역을 배정(할당)받았거나 현재 조형물 A와 가장 가까운 곳에 위치하는 다른 자율주행 로봇(R)을 재특정된 우범 여행자 쪽으로 또는 조형물 A 쪽으로 이동하도록 제어함으로써 재특정된 우범 여행자나 주위의 별다른 의심을 받지 않고 지속적으로 재특정된 우범 여행자의 위치를 확인하고 유연하게 추적할 수 있는 등 가변적인 현장 상황에 맞춰 효율적으로 대응할 수 있다.In other words, if the re-specified high-crime traveler falls more than 5 meters from the predetermined sculpture A, it is judged to be outside the assigned area, set route, or service area of the self-driving robot (R), and the re-specified high-crime traveler Control the current location or other autonomous robot (R) that has previously been assigned a service area containing sculpture A or is currently located closest to sculpture A to move toward the respecified high-crime traveler or toward sculpture A. By doing so, you can efficiently respond to variable on-site situations, such as continuously checking and flexibly tracking re-specified criminal travelers without raising any suspicion from those around you.

이어서, 자율주행 로봇(R)들로부터 수신되는 영상정보와 GPS를 기반으로 각각의 위치를 실시간으로 인식한다.Next, each location is recognized in real time based on image information received from autonomous robots (R) and GPS.

이어서, 정보조합부(31)는 리더기(30)로부터 전자 태그(T)의 수신신호세기 값과 고유식별정보를 수집하여 입국자의 위치정보를 생성하고, 아울러 제2우범여행자특정부(25)에서 특정한 우범 여행자 관련정보와 자율주행 로봇(R)들의 위치정보를 토대로 한 우범 여행자의 위치정보와 입국자의 위치정보를 비교한다(S125).Subsequently, the information combination unit 31 collects the received signal strength value and unique identification information of the electronic tag (T) from the reader 30 to generate location information of the entering person, and also collects the received signal strength value and unique identification information of the electronic tag (T) from the reader 30. The location information of the offender traveler and the location information of the entrant are compared based on the information related to the specific traveler and the location information of the self-driving robots (R) (S125).

이때, 기설정된 기준 범위 내에 있으면, 예를 들어 우범 여행자와 해당 입국자가 반경 1M 이내에 위치할 경우 우범 여행자에게 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그(T)의 고유식별정보를 매칭하여 우범 여행자와 상기 입국자를 합체시킨다(S127).At this time, if it is within the preset standard range, for example, if the offender and the relevant entrant are located within a 1m radius, the offender is identified by matching the unique identification information of the electronic tag (T) attached to the traveler's belongings declaration form held by the offender to the offender. The traveler and the entrant are combined (S127).

예를 들면, 사전에 특정된 우범 여행자와 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그(T) 간의 거리 차이가 미리 설정된 기준 거리 이내인지 판단하여 기준 거리 이내이면 우범 여행자가 해당 전자 태그(T)를 소지한 것으로 판단할 수 있다.For example, it is determined whether the distance difference between a pre-specified high-crime traveler and the electronic tag (T) attached to the traveler's personal belongings declaration form held by the entering person is within a preset standard distance, and if it is within the standard distance, the high-crime traveler receives the corresponding electronic tag (T). ) can be judged to be in possession of.

즉, 정보조합부(31)는 우범 여행자의 위치와 미리 설정된 거리 이내의 위치정보(전자 태그)를 가진 입국자가 동일인인 것으로 판단할 수 있다.In other words, the information combination unit 31 can determine that the person entering the country with location information (electronic tag) within a preset distance from the location of the serious traveler is the same person.

이 과정에서 우범 여행자가 여러 명의 입국자 무리에 군집하였다가 분리되거나 순간적으로 사라질 경우 우범 여행자에게 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그(T)의 고유식별정보를 매칭한 정보를 근거로 동일한 고유식별정보를 갖는 전자 태그(T)가 부착된 여행자 휴대품 신고서를 소지한 입국자를 동일 우범 여행자로 연속하여 감시한다.During this process, if a serious traveler gathers in a group of several entrants and then becomes separated or disappears momentarily, the same traveler will be given the same identity based on the information matching the unique identification information of the electronic tag (T) attached to the traveler's belongings declaration form. Entrants holding a traveler's belongings declaration form with an electronic tag (T) with unique identification information are continuously monitored as the same offender.

이어서, GIS표시부(27)는 정보조합부(31)에서 합체시킨 우범 여행자와 입국자의 위치정보를 실시간으로 디스플레이부(28)에 표시한다(S129).Next, the GIS display unit 27 displays the location information of serious travelers and entrants combined in the information combination unit 31 on the display unit 28 in real time (S129).

아울러 재특정된 입국장 내 우범 여행자를 촬영하여 얻은 영상정보를 디스플레이부(28)에 실시간으로 출력한다.In addition, video information obtained by filming a criminal traveler in the re-identified entry hall is output in real time to the display unit 28.

이때, 재특정된 우범 여행자가 포함된 영상정보를 제공하는 자율주행 로봇(R)에 부여된 고유의 아이디나 식별자를 이용해 전자 지도에서 우범 여행자의 위치를 실시간으로 확인할 수 있으며, 또 디스플레이부(28)에 알람 팝업으로 띄울 수 있다.At this time, the location of the criminal traveler can be confirmed in real time on the electronic map using the unique ID or identifier assigned to the self-driving robot (R) that provides video information containing the re-identified criminal traveler, and the display unit (28 ) can be displayed as an alarm pop-up.

나아가 재특정된 우범 여행자의 객체 특징정보와 영상정보를 추가로 저장하고, 해당 영상정보를 캡처하여 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 무선통신망과 단말을 통해 실시간으로 전송하거나 재특정된 우범 여행자의 객체 특징정보와 연관된 메시지를 전송할 수 있다.Furthermore, the object characteristic information and video information of re-identified criminal travelers are additionally stored, and the video information is captured and transmitted in real time to the customs situation room, customs agent (rover), and inspection officer (marshal) through a wireless communication network and terminal. A message related to the object characteristic information of the re-specified criminal traveler can be transmitted.

따라서 공항이나 항만의 입국 심사대를 통과한 우범 여행자가 CIQ 통관 절차를 피하기 위해 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하더라도 이동 동선을 따라 보다 효율적으로 대응 및 추적하여 철저히 관찰하고 지속적으로 감시할 수 있다.Therefore, even if a serious traveler who has passed the immigration checkpoint at an airport or port disguises himself or changes his clothes by wearing heavy makeup, glasses, or a mask within the arrival hall to avoid CIQ customs procedures, he or she will be more efficiently responded to and tracked along the movement route, and will be thoroughly observed. and can be continuously monitored.

즉, 특정된 우범 여행자 관련정보와 자율주행 로봇(R)들의 위치정보를 토대로 한 우범 여행자의 위치정보와, 입국장 내의 구역별로 설치되어 있는 리더기(30)로 수집한 입국자의 위치정보를 비교하여 기설정된 기준 범위 내에 있으면, 우범 여행자에게 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그(T)의 고유식별정보를 매칭하는 방식으로 서로 합체시켜 감시하고 추적할 수 있다.In other words, the location information of the offender traveler based on the information related to the specified traveler and the location information of the self-driving robots (R) is compared with the location information of the entrant collected by the reader 30 installed in each area within the arrival hall. If it is within the set standard range, it can be monitored and tracked by combining the unique identification information of the electronic tag (T) attached to the traveler's belongings declaration form held by the inbound traveler.

그뿐만 아니라 자율주행 로봇(R)이 입국장 내 대상 구역을 이동하면서 카메라로 촬영하여 얻은 영상정보를 이용해 입국자의 객체 특징정보를 수집 및 분석함으로써 제2CCTV 카메라(C2)의 촬영 범위를 벗어난 입국장 내 사각지대에 우범 여행자가 숨거나 위치하더라도 우범 여행자의 위치와 이동을 실시간으로 확인할 수 있어 우범 여행자 탐지의 신뢰성 및 추적 효율을 향상시킬 수 있다.In addition, the self-driving robot (R) collects and analyzes the object characteristic information of entrants using image information obtained by shooting with a camera while moving through the target area within the arrival hall, thereby collecting and analyzing object characteristic information of entrants, thereby removing blind spots within the arrival hall beyond the shooting range of the second CCTV camera (C2). Even if a criminal traveler is hidden or located in the zone, the location and movement of the criminal traveler can be confirmed in real time, improving the reliability of detection and tracking efficiency of the criminal traveler.

한편, 본 발명은 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독할 수 있는 매체(데이터가 저장되는 기록장치)에 저장 가능한 프로그램으로 구현될 수 있다.Meanwhile, the present invention can be implemented as a program that is executed by one or more processes on a computer and can be stored in a computer-readable medium (a recording device that stores data).

즉, 본 발명은 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있고, 아울러 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함할 수 있다.That is, the present invention can be implemented as a computer program and recorded on a computer-readable recording medium, and in addition, the program for implementing the operation by the method is recorded and the computer-readable recording medium can be read by the computer. It can include all types of recording devices where data is stored.

한편, 본 발명은 상술한 실시 예(embodiment) 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 안에서 예시되지 않은 여러 가지로 다양하게 변형하고 응용할 수 있음은 물론이고 각 구성요소의 치환 및 균등한 타 실시 예로 변경하여 폭넓게 적용할 수도 있음은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백하다.Meanwhile, the present invention is not limited to the above-described embodiments and the accompanying drawings, and may be modified and applied in various ways not exemplified without departing from the technical spirit of the present invention. It is clear to those skilled in the art that the present invention can be broadly applied by replacing components and changing it to other equivalent embodiments.

그러므로 본 발명의 기술적 특징을 변형하고 응용하는 것에 관계된 내용은 본 발명의 기술사상 및 범위 내에 포함되는 것으로 해석하여야 할 것이다.Therefore, contents related to modifying and applying the technical features of the present invention should be construed as being included within the technical idea and scope of the present invention.

11: 우범여행자정보입력부 12: 제1영상정보입력부
13: 우범여행자탐지부 14: 제1특징추출부
15: 제2영상정보입력부 16: 제2특징추출부
17: 제1유사도검출부 18: 제1우범여행자특정부
19: 저장부 20: 전송부
21: 제어부 22: 데이터통신부
23: 제3특징추출부 24: 제2유사도검출부
25: 제2우범여행자특정부 26: 위치인식부
27: GIS표시부 28: 디스플레이부
29: 이벤트알람부 30: 리더기
31: 정보조합부
11: Criminal traveler information input unit 12: First image information input unit
13: Criminal traveler detection unit 14: First feature extraction unit
15: second image information input unit 16: second feature extraction unit
17: First similarity detection unit 18: First criminal traveler specification unit
19: storage unit 20: transmission unit
21: control unit 22: data communication unit
23: Third feature extraction unit 24: Second similarity detection unit
25: Second criminal traveler specification department 26: Location recognition department
27: GIS display unit 28: display unit
29: Event alarm unit 30: Reader
31: Ministry of Information and Cooperation

Claims (3)

삭제delete 입국자에 대한 사전 분석정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자 정보를 입력받는 우범여행자정보입력부(11);
입국 심사대에 설치되어 있는 복수 개의 제1CCTV 카메라(C1)로부터 영상정보를 입력받는 제1영상정보입력부(12);
상기 제1영상정보입력부(12)를 통해 입력받은 영상정보에서 입국자의 객체를 식별하고, 상기 우범여행자정보입력부(11)를 통해 입력받은 우범 여행자 정보와 대조하여 우범 여행자를 탐지하는 우범여행자탐지부(13);
탐지된 우범 여행자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제1객체특징정보추출부(14);
입국장 내에 설치되어 있는 복수 개의 제1CCTV 카메라(C2)로부터 영상정보를 입력받는 제2영상정보입력부(15);
상기 제2영상정보입력부(15)를 통해 입력받은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제2객체특징정보추출부(16);
상기 제1객체특징정보추출부(14)에서 생성된 우범 여행자의 객체 특징정보와 상기 제2객체특징정보추출부(16)에서 생성된 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 제1유사도검출부(17);
입국장 내 입국자들 중 상기 제1유사도검출부(17)에서 검출된 유사도 값이 미리 정해진 임계치 이상인 입국자를 인식해 당해 우범 여행자로 특정하는 제1우범여행자특정부(18);
입국 심사대에 설치되어 있는 복수 개의 제1CCTV 카메라(C1)와 입국장 내에 설치되어 있는 복수 개의 제2CCTV 카메라(C2) 및 입국장 내에 배치되어 있는 복수 개의 자율주행 로봇(R)에 대한 각각의 식별정보와 배치정보, 특정된 우범 여행자의 객체 특징정보와 영상정보를 저장하는 저장부(19);
특정된 우범 여행자의 객체 특징정보와 영상정보를 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 전송하는 전송부(20);
상기 자율주행 로봇(R)들의 기능 및 시스템의 전반적인 작동을 제어하는 제어부(21);
상기 자율주행 로봇(R)들과 각각 무선으로 데이터 통신을 하는 데이터통신부(22);
상기 데이터통신부(22)를 통해 입력받고 상기 자율주행 로봇(R)들로부터 얻은 영상정보에서 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제3객체특징정보추출부(23);
상기 제1우범여행자특정부(18)에서 특정된 우범 여행자의 객체 특징정보와 상기 제3객체특징정보추출부(23)에서 생성된 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 제2유사도검출부(24);
상기 제2유사도검출부(24)에서 검출된 유사도 값이 미리 정해진 임계치 이상인 입국자를 인식해 우범 여행자로 재특정하는 제2우범여행자특정부(25);
상기 자율주행 로봇(R)들로부터 수신되는 영상정보와 GPS를 기반으로 각각의 위치 정보를 실시간으로 인식하는 위치인식부(26);
상기 자율주행 로봇(R)들의 위치 정보가 디스플레이부(28)에 표시되도록 하는 GIS표시부(27);
입국장 내의 구역별로 복수 개가 설치되고, 일정거리 내에 위치하는 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그(T)의 수신신호세기 값(RSSI)과 고유식별정보를 수신하는 리더기(30); 및
상기 리더기(30)로부터 상기 전자 태그(T)의 수신신호세기 값과 고유식별정보를 수집하여 입국자의 위치정보를 생성하고, 이를 상기 제2우범여행자특정부(25)에서 특정한 우범 여행자 관련정보와 상기 자율주행 로봇(R)들의 위치정보를 토대로 한 상기 우범 여행자의 위치정보와 비교하여 기설정된 기준 범위 내에 있으면, 상기 우범 여행자에게 상기 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그(T)의 고유식별정보를 매칭하여 상기 우범 여행자와 상기 입국자를 합체시키는 정보조합부(31);
를 포함하는 입국장 내 우범 여행자 추적 시스템을 이용한 입국장 내 우범 여행자 추적 방법에 있어서,
(가) 상기 제어부(21)가 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자를 조회하고 지정하는 단계;
(나) 상기 우범여행자탐지부(13)가 입국 심사대에 설치되어 있는 상기 복수의 CCTV 카메라(C1)로부터 얻은 영상정보를 이용해 입국 심사대를 통과하는 입국자의 안면을 인식하고, 이를 지정된 우범 여행자 정보와 대조하여 우범 여행자를 식별하고 탐지하는 단계;
(다) 상기 제1객체특징정보추출부(14)가 탐지된 우범 여행자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계;
(라) 상기 제2객체특징정보추출부(16)가 입국장 내에 설치되어 있는 복수의 CCTV 카메라(C2)로부터 얻은 영상정보에서 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계;
(마) 상기 제1유사도검출부(17)가 생성된 우범 여행자의 객체 특징정보와 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 단계;
(바) 상기 제1우범여행자특정부(18)가 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 검출되는 입국자를 인식해 당해 우범 여행자로 특정하는 단계;
(사) 상기 저장부(19)가 특정된 우범 여행자의 객체 특징정보와 영상정보를 추가로 저장하고, 이를 상기 전송부(20)가 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 전송하는 단계;
(아) 상기 제3객체특징정보추출부(23)가 입국장 내 자율주행 로봇(R)들로부터 얻은 영상정보에서 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계;
(자) 상기 제2유사도검출부(24)가 생성된 입국장 내 입국자들의 객체 특징정보와 이미 특정된 우범 여행자의 객체 특징정보 간 동일성 및 유사도를 검출하는 단계;
(차) 상기 제2우범여행자특정부(25)가 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 검출되는 입국자를 인식해 우범 여행자로 재특정하고, 상기 제어부(21)는 상기 자율주행 로봇(R)들로부터 영상정보를 수신하고, 수신된 영상정보를 이용하여 상기 재특정된 우범 여행자의 위치를 확인한 후, 그 재특정된 우범 여행자와 입국장 내 특정 장소 사이의 거리에 해당하는 상대 위치정보에 근거하여 상기 상대 위치정보가 기준 범위를 벗어난 경우, 당해 자율주행 로봇(R)과 가장 인접하는 다른 자율주행 로봇(R)의 이동 방향을 상기 특정 장소로 변경하도록 제어하고, 그 다른 자율주행 로봇(R)으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인하는 단계;
(카) 상기 위치인식부(26)가 상기 자율주행 로봇(R)들로부터 수신되는 영상정보와 GPS를 기반으로 각각의 위치정보를 실시간으로 인식하는 단계;
(타) 상기 정보조합부(31)가 상기 리더기(30)로부터 상기 전자 태그(T)의 수신신호세기 값과 고유식별정보를 수집하여 입국자의 위치정보를 생성하고, 상기 제2우범여행자특정부(25)에서 특정한 우범 여행자 관련정보와 상기 자율주행 로봇(R)들의 위치정보를 토대로 한 상기 우범 여행자의 위치정보와 상기 입국자의 위치정보를 비교하여 기설정된 기준 범위 내에 있으면, 상기 우범 여행자에게 상기 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그(T)의 고유식별정보를 매칭하는 단계;
(파) 상기 GIS표시부(27)가 상기 정보조합부(31)에서 매칭시킨 상기 우범 여행자와 상기 입국자의 위치정보를 상기 디스플레이부(28)를 통해 표시하는 단계;
를 포함하여 이루어지되,
상기 (타) 단계에서, 상기 우범 여행자가 여러 명의 입국자 무리에 군집하였다가 분리되거나 순간적으로 사라질 경우 상기 우범 여행자에게 상기 입국자가 소지한 여행자 휴대품 신고서에 부착된 전자 태그(T)의 고유식별정보를 매칭한 정보에 근거하여 그와 동일한 고유식별정보를 갖는 상기 전자 태그(T)가 부착된 여행자 휴대품 신고서를 소지한 입국자를 동일 우범 여행자로 합체시켜 감시하는 것을 특징으로 하는 입국장 내 우범 여행자 추적 방법.
A traveler information input unit (11) that receives information on travelers with criminal offenses among entrants by comparing the preliminary analysis information on entrants with the traveler database of the traveler information system;
A first image information input unit (12) that receives image information from a plurality of first CCTV cameras (C1) installed at the immigration checkpoint;
A criminal traveler detection unit that identifies the object of an entrant from the image information input through the first image information input unit 12 and detects a criminal traveler by comparing it with the criminal traveler information input through the illegal traveler information input unit 11. (13);
A first object feature information extraction unit 14 that generates and stores object feature information in real time by extracting facial features, color and texture features, and gait features of detected criminal travelers;
A second image information input unit (15) that receives image information from a plurality of first CCTV cameras (C2) installed in the arrival hall;
A second object feature information extraction unit (16) that extracts the facial features, color and texture features, and gait features of entrants from the image information input through the second image information input unit (15) and generates and stores object feature information in real time. );
A system for detecting the identity and similarity between the object characteristic information of a serious traveler generated by the first object characteristic information extraction unit 14 and the object characteristic information of entrants in the entry hall generated by the second object characteristic information extraction unit 16. 1 similarity detection unit (17);
A first criminal traveler identification unit (18) that recognizes entrants whose similarity value detected by the first similarity detection unit (17) is greater than a predetermined threshold among the entrants in the arrival hall and identifies them as the offenders;
Identification information and arrangement of the plurality of first CCTV cameras (C1) installed at the immigration checkpoint, the plurality of second CCTV cameras (C2) installed in the arrival hall, and the plurality of self-driving robots (R) arranged in the arrival hall. A storage unit (19) that stores information, object characteristic information and image information of a specified criminal traveler;
A transmission unit 20 that transmits object characteristic information and image information of a identified serious traveler to the customs situation room, customs agent (rover), and inspection officer (marshal);
A control unit 21 that controls the functions of the autonomous robots (R) and the overall operation of the system;
A data communication unit 22 that performs wireless data communication with each of the self-driving robots R;
A third device extracts facial features, color and texture features, and gait features of entrants from the image information input through the data communication unit 22 and obtained from the self-driving robots (R), and generates and stores object feature information in real time. Object characteristic information extraction unit (23);
A second device for detecting the identity and similarity between the object characteristic information of a serious traveler specified in the first serious traveler specification unit 18 and the object characteristic information of entrants in the entry hall generated by the third object characteristic information extraction unit 23 Similarity detection unit 24;
a second criminal traveler specification unit (25) that recognizes entrants whose similarity value detected by the second similarity detection unit (24) is equal to or higher than a predetermined threshold and re-identifies them as criminal travelers;
A location recognition unit 26 that recognizes each location information in real time based on image information and GPS received from the autonomous robots (R);
A GIS display unit (27) that displays location information of the autonomous robots (R) on the display unit (28);
A plurality of readers (30) are installed for each zone in the arrival hall and receive the received signal strength value (RSSI) and unique identification information of the electronic tag (T) attached to the traveler's belongings declaration form held by an entrant located within a certain distance; and
The received signal strength value and unique identification information of the electronic tag (T) are collected from the reader (30) to generate location information of the entrant, and this is combined with information related to a specific criminal traveler in the second criminal traveler specification unit (25). If the location information of the self-driving robots (R) is compared with the location information of the serious traveler and is within a preset standard range, the electronic tag (T) attached to the traveler's belongings declaration form possessed by the entering person is given to the serious traveler. an information combination unit 31 that matches unique identification information to combine the serious traveler and the entrant;
In the method of tracking criminal travelers at the port of entry using a tracking system for frequent travelers at the port of entry, including:
(a) the control unit 21 compares the preliminary analysis information on entrants with the traveler database of the traveler information system to search for and designate a high-crime traveler among entrants;
(B) The criminal traveler detection unit 13 uses image information obtained from the plurality of CCTV cameras (C1) installed at the immigration checkpoint to recognize the faces of entrants passing through the immigration checkpoint, and combines this with the designated criminal traveler information Identifying and detecting bad travelers by comparison;
(c) the first object feature information extraction unit 14 extracting the facial features, color and texture features, and gait features of the detected traveler to generate and store object feature information in real time;
(D) The second object feature information extraction unit 16 extracts the facial features, color and texture features, and gait features of entrants from the image information obtained from the plurality of CCTV cameras (C2) installed in the arrival hall, thereby providing object feature information. generating and storing in real time;
(e) the first similarity detection unit 17 detecting the identity and similarity between the generated object characteristic information of a serious traveler and the object characteristic information of entrants in the entry hall;
(F) a step in which the first criminal traveler identification unit 18 recognizes an entrant whose similarity in at least one of the object characteristic information of the entrant within the entry hall is detected to be higher than a predetermined threshold and specifies the entrant as a criminal traveler;
(G) The storage unit 19 additionally stores the object characteristic information and image information of the identified serious traveler, and the transmission unit 20 transmits the information to the customs situation room, customs agent (rover), and inspection officer (marshal). transmitting;
(H) The third object feature information extraction unit 23 extracts the facial features, color and texture features, and gait features of entrants from the image information obtained from the self-driving robots (R) in the arrival hall and provides object feature information in real time. creating and saving steps;
(I) detecting the identity and similarity between the object characteristic information of entrants in the arrival hall created by the second similarity detection unit 24 and the object characteristic information of already specified high-crime travelers;
(J) The second criminal traveler identification unit 25 recognizes the entrant whose similarity in at least one of the object characteristic information of the entrant in the entry hall is greater than a predetermined threshold and re-specifies the entrant as a criminal traveler, and the control unit 21 ) receives image information from the self-driving robots (R), uses the received image information to confirm the location of the re-specified high-crime traveler, and then distances the re-specified high-crime traveler from a specific place in the arrival hall. If the relative position information is outside the reference range based on the corresponding relative position information, control the movement direction of the autonomous robot (R) and the other autonomous robot (R) closest to it to be changed to the specific location, , re-confirming the location of the re-specified traveler using image information received from the other autonomous robot (R);
(k) the location recognition unit 26 recognizing each location information in real time based on image information and GPS received from the autonomous robots (R);
(L) The information combination unit 31 collects the received signal strength value and unique identification information of the electronic tag (T) from the reader 30 to generate location information of the entering person, and the second serious traveler identification unit In (25), the location information of the offender based on information related to a specific traveler and the location information of the self-driving robots (R) is compared with the location information of the entrant, and if it is within a preset standard range, the offender is sent to the traveler. Matching the unique identification information of the electronic tag (T) attached to the traveler's belongings declaration form held by the entering person;
(M) the GIS display unit (27) displaying the location information of the serious traveler and the entrant matched by the information combination unit (31) through the display unit (28);
It is accomplished including,
In the step (other), if the criminal traveler gathers in a group of several entrants and then becomes separated or disappears momentarily, the unique identification information of the electronic tag (T) attached to the traveler's belongings declaration form carried by the entrant is provided to the criminal traveler. A method of tracking criminal travelers at the arrival port, characterized in that, based on the matched information, entrants holding a traveler's belongings declaration form with the same unique identification information attached as the electronic tag (T) are merged into the same criminal traveler and monitored.
삭제delete
KR1020230056843A 2023-05-02 2023-05-02 Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers KR102603692B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230056843A KR102603692B1 (en) 2023-05-02 2023-05-02 Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230056843A KR102603692B1 (en) 2023-05-02 2023-05-02 Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers

Publications (1)

Publication Number Publication Date
KR102603692B1 true KR102603692B1 (en) 2023-11-21

Family

ID=88981774

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230056843A KR102603692B1 (en) 2023-05-02 2023-05-02 Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers

Country Status (1)

Country Link
KR (1) KR102603692B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120127785A (en) * 2011-05-16 2012-11-26 엘에스산전 주식회사 Tag device and real time location system using the same
KR20150094074A (en) 2014-02-10 2015-08-19 정광만 Automatic screen system of the customs inspection for entering traveler
KR101808587B1 (en) 2017-08-03 2017-12-13 주식회사 두원전자통신 Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors
KR20180040255A (en) 2016-10-12 2018-04-20 엘지전자 주식회사 Airport robot
KR20230043662A (en) * 2021-09-23 2023-03-31 뉴인테크 주식회사 Moving line tracking system and method for arrival hall of liability to crime travelers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120127785A (en) * 2011-05-16 2012-11-26 엘에스산전 주식회사 Tag device and real time location system using the same
KR20150094074A (en) 2014-02-10 2015-08-19 정광만 Automatic screen system of the customs inspection for entering traveler
KR20180040255A (en) 2016-10-12 2018-04-20 엘지전자 주식회사 Airport robot
KR101808587B1 (en) 2017-08-03 2017-12-13 주식회사 두원전자통신 Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors
KR20230043662A (en) * 2021-09-23 2023-03-31 뉴인테크 주식회사 Moving line tracking system and method for arrival hall of liability to crime travelers

Similar Documents

Publication Publication Date Title
Camara et al. Pedestrian models for autonomous driving Part I: low-level models, from sensing to tracking
Yang et al. Tracking multiple workers on construction sites using video cameras
Park et al. Construction worker detection in video frames for initializing vision trackers
US11164329B2 (en) Multi-channel spatial positioning system
Kim et al. Vision-based location positioning using augmented reality for indoor navigation
JP4852765B2 (en) Estimating connection relationship between distributed cameras and connection relationship estimation program
RU2251739C2 (en) Objects recognition and tracking system
US20190242968A1 (en) Joint Entity and Object Tracking Using an RFID and Detection Network
KR102519151B1 (en) Moving line tracking system and method for arrival hall of liability to crime travelers
CN106559749B (en) Multi-target passive positioning method based on radio frequency tomography
CN102103663A (en) Ward visit service robot system and target searching method thereof
US7295106B1 (en) Systems and methods for classifying objects within a monitored zone using multiple surveillance devices
US11830274B2 (en) Detection and identification systems for humans or objects
Iqbal et al. Real-time surveillance using deep learning
CN202010257U (en) Ward round robot system based on Bayesian theory
DE102020209054A1 (en) DEVICE AND METHOD FOR PERSONAL RECOGNITION, TRACKING AND IDENTIFICATION USING WIRELESS SIGNALS AND IMAGES
Arsic et al. Applying multi layer homography for multi camera person tracking
CN112399137B (en) Method and device for determining movement track
Denman et al. Automatic surveillance in transportation hubs: No longer just about catching the bad guy
Nakkach et al. Smart border surveillance system based on deep learning methods
KR102603692B1 (en) Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers
GB2605948A (en) Warehouse monitoring system
Mosberger et al. A customized vision system for tracking humans wearing reflective safety clothing from industrial vehicles and machinery
Ling et al. A multi-pedestrian detection and counting system using fusion of stereo camera and laser scanner
Lakrouf et al. Moving obstacles detection and camera pointing for mobile robot applications

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant