KR20230043662A - Moving line tracking system and method for arrival hall of liability to crime travelers - Google Patents

Moving line tracking system and method for arrival hall of liability to crime travelers Download PDF

Info

Publication number
KR20230043662A
KR20230043662A KR1020220054085A KR20220054085A KR20230043662A KR 20230043662 A KR20230043662 A KR 20230043662A KR 1020220054085 A KR1020220054085 A KR 1020220054085A KR 20220054085 A KR20220054085 A KR 20220054085A KR 20230043662 A KR20230043662 A KR 20230043662A
Authority
KR
South Korea
Prior art keywords
traveler
information
unit
image information
bad
Prior art date
Application number
KR1020220054085A
Other languages
Korean (ko)
Other versions
KR102519151B1 (en
Inventor
김준연
Original Assignee
뉴인테크 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 뉴인테크 주식회사 filed Critical 뉴인테크 주식회사
Publication of KR20230043662A publication Critical patent/KR20230043662A/en
Application granted granted Critical
Publication of KR102519151B1 publication Critical patent/KR102519151B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Alarm Systems (AREA)

Abstract

The present invention relates to a method for tracking a crime traveler in an arrival hall, which can increase the accuracy of control. The method comprises: a step of comparing prior analysis information on an entrant with a crime traveler database of a traveler information system to find and designate a crime traveler from among entrants; a step of identifying and specifying a crime traveler in comparison to crime traveler information designated through face recognition using image information obtained by a CCTV camera installed in an immigration checkpoint; a step of extracting a facial feature of the crime specified traveler, color and texture feature thereof, and gait feature thereof to generate and store object feature information in real time; a step of extracting facial features of entrants, color and texture feature thereof, and gait feature thereof by using image information obtained by a CCTV camera installed in the arrival hall to generate and store object feature information in real time; a step of detecting the sameness and the similarity between the generated object feature information of the crime traveler and the object feature information of entrants in the arrival hall; a step of recognizing an entrant in the arrival hall, having at least one object feature information with a similarity equal to or higher than a predetermined threshold value, as the crime traveler; and a step of additionally storing the object feature information of the designated crime traveler and providing the same to a customs situation room and customs personnel.

Description

입국장 내 우범 여행자 추적 시스템 및 방법{MOVING LINE TRACKING SYSTEM AND METHOD FOR ARRIVAL HALL OF LIABILITY TO CRIME TRAVELERS}System and method for tracing criminal travelers in the arrival hall {MOVING LINE TRACKING SYSTEM AND METHOD FOR ARRIVAL HALL OF LIABILITY TO CRIME TRAVELERS}

본 발명은 영상 인식 카메라를 이용해 입국장 내 우범 여행자를 추적하여 감시하기 위한 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 공항이나 항만의 입국장 내에서 입국 단계부터 우범 여행자로 추정되는 입국자가 CIQ 통관 절차를 피하기 위해 환복이나 변장을 하더라도 이동 동선을 따라 효율적으로 추적하여 철저히 관찰 및 감시할 수 있는 입국장 내 우범 여행자 추적 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for tracking and monitoring a permissive traveler in an arrival hall using an image recognition camera, and more particularly, in an entry hall of an airport or port, an entrant presumed to be a permissive traveler undergoes a CIQ customs clearance procedure from the entry stage. It relates to a system and method for tracking criminal travelers in the arrivals hall, which can be thoroughly observed and monitored by efficiently tracking them along the movement line even if they are changed or disguised to avoid it.

오늘날 상품, 자본, 서비스의 국가 간 이동과 국내외를 드나드는 내외국인 수는 폭발적으로 늘고 있어 공항이나 항만에서 입국하는 모든 여행자의 수하물을 검사하는 것은 현실적으로 불가능한 일이다.Today, cross-border movement of goods, capital, and services, and the number of domestic and foreign nationals traveling in and out of the country are explosively increasing, making it practically impossible to inspect the baggage of all travelers entering the country at airports or ports.

이에 따라 전세계 각국의 세관은 무기나 외화 밀반입, 밀수, 마약 매매, 테러 따위의 전과가 있는 여행객이나 과거에 통관 절차를 제대로 이행하지 않은 여행객 등 범죄를 저지를 우려가 있는 우범 여행자에 대한 정보를 사전에 입수 및 데이트베이스화하여 그 우범 여행자를 대상으로 자국 내의 입국장을 통과 시 집중적으로 감시 및 단속함으로써 세관 검사의 효율화를 꾀하고 있다.Accordingly, customs offices around the world pre-emptively provide information on criminal travelers who may commit crimes, such as travelers with prior convictions for weapons or foreign currency smuggling, smuggling, drug trafficking, and terrorism, or travelers who have not properly completed customs procedures in the past. It seeks to improve the efficiency of customs inspection by intensively monitoring and cracking down on criminal travelers when they pass through the country's entry gate.

근래에는 면세범위를 넘는 물품을 세관에 자진 신고하지 않는 경우가 많아지면서 여행객이 고가의 물품을 구매하여 반입하는 경우 그 구매 내역 및 정보를 사전에 전달받아 추적 및 정밀 검사하기 위한 여행자정보시스템(TIS : Traveller Information System)을 구축하여 운용하고 있다.In recent years, as more and more cases do not voluntarily declare goods that exceed the scope of duty-free duty to customs, when a traveler purchases and brings in expensive goods, the traveler information system (TIS) is provided to track and closely inspect the purchase details and information in advance. : Traveler Information System) has been built and operated.

즉, 세관은 승객예약정보(PNR : Passenger Name Record)와 승객정보사전확인시스템(APIS : Advance Passenger Information System)을 통해 항공기(이하, 선박 포함) 도착 전에 항공사(이하, 선박회사 포함)로부터 승객명부를 입수한 뒤 정보분석관이 승객들의 여행 이력, 행선지, 면세점 사용 등 정보를 미리 분석하고, 그 승객별 분석결과를 입국심사관과 정부 관계부처(기관)에 제공하여 우범 여행자를 선별 검사하고 일반 여행자는 신속히 통과시키고 있다.In other words, customs is required to obtain a passenger list from an airline (hereinafter, including a shipping company) prior to the arrival of an aircraft (hereinafter, including a ship) through the Passenger Name Record (PNR) and the Advance Passenger Information System (APIS). After obtaining the information, the information analyst analyzes the passengers' travel history, destination, use of duty-free shops, etc. passing through quickly.

이때, 여행자정보시스템을 이용하여 여행자의 사전 분석 정보를 우범 여행자 DB와 대조하여 검사 대상자를 지정 및 결정한다.At this time, by using the traveler information system, the preliminary analysis information of the traveler is compared with the bad traveler DB to designate and determine the subject to be inspected.

아울러 입국자들의 이동 동선을 따라 점점이 설치된 CCTV 카메라를 이용하여 검사 대상자의 이동을 추적하고, 세관 요원(rover)은 검사 대상자의 정보를 PDA로 전송받아 동태를 감시하며 검사지정관(marshal)은 마샬 라인(marshal line)을 통과하는 입국자를 세관 검사대로 안내한다.In addition, the movement of the inspection subject is tracked using CCTV cameras installed along the movement of the entrants, the customs agent (rover) receives the inspection subject's information through the PDA and monitors the movement, and the inspection marshal (marshal line) It guides entrants passing through the marshal line to the customs inspection point.

그런데 최근 출입국관리사무소의 입국 심사대 무인자동화 및 칸막이 설치 등 입국장 환경 변화로 인해 CCTV 영상정보에서 검사 대상자의 얼굴을 정확하게 식별하는 데에 한계가 있을 뿐만 아니라 검사 대상자가 반드시 거쳐야 하는 세관(customs), 출입국관리(immigration), 검역(quarantine) 세 가지 통관 절차를 피하거나 세관 요원을 따돌리기 위해 환복 및 변장을 하고 이동할 경우 추적 및 감시가 상당히 어려운 문제점이 있다.However, due to recent changes in the arrival hall environment, such as the unmanned automation of immigration checkpoints and the installation of partitions, there is a limit to accurately identifying the face of a person subject to inspection from CCTV image information, as well as customs, immigration, and It is very difficult to track and monitor if you move in a change of clothes or disguise to avoid the three customs procedures of immigration and quarantine or evade customs officers.

한편, 지능형 영상감시(IVS : Intelligent Video Surveillance) 시스템은 CCTV로부터 얻어지는 영상정보에서 배경 영역을 분리한 뒤 이동하는 객체, 즉 감시대상을 추출 및 인식하여 추적하며, 식별된 객체나 추적 중인 객체로부터 감시 상황에 적합한 이벤트를 발생시킨다.On the other hand, the Intelligent Video Surveillance (IVS) system separates the background area from video information obtained from CCTV, extracts, recognizes, and tracks a moving object, that is, a monitoring target, and monitors the identified object or the object being tracked. Trigger an event appropriate to the situation.

이러한 지능형 영상감시 시스템에서 이동 객체를 분리하는 방법은 가우시안 혼합 모델(GMM : Gaussian mixture model), 배경 차(Background subtraction) 등이 있다.Methods for separating a moving object in such an intelligent video surveillance system include a Gaussian mixture model (GMM), background subtraction, and the like.

지능형 영상감시 시스템에서 이동 객체를 식별하는 방법은 윤곽선 기반 분류, 모션 기반 분류 방법 등이 있으며, 특히 윤곽선 기반 분류는 추출된 이동 객체에서 점들과 박스 형태 모양, 윤곽선 및 블롭(Blob)들의 데이터 집합들을 사용하여 분류한다.Methods for identifying moving objects in an intelligent video surveillance system include contour-based classification and motion-based classification methods. In particular, contour-based classification identifies data sets of points, box-shaped shapes, contours, and blobs from extracted moving objects. classify using

지능형 영상감시 시스템에서 이동 객체의 색상 정보를 사용하는 방법은 Mean Shift와 CAMshift 알고리즘 등이 있다. 이들 알고리즘은 선택된 탐색 윈도우의 색상 밀도 분포를 이용해 객체를 고속으로 추출한다.Methods of using color information of moving objects in an intelligent video surveillance system include Mean Shift and CAMshift algorithms. These algorithms extract objects at high speed using the color density distribution of the selected search window.

이동 객체를 추적하는 방법, 즉 이전 영상에서 식별된 이동 객체를 현재 영상에서 찾는 기법은 영역 기반 추적(Region-based tracking), 활성 윤곽선 기반 추적(Active contour-based tracking), 특징 기반 추적(Feature-based tracking), 모델 기반 추적(Model- based tracking) 등 4가지 범주로 나눌 수 있다.Methods for tracking moving objects, that is, techniques for finding a moving object identified in a previous image in the current image include region-based tracking, active contour-based tracking, and feature-based tracking. based tracking) and model-based tracking.

여기서 영역 기반 추적 알고리즘은 움직이는 객체에 해당하는 이미지의 변화나 구조적인 특성(대개 추적 객체는 인간이며 인간의 머리, 몸통, 하체 등의 구조를 사용)을 이용한 방법으로, 객체가 갖는 고유한 특성을 어떻게 모델화하는지에 따라 추적 성능이 좌우될 수 있다.Here, the area-based tracking algorithm is a method using changes in the image corresponding to the moving object or structural characteristics (usually, the tracking object is a human and uses the structure of the human head, torso, lower body, etc.). Tracking performance can depend on how you model it.

활성 윤곽선 기반 추적 알고리즘은 윤곽선을 경계로 윤곽을 표현하고 연속된 프레임에서 동적으로 윤곽을 갱신하여 객체를 추적하는 방법으로, 윤곽선이 반드시 추출되어야 하는 전제로 인해 윤곽선의 추출 여부에 추적의 성능이 결정되는 데다 추적 초기화에 매우 민감해 자동 추적이 어려운 문제점이 있다.The active contour-based tracking algorithm is a method of tracking an object by expressing the contour with the boundary and dynamically updating the contour in successive frames. Due to the premise that the contour must be extracted, whether to extract the contour determines the tracking performance. In addition, there is a problem in that automatic tracking is difficult because it is very sensitive to tracking initialization.

특징 기반 추적 알고리즘은 특징들의 요소들과 고 수준의 클러스터링을 통해 이미지 간의 특징을 일치시킴으로써 물체를 인식 및 추적하는 방법으로, 이동 객체의 특징이 다수 확보될 경우 추적에 용이하지만 특징점 추출을 위한 많은 연산량, 특징점 추출을 위한 이동 객체 영상의 제약(크기, 색상 조합 등)과 같은 문제점이 있다.Feature-based tracking algorithm is a method of recognizing and tracking an object by matching the features between the features and images through high-level clustering. It is easy to track when a large number of features of a moving object are secured, but it requires a lot of computation to extract feature points. , there are problems such as restrictions (size, color combination, etc.) of moving object images for feature point extraction.

모델 기반 추적 알고리즘은 사전에 객체의 구조적인 특징을 실측해 모델링한 뒤 매칭하는 방법으로, 주로 객체의 행동 인식을 위한 방법이다.The model-based tracking algorithm is a method of matching after measuring and modeling the structural characteristics of an object in advance, and is mainly a method for recognizing the behavior of an object.

한편, 인천국제공항공사는 입·출국장 등 공항 내 교통 약자의 이동 편의를 지원하고, 발열체크나 공항 시설물에 대한 정보 제공 등 다양한 스마트 서비스를 강화하기 위해 AI 기반 자율 주행과 각종 첨단 정보통신(ICT) 기술이 접목된 안내로봇을 도입하여 운영하고 있다.On the other hand, Incheon International Airport Corporation supports the mobility of the transportation vulnerable in the airport, such as arrival and departure halls, and uses AI-based autonomous driving and various cutting-edge information and communication (ICT) services to strengthen various smart services such as temperature checks and information on airport facilities. We have introduced and operated a guide robot that incorporates technology.

또한, 청소 능력, 라이다(LiDAR) 센서와 비전 센서를 탑재한 자율주행 기능, 장애물 회피 기술은 물론 공항 내 청소가 필요한 구역의 지도를 데이터베이스에 담아 주변 상황을 인지하여 스스로 건물 내부를 자유롭게 이동하면서 청소하는 무인 자율주행 청소로봇 및 여행객을 쫓아다니면서 짐을 대신 운반해 주는 서비스 로봇을 도입하여 운영하고 있다.In addition, cleaning ability, self-driving function equipped with LiDAR and vision sensors, obstacle avoidance technology, as well as maps of areas requiring cleaning within the airport are stored in the database to recognize the surrounding situation and move freely inside the building on its own. It has introduced and operated an unmanned self-driving cleaning robot that cleans and a service robot that carries luggage while chasing tourists.

여기서 상술한 배경기술 또는 종래기술은 본 발명자가 보유하거나 본 발명을 도출하는 과정에서 습득한 정보로서 본 발명의 기술적 의의를 이해하는데 도움이 되기 위한 것일 뿐, 본 발명의 출원 전에 이 발명이 속하는 기술분야에서 널리 알려진 기술을 의미하는 것은 아님을 밝힌다.The background art or prior art described above herein is information possessed by the present inventor or acquired in the process of deriving the present invention, and is only intended to help understand the technical significance of the present invention, prior to the filing of the present invention, the technology to which this invention belongs It should be noted that it does not mean widely known technologies in the field.

KRKR 10-2015-009407410-2015-0094074 A(2015.08.19)A(2015.08.19) KRKR 10-2018-004025510-2018-0040255 A(2018.04.20)A(2018.04.20) KRKR 10-180858710-1808587 B1(2017.12.07)B1(2017.12.07)

이에 본 발명자는 상술한 제반 사항을 종합적으로 고려함과 동시에 기존의 입국장 내 우범 여행자 추적 시스템이 지닌 기술적 한계 및 문제점들을 해결하려는 발상에서, 입국 심사대를 통과한 우범 여행자가 CIQ 통관 절차를 피하기 위해 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하더라도 이동 동선을 따라 효율적으로 추적하여 철저히 관찰 및 지속적으로 감시할 수 있고, 이를 통해 관제의 정확성은 물론 세관 업무의 효율성을 높일 수 있는 새로운 구조의 입국장 내 우범 여행자 추적 시스템 및 방법을 개발하고자 각고의 노력을 기울여 부단히 연구하던 중 그 결과로써 본 발명을 창안하게 되었다.Therefore, the present inventor comprehensively considers all the above matters and at the same time, in order to solve the technical limitations and problems of the existing bad traveler tracking system in the arrival hall, the bad traveler who passed the immigration checkpoint is placed in the arrival hall to avoid the CIQ customs clearance procedure. Even if you are disguised or change clothes, such as wearing heavy makeup, glasses, and masks, you can efficiently track along the movement line and thoroughly observe and continuously monitor it. The present invention was created as a result of continuous research with painstaking efforts to develop a system and method for tracking criminal travelers in the arrival hall of the structure.

따라서 본 발명이 해결하고자 하는 기술적 과제 및 목적은 입국장 내의 우범 여행자가 환복이나 변장을 하더라도 지속적으로 이동을 추적 및 감시할 수 있도록 하는 입국장 내 우범 여행자 추적 시스템 및 방법을 제공하는 데 있는 것이다.Therefore, the technical problem and object to be solved by the present invention is to provide a system and method for tracking bad travelers in the arrival hall, which can continuously track and monitor the movements of bad travelers in the arrival hall even if they change clothes or disguise.

여기서 본 발명이 해결하고자 하는 기술적 과제 및 목적은 이상에서 언급한 기술적 과제 및 목적으로 국한하지 않으며, 언급하지 않은 또 다른 기술적 과제 및 목적들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 명확하게 이해할 수 있을 것이다.Here, the technical problems and objects to be solved by the present invention are not limited to the technical problems and objects mentioned above, and other technical problems and objects that are not mentioned are the general knowledge in the technical field to which the present invention belongs from the description below. Those who have it will be able to clearly understand.

상술한 바와 같은 본 발명의 기술적 과제를 해결하기 위한 새로운 착상을 구체화하면서 특정의 기술적 목적을 효과적으로 달성하기 위한 본 발명의 실시 태양(aspect)에 따른 구체적인 수단은, 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자 정보를 입력받는 우범여행자정보입력부, 입국 심사대에 설치되어 있는 복수의 CCTV 카메라로부터 영상정보를 입력받는 제1영상정보입력부, 상기 제1영상정보입력부를 통해 입력받은 영상정보에서 입국자의 객체를 식별하고, 상기 우범여행자정보입력부를 통해 입력받은 우범 여행자 정보와 대조하여 우범 여행자를 탐지하는 우범여행자탐지부, 탐지된 우범 여행자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제1객체특징정보추출부, 입국장 내에 설치되어 있는 복수의 CCTV 카메라로부터 영상정보를 입력받는 제2영상정보입력부, 상기 제2영상정보입력부를 통해 입력받은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제2객체특징정보추출부, 상기 제1객체특징정보추출부에서 생성된 우범 여행자의 객체 특징정보와 상기 제2객체특징정보추출부에서 생성된 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 제1유사도검출부, 입국장 내 입국자들 중 상기 제1유사도검출부에서 검출된 유사도 값이 미리 정해진 임계치 이상인 입국자를 인식해 당해 우범 여행자로 특정하는 제1우범여행자특정부, 입국 심사대에 설치되어 있는 복수의 CCTV 카메라와 입국장 내에 설치되어 있는 복수의 CCTV 카메라 및 입국장 내에 배치되어 있는 복수의 자율주행 로봇에 대한 각각의 식별정보와 배치정보, 특정된 우범 여행자의 객체 특징정보와 영상정보를 저장하는 저장부, 특정된 우범 여행자의 객체 특징정보와 영상정보를 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 제공하는 전송부, 상기 자율주행 로봇(R)들의 기능을 제어하고, 시스템의 전반적인 작동을 제어하는 제어부, 상기 자율주행 로봇들과 각각 무선으로 데이터 통신을 하는 데이터통신부, 상기 데이터통신부를 통해 입력받고 상기 자율주행 로봇들의 카메라로 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제3객체특징정보추출부, 상기 제1우범여행자특정부에서 특정된 우범 여행자의 객체 특징정보와 상기 제3객체특징정보추출부에서 생성된 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 제2유사도검출부, 상기 제2유사도검출부에서 검출된 유사도 값이 미리 정해진 임계치 이상인 입국자를 인식해 우범 여행자로 재특정하는 제2우범여행자특정부, 상기 자율주행 로봇들로부터 수신되는 영상정보와 GPS를 기반으로 각각의 위치를 실시간으로 인식하는 위치인식부, 상기 자율주행 로봇들의 위치정보를 디스플레이부에 표시되도록 하는 GIS표시부 및 상기 자율주행 로봇의 카메라로 촬영하여 얻은 우범 여행자가 포함된 영상정보를 상기 디스플레이부에 실시간으로 출력되도록 하는 이벤트알람부를 포함하여 채용하는 것을 특징으로 하는 입국장 내 우범 여행자 추적 시스템을 제시한다.Specific means according to an embodiment of the present invention for effectively achieving a specific technical purpose while embodying a new idea for solving the technical problem of the present invention as described above are prior analysis information and traveler information for the entrant. A prime traveler information input unit that compares the system's bad traveler database and receives bad traveler information among entrants, a first image information input unit that receives image information from a plurality of CCTV cameras installed at the immigration counter, and the first image information input A bad traveler detection unit that identifies the entrant's object from the video information input through the bad tourist information input unit and compares it with the good bad traveler information input through the bad tourist information input unit to detect the good bad traveler; (texture) First object feature information extraction unit that generates and stores object feature information in real time by extracting features and gait characteristics, second image information input unit that receives image information from a plurality of CCTV cameras installed in the arrival hall, A second object feature information extraction unit that generates and stores object feature information in real time by extracting facial features, color and texture features, and gait features of entrants from the image information input through the second image information input unit, and the first object feature A first similarity detection unit that detects the identity and similarity between the object characteristic information of the criminal traveler generated by the information extraction unit and the object characteristic information of the entrants in the arrival hall generated by the second object characteristic information extraction unit; 1. The first high-risk traveler identification unit that recognizes an entrant whose similarity value detected by the similarity detection unit is higher than a predetermined threshold and identifies the entrant as a high-risk traveler, a plurality of CCTV cameras installed at the immigration checkpoint and a plurality of CCTV cameras installed in the arrival hall and a storage unit for storing identification information and arrangement information for each of the plurality of self-driving robots disposed in the arrival hall, object characteristic information and image information of a specified prime traveler, and object characteristic information and image information of a specified prime traveler. A transmission unit provided to the customs control room, customs rover, and marshal, a control unit that controls the functions of the self-driving robots (R) and the overall operation of the system, and wireless communication with the self-driving robots, respectively. A data communication unit that communicates data with the data communication unit, extracts facial features, color and texture characteristics, and gait characteristics of entrants from image information obtained by receiving input through the data communication unit and photographing with the cameras of the self-driving robots to generate object feature information in real time Identity and similarity between the object characteristic information of the prime traveler specified in the first prime traveler specification unit and the object characteristic information of the entrants in the arrival hall generated by the third object characteristic information extraction unit. a second similarity detection unit that detects a second similarity detection unit, a second traveler specification unit that recognizes an entrant whose similarity value detected by the second similarity detection unit is equal to or higher than a predetermined threshold, and re-specifies them as a frequent traveler, and image information received from the self-driving robots. and a location recognition unit that recognizes each location in real time based on GPS, a GIS display unit that displays the location information of the self-driving robots on the display unit, and an image containing a rogue traveler captured by the camera of the self-driving robot Suggested is a system for tracking criminal travelers in an arrival hall, characterized in that it employs an event alarm unit that outputs information in real time to the display unit.

이로써 본 발명은 공항이나 항만의 입국 심사대를 통과한 우범 여행자가 CIQ 통관 절차를 피하기 위해 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하더라도 이동 동선을 따라 추적할 수 있을 뿐만 아니라 고정형 CCTV 카메라의 촬영 범위를 벗어난 입국장 내 사각지대에 우범 여행자가 숨거나 위치하더라도 자율주행 로봇을 활용하여 사람 키 정도의 높이에서 여러 각도로 근접 촬영한 객체 특징정보를 수집 및 분석할 수 있어 더욱 효율적으로 우범 여행자를 탐지 및 추적하여 철저히 관찰 및 감시할 수 있다.Accordingly, the present invention can not only track a criminal traveler who has passed through the immigration checkpoint at an airport or port along the movement line even if he or she changes clothes or wears heavy makeup, glasses, and a mask in the arrival hall to avoid the CIQ customs clearance procedure. Even if a high-risk traveler hides or is located in a blind spot in the arrival hall outside the shooting range of a fixed CCTV camera, the self-driving robot can be used to collect and analyze feature information of objects photographed from various angles at a height of about a person's height, making it more efficient. By detecting and tracking criminal travelers, it is possible to thoroughly observe and monitor them.

또한, 본 발명의 바람직한 실시 태양(aspect)으로 상기 제어부는, 상기 자율주행 로봇들로부터 영상정보를 수신하고, 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 확인하며, 상기 재특정된 우범 여행자와 입국장 내 특정 장소 사이의 거리에 해당하는 상대 위치정보에 근거하여, 상기 상대 위치정보가 기준 범위를 벗어난 경우, 당해 자율주행 로봇(R)과 가장 인접하는 다른 자율주행 로봇의 이동 방향을 상기 특정 장소로 변경하도록 제어하고, 그 다른 자율주행 로봇으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인할 수 있다.In addition, in a preferred embodiment of the present invention, the control unit receives image information from the self-driving robots, uses the received image information to determine the location of the re-specified criminal traveler, Based on the relative location information corresponding to the distance between the criminal traveler and a specific place in the arrival hall, if the relative location information is out of the standard range, the moving direction of the self-driving robot (R) and the nearest other autonomous robot is determined. It is controlled to change to the specific place, and the location of the re-specified criminal traveler can be reconfirmed using image information received from the other self-driving robot.

그리고 본 발명의 다른 실시 태양(aspect)에 따른 구체적인 수단은, (a) 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자를 조회하고 지정하는 단계, (b) 입국 심사대에 설치된 복수의 CCTV 카메라가 촬영하여 얻은 영상정보를 이용해 입국 심사대를 통과하는 입국자의 안면을 인식하고, 이를 지정된 우범 여행자 정보와 대조하여 우범 여행자를 식별하고 탐지하는 단계, (c) 탐지된 우범 여행자의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계, (d) 입국장 내에 설치된 복수의 CCTV 카메라가 촬영하여 얻은 영상정보를 이용해 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계, (e) 생성된 우범 여행자의 객체 특징정보와 입국장 내 입국자들의 객체 특징정보에 대한 동일성 및 유사도를 검출하는 단계, (f) 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 추출되는 입국자를 인식해 당해 우범 여행자로 특정하는 단계, (g) 특정된 우범 여행자의 객체 특징정보 및 영상정보를 추가로 저장하고 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 제공하는 단계, (h) 입국장 내 자율주행 로봇들이 카메라로 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계, (i) 생성된 입국장 내 입국자들의 객체 특징정보와 이미 특정된 우범 여행자의 객체 특징정보 간 동일성 및 유사도를 검출하는 단계, (j) 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 검출되는 입국자를 인식해 우범 여행자로 재특정하는 단계 및 (k) 자율주행 로봇들로부터 수신되는 영상정보와 GPS를 기반으로 각각의 위치를 실시간으로 인식하고, 그 위치정보를 디스플레이부에 표시하는 단계를 포함하여 이루어지는 것을 특징으로 하는 입국장 내 우범 여행자 추적 방법을 제시한다.And specific means according to another embodiment of the present invention, (a) comparing preliminary analysis information on the entrant with the bad traveler database of the tourist information system to search for and designate bad travelers among the entrants, (b) ) Recognizing the face of an entrant passing through the immigration checkpoint using the image information obtained by shooting a plurality of CCTV cameras installed at the immigration checkpoint, and identifying and detecting the picky traveler by comparing it with designated bad traveler information, (c) detection Creating and storing object feature information in real time by extracting the facial features, color and texture features, and gait features of the high-risk traveler, Creating and storing object feature information in real time by extracting features, color and texture features, and gait features, (e) detecting the degree of identity and similarity between the created object feature information of bad travelers and the object feature information of entrants in the arrival hall (f) recognizing an entrant whose similarity in at least one of the object characteristic information of the entrant in the arrival hall is extracted above a predetermined threshold and specifying the entrant as the pertinent bad traveler; (g) the object characteristic information of the specified bad traveler and additionally storing the image information and providing it to the customs control room, customs rover, and marshal, (h) the facial features and color of the entrants from the image information obtained by the self-driving robots in the arrival hall filming with cameras. And generating and storing object feature information in real time by extracting texture features and gait features, (i) detecting the degree of identity and similarity between the object feature information of the entrants in the created arrival hall and the object feature information of the already specified high-risk traveler (j) Recognizing and re-identifying an entrant whose similarity in at least one of object feature information of the entrant in the arrival hall is higher than a predetermined threshold and (k) image information received from self-driving robots and recognizing each location in real time based on GPS and displaying the location information on a display unit.

이로써 본 발명은 공항이나 항만의 입국 심사대를 통과한 우범 여행자가 CIQ 통관 절차를 피하기 위해 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하더라도 이동 동선을 따라 효율적으로 추적하여 철저히 관찰 및 감시할 수 있다.As a result, the present invention efficiently tracks and thoroughly observes criminal travelers who have passed through the immigration checkpoint at an airport or port, even if they change or change their clothes, such as wearing heavy makeup, glasses, and masks, in the arrival hall to avoid CIQ customs clearance procedures. and can be monitored.

또한, 본 발명의 바람직한 실시 태양(aspect)으로 상기 (j) 단계에서, 상기 자율주행 로봇들로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 확인하며, 상기 재특정된 우범 여행자와 입국장 내 특정 장소 사이의 거리에 해당하는 상대 위치정보에 근거하여, 상기 상대 위치정보가 기준 범위를 벗어난 경우, 당해 자율주행 로봇과 가장 인접하는 다른 자율주행 로봇의 이동 방향을 상기 특정 장소로 변경하도록 제어하고, 그 다른 자율주행 로봇으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인할 수 있다.In addition, in a preferred embodiment of the present invention, in the step (j), the location of the re-specified crime traveler is confirmed using the image information received from the self-driving robots, and the location of the re-specified crime traveler and Based on the relative location information corresponding to the distance between specific places in the arrival hall, if the relative location information is out of the standard range, to change the moving direction of the self-driving robot and another autonomous robot closest to the specific place control, and the location of the re-specified criminal traveler can be reconfirmed using the image information received from the other self-driving robot.

또한, 본 발명의 바람직한 실시 태양(aspect)은 상기 (e) 단계에서, 추출된 우범 여행자의 얼굴 특징 영상과 입국장 내 입국자들의 얼굴 특징 영상에서 추출한 특징점 기술자를 비교하여 서로 비슷한 특징점을 찾는 특징점 매칭으로 얼굴 특징의 동일성 및 유사도를 검출할 수 있다.In addition, in a preferred embodiment of the present invention, in step (e), feature point matching is performed to find similar feature points by comparing the extracted facial feature image of the criminal traveler with the feature point descriptor extracted from the facial feature image of the entrants in the arrival hall. Identity and similarity of facial features can be detected.

또한, 본 발명의 바람직한 실시 태양(aspect)은 상기 (e) 단계에서, 추출된 우범 여행자의 색상 특징 영상과 입국장 내 입국자들의 색상 특징 영상에서 컬러 히스토그램(color histogram)을 생성하고 주요 이미지 특징을 추출 및 서로 비교하여 미리 설정한 임계치 이상의 경우에만 색상 특징의 동일성 및 유사도를 검출할 수 있다.In addition, in a preferred embodiment of the present invention, in step (e), a color histogram is generated from the extracted color feature images of criminal travelers and color feature images of entrants in the arrival hall, and main image features are extracted. and the sameness and similarity of the color features may be detected only when the color features are equal to or greater than a predetermined threshold value by comparing each other.

또한, 본 발명의 바람직한 실시 태양(aspect)은 상기 (e) 단계에서, 추출된 우범 여행자의 질감 특징 영상과 입국장 내 입국자들의 질감 특징 영상을 이미지 세그멘테이션(image segmentation)한 후, 객체의 MBR(Minimum Boundary Rectangle)을 구성하고, 각 이미지 내에 포함되어 있는 객체의 MBR에 대한 웨이블릿 변환(wavelet transform)을 적용하여 질감 특징을 생성하고, 이의 동일성 및 유사도를 검출할 수 있다.In addition, in a preferred embodiment of the present invention, in the step (e), after image segmentation of the extracted texture feature image of the criminal traveler and the texture feature image of the entrants in the arrival hall, MBR (Minimum Boundary Rectangle), apply wavelet transform to the MBR of objects included in each image to generate texture features, and detect their identity and similarity.

또한, 본 발명의 바람직한 실시 태양(aspect)은 상기 (e) 단계에서, 입국 심사대에 설치된 복수의 CCTV 카메라가 촬영하여 얻은 영상정보로부터 이진 실루엣 동영상 시퀀스를 획득한 뒤, 그 실루엣 동영상 시퀀스로부터 정규화시킨 실루엣 영상을 획득하고, 그 정규화시킨 실루엣 영상으로부터 식별 가능한 걸음걸이 특징정보를 추출한 뒤 추출한 걸음걸이 특징정보들을 입국장 내에 설치된 복수의 CCTV 카메라가 촬영하여 얻은 영상정보의 걸음걸이 특징정보와 비교하여 걸음걸이 특징의 동일성 및 유사도를 검출할 수 있다.In addition, in a preferred embodiment of the present invention, in step (e), a binary silhouette video sequence is obtained from image information obtained by shooting by a plurality of CCTV cameras installed at the immigration checkpoint, and then normalized from the silhouette video sequence. Obtaining a silhouette image, extracting identifiable gait feature information from the normalized silhouette image, and comparing the extracted gait feature information with the gait feature information of the image information obtained by shooting a plurality of CCTV cameras installed in the arrival hall The identity and similarity of features can be detected.

상기와 같은 기술적 과제를 해결하고자 특유한 해결 수단이 기초하고 있는 본 발명의 기술사상 및 실시 예(embodiment)에 따르면, 공항이나 항만의 입국 심사대를 통과한 우범 여행자가 CIQ 통관 절차를 피하기 위해 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하더라도 이동 동선을 따라 보다 효율적으로 대응 및 추적하여 철저히 관찰하고 지속적으로 감시할 수 있어 관제의 정확성을 높임은 물론이고 세관 업무의 효율성을 제고할 수 있다.According to the technical idea and embodiment of the present invention, which is based on a unique solution to solve the above technical problems, a bad traveler who has passed through the immigration checkpoint of an airport or port can Even if you are disguised, such as wearing heavy makeup, glasses, or a mask, or change clothes, you can respond and track more efficiently along the movement line, thoroughly observe and continuously monitor, which will increase the accuracy of customs control as well as improve the efficiency of customs work. can

더구나 입국장 내에서 운영되는 안내로봇이나 청소로봇과 같은 자율주행 로봇을 활용하여 실시간으로 우범 여행자의 위치와 이동을 확인함으로써 입국장 내에서의 입국자 밀집도가 높은 경우 또는 화장실이나 면세점 내부, 기둥이나 조형물의 뒤쪽 등 고정형 CCTV 카메라의 촬영 범위를 벗어난 입국장 내 사각지대에 우범 여행자가 숨거나 위치하더라도 사람 키 정도의 높이에서 여러 각도로 근접 촬영한 객체 특징정보를 수집 및 분석할 수 있어 우범 여행자 탐지의 신뢰성 및 추적 효율을 향상시킬 수 있다.Moreover, by using self-driving robots such as guide robots or cleaning robots operated in the arrival hall, the location and movement of bad travelers are checked in real time, so that when the density of immigrants is high in the arrival hall, inside the bathroom or duty free shop, behind a pillar or sculpture Even if a high-risk traveler hides or is located in a blind spot in the arrival hall outside the shooting range of a fixed CCTV camera, it is possible to collect and analyze characteristic information of objects photographed from various angles at a height of about a person's height, so reliability and tracking of high-risk traveler detection efficiency can be improved.

여기서 본 발명의 효과들은 이상에서 언급한 효과들로 국한하지 않으며, 언급하지 않은 또 다른 효과들은 청구범위의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 명확하게 이해할 수 있을 것이다.Here, the effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템을 개략적으로 나타낸 구성도이다.
도 2는 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 방법을 설명하기 위한 순서도이다.
1 is a block diagram schematically illustrating a system for tracking criminal travelers in an arrival hall according to an embodiment of the present invention.
2 is a flow chart illustrating a method for tracing a criminal traveler in an arrival hall according to an embodiment of the present invention.

이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 보다 구체적으로 설명한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings.

이에 앞서, 후술하는 용어들은 본 발명에서의 기능을 고려하여 정의된 것으로서, 이는 본 발명의 기술적 사상에 부합되는 개념과 당해 기술분야에서 통용 또는 통상적으로 인식되는 의미로 해석하여야 함을 명시한다.Prior to this, the terms to be described below are defined in consideration of functions in the present invention, which specifies that they should be interpreted as concepts consistent with the technical spirit of the present invention and meanings commonly used or commonly recognized in the art.

또한, 본 발명과 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, if it is determined that a detailed description of a known function or configuration related to the present invention may obscure the gist of the present invention, the detailed description will be omitted.

여기서 첨부된 도면들은 기술의 구성 및 작용에 대한 설명의 편의와 이해를 돕기 위해 일부분을 과장하거나 간략화하여 도시될 수 있고, 그 도면상의 각 구성요소가 실제의 크기 및 형태와 정확하게 일치하는 것은 아님을 밝힌다.The accompanying drawings may be exaggerated or simplified in part to help explain and understand the configuration and operation of the technology, and each component on the drawings does not exactly match the actual size and shape. reveal

아울러 본 명세서에서 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함하는 의미이며, 또 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in this specification, the term and / or is meant to include a combination of a plurality of related items described or any item among a plurality of related items described, and when a certain part includes a certain component, this is particularly the opposite. Unless otherwise stated, it means that other components may be further included rather than excluding other components.

즉, 본 명세서에서 설시(說示)하는 '포함하다' 또는 '가지다' 등의 용어는 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해해야 한다.That is, terms such as 'include' or 'have' described in this specification mean that a feature, number, step, operation, component, part, or combination thereof exists, but one or the It should be understood that the above does not preclude the possibility of the presence or addition of other features or numbers, step operating components, parts, or combinations thereof.

아울러 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, each step may occur in a different order from the specified order unless a specific order is clearly described in context. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

그리고 본 발명에서 사용하는 "부" 및 "유닛"의 용어에 대한 의미는 시스템에서 목적하는 적어도 하나의 기능이나 어느 일정한 동작을 처리하는 단위 또는 역할을 하는 모듈 형태를 의미하며, 이는 하드웨어나 소프트웨어 혹은 하드웨어 및 소프트웨어의 결합 등을 통한 수단이나 독립적인 동작을 수행할 수 있는 디바이스 또는 어셈블리 등으로 구현할 수 있다.And the meaning of the terms "unit" and "unit" used in the present invention means a module type that plays a role or unit that processes at least one function or a certain operation for the purpose of the system, which is hardware or software or It can be implemented as a means through a combination of hardware and software, or as a device or assembly capable of performing an independent operation.

또한, 본 발명에서 사용하는 "모듈"의 용어에 대한 의미는 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있고, 또 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있고, 또 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있고, 또 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있으며, 또 기계적으로 또는 전자적으로 구현될 수 있다.In addition, the meaning of the term "module" used in the present invention may mean a unit including one or a combination of two or more of hardware, software, or firmware, and may also mean a unit, logic It can be used interchangeably with terms such as logic, logical block, component, circuit, etc., and can be a minimum unit or part of an integrated component, It may be a minimum unit or part thereof that performs one or more functions, and may be implemented mechanically or electronically.

그리고 상단, 하단, 상면, 하면, 또는 상부, 하부, 상측, 하측, 전후, 좌우 등의 용어는 각 구성요소에 있어 상대적인 위치를 구별하기 위해 편의상 사용한 것이다. 예를 들어, 도면상의 위쪽을 상부로 아래쪽을 하부로 명명하거나 지칭하고, 길이 방향을 전후 방향으로, 폭 방향을 좌우 방향으로 명명하거나 지칭할 수 있다.In addition, terms such as top, bottom, top, bottom, or top, bottom, top, bottom, front and rear, left and right are used for convenience to distinguish the relative positions of each component. For example, an upper part in the drawing may be named or referred to as an upper part, a lower part may be named or referred to as a lower part, a longitudinal direction may be named or referred to as a front-back direction, and a width direction may be named or referred to as a left-right direction.

또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있다. 즉, 제1, 제2 등의 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하는 목적으로 사용될 수 있다. 예를 들어, 제1 구성요소는 본 발명의 보호범위를 벗어나지 않는 한에서 제2 구성요소로 명명할 수 있고, 또 제2 구성요소도 제1 구성요소로 명명할 수도 있다.Also, terms such as first and second may be used to describe various components. That is, terms such as first and second may be used for the purpose of distinguishing only one element from another element. For example, a first component may be referred to as a second component without departing from the scope of the present invention, and the second component may also be referred to as a first component.

도 1을 참조하면, 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템은 입국 심사대에 중첩되지 않게 설치되어 있는 복수의 CCTV 카메라(C1)와, 입국장 내에 중첩되지 않게 설치되어 있는 복수의 CCTV 카메라(C2)가 촬영하여 얻은 영상정보 및 입국장 내에 배치되어 있는 복수의 자율주행 로봇(R)들이 카메라로 촬영하여 얻은 영상정보를 입력받아 화면에 표시할 수 있다.Referring to FIG. 1, the system for tracking criminal travelers in the arrival hall according to an embodiment of the present invention includes a plurality of CCTV cameras (C1) installed in the immigration checkpoint so as not to overlap, and a plurality of CCTV cameras installed in the arrival hall so as not to overlap each other. (C2) can receive the video information obtained by filming and the video information obtained by filming by the plurality of self-driving robots (R) disposed in the arrival hall with cameras and display them on the screen.

그리고 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템은 복수의 CCTV 카메라(C1)(C2)들과 각각 무선 또는 유선 네트워크를 통해 연결되어 있고, 복수의 자율주행 로봇(R)들과 무선 네트워크를 통해 데이터 통신이 가능하게 연결되어 있어 그 각각으로부터 촬영된 영상을 실시간으로 전송받거나 데이터를 송신 또는 수신할 수 있다.In addition, the criminal traveler tracking system in the arrival hall according to an embodiment of the present invention is connected to a plurality of CCTV cameras (C1) (C2) through a wireless or wired network, respectively, and a plurality of self-driving robots (R) and a wireless network. Since data communication is possible through the , images taken from each of them can be transmitted in real time or data can be transmitted or received.

아울러 복수의 CCTV 카메라(C1)(C2)들과 복수의 자율주행 로봇(R)들에 대한 각각의 식별정보와 배치정보 등과 같은 각종 정보를 등록받아 저장할 수 있다.In addition, various types of information such as identification information and arrangement information for each of the plurality of CCTV cameras C1 and C2 and the plurality of self-driving robots R may be registered and stored.

여기서 CCTV 카메라((C1)(C2)별 정보 및 자율주행 로봇(R)별 정보는 각각에 부여된 고유 아이디 및 설치 위치정보를 포함할 수 있다.Here, the information for each CCTV camera ((C1) and (C2) and the information for each self-driving robot (R) may include a unique ID and installation location information assigned to each.

한편, 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템은 시스템 장치, 서버 등의 하드웨어적 구성으로 구현되거나 복수의 CCTV 카메라(C1)(C2), 복수의 자율주행 로봇(R) 등과 통신 가능하게 연결된 장치 내지 시스템 등에 탑재되어 본 발명의 프로세싱을 수행하는 소프트웨어의 형태로도 구현될 수도 있음은 물론이다.On the other hand, the system for tracking criminal travelers in the arrival hall according to an embodiment of the present invention is implemented as a hardware configuration such as a system device and a server, or can communicate with a plurality of CCTV cameras (C1) (C2) and a plurality of self-driving robots (R). Of course, it may also be implemented in the form of software that is mounted on a device or system that is closely connected and performs the processing of the present invention.

구체적으로, 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템을 구성하는 주요 요소는 우범여행자정보입력부(11), 제1영상정보입력부(12), 우범여행자탐지부(13), 제1특징추출부(14), 제2영상정보입력부(15), 제2특징추출부(16), 제1유사도검출부(17), 제1우범여행자특정부(18), 저장부(19), 전송부(20), 제어부(21), 데이터통신부(22), 제3특징추출부(23), 제2유사도검출부(24), 제2우범여행자특정부(25), 위치인식부(26), GIS표시부(27), 디스플레이부(28), 이벤트알람부(29) 및 관리자입력부(30)를 포함하고 있다.Specifically, the main elements constituting the criminal traveler tracking system in the arrival hall according to an embodiment of the present invention are the criminal tourist information input unit 11, the first image information input unit 12, the criminal traveler detection unit 13, and the first feature. Extraction unit 14, second image information input unit 15, second feature extraction unit 16, first similarity detection unit 17, first offender traveler specific unit 18, storage unit 19, transmission unit (20), control unit 21, data communication unit 22, third feature extraction unit 23, second similarity detection unit 24, second offender traveler specific unit 25, location recognition unit 26, GIS It includes a display unit 27, a display unit 28, an event alarm unit 29 and a manager input unit 30.

여기서 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템을 구성하는 각 구성요소는 물리적으로 구분되는 구성요소보다는 논리적으로 구분되는 구성요소로 이해할 수 있다.Here, each component constituting the criminal traveler tracking system in the arrival hall according to an embodiment of the present invention can be understood as a logically separated component rather than a physically separated component.

즉, 각 구성요소는 본 발명의 기술 사상을 실현하기 위한 논리적인 구성요소에 해당하므로 서로 통합 또는 분리되더라도 본 발명의 논리 구성이 수행하는 기능이 실현될 수 있다면 본 발명의 범위 내에 있다고 해석되어야 하며, 동일 또는 유사한 기능을 수행하는 구성요소라면 그 명칭 상의 일치성 여부와는 무관히 본 발명의 범위 내에 있다고 해석되어야 함은 물론이다.That is, each component corresponds to a logical component for realizing the technical idea of the present invention, so even if integrated or separated from each other, if the function performed by the logical configuration of the present invention can be realized, it should be interpreted as falling within the scope of the present invention. Of course, if a component performs the same or similar function, it should be construed as within the scope of the present invention regardless of whether or not the name matches.

우범여행자정보입력부(11)는 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자 정보를 입력받을 수 있도록 하는 역할을 한다.The bad tourist information input unit 11 serves to receive information on bad travelers among the entrants by comparing preliminary analysis information on the entrant with the bad traveler database of the tourist information system.

제1영상정보입력부(12)는 입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)들이 촬영하여 전송하는 영상정보를 입력받는 역할을 한다.The first image information input unit 12 serves to receive image information transmitted by a plurality of CCTV cameras C1 installed at the immigration checkpoint.

여기서 제1영상정보입력부(12)는 입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)들로부터 영상정보를 전송받기 위한 네트워크 인터페이스 기능을 제공할 수 있다.Here, the first image information input unit 12 may provide a network interface function for receiving image information from a plurality of CCTV cameras C1 installed at the immigration checkpoint.

우범여행자탐지부(13)는 입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)들이 촬영하여 전송하는 영상을 이미지 프로세싱하여 그 영상정보에서 입국자의 객체를 식별하고, 우범여행자정보입력부(11)를 통해 입력받은 우범 여행자 정보와 대조하여 우범 여행자를 탐지하는 역할을 한다.The criminal traveler detection unit 13 image-processes the images captured and transmitted by the plurality of CCTV cameras C1 installed at the immigration checkpoint, identifies the entrant's object from the image information, and enters the criminal tourist information input unit 11. It plays a role in detecting high-risk travelers by comparing them with high-risk traveler information input through

제1특징추출부(14)는 탐지된 우범 여행자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 역할을 한다.The first feature extraction unit 14 serves to generate and store object feature information in real time by extracting facial features, color and texture features, and gait features of the detected criminal traveler.

즉, 제1특징추출부(14)는 입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)가 촬영하여 얻은 영상정보에서 우범 여행자를 인식하고, 인식된 우범 여행자를 학습하여 객체 특징정보를 추출한다.That is, the first feature extraction unit 14 recognizes a bad traveler from image information obtained by taking pictures of a plurality of CCTV cameras C1 installed at the immigration checkpoint, learns the recognized bad traveler, and extracts object feature information. .

제2영상정보입력부(15)는 입국장에 설치되어 있는 복수의 CCTV 카메라(C2)가 촬영하여 전송하는 영상정보를 입력받는 역할을 한다.The second image information input unit 15 serves to receive image information transmitted by a plurality of CCTV cameras C2 installed in the arrival hall.

여기서 제2영상정보입력부(15)는 입국장에 설치되어 있는 복수의 CCTV 카메라(C2)들로부터 영상정보를 전송받기 위한 네트워크 인터페이스 기능을 제공할 수 있다.Here, the second video information input unit 15 may provide a network interface function for receiving video information from a plurality of CCTV cameras C2 installed in the arrival hall.

제2특징추출부(16)는 입국장 내 입국자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 역할을 한다.The second feature extraction unit 16 serves to generate and store object feature information in real time by extracting facial features, color and texture features, and gait features of an entrant in the arrival hall.

즉, 제2특징추출부(16)는 입국장에 설치되어 있는 복수의 CCTV 카메라(C2)가 촬영하여 얻은 영상정보로부터 입국자들의 객체 특징정보를 추출한다.That is, the second feature extraction unit 16 extracts object feature information of entrants from image information obtained by taking pictures of a plurality of CCTV cameras C2 installed in the arrival hall.

제1유사도검출부(17)는 생성된 우범 여행자의 객체 특징정보와 입국장 내 입국자들의 객체 특징정보 간의 동일성 및 유사도를 검출하는 역할을 한다.The first similarity detection unit 17 serves to detect identity and similarity between the generated object characteristic information of the criminal traveler and the object characteristic information of the entrants in the arrival hall.

제1우범여행자특정부(18)는 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상 일치하는 입국자를 인식해 당해 우범 여행자로 특정하는 역할을 한다.The first bad traveler specification unit 18 plays a role of recognizing an entrant whose similarity in at least one of the object characteristic information of the entrant in the arrival hall is equal to or higher than a predetermined threshold value and identifying the entrant as the relevant bad traveler.

즉, 제1우범여행자특정부(18)는 유사도 분석을 통해 사전 탐지된 우범 여행자와 입국장 내 입국자 간의 동일성 또는 유사성을 판단한다.That is, the first criminal traveler specification unit 18 determines the identity or similarity between the previously detected criminal traveler and the entrant in the arrival hall through similarity analysis.

저장부(19)는 시스템의 동작과 관련된 각종 정보 및 데이터를 비롯하여 입국 심사대에 설치된 복수의 CCTV 카메라(C1)와 입국장 내에 설치된 복수의 CCTV 카메라(C2) 및 입국장 내에 배치된 복수의 자율주행 로봇(R)에 대한 각각의 고유번호, 식별정보, 화각정보, 배치정보, 주행경로정보, 임무정보, 위치정보, 상태정보, 동작정보, 특정된 우범 여행자의 객체 특징정보와 영상정보를 저장하고, 제어부(21)의 제어에 따라 제공하는 역할을 한다.The storage unit 19 includes various information and data related to the operation of the system, including a plurality of CCTV cameras (C1) installed at the immigration checkpoint, a plurality of CCTV cameras (C2) installed in the arrival hall, and a plurality of autonomous robots ( Each unique number, identification information, angle of view information, arrangement information, driving route information, mission information, location information, status information, operation information, object characteristic information and image information of a specific high-risk traveler are stored for R), and the control unit It serves to provide according to the control of (21).

그리고 저장부(19)에는 복수의 CCTV 카메라(C1)(C2)들과 자율주행 로봇(R)들 중 특정 CCTV 카메라(C1)(C2) 또는 자율주행 로봇(R)들에 대한 식별정보, 위치정보, 화각정보, 상태정보, 배치정보, 배치된 장소정보 및 영상정보 중 적어도 어느 하나가 매칭된 매칭정보로서 존재할 수 있고, 이는 특정 CCTV 카메라(C1)(C2) 또는 자율주행 로봇(R)이 위치한 공간(또는 장소, 영역)을 특정하거나 해당 공간에 위치한 우범 여행자의 위치를 확인하는 데 유용하게 활용될 수 있다.In addition, in the storage unit 19, identification information and location of a specific CCTV camera C1, C2 or self-driving robot R among the plurality of CCTV cameras C1 and C2 and the self-driving robot R At least one of information, view angle information, status information, arrangement information, placed place information, and image information may exist as matched matching information, which is a specific CCTV camera (C1) (C2) or autonomous robot (R) It can be usefully used to specify a location (or place or area) or to determine the location of a high-income traveler located in that space.

또한, 저장부(19)에는 입국장에 대한 2차원 또는 3차원 지도(map 또는 지도정보)가 저장됨으로써 자율주행 로봇(R) 또는 우범 여행자의 현재 위치를 파악하거나, 자율주행 로봇(R)의 주행 경로를 설정 및 주행에 활용할 수 있다.In addition, by storing a 2D or 3D map (map or map information) of the arrival hall in the storage unit 19, the current location of the self-driving robot R or a high-risk traveler can be grasped, or the self-driving robot R can be driven. Routes can be set and used for driving.

여기서 입국장에 대한 2차원 또는 3차원 지도는 자율주행 로봇(R)에서 수신되는 영상정보를 기반으로 자율주행 로봇(R)의 현재 위치를 파악하기 위해 영상정보에 기반하여 위치를 추정하는 데이터로 구성될 수 있다.Here, the 2D or 3D map of the arrival hall is composed of data for estimating the location based on the image information to determine the current location of the autonomous robot (R) based on the image information received from the autonomous robot (R). It can be.

여기서 저장부(19)는 롬, 램, 하드디스크, 플래시메모리, SSD(Solid State Disk) 등과 같은 각종 저장매체로 구현할 수 있다.Here, the storage unit 19 may be implemented with various storage media such as ROM, RAM, hard disk, flash memory, SSD (Solid State Disk), and the like.

한편, 자율주행 로봇(R)은 복수의 바퀴를 구동시켜 주행하고, 다양한 경로를 통해 임무 수행 예정 시간에 대한 정보를 수신하며, 해당 시간에 임무를 수행하도록 프로그래밍할 수 있고, 또 제어부(21)의 제어에 의해 입국장 내에서 순찰, 안내, 청소, 방역, 운반 등의 다양한 동작 및 기능을 수행할 수 있다.On the other hand, the self-driving robot R can drive by driving a plurality of wheels, receive information about the scheduled time to perform the mission through various routes, and can be programmed to perform the mission at that time, and the control unit 21 Various operations and functions such as patrolling, guiding, cleaning, disinfection, transportation, etc. can be performed in the arrival hall by the control of .

그리고 자율주행 로봇(R)은 시스템의 제어부(21)와 입국장 내 상황 정보 등을 포함한 신호를 송수신할 수 있다. In addition, the self-driving robot R may transmit/receive signals including situation information in the arrival hall with the control unit 21 of the system.

또한, 자율주행 로봇(R)은 입국장 내 CCTV 카메라(C2)로부터 각 구역을 촬영한 영상정보를 수신하고 종합하여 입국장의 상황을 모니터링할 수 있다.In addition, the self-driving robot (R) can monitor the situation at the arrival hall by receiving and integrating the video information captured in each area from the CCTV camera (C2) in the arrival hall.

아울러 자율주행 로봇(R)은 관리자로부터 직접 명령을 수신할 수 있다. 예를 들어, 자체 화면을 터치하는 입력 또는 음성 입력 등을 통해 관리자로부터 명령을 직접 수신하고, 수신된 명령에 따라 순찰, 안내, 청소 등의 동작을 수행할 수 있다.In addition, the self-driving robot R can receive commands directly from the manager. For example, a command may be directly received from a manager through an input of touching the screen or a voice input, and operations such as patrol, guidance, and cleaning may be performed according to the received command.

그리고 자율주행 로봇(R)은 고해상도의 카메라를 비롯하여 위치추적 및 위치조회를 위한 GPS 신호를 송·수신하는 위성항법장치(GPS), 자율주행을 위한 라이다(LiDAR) 센서, 비전 센서 등의 센서들이 탑재되어 있어 카메라로 촬영한 영상을 통해 동작 환경에 대한 인식 및 작업 판단을 할 수 있고, 또 RF(Radio Frequency) 신호로 송·수신할 수 있다.In addition, the self-driving robot (R) includes sensors such as a high-resolution camera, a GPS that transmits and receives GPS signals for location tracking and location inquiry, a LiDAR sensor for autonomous driving, and a vision sensor. It is equipped with a camera, so it can recognize the operating environment and judge work through images taken with a camera, and can transmit and receive RF (Radio Frequency) signals.

또한, 자율주행 로봇(R)은 동작을 제어하기 위한 제어모듈을 포함할 수 있고, 다양한 종류의 센서들로부터 획득한 센서정보를 이용하여 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.In addition, the self-driving robot R may include a control module for controlling its operation, obtain state information using sensor information acquired from various types of sensors, or detect (recognize) surrounding environments and objects. data, generate map data, determine travel routes and travel plans, determine responses to interactions, or determine motions.

여기서 자율주행 로봇(R)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서정보를 이용할 수 있다.Here, the self-driving robot R may use sensor information obtained from at least one sensor among lidar, radar, and camera to determine a moving path and a driving plan.

특히, 자율주행 로봇(R)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.In particular, the self-driving robot R can receive sensor information from external devices to recognize an environment or object in an area where the field of view is obscured or an area over a certain distance, or receive directly recognized information from external devices. .

그리고 자율주행 로봇(R)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다.In addition, the self-driving robot R may recognize surrounding environments and objects using a learning model composed of at least one artificial neural network, and may determine an operation using the recognized surrounding environment information or object information.

또한, 자율주행 로봇(R)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 주행할 수 있다.In addition, the self-driving robot R determines a movement route and a driving plan using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to determine the movement route. and driving according to the driving plan.

여기서 맵 데이터에는 자율주행 로봇(R)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예를 들어, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 의자, 사람 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있으며, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.Here, the map data may include object identification information about various objects disposed in the space where the autonomous robot R moves. For example, the map data may include object identification information for fixed objects such as walls and doors and movable objects such as potted plants, chairs, and people, and the object identification information may include names, types, distances, locations, and the like. can be included

또한, 자율주행 로봇(R)은 관리자의 제어/상호작용에 기초하여 구동부를 제어함으로써 동작을 수행하거나 주행할 수 있다.In addition, the self-driving robot R may perform an operation or drive by controlling a driving unit based on a manager's control/interaction.

예를 들어, 자율주행 로봇(R)은 임무 정보를 수신하고, 특정 장소로 이동하기 위해 주행하며, 제어부(21)로부터 우범 여행자 위치정보를 수신하고, 그 위치정보에 기반하여 우범 여행자와 특정 장소 사이의 거리를 산출할 수 있다.For example, the self-driving robot R receives mission information, drives to move to a specific place, receives the location information of the bad traveler from the control unit 21, and connects the bad traveler to the specific place based on the location information. The distance between them can be calculated.

전송부(20)는 특정된 우범 여행자의 객체 특징정보와 영상정보를 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 전송하는 역할을 한다.The transmission unit 20 serves to transmit the object characteristic information and image information of the specified criminal traveler to the customs control room, customs rover, and inspection marshal.

제어부(21)는 자율주행 로봇(R)들의 기능을 원격 제어하고, 시스템의 전반적인 작동을 제어한다.The control unit 21 remotely controls the functions of the self-driving robots R and controls the overall operation of the system.

그리고 제어부(21)는 입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1) 및 입국장 내에 설치되어 있는 복수의 CCTV 카메라(C2)에서 전송되는 영상을 이미지 프로세싱하여 선택적으로 디스플레이부(28)에 표시하도록 제어한다.In addition, the control unit 21 image-processes images transmitted from the plurality of CCTV cameras C1 installed at the immigration checkpoint and the plurality of CCTV cameras C2 installed in the arrival hall, and selectively displays them on the display unit 28. Control.

또한, 제어부(21)는 자율주행 로봇(R)들로부터 영상정보를 수신하고, 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 확인한다.In addition, the control unit 21 receives image information from the self-driving robots R, and uses the received image information to confirm the location of the re-specified criminal traveler.

이때, 제어부(21)는 재특정된 우범 여행자와 입국장 내 면세점, 화장실, 상점, 방역시설, 조형물, 통로 등과 같은 특정 장소 사이의 거리에 해당하는 상대 위치정보에 근거하여, 그 상대 위치정보가 기준 범위를 벗어난 경우, GPS 신호 등을 이용하여 당해 자율주행 로봇(R)과 가장 인접하는 다른 자율주행 로봇(R)을 선택한 후, 이를 재특정된 우범 여행자의 위치와 가장 가까운 입국장 내 면세점, 화장실, 상점, 방역시설, 조형물, 통로 등과 같은 특정 장소(또는 목적지)로 이동하도록 제어하고, 그 다른 자율주행 로봇(R)으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인함으로써 가변적인 현장 상황에 맞춰 효율적으로 신속하게 대응하는 유연성 및 운용 효율성을 극대화할 수 있다.At this time, the controller 21 determines the relative location information based on the distance between the re-specified criminal traveler and a specific place such as a duty-free shop, toilet, store, quarantine facility, sculpture, aisle, etc. in the arrival hall. If it is out of range, after selecting another self-driving robot (R) closest to the self-driving robot (R) using a GPS signal, etc. By controlling the movement to a specific place (or destination) such as a store, quarantine facility, sculpture, passage, etc., and reconfirming the location of the re-specified criminal traveler using the image information received from the other self-driving robot (R), variable Flexibility and operational efficiency can be maximized to respond efficiently and promptly to the on-site situation.

예를 들어, 제어부(21)는 재특정된 우범 여행자가 미리 정해진 조형물 A로부터 5M를 초과하여 떨어지는 경우 당해 자율주행 로봇(R)의 배정(할당)된 서비스 영역을 벗어나는 것으로 판단하고, 재특정된 우범 여행자의 현위치 또는 사전에 조형물 A를 포함하는 서비스 영역을 배정(할당)받았거나 현재 조형물 A와 가장 가까운 곳에 위치하는 다른 자율주행 로봇(R)을 재특정된 우범 여행자 쪽 또는 조형물 A 쪽으로 이동하도록 제어할 수 있다.For example, the control unit 21 determines that the respecified criminal traveler is out of the service area assigned (assigned) to the self-driving robot R when he or she falls more than 5M away from the predetermined sculpture A, and Move other self-driving robots (R) that have been assigned (assigned) to the current location of the prime traveler or the service area that includes the sculpture A in advance, or are located closest to the current sculpture A, toward the re-specified prime traveler or sculpture A can be controlled to

여기서 상대 위치정보는 입국장 내 면세점, 화장실, 상점, 방역시설, 조형물, 통로 등과 같은 특정 장소와 재특정된 우범 여행자가 동일 층(floor)에 존재한다고 가정할 때, 특정 장소로부터 재특정된 우범 여행자가 얼마만큼 떨어져 있는지에 대한 정보를 의미할 수 있다.Here, the relative location information refers to a specific place such as a duty-free shop, toilet, store, quarantine facility, sculpture, passage, etc. in the arrival hall and a re-specified bad traveler, assuming that they exist on the same floor. It may mean information about how far away.

그리고 제어부(21)는 관리자로부터 복수의 CCTV 카메라(C1)(C2)들 중 주 CCTV 카메라를 설정받을 수 있고, 도중에 관리자의 선택에 따라 주 CCTV 카메라를 변경할 수도 있다.Also, the control unit 21 may set a main CCTV camera among a plurality of CCTV cameras C1 and C2 from a manager, and may change the main CCTV camera in the middle according to the manager's selection.

또한, 제어부(21)는 이동이 중지된 객체의 근거리 영상(줌영상/고해상도 영상)을 촬영하도록 PTZF(Pan, Tilt, Zoom, Focal length) 구동이 가능한 복수의 CCTV 카메라(C1)(C2)를 각각 제어할 수 있다.In addition, the control unit 21 uses a plurality of CCTV cameras (C1) (C2) capable of driving PTZF (Pan, Tilt, Zoom, Focal length) to capture a short-range image (zoom image/high-resolution image) of the moving object. each can be controlled.

그리고 제어부(21)는 자율주행 로봇(R)으로부터 수신되는 영상정보의 식별 표지에 근거하여, 자율주행 로봇(R)의 식별정보를 추출하여 특정하고, 그 현재 위치를 파악할 수 있다. 이외에도 제어부(21)는 영상이 촬영된 시간 및 영상을 촬영한 자율주행 로봇(R)에 매칭된 위치정보 중 적어도 하나를 이용하여, 해당 영상을 촬영한 자율주행 로봇(R)의 현재 위치를 특정할 수 있다.Further, the control unit 21 can extract and specify identification information of the autonomous robot R based on the identification mark of the image information received from the autonomous robot R, and determine its current location. In addition, the control unit 21 specifies the current location of the self-driving robot (R) that captured the image by using at least one of the time when the image was captured and the location information matched to the autonomous robot (R) that captured the image. can do.

아울러 제어부(21)는 자율주행 로봇(R)에서 획득된 영상에 대해 3층, A구역(1)과 같이 좌표정보를 특정할 수 있고, 특정된 좌표정보는 자율주행 로봇(R)의 현재 위치정보가 될 수 있다.In addition, the control unit 21 may specify coordinate information, such as 3rd floor, area A (1), for the image obtained from the self-driving robot R, and the specified coordinate information is the current location of the self-driving robot R. information can be

이때, 제어부(21)는 자율주행 로봇(R)으로부터 획득된 영상정보와 vision(또는 visual) 기반의 SLAM(Simultaneous Localization and Mapping) 기술에 의하여 생성된 지도를 비교함으로써 자율주행 로봇(R)의 위치(또는 현재 위치)를 추정할 수 있다. 이 경우 제어부(21)는 자율주행 로봇(R)에서 획득된 영상과 이미 생성된 지도를 구성하는 이미지들 간의 이미지 비교를 이용하여 자율주행 로봇(R)에서 획득된 영상과 가장 비슷한 이미지를 특정하고, 특정된 이미지에 매칭된 위치정보를 획득하는 방식으로 자율주행 로봇(R)의 위치정보를 특정할 수 있다.At this time, the control unit 21 compares the image information obtained from the autonomous robot R with the map generated by the vision (or visual)-based SLAM (Simultaneous Localization and Mapping) technology to determine the location of the autonomous robot R (or current position) can be estimated. In this case, the control unit 21 specifies an image most similar to the image obtained from the self-driving robot R by using image comparison between the image obtained from the self-driving robot R and the images constituting the already created map, and , It is possible to specify the location information of the self-driving robot (R) in a way of obtaining location information matched to the specified image.

즉, 제어부(21)는 자율주행 로봇(R)에서 영상이 획득되면, 획득된 영상을 이용하여 자율주행 로봇의 위치(또는 현재 위치)를 특정할 수 있고, 저장부(19)에 이미 저장된 지도정보로부터, 자율주행 로봇(R)에서 획득된 영상에 대응되는 위치정보(예를 들어, 좌표정보)를 추출할 수 있다.That is, when an image is acquired from the self-driving robot R, the control unit 21 can specify the location (or current location) of the self-driving robot using the acquired image, and a map already stored in the storage unit 19. From the information, it is possible to extract location information (eg, coordinate information) corresponding to the image obtained from the self-driving robot R.

그리고 제어부(21)는 영상을 촬영한 CCTV 카메라(C2) 또는 자율주행 로봇(R)의 식별정보와 매칭된 위치정보를 저장부(19)로부터 추출하여 우범 여행자의 위치로 특정할 수 있다.In addition, the control unit 21 may extract the location information matched with the identification information of the CCTV camera C2 or the self-driving robot R that has taken the image from the storage unit 19 and specify it as the location of the perpetrator traveler.

한편, 제어부(21)는 마우스, 키보드, 터치패드 등과 같은 입력장치와 연결되는 관리자입력부(30)를 통해 추적 시스템의 동작과 관련된 명령을 입력받을 수 있고, 입력 또는 출력되는 신호, 데이터, 정보 등을 처리 및 제공할 수 있다.On the other hand, the control unit 21 may receive commands related to the operation of the tracking system through the manager input unit 30 connected to an input device such as a mouse, keyboard, or touch pad, and input or output signals, data, information, etc. can be processed and provided.

데이터통신부(22)는 자율주행 로봇(R)들과 각각 무선으로 데이터 통신을 하는 역할을 한다.The data communication unit 22 serves to perform data communication with each of the self-driving robots R wirelessly.

예를 들어, 데이터통신부(22)는 자율주행 로봇(R)으로부터 영상정보, 센싱정보 등의 데이터를 실시간으로 수신하고 자율주행 로봇(R)으로 제어명령을 전송할 수 있다.For example, the data communication unit 22 may receive data such as image information and sensing information from the self-driving robot R in real time and transmit a control command to the self-driving robot R.

여기서 데이터통신부(22)는 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 어느 하나를 지원하는 통신 방식으로 자율주행 로봇(R)과 통신할 수 있다.Here, the data communication unit 22 is WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), 5G (5th Generation Mobile Telecommunication), infrared communication (Infrared Data Association; IrDA), UWB (Ultra-Wideband), and Wireless USB (Wireless Universal Serial Bus) technology may be used to communicate with the self-driving robot (R).

제3객체특징정보추출부(23)는 데이터통신부(22)를 통해 입력받고 자율주행 로봇(R)들의 카메라로 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 역할을 한다.The third object feature information extraction unit 23 extracts the facial features, color and texture characteristics, and gait characteristics of the entrants from the image information received through the data communication unit 22 and photographed by the cameras of the self-driving robots (R). It plays a role of generating and storing object feature information in real time.

제2유사도검출부(24)는 제1우범여행자특정부(18)에서 특정된 우범 여행자의 객체 특징정보와 제3객체특징정보추출부(23)에서 생성된 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 역할을 한다.The second similarity detection unit 24 determines the identity between the object feature information of the prime traveler specified by the first bad traveler specification unit 18 and the object feature information of the entrants in the arrival hall generated by the third object feature information extraction unit 23 and It plays a role in detecting similarity.

제2우범여행자특정부(25)는 제2유사도검출부(24)에서 검출된 유사도 값이 미리 정해진 임계치 이상인 입국자를 인식해 우범 여행자로 재특정하는 역할을 한다.The second criminal traveler specification unit 25 recognizes an entrant whose similarity value detected by the second similarity detection unit 24 is equal to or greater than a predetermined threshold value and re-identifies them as prime travelers.

즉, 제2우범여행자특정부(25)는 유사도 분석을 통해 사전 탐지된 우범 여행자와 입국장 내 입국자 간의 동일성 또는 유사성을 판단하여 당해 우범 여행자로 재특정한다.That is, the second bad traveler specification unit 25 determines the identity or similarity between the bad traveler detected in advance and the entrant in the arrival hall through similarity analysis, and re-specifies the bad traveler as the concerned bad traveler.

위치인식부(26)는 자율주행 로봇(R)들로부터 수신되는 영상정보와 GPS를 기반으로 그 각각의 위치를 실시간으로 인식하는 역할을 한다.The position recognition unit 26 serves to recognize the respective positions of the self-driving robots R in real time based on image information and GPS.

GIS표시부(27)는 자율주행 로봇(R)들의 GPS 좌표값 등의 실시간 위치정보를 입력받아 입국 심사대와 입국장 안내도와 함께 디스플레이부(28)에 표시되도록 하는 역할을 한다.The GIS display unit 27 serves to receive real-time location information such as GPS coordinate values of the self-driving robots R and display them on the display unit 28 together with a guide map of the immigration checkpoint and the arrival hall.

즉, GIS표시부(27)는 자율주행 로봇(R)으로부터 전송되는 신호를 수신하고 위치정보를 확인하여 GPS 전자지도로 디스플레이부(28)에 표시한다.That is, the GIS display unit 27 receives a signal transmitted from the self-driving robot R, checks the location information, and displays it on the display unit 28 as a GPS electronic map.

디스플레이부(28)는 제어부(21)의 제어에 따라 시스템의 동작과 관련된 각종 정보 및 데이터를 화면에 표시하는 기능 및 역할을 한다.The display unit 28 functions and serves to display various information and data related to the operation of the system on the screen under the control of the control unit 21 .

즉, 디스플레이부(28)는 복수의 CCTV 카메라(C1)(C2) 및 복수의 자율주행 로봇(R)에서 촬영하여 전송되는 영상정보를 모니터 화면에 표시할 수 있다.That is, the display unit 28 may display image information captured and transmitted by the plurality of CCTV cameras C1 and C2 and the plurality of self-driving robots R on the monitor screen.

예를 들어, 시스템에서 구동되는 응용 프로그램의 실행화면 정보, 또는 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.For example, execution screen information of an application program running in the system or UI (User Interface) and GUI (Graphic User Interface) information according to execution screen information may be displayed.

여기서 디스플레이부(28)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.Here, the display unit 28 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display ( It may include at least one of a flexible display), a 3D display, and an e-ink display.

이벤트알람부(29)는 자율주행 로봇(R)들의 카메라로 촬영하여 얻은 우범 여행자가 포함된 영상정보를 디스플레이부(28)에 실시간으로 출력되도록 하는 역할을 한다.The event alarm unit 29 serves to output on the display unit 28 real-time image information obtained by photographing with the cameras of the self-driving robots R, including the perpetrator traveler.

예를 들어, 이벤트알람부(29)는 디스플레이부(28)에 표시되는 우범 여행자 객체에 대하여 경보를 발생하고, 우범 여행자의 현재 위치좌표, 우범 여행자를 촬영한 자율주행 로봇(R)의 고유번호를 표시한다.For example, the event alarm unit 29 generates an alarm with respect to an object of a criminal tourist displayed on the display unit 28, and the current location coordinates of the criminal tourist and a unique number of the self-driving robot R that has photographed the criminal tourist. display

관리자입력부(30)는 관리자로부터 관리 및 제어명령을 입력받는 역할을 한다.The manager input unit 30 serves to receive management and control commands from the manager.

여기서 관리자입력부(30)의 종류에는 특별히 제한을 두지 않으며, 기계식 (mechanical) 입력수단 및 터치식 입력수단 중 적어도 어느 하나를 포함할 수 있다.Here, the type of manager input unit 30 is not particularly limited, and may include at least one of a mechanical input unit and a touch input unit.

예를 들어, 관리자입력부(30)는 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있으며, 터치스크린으로 이루어질 경우 디스플레이부(28)는 정보를 출력하는 역할과 정보를 입력받는 역할을 모두 수행할 수 있다.For example, the manager input unit 30 consists of a virtual key, soft key, or visual key displayed on a touch screen through software processing, or is disposed on a part other than the touch screen. If it is made of a touch screen, the display unit 28 can perform both a role of outputting information and a role of receiving information.

한편, 도 1 및 도 2를 참조하여 본 발명의 실시 예에 따른 입국장 내 우범 여행자 추적 시스템을 이용한 추적 방법을 설명하면 다음과 같다.Meanwhile, referring to FIGS. 1 and 2, a tracking method using the criminal traveler tracking system in the arrival hall according to an embodiment of the present invention will be described.

먼저, 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자를 조회하고 지정한다(S101).First, prior analysis information on the entrant is compared with the bad traveler database of the traveler information system to search and designate the bad traveler among the entrants (S101).

이어서, 입국 심사대에 중첩되지 않게 설치되어 있는 복수의 CCTV 카메라(C1)가 촬영하여 얻은 영상정보를 이용해 입국 심사대를 통과하는 입국자의 안면 인식을 실시간으로 수행하고, 이를 지정된 우범 여행자 정보와 대조하여 우범 여행자를 식별하고 탐지한다(S103).Subsequently, the facial recognition of the entrant passing through the immigration checkpoint is performed in real time using the image information obtained from the shooting of the plurality of CCTV cameras (C1) installed in the immigration checkpoint so as not to overlap, and the facial recognition is performed in real time, and the result is compared with the designated risky traveler information. The traveler is identified and detected (S103).

이때, 입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)로부터 영상정보가 수신되면 영상정보를 파싱(parsing) 내지 분석하여 영상정보 내에 관심의 대상이 되는 객체(object)를 검지할 수 있다.At this time, when image information is received from a plurality of CCTV cameras C1 installed in the immigration checkpoint, an object of interest in the image information may be detected by parsing or analyzing the image information.

여기서 관심의 대상이 되는 객체(object)는 관심의 목표 내지 그 대상을 의미하며, 사람일 수 있다. Here, the object of interest means a target or object of interest, and may be a person.

또한, 영상정보에서 객체를 추출하는 방법은 이진화, 라벨링 프로세싱, 에지 검출 등의 방법을 포함하는 영상 차분 알고리즘, 옵티컬 프로우(Optical flow) 알고리즘, 모델 정합 알고리즘 등 다양한 방법이 적용될 수 있으며, 객체의 검지 결과는 최소포함사각형(MER : Minimum Enclosing Rectangle)을 이용하여 표현할 수 있다.In addition, various methods such as an image difference algorithm including methods such as binarization, labeling processing, and edge detection, an optical flow algorithm, and a model matching algorithm may be applied to a method of extracting an object from image information. The detection result can be expressed using Minimum Enclosing Rectangle (MER).

즉, 객체의 특성에 따라 MER의 너비, 높이, 중심점 좌표, 밀도정보, 너비/높이 간 비율 정보 등을 정의하고 정의된 MER과 영상정보 내 포함된 객체의 너비, 높이 등의 특성을 상호 대비하여 특정 관심 대상인 객체를 검지/구분하는 방법이 이용된다.In other words, the width, height, center point coordinates, density information, width/height ratio information, etc. of the MER are defined according to the characteristics of the object, and the defined MER and the characteristics such as the width and height of the object included in the image information are mutually contrasted. A method of detecting/identifying an object of particular interest is used.

계속해서, 탐지된 우범 여행자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장한다(S105)Continuously, object feature information is generated and stored in real time by extracting facial features, color and texture features, and gait features of the detected criminal traveler (S105).

이때, 걸음걸이 인식(Gait recognition)은 카메라를 통해 획득한 사람의 걸음걸이 정보를 저장하고 분석해 특징을 추출한다.In this case, gait recognition extracts features by storing and analyzing the gait information of a person acquired through a camera.

여기서 걸음걸이 특징은 획득된 영상에서 배경을 삭제하고 실루엣의 윤곽선 정보를 기반으로 특징을 추출한 후 DB 내 특징과 비교하는 방법으로 인식할 수 있다.Here, the gait feature can be recognized by deleting the background from the acquired image, extracting the feature based on the outline information of the silhouette, and then comparing it with the feature in the DB.

또는 키, 머리와 골반 사이의 길이, 골반과 발 사이의 최대 길이, 양쪽 발 사이의 거리 등을 이용한 모델 기반 방법으로 인식할 수도 있다.Alternatively, it may be recognized by a model-based method using height, the length between the head and the pelvis, the maximum length between the pelvis and the feet, and the distance between both feet.

즉, 걷고 있는 사람을 비전 카메라로 촬영한 동영상으로부터 이진 실루엣 동영상 시퀀스를 획득한 뒤 실루엣 동영상 시퀀스로부터 정규화시킨 실루엣 영상을 획득하고, 정규화시킨 실루엣 영상으로부터 식별 가능한 걸음걸이 특징정보를 추출한 뒤 추출한 특징정보들을 컴퓨터에 저장된 특징정보들과 비교하여 대상을 식별할 수 있다.That is, after obtaining a binary silhouette video sequence from a video of a person walking with a vision camera, obtaining a normalized silhouette image from the silhouette video sequence, extracting identifiable gait feature information from the normalized silhouette image, and then extracting feature information. Objects can be identified by comparing them with the characteristic information stored in the computer.

계속해서, 입국장 내에 중첩되지 않게 설치되어 있는 복수의 CCTV 카메라(C2)가 촬영하여 얻은 영상정보를 이용해 입국장 내에 위치하는 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장한다(S107).Continuously, by using the image information obtained by filming by a plurality of CCTV cameras (C2) installed in the arrival hall without overlapping, the facial features, color and texture characteristics, and gait characteristics of the entrants located in the arrival hall are extracted to provide object feature information in real time. It is created and stored as (S107).

이어서, 생성된 우범 여행자의 객체 특징정보와 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출한다(S109).Next, the identity and similarity between the generated object characteristic information of the criminal traveler and the object characteristic information of the entrants in the arrival hall is detected (S109).

여기서 얼굴 특징의 동일성 및 유사도는 추출된 우범 여행자의 얼굴 특징 영상과 입국장 내 입국자들의 얼굴 특징 영상에서 추출한 특징점 기술자를 비교하여 서로 비슷한 특징점을 찾는 특징점 매칭으로 검출할 수 있다.Here, the identity and similarity of facial features can be detected by feature point matching, which finds similar feature points by comparing extracted facial feature images of high-risk travelers with feature point descriptors extracted from facial feature images of immigrants in the arrival hall.

이때, 동일성 및 유사도는 객체 특징정보의 상호 대조 결과 RGB 정보가 70% 이상 일치하는 등 미리 정해진 임계치 이상일 일치할 경우 동일 및 유사한 것으로 판단할 수 있다(S111).At this time, the identity and similarity may be determined to be the same or similar when, as a result of cross-checking of the object feature information, the RGB information matches more than a predetermined threshold such as 70% or more matching (S111).

그리고 색상 특징의 동일성 및 유사도는 추출된 우범 여행자의 색상 특징 영상과 입국장 내 입국자들의 색상 특징 영상에서 컬러 히스토그램(color histogram)을 생성하고 주요 이미지 특징을 분할 및 추출하여 서로 비교한 후 미리 설정한 임계치 이상의 경우에만 검출할 수 있다.In addition, the identity and similarity of color features are determined by generating a color histogram from the extracted color feature images of high-income travelers and color feature images of immigrants in the arrival hall, segmenting and extracting the main image features, comparing them to each other, and reaching a preset threshold. It can be detected only in the case of abnormalities.

또한, 질감 특징의 동일성 및 유사도는 추출된 우범 여행자의 질감 특징 영상과 입국장 내 입국자들의 질감 특징 영상을 이미지 세그멘테이션(image segmentation)한 후, 객체의 MBR(Minimum Boundary Rectangle)을 구성하고, 각 이미지 내에 포함되어 있는 객체의 MBR에 대한 웨이블릿 변환(wavelet transform)을 적용하여 질감 특징을 생성하여 검출할 수 있다.In addition, the identity and similarity of the texture features are determined by image segmentation of the extracted texture feature images of high-income travelers and texture feature images of immigrants in the arrival hall, constructing MBR (Minimum Boundary Rectangle) of the object, and within each image. Texture features can be generated and detected by applying wavelet transform to the included object's MBR.

그리고 걸음걸이 특징의 동일성 및 유사도는 입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)가 촬영하여 얻은 영상정보로부터 이진 실루엣 동영상 시퀀스를 획득한 뒤, 그 실루엣 동영상 시퀀스로부터 정규화시킨 실루엣 영상을 획득하고, 그 정규화시킨 실루엣 영상으로부터 식별 가능한 걸음걸이 특징정보를 추출한 뒤, 추출한 걸음걸이 특징정보들을 입국장 내에 설치되어 있는 복수의 CCTV 카메라(C2)가 촬영하여 얻은 영상정보의 걸음걸이 특징정보와 비교하여 검출할 수 있다.In addition, the identity and similarity of the gait features are obtained by obtaining a binary silhouette video sequence from image information obtained by shooting by a plurality of CCTV cameras (C1) installed at the immigration checkpoint, and then obtaining a normalized silhouette image from the silhouette video sequence , After extracting identifiable gait feature information from the normalized silhouette image, the extracted gait feature information is compared with the gait feature information of the image information obtained by shooting a plurality of CCTV cameras (C2) installed in the arrival hall and detected. can do.

이어서, 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상 일치하는 입국자를 인식해 입국장 내에 위치하는 당해 우범 여행자로 특정한다(S113).Subsequently, an entrant whose similarity in at least one of the object characteristic information of the entrant in the arrival hall is equal to or higher than a predetermined threshold is recognized and identified as the pertinent bad traveler located in the arrival hall (S113).

즉, 우범 여행자와 입국장 내 입국자의 각 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징 간의 상호 비교 및 분석을 통해 사전에 탐지된 우범 여행자와 비교 대상인 입국장 내 입국자가 어느 정도의 유사성이 있는지를 분석하여 유사의 정도를 판단한다.In other words, through mutual comparison and analysis between facial features, color and texture characteristics, and gait characteristics of the high-risk traveler and the entrant in the arrival hall, the degree of similarity between the high-risk traveler detected in advance and the entrant in the arrival hall to be compared is analyzed. judge the degree of similarity.

예를 들어, 사전 탐지된 우범 여행자가 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하였을 경우 입국장 내 입국자 중 그 걸음걸이 특징이 사전 탐지된 우범 여행자와 미리 정해진 임계치인 70% 이상 유사한 자를 우범 여행자로 판단할 수 있다.For example, if a pre-detected criminal traveler disguises himself or changes clothes, such as wearing heavy makeup, glasses, or a mask, in the arrival hall, the gait characteristics of those entering the arrival hall differ from those of the pre-detected criminal travelers, a predetermined threshold of 70%. A person similar to the above can be judged as a bad traveler.

이후, 특정된 우범 여행자의 객체 특징정보와 영상정보를 추가로 저장하고, 해당 영상정보를 캡처하여 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 무선통신망을 통해 실시간으로 제공한다(S115).Thereafter, object feature information and image information of the specified criminal traveler are additionally stored, and the corresponding image information is captured and provided in real time to the customs situation room, customs rover, and marshal through a wireless communication network (S115). ).

이어서, 입국장 내 자율주행 로봇(R)들이 카메라로 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장한다(S117).Next, the self-driving robots (R) in the arrival hall extract the facial features, color and texture features, and gait features of the entrants from the image information obtained by filming with cameras to create and store object feature information in real time (S117).

그리고 생성된 입국장 내 입국자들의 객체 특징정보와 이미 특정된 우범 여행자의 객체 특징정보 간 동일성 및 유사도를 검출한다(S119).In addition, identity and similarity between the object characteristic information of the entrants in the created arrival hall and the object characteristic information of the already specified high-risk traveler are detected (S119).

여기서 얼굴 특징의 동일성 및 유사도는 추출된 우범 여행자의 얼굴 특징 영상과 입국장 내 입국자들의 얼굴 특징 영상에서 추출한 특징점 기술자를 비교하여 서로 비슷한 특징점을 찾는 특징점 매칭으로 검출할 수 있다.Here, the identity and similarity of facial features can be detected by feature point matching, which finds similar feature points by comparing extracted facial feature images of high-risk travelers with feature point descriptors extracted from facial feature images of immigrants in the arrival hall.

이때, 동일성 및 유사도는 객체 특징정보의 상호 대조 결과 RGB 정보가 70% 이상 일치하는 등 미리 정해진 임계치 이상인 일치할 경우 동일 및 유사한 것으로 판단할 수 있다(S121).At this time, the identity and similarity may be determined to be the same or similar when the object feature information is matched at a predetermined threshold or higher, such as a match of 70% or more of the RGB information as a result of mutual comparison (S121).

그리고 색상 특징의 동일성 및 유사도는 추출된 우범 여행자의 색상 특징 영상과 입국장 내 입국자들의 색상 특징 영상에서 컬러 히스토그램(color histogram)을 생성하고 주요 이미지 특징을 분할 및 추출하여 서로 비교한 후 미리 설정한 임계치 이상의 경우에만 검출할 수 있다.In addition, the identity and similarity of color features are determined by generating a color histogram from the extracted color feature images of high-income travelers and color feature images of immigrants in the arrival hall, segmenting and extracting the main image features, comparing them to each other, and reaching a preset threshold. It can be detected only in the case of abnormalities.

또한, 질감 특징의 동일성 및 유사도는 추출된 우범 여행자의 질감 특징 영상과 입국장 내 입국자들의 질감 특징 영상을 이미지 세그멘테이션(image segmentation)한 후, 객체의 MBR(Minimum Boundary Rectangle)을 구성하고, 각 이미지 내에 포함되어 있는 객체의 MBR에 대한 웨이블릿 변환(wavelet transform)을 적용하여 질감 특징을 생성하여 검출할 수 있다.In addition, the identity and similarity of the texture features are determined by image segmentation of the extracted texture feature images of high-income travelers and texture feature images of immigrants in the arrival hall, constructing MBR (Minimum Boundary Rectangle) of the object, and within each image. Texture features can be generated and detected by applying wavelet transform to the included object's MBR.

그리고 걸음걸이 특징의 동일성 및 유사도는 입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)가 촬영하여 얻은 영상정보로부터 이진 실루엣 동영상 시퀀스를 획득한 뒤, 그 실루엣 동영상 시퀀스로부터 정규화시킨 실루엣 영상을 획득하고, 그 정규화시킨 실루엣 영상으로부터 식별 가능한 걸음걸이 특징정보를 추출한 뒤, 추출한 걸음걸이 특징정보들을 입국장 내에 배치된 복수의 자율주행 로봇(R)이 촬영하여 얻은 영상정보의 걸음걸이 특징정보와 비교하여 검출할 수 있다.In addition, the identity and similarity of the gait features are obtained by obtaining a binary silhouette video sequence from image information obtained by shooting by a plurality of CCTV cameras (C1) installed at the immigration checkpoint, and then obtaining a normalized silhouette image from the silhouette video sequence , After extracting identifiable gait feature information from the normalized silhouette image, the extracted gait feature information is detected by comparing the extracted gait feature information with the gait feature information of the image information obtained by shooting a plurality of autonomous robots (R) disposed in the arrival hall. can do.

이후, 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 일치하는 것으로 검출되는 입국자를 인식해 우범 여행자로 재특정한다(S123).Thereafter, an entrant detected as matching at least one of the object characteristic information of the entrant in the arrival hall to a predetermined threshold or higher is recognized and re-specified as a bad traveler (S123).

즉, 이미 특정된 우범 여행자와 입국장 내 입국자의 각 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징 간의 상호 비교 및 분석을 통해 사전에 탐지된 우범 여행자와 비교 대상인 입국장 내 입국자가 어느 정도의 유사성이 있는지를 분석하여 유사의 정도를 판단한다.In other words, through mutual comparison and analysis between facial features, color and texture characteristics, and gait characteristics of already specified high-risk travelers and entrants in the arrival hall, the degree of similarity between the high-risk travelers detected in advance and the entrants in the arrival hall to be compared is determined. is analyzed to determine the degree of similarity.

예를 들어, 사전 탐지된 우범 여행자가 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하였을 경우 입국장 내 입국자 중 그 걸음걸이 특징이 사전 탐지된 우범 여행자와 미리 정해진 임계치인 70% 이상 유사한 자를 우범 여행자로 판단할 수 있다.For example, if a pre-detected criminal traveler disguises himself or changes clothes, such as wearing heavy makeup, glasses, or a mask, in the arrival hall, the gait characteristics of those entering the arrival hall differ from those of the pre-detected criminal travelers, a predetermined threshold of 70%. A person similar to the above can be judged as a bad traveler.

이 과정에서 자율주행 로봇(R)들로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 확인하며, 아울러 재특정된 우범 여행자와 입국장 내 특정 장소 사이의 거리에 해당하는 상대 위치정보, 즉 입국장 내 면세점, 화장실, 상점, 방역시설, 조형물, 통로 등과 같은 특정 장소와 우범 여행자 사이의 거리에 해당하는 상대 위치정보에 근거하여, 그 상대 위치정보가 기준 범위를 벗어난 경우, 당해 자율주행 로봇(R)과 가장 인접하는 다른 자율주행 로봇(R)의 이동 방향을 재특정된 우범 여행자의 현위치 또는 그와 가장 가까운 입국장 내 면세점, 화장실, 상점, 방역시설, 조형물, 통로 등과 같은 특정 장소(또는 목적지)로 변경하도록 제어하고, 그 다른 자율주행 로봇(R)으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인할 수 있다.In this process, the location of the re-specified criminal traveler is confirmed using the image information received from the autonomous robots (R), and relative location information corresponding to the distance between the re-specified criminal traveler and a specific place in the arrival hall; That is, based on the relative location information corresponding to the distance between a specific place such as a duty-free shop, toilet, store, quarantine facility, sculpture, aisle, etc. in the arrival hall and a high-risk traveler, if the relative location information is out of the standard range, the self-driving robot (R) and the moving direction of another autonomous driving robot (R) closest to the current location of the re-specified prime traveler or a specific place such as a duty-free shop, restroom, store, quarantine facility, sculpture, passage, etc. in the arrival hall closest to it ( or destination), and the location of the re-specified criminal traveler can be reconfirmed using the image information received from the other self-driving robot R.

이를테면, 입국장 내에서 재특정된 우범 여행자의 위치를 확인하고 추적 중인 자율주행 로봇(R)이 당해 배정(할당)된 구역 또는 미리 정해진 경로를 벗어나면서까지 쫓아가거나 근접 미행할 경우 우범 여행자가 눈치를 채고 도주하거나 회피할 수 있으므로, 가장 인접하는 다른 자율주행 로봇(R)에 인계하도록 명령 및 제어함과 동시에 그 다른 자율주행 로봇(R)은 재특정된 우범 여행자의 위치를 확인하고 이동하여 추적하도록 명령 및 제어할 수 있다.For example, if the location of a re-specified criminal traveler is confirmed in the arrivals hall and the self-driving robot (R) being tracked goes out of the assigned (allocated) area or predetermined route and chases or follows closely, the likely tourist is not noticed. Since it can be grabbed and escaped or evaded, command and control to hand over to the nearest other self-driving robot (R), and at the same time, the other self-driving robot (R) is to confirm the location of the re-specified trespasser traveler and to move and track it. command and control.

즉, 재특정된 우범 여행자가 미리 정해진 조형물 A로부터 5M를 초과하여 떨어지는 경우 당해 자율주행 로봇(R)의 배정(할당)된 구역 또는 설정 경로, 서비스 영역을 벗어나는 것으로 판단하고, 재특정된 우범 여행자의 현위치 또는 사전에 조형물 A를 포함하는 서비스 영역을 배정(할당)받았거나 현재 조형물 A와 가장 가까운 곳에 위치하는 다른 자율주행 로봇(R)을 재특정된 우범 여행자 쪽으로 또는 조형물 A 쪽으로 이동하도록 제어함으로써 재특정된 우범 여행자나 주위의 별다른 의심을 받지 않고 지속적으로 재특정된 우범 여행자의 위치를 확인하고 유연하게 추적할 수 있는 등 가변적인 현장 상황에 맞춰 효율적으로 대응할 수 있다.That is, if the re-specified offender traveler falls more than 5M away from the predetermined sculpture A, it is determined that the self-driving robot R is out of the assigned (allocated) area, set route, or service area, and the re-specified offender traveler is re-specified. Control to move other self-driving robots (R) that have been assigned (assigned) to the current location or the service area that includes the sculpture A in advance, or are located closest to the current sculpture A, toward the re-specified prime traveler or toward the sculpture A. By doing so, it is possible to efficiently respond to the variable on-site situation, such as continuously identifying and flexibly tracking the re-specified high-crime traveler or the re-specified high-crime traveler without any suspicion.

이어서, 자율주행 로봇(R)들로부터 수신되는 영상정보와 GPS를 기반으로 각각의 위치를 실시간으로 인식하고, 그 위치정보를 실시간으로 디스플레이부(28)에 표시한다(S125).Then, based on the image information received from the self-driving robots R and GPS, each location is recognized in real time, and the location information is displayed on the display unit 28 in real time (S125).

아울러 재특정된 입국장 내 우범 여행자를 촬영하여 얻은 영상정보를 디스플레이부(28)에 실시간으로 출력되도록 한다.In addition, the image information obtained by photographing the criminal traveler in the re-specified arrival hall is displayed on the display unit 28 in real time.

이때, 재특정된 우범 여행자가 포함된 영상정보를 제공하는 자율주행 로봇(R)에 부여된 고유의 아이디나 식별자를 이용해 전자 지도에서 우범 여행자의 위치를 실시간으로 확인할 수 있으며, 또 디스플레이부(28)에 알람 팝업으로 띄울 수 있다.At this time, the position of the bad tourist can be checked in real time on the electronic map using the unique ID or identifier assigned to the self-driving robot R that provides image information including the re-specified bad tourist, and the display unit 28 ) as an alarm popup.

나아가 재특정된 우범 여행자의 객체 특징정보와 영상정보를 추가로 저장하고, 해당 영상정보를 캡처하여 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 무선통신망과 단말을 통해 실시간으로 제공하거나 재특정된 우범 여행자의 객체 특징정보와 연관된 메시지를 전송할 수 있다.Furthermore, object feature information and image information of re-specified high-risk travelers are additionally stored, and the image information is captured and provided in real time to the customs situation room, customs rover, and marshal through wireless communication networks and terminals. A message associated with the object characteristic information of the re-specified criminal traveler may be transmitted.

따라서 공항이나 항만의 입국 심사대를 통과한 우범 여행자가 CIQ 통관 절차를 피하기 위해 입국장 내에서 짙은 화장이나 안경 및 마스크를 쓰는 등 변장을 하거나 환복을 하더라도 이동 동선을 따라 보다 효율적으로 대응 및 추적하여 철저히 관찰하고 지속적으로 감시할 수 있다.Therefore, even if a high-risk traveler who has passed through the immigration checkpoint at an airport or port disguises himself in the arrival hall by wearing heavy makeup, glasses, or a mask to avoid CIQ customs clearance, or changes clothes, he is closely observed by responding and tracking more efficiently along the route of his movement. and continuously monitored.

그뿐만 아니라 자율주행 로봇(R)이 입국장 내 대상 구역을 이동하면서 카메라로 촬영하여 얻은 영상정보를 이용해 입국자의 객체 특징정보를 수집 및 분석함으로써 CCTV 카메라(C2)의 촬영 범위를 벗어난 입국장 내 사각지대에 우범 여행자가 숨거나 위치하더라도 우범 여행자의 위치와 이동을 실시간으로 확인할 수 있어 우범 여행자 탐지의 신뢰성 및 추적 효율을 향상시킬 수 있다.In addition, the self-driving robot (R) collects and analyzes the object feature information of the entrant using the image information obtained by filming with the camera while moving through the target area in the arrival hall. Even if a high-risk traveler hides or is located in a high-risk traveler, the location and movement of the high-risk traveler can be checked in real time, thereby improving the reliability and tracking efficiency of the high-risk traveler detection.

한편, 본 발명은 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독할 수 있는 매체(데이터가 저장되는 기록장치)에 저장 가능한 프로그램으로 구현될 수 있다.Meanwhile, the present invention can be implemented as a program that is executed by one or more processes in a computer and can be stored in a computer-readable medium (recording device for storing data).

즉, 본 발명은 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있고, 아울러 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함할 수 있다.That is, the present invention is implemented as a computer program and can be recorded on a computer-readable recording medium, and a program for implementing the operation by the method is recorded and the computer-readable recording medium can be read by a computer. It may include all types of recording devices in which data is stored.

한편, 본 발명은 상술한 실시 예(embodiment) 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 안에서 예시되지 않은 여러 가지로 다양하게 변형하고 응용할 수 있음은 물론이고 각 구성요소의 치환 및 균등한 타 실시 예로 변경하여 폭넓게 적용할 수도 있음은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백하다.On the other hand, the present invention is not limited by the above-described embodiments (embodiment) and the accompanying drawings, and can be variously modified and applied in various ways not illustrated within the scope without departing from the technical spirit of the present invention, as well as each It is clear to those of ordinary skill in the art that the components can be widely applied by substitution of components and changes to other equivalent embodiments.

그러므로 본 발명의 기술적 특징을 변형하고 응용하는 것에 관계된 내용은 본 발명의 기술사상 및 범위 내에 포함되는 것으로 해석하여야 할 것이다.Therefore, contents related to the modification and application of the technical features of the present invention should be interpreted as being included within the technical spirit and scope of the present invention.

11: 우범여행자정보입력부 12: 제1영상정보입력부
13: 우범여행자탐지부 14: 제1특징추출부
15: 제2영상정보입력부 16: 제2특징추출부
17: 제1유사도검출부 18: 제1우범여행자특정부
19: 저장부 20: 전송부
21: 제어부 22: 데이터통신부
23: 제3특징추출부 24: 제2유사도검출부
25: 제2우범여행자특정부 26: 위치인식부
27: GIS표시부 28: 디스플레이부
29: 이벤트알람부
11: Criminal traveler information input unit 12: First image information input unit
13: criminal traveler detection unit 14: first feature extraction unit
15: second image information input unit 16: second feature extraction unit
17: 1st similarity detection unit 18: 1st criminal traveler specific unit
19: storage unit 20: transmission unit
21: control unit 22: data communication unit
23: third feature extraction unit 24: second similarity detection unit
25: second criminal traveler specific unit 26: location recognition unit
27: GIS display unit 28: display unit
29: event alarm

Claims (4)

입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자 정보를 입력받는 우범여행자정보입력부(11);
입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)로부터 영상정보를 입력받는 제1영상정보입력부(12);
상기 제1영상정보입력부(12)를 통해 입력받은 영상정보에서 입국자의 객체를 식별하고, 상기 우범여행자정보입력부(11)를 통해 입력받은 우범 여행자 정보와 대조하여 우범 여행자를 탐지하는 우범여행자탐지부(13);
탐지된 우범 여행자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제1객체특징정보추출부(14);
입국장 내에 설치되어 있는 복수의 CCTV 카메라(C2)로부터 영상정보를 입력받는 제2영상정보입력부(15);
상기 제2영상정보입력부(15)를 통해 입력받은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제2객체특징정보추출부(16);
상기 제1객체특징정보추출부(14)에서 생성된 우범 여행자의 객체 특징정보와 상기 제2객체특징정보추출부(16)에서 생성된 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 제1유사도검출부(17);
입국장 내 입국자들 중 상기 제1유사도검출부(17)에서 검출된 유사도 값이 미리 정해진 임계치 이상인 입국자를 인식해 당해 우범 여행자로 특정하는 제1우범여행자특정부(18);
입국 심사대에 설치되어 있는 복수의 CCTV 카메라(C1)와 입국장 내에 설치되어 있는 복수의 CCTV 카메라(C2) 및 입국장 내에 배치되어 있는 복수의 자율주행 로봇(R)에 대한 각각의 식별정보와 배치정보, 특정된 우범 여행자의 객체 특징정보와 영상정보를 저장하는 저장부(19);
특정된 우범 여행자의 객체 특징정보와 영상정보를 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 제공하는 전송부(20);
상기 자율주행 로봇(R)들의 기능 및 시스템의 전반적인 작동을 제어하는 제어부(21);
상기 자율주행 로봇(R)들과 각각 무선으로 데이터 통신을 하는 데이터통신부(22);
상기 데이터통신부(22)를 통해 입력받고 상기 자율주행 로봇(R)들의 카메라로 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 제3객체특징정보추출부(23);
상기 제1우범여행자특정부(18)에서 특정된 우범 여행자의 객체 특징정보와 상기 제3객체특징정보추출부(23)에서 생성된 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 제2유사도검출부(24);
상기 제2유사도검출부(24)에서 검출된 유사도 값이 미리 정해진 임계치 이상인 입국자를 인식해 우범 여행자로 재특정하는 제2우범여행자특정부(25);
상기 자율주행 로봇(R)들로부터 수신되는 영상정보와 GPS를 기반으로 각각의 위치를 실시간으로 인식하는 위치인식부(26);
상기 자율주행 로봇(R)들의 위치정보를 디스플레이부(28)에 표시되도록 하는 GIS표시부(27); 및
상기 자율주행 로봇(R)들의 카메라로 촬영하여 얻은 우범 여행자가 포함된 영상정보를 상기 디스플레이부(28)에 실시간으로 출력되도록 하는 이벤트알람부(29);
를 포함하는 입국장 내 우범 여행자 추적 시스템.
a bad traveler information input unit 11 that receives bad traveler information among entrants by comparing prior analysis information on the entrant with bad traveler database of the traveler information system;
A first image information input unit 12 receiving image information from a plurality of CCTV cameras C1 installed at the immigration checkpoint;
A bad traveler detection unit that identifies an entrant's object from the image information input through the first image information input unit 12 and compares it with the bad tourist information input through the bad traveler information input unit 11 to detect a bad traveler. (13);
a first object feature information extraction unit 14 that generates and stores object feature information in real time by extracting facial features, color and texture features, and gait features of the detected criminal traveler;
A second image information input unit 15 receiving image information from a plurality of CCTV cameras C2 installed in the arrival hall;
A second object feature information extraction unit (16) for generating and storing object feature information in real time by extracting facial features, color and texture features, and gait features of the immigrants from the image information input through the second image information input unit (15). );
A device for detecting the degree of identity and similarity between the object characteristic information of a frequent traveler generated by the first object characteristic information extraction unit 14 and the object characteristic information of entrants in the arrival hall generated by the second object characteristic information extraction unit 16 1 similarity detection unit 17;
a first bad traveler specific unit 18 that recognizes the entrants whose similarity value detected by the first similarity detection unit 17 is higher than a predetermined threshold value among the entrants in the arrival hall and identifies them as the pertinent bad traveler;
Identification information and arrangement information for each of the plurality of CCTV cameras (C1) installed at the immigration checkpoint, the plurality of CCTV cameras (C2) installed in the arrival hall, and the plurality of self-driving robots (R) disposed in the arrival hall, a storage unit (19) for storing object characteristic information and image information of a specified crime traveler;
a transmission unit 20 that provides object characteristic information and image information of a specific high-risk traveler to a customs control room, a customs rover, and a marshal;
a control unit 21 that controls functions of the self-driving robots R and overall operation of the system;
a data communication unit 22 that wirelessly communicates data with each of the autonomous robots R;
From the image information received through the data communication unit 22 and photographed by the cameras of the self-driving robots R, facial features, color and texture features, and gait features of entrants are extracted to generate and store object feature information in real time. a third object feature information extraction unit 23;
A second step for detecting the degree of identity and similarity between the object feature information of the prime traveler specified by the first bad traveler specification unit 18 and the object feature information of the entrants in the arrival hall generated by the third object feature information extraction unit 23 a similarity detection unit 24;
a second bad traveler specification unit 25 for recognizing an entrant whose similarity value detected by the second similarity detecting unit 24 is equal to or higher than a predetermined threshold value and re-specifying the entrant as a bad traveler;
a location recognition unit 26 that recognizes each location in real time based on the video information received from the self-driving robots and GPS;
a GIS display unit 27 for displaying location information of the self-driving robots R on the display unit 28; and
an event alarm unit 29 that outputs image information including a criminal traveler obtained by photographing with the cameras of the self-driving robots R to the display unit 28 in real time;
A system for tracking criminal travelers in the arrivals hall, including
제1항에 있어서,
상기 제어부(21)는, 상기 자율주행 로봇(R)들로부터 영상정보를 수신하고, 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 확인하며,
상기 재특정된 우범 여행자와 입국장 내 특정 장소 사이의 거리에 해당하는 상대 위치정보에 근거하여, 상기 상대 위치정보가 기준 범위를 벗어난 경우, 당해 자율주행 로봇(R)과 가장 인접하는 다른 자율주행 로봇(R)의 이동 방향을 상기 특정 장소로 변경하도록 제어하고, 그 다른 자율주행 로봇(R)으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인하는 것을 특징으로 하는 입국장 내 우범 여행자 추적 시스템.
According to claim 1,
The control unit 21 receives image information from the self-driving robots R, and uses the received image information to confirm the location of the re-specified criminal traveler,
Based on the relative location information corresponding to the distance between the re-specified high-risk traveler and a specific place in the arrival hall, if the relative location information is out of the standard range, the self-driving robot R is the closest to another autonomous robot. (R) is controlled to change the moving direction to the specific place, and the location of the re-specified criminal traveler is reconfirmed using the image information received from the other self-driving robot (R). tracking system.
다음의 각 단계를 포함하여 이루어지는 입국장 내 우범 여행자 추적 방법.
(a) 입국자에 대한 사전 분석 정보와 여행자정보시스템의 우범 여행자 데이터베이스를 서로 비교하여 입국자 중 우범 여행자를 조회하고 지정하는 단계
(b) 입국 심사대에 설치된 복수의 CCTV 카메라가 촬영하여 얻은 영상정보를 이용해 입국 심사대를 통과하는 입국자의 안면을 인식하고, 이를 지정된 우범 여행자 정보와 대조하여 우범 여행자를 식별하고 탐지하는 단계
(c) 탐지된 우범 여행자의 얼굴 특징, 색상 및 질감(texture) 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계
(d) 입국장 내에 설치된 복수의 CCTV 카메라가 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계
(e) 생성된 우범 여행자의 객체 특징정보와 입국장 내 입국자들의 객체 특징정보 간 동일성 및 유사도를 검출하는 단계
(f) 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 검출되는 입국자를 인식해 당해 우범 여행자로 특정하는 단계
(g) 특정된 우범 여행자의 객체 특징정보와 영상정보를 추가로 저장하고 세관 상황실과 세관 요원(rover) 및 검사지정관(marshal)에게 제공하는 단계
(h) 입국장 내 자율주행 로봇들이 카메라로 촬영하여 얻은 영상정보로부터 입국자들의 얼굴 특징, 색상 및 질감 특징, 걸음걸이 특징을 추출해 객체 특징정보를 실시간으로 생성하고 저장하는 단계
(i) 생성된 입국장 내 입국자들의 객체 특징정보와 이미 특정된 우범 여행자의 객체 특징정보 간 동일성 및 유사도를 검출하는 단계
(j) 입국장 내 입국자의 객체 특징정보 중 적어도 어느 하나의 유사도가 미리 정해진 임계치 이상으로 검출되는 입국자를 인식해 우범 여행자로 재특정하는 단계
(k) 자율주행 로봇들로부터 수신되는 영상정보와 GPS를 기반으로 각각의 위치를 실시간으로 인식하고, 그 위치정보를 디스플레이부에 표시하는 단계
How to track a high-risk traveler in the arrivals hall, including each of the following steps.
(a) Searching and designating bad travelers among the entrants by comparing preliminary analysis information on entrants with bad traveler database of the tourist information system.
(b) Recognizing the face of an entrant passing through immigration using image information obtained from a plurality of CCTV cameras installed at the immigration checkpoint, and identifying and detecting a bad traveler by comparing it with designated bad traveler information
(c) generating and storing object feature information in real time by extracting facial features, color and texture features, and gait features of the detected criminal traveler;
(d) Extracting facial features, color and texture features, and gait features of entrants from image information obtained by filming by a plurality of CCTV cameras installed in the arrival hall to generate and store object feature information in real time
(e) Detecting the degree of identity and similarity between the generated object characteristic information of the criminal traveler and the object characteristic information of the entrants in the arrival hall
(f) Recognizing an entrant whose similarity in at least one of the object characteristic information of the entrant in the arrival hall is detected as higher than a predetermined threshold and specifying the entrant as a pertinent bad traveler
(g) additionally storing the object characteristic information and image information of the specified criminal traveler and providing them to the customs control room, customs rover, and marshal
(h) Step of generating and storing object feature information in real time by extracting facial features, color and texture features, and gait features of entrants from image information captured by self-driving robots in the arrival hall using cameras
(i) Detecting the degree of identity and similarity between the object characteristic information of the entrants in the created arrival hall and the object characteristic information of the already specified high-risk traveler
(j) Recognizing an entrant whose similarity in at least one of object characteristic information of the entrant in the arrival hall is detected as higher than a predetermined threshold and re-specifying the entrant as a high-risk traveler
(k) Recognizing each position in real time based on video information received from autonomous robots and GPS, and displaying the position information on a display unit
제3항에 있어서,
상기 (j) 단계에서, 상기 자율주행 로봇들로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 확인하며,
상기 재특정된 우범 여행자와 입국장 내 특정 장소 사이의 거리에 해당하는 상대 위치정보에 근거하여, 상기 상대 위치정보가 기준 범위를 벗어난 경우, 당해 자율주행 로봇과 가장 인접하는 다른 자율주행 로봇의 이동 방향을 상기 특정 장소로 변경하도록 제어하고, 그 다른 자율주행 로봇으로부터 수신된 영상정보를 이용하여 재특정된 우범 여행자의 위치를 재확인하는 것을 특징으로 하는 입국장 내 우범 여행자 추적 방법.
According to claim 3,
In the step (j), the location of the re-specified criminal traveler is confirmed using the image information received from the self-driving robots;
Based on the relative location information corresponding to the distance between the re-specified criminal traveler and a specific place in the arrivals hall, if the relative location information is out of the standard range, the moving direction of the self-driving robot and the other autonomous robot closest to it and re-confirming the location of the re-specified criminal traveler using image information received from the other self-driving robot.
KR1020220054085A 2021-09-23 2022-05-02 Moving line tracking system and method for arrival hall of liability to crime travelers KR102519151B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210125716 2021-09-23
KR1020210125716 2021-09-23

Publications (2)

Publication Number Publication Date
KR20230043662A true KR20230043662A (en) 2023-03-31
KR102519151B1 KR102519151B1 (en) 2023-04-11

Family

ID=85976694

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220054085A KR102519151B1 (en) 2021-09-23 2022-05-02 Moving line tracking system and method for arrival hall of liability to crime travelers

Country Status (1)

Country Link
KR (1) KR102519151B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102603692B1 (en) * 2023-05-02 2023-11-21 뉴인테크 주식회사 Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers
KR102635887B1 (en) * 2023-04-05 2024-02-13 소니드로보틱스 주식회사 Waterfront park surveillance system and method using autonomous mobile robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110092502A (en) * 2010-02-09 2011-08-18 중앙대학교 산학협력단 Apparatus and method for surveillance and tracking
KR20130112273A (en) * 2012-04-03 2013-10-14 조선대학교산학협력단 Method and apparatus for detecting, capturing face image for face recognition
KR20140122322A (en) * 2013-04-09 2014-10-20 퍼스텍주식회사 Security System for Monitoring Facilities
KR20150094074A (en) 2014-02-10 2015-08-19 정광만 Automatic screen system of the customs inspection for entering traveler
KR101808587B1 (en) 2017-08-03 2017-12-13 주식회사 두원전자통신 Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors
KR20180040255A (en) 2016-10-12 2018-04-20 엘지전자 주식회사 Airport robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110092502A (en) * 2010-02-09 2011-08-18 중앙대학교 산학협력단 Apparatus and method for surveillance and tracking
KR20130112273A (en) * 2012-04-03 2013-10-14 조선대학교산학협력단 Method and apparatus for detecting, capturing face image for face recognition
KR20140122322A (en) * 2013-04-09 2014-10-20 퍼스텍주식회사 Security System for Monitoring Facilities
KR20150094074A (en) 2014-02-10 2015-08-19 정광만 Automatic screen system of the customs inspection for entering traveler
KR20180040255A (en) 2016-10-12 2018-04-20 엘지전자 주식회사 Airport robot
KR101808587B1 (en) 2017-08-03 2017-12-13 주식회사 두원전자통신 Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102635887B1 (en) * 2023-04-05 2024-02-13 소니드로보틱스 주식회사 Waterfront park surveillance system and method using autonomous mobile robot
KR102603692B1 (en) * 2023-05-02 2023-11-21 뉴인테크 주식회사 Moving line tracking system and method for arrival hall using electronic tag of liability to crime travelers

Also Published As

Publication number Publication date
KR102519151B1 (en) 2023-04-11

Similar Documents

Publication Publication Date Title
Yang et al. Tracking multiple workers on construction sites using video cameras
JP4852765B2 (en) Estimating connection relationship between distributed cameras and connection relationship estimation program
KR102519151B1 (en) Moving line tracking system and method for arrival hall of liability to crime travelers
US20220005332A1 (en) Facility surveillance systems and methods
CN109076190B (en) Apparatus and method for detecting abnormal condition
KR102152318B1 (en) Tracking system that can trace object's movement path
Bascetta et al. Towards safe human-robot interaction in robotic cells: an approach based on visual tracking and intention estimation
US20180253597A1 (en) Information processing device, information processing method, and computer program product
US20080123900A1 (en) Seamless tracking framework using hierarchical tracklet association
US11475671B2 (en) Multiple robots assisted surveillance system
Rout A survey on object detection and tracking algorithms
KR101839827B1 (en) Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object
US9977970B2 (en) Method and system for detecting the occurrence of an interaction event via trajectory-based analysis
US9965687B2 (en) System and method for detecting potential mugging event via trajectory-based analysis
US7295106B1 (en) Systems and methods for classifying objects within a monitored zone using multiple surveillance devices
US10210392B2 (en) System and method for detecting potential drive-up drug deal activity via trajectory-based analysis
CN104981818A (en) Systems and methods to classify moving airplanes in airports
Iqbal et al. Real-time surveillance using deep learning
Arsic et al. Applying multi layer homography for multi camera person tracking
Gupta et al. Corridor segmentation for automatic robot navigation in indoor environment using edge devices
Ullah et al. Rotation invariant person tracker using top view
Kang et al. Recognition and path planning strategy for autonomous navigation in the elevator environment
Denman et al. Automatic surveillance in transportation hubs: No longer just about catching the bad guy
Din et al. Abandoned object detection using frame differencing and background subtraction
Konstantinidis et al. AROWA: An autonomous robot framework for Warehouse 4.0 health and safety inspection operations

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant