KR102206662B1 - Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof - Google Patents

Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof Download PDF

Info

Publication number
KR102206662B1
KR102206662B1 KR1020200102810A KR20200102810A KR102206662B1 KR 102206662 B1 KR102206662 B1 KR 102206662B1 KR 1020200102810 A KR1020200102810 A KR 1020200102810A KR 20200102810 A KR20200102810 A KR 20200102810A KR 102206662 B1 KR102206662 B1 KR 102206662B1
Authority
KR
South Korea
Prior art keywords
port
vehicle
container
terminal
fpga
Prior art date
Application number
KR1020200102810A
Other languages
Korean (ko)
Inventor
서영민
김현
김영민
곽승준
권순범
정지훈
Original Assignee
아이티플래닛 주식회사
주식회사 이에스피
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이티플래닛 주식회사, 주식회사 이에스피 filed Critical 아이티플래닛 주식회사
Priority to KR1020200102810A priority Critical patent/KR102206662B1/en
Application granted granted Critical
Publication of KR102206662B1 publication Critical patent/KR102206662B1/en
Priority to PCT/KR2021/002233 priority patent/WO2022035008A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • G06K2209/15
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Electromagnetism (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed is a vision camera system for managing vehicle access and recognizing objects in a port container terminal to increase loading/unloading productivity and a method thereof. According to the present invention, the vision camera system comprises: a plurality of cameras installed in each area of a port gate, a yard/block, a block entrance, an automated rail mounted gantry crane (ARMGC), and a quay crane (QC) in a port container terminal; and an FPGA-based embedded vision system (TLEM) receiving a plurality of pieces of camera image data to detect objects and recognize characters from camera images in accordance with learning data by a deep learning module, recognizing a lane, a vehicle license number, a container number (ISO code), damage to a container, and a vehicle entering the block entrance and detecting a vehicle and a worker entering a danger zone entry vehicle, a reverse driving vehicle, whether a yard worker wears protective gear/safety vest, and the location of loading and unloading equipment to broadcast a warning through a corresponding speaker whenever an event occurs, and transmitting a learned object extraction event (text) and data of an image of an extracted object marked with a rectangular box to middleware. Moreover, a non-GPU-based FPGA-based embedded vision system (TLEM) is connected to a terminal operation system (TOS) through the module.

Description

항만 컨테이너 터미널에서 차량 출입 관리와 객체를 인식하는 비전 카메라 시스템 및 방법{Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof }Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof}

본 발명은 항만 컨테이너 터미널 시스템에 관한 것으로, 보다 상세하게는 항만 컨테이너 터미널에서 항만 Gate, Yard/Block, Block Entrance, ARMGC, QC 각 지역에 설치된 다수의 카메라와 연동되는 Non-GPU 기반의 딥러닝 모듈(YOLO, SSD)이 탑재된 FPGA 기반 임베디드 비전 시스템(TLEM, IoT 디바이스)를 개발하여 카메라 영상의 객체들을 검출하고, 컨테이너와 차량과 사람, 양적하 장비를 검출하며, 항만 Gate/Yard의 Block/Block Entrance 진입 차량 검출, 차선 인식, 차량 번호 인식, 컨테이너 번호의 문자 인식, 위험 지역 작업자 및 차량 검출, 역 주행 차량 검출, 작업자의 안전보호구/안전 조끼 착용 여부 검출, QC에서 선박으로 양적하되는 컨테이너 번호(ISO 코드)를 인식하는, 항만 컨테이너 터미널에서 차량 출입 관리와 객체를 인식하는 비전 카메라 시스템에 관한 것이다.The present invention relates to a port container terminal system, and more particularly, a non-GPU-based deep learning module that is linked with a plurality of cameras installed in each area of a port gate, yard/block, block entrance, ARMGC, and QC in a port container terminal. Developed an FPGA-based embedded vision system (TLEM, IoT device) equipped with (YOLO, SSD) to detect objects in camera images, detect containers, vehicles, people, and unloading equipment, and block/ Block entrance vehicle detection, lane recognition, vehicle number recognition, text recognition of container number, hazardous area worker and vehicle detection, reverse driving vehicle detection, detection of whether workers are wearing safety protective equipment/safety vests, and containers being loaded and unloaded from QC into the ship It relates to a vision camera system that recognizes a number (ISO code), manages vehicle access and recognizes an object in a port container terminal.

최근 4차 산업 기술과 함께 IoT, AR/VR, Big Data, Drone 기술이 발전하고 있으며, 항만 물류 산업과 항만 컨테이너 터미널에서 비전 시스템 확산 및 산업화에 핵심 공통 기반 기술의 확보가 시급하다.In addition to the 4th industrial technology, IoT, AR/VR, Big Data, and Drone technologies are advancing in recent years, and it is urgent to secure core common base technologies for the expansion and industrialization of vision systems in the port logistics industry and port container terminals.

세계 물류 중심이 아시아로 이동함으로써 글로벌 중심항 경쟁이 더욱 치열해지고 있으며, 과거 아시아 물량 비중 2000년 47.1%, 2015년 54.0%→ 미래 아시아 물량 비중 59.4%이 될 것으로 전망되며, 해운 항만물류 중심축이 아시아로 이동하였으며 2020년 이후 현 추세가 지속될 것으로 예상된다. 타 물류 분야에 비해 적은 투자와 연구 부재에 의해 국가 항만물류기술산업이 타 국가와의 항만물류기술의 경쟁력 강화가 필요하다. As the global logistics center moves to Asia, competition for global hub ports is intensifying, and the proportion of Asian shipments in the past is expected to be 47.1% in 2000 and 54.0% in 2015 → 59.4% of future Asian shipments. And the current trend is expected to continue after 2020. With less investment and lack of research compared to other logistics fields, the national port logistics technology industry needs to strengthen the competitiveness of port logistics technology with other countries.

항만 컨테이너 터미널의 처리 능력은 선석, 이송 차량, 야드(Yard), 게이트(Gate)의 개별 능력과 종합적인 연계 능력에 의해 결정된다. 항만 컨테이너 터미널은 처리능력을 향상시킬수록 선박의 재항 시간을 감소시킬 수 있으므로, 한정된 자원으로 보다 많은 이윤을 얻을 수 있다. The handling capacity of a port container terminal is determined by the individual capabilities of the berth, transfer vehicle, yard, and gate, as well as the comprehensive linkage capability. As the port container terminal improves the handling capacity, the ship's return time can be reduced, and thus more profits can be obtained with limited resources.

컨테이너 터미널의 처리능력은 결국 선석 처리율(생산성)로 평가될 수 있으며, 선석 처리율을 향상시키기 위한 방법으로 i) 안벽 크레인의 속도 향상, ⅱ) 신개념 크레인 적용, ⅲ) 한 선박에 동시 작업하는 크레인 대수 증가를 고려한다.The handling capacity of the container terminal can be evaluated as the berth throughput (productivity) in the end, and as a method to improve the berth throughput, i) improve the speed of the quay crane, ii) apply a new concept crane, iii) the number of cranes working simultaneously on one ship Consider the increase.

선석 처리율은 크레인 투입 수에 따른 자체의 처리율 뿐 아니라 야드(Yard) 및 이송 차량의 처리율에 의해 결정된다.The berth throughput is determined by the throughput of yards and transport vehicles as well as its own throughput according to the number of crane inputs.

현재 국내·외 항만의 선석 처리율인 QC(Quay Crane)의 생산성(move/hr)은 최대 27 move/hr을 기록하고 있다. 국내 컨테이너 터미널의 QC 평균 생산성은 19~24 move/hr을 차지하고 있고, 해외 컨테이너 터미널은 평균 22~27 move/hr을 차지하고 있다(국내 보다 20% 높음).Currently, the productivity (move/hr) of QC (Quay Crane), which is the berth processing rate of domestic and foreign ports, is recording a maximum of 27 move/hr. QC average productivity of domestic container terminals accounts for 19~24 move/hr, while overseas container terminals account for an average of 22~27 move/hr (20% higher than domestic).

부산 신항은 대부분이 반자동화 터미널이며, 26~30 move/hr로 해외 수준과 비슷하나 완전자동화 터미널인 상해 자동화 터미널은 40 move/hr로 높은 생산성을 보일뿐 아니라 인력 부분도 70% 줄일 수 있었다.Most of the new ports in Busan are semi-automated terminals, similar to the overseas level with 26~30 move/hr, but the Shanghai automated terminal, which is a fully automated terminal, showed high productivity at 40 move/hr and reduced the manpower by 70%.

항만 물류 분야에서 ICT 융·복합 기술을 적용하여 ‘저탄소 녹색성장’의 취지 하에 2005년부터 해양수산부에서 진행한 “RFID기반 항만물류 효율화 시범사업”을 시작으로 현재까지 많은 IoT기술을 적용한 사업들이 정부 주도하에 진행되었으나, 일부 기술만이 적용되었다.Starting from the “RFID-based Port Logistics Efficiency Demonstration Project” conducted by the Ministry of Maritime Affairs and Fisheries since 2005 under the purpose of'low carbon green growth' by applying ICT convergence and complex technology in the port logistics field, many IoT technologies have been applied to the government. It was conducted under the leadership, but only some technologies were applied.

항만 컨테이너 터미널에서 사회적으로 안전에 대한 의식은 높아지고 있으나, 사고 위험은 커지고 있으며, 위험 지역 작업자 안전 확보 방안 마련이 시급하다.In port container terminals, social safety awareness is increasing, but the risk of accidents is increasing, and it is urgent to prepare a plan to ensure safety for workers in hazardous areas.

- 항만 내 자동화 및 기계화, 컨테이너를 적재한 차량 증가에 의한 작업자 위험 노출 및 인지범위 밖 위험상황 증가-Automation and mechanization in ports, exposure to worker risk due to the increase in vehicles loaded with containers, and increased risk situations outside the range of perception

- 항만 내 자원(컨테이너, 차량, 장비)의 실시간 위치 및 상태파악의 한계 존재-There is a limit to real-time location and status identification of resources (containers, vehicles, equipment) in the port

- 항만 보안구역 감시 및 위험 영역 감지 필요-Port security area monitoring and danger area detection required

이에, 완전 무인 자동화 터미널 필수 요소인 ‘인식과 위치 정보’ 시스템으로 실시간 영상데이터로 객체 및 문자 검출 처리 기술과 위치보정 GPS를 이용하여 ① 컨테이너 위치 및 문자 인식, ② 실시간 차량 위치 및 ID 인식, ③ 외각 펜스 감지, ④ 작업자 안전모, 안전조끼 착용여부, ⑤ 위험 영역 차량 및 인원 감지, ⑥ 차량 역주행/안전속도 감지를 통해 업무처리 효율 향상, 작업자의 안전도 향상시킬 수 있는 기술 개발이 필요하다.Therefore, the'Recognition and Location Information' system, which is an essential element of a fully unmanned automated terminal, uses real-time image data to detect objects and characters, and position correction GPS. ① Container location and character recognition, ② Real-time vehicle location and ID recognition, ③ External fence detection, ④ Worker safety helmet, whether or not to wear a safety vest, ⑤ Detection of vehicles and personnel in hazardous areas, ⑥ Vehicle reverse running/safe speed detection to improve work processing efficiency In addition, there is a need to develop technologies that can improve worker safety.

또한, 항만 컨테이너 터미널은 선박에서 컨테이너를 하역ㆍ적재하는 구간에서 선박은 바람과 파랑에 의해 약간씩 이동하며, 이로 인해 갠트리 크레인 또한 이동시켜 작업을 수행한다. 따라서, 트레일러/샤시를 이용한 컨테이너 양ㆍ하역하는 지점까지 변하게 된다. 그리고 컨테이너의 종류 또한 크게 두 가지(40 feet, 20 feet)로 분류되어 운전자 혼자서 작업위치에 정지하기에 어려운 점이 있다.In addition, in the port container terminal, the ship moves slightly by wind and waves in the section where the container is unloaded and loaded from the ship, and thus the gantry crane also moves to perform the work. Therefore, it changes to the point where the container is unloaded and unloaded using the trailer/chassis. And the type of container is also largely classified into two types (40 feet, 20 feet), so it is difficult to stop at the working position by the driver alone.

이와 관련된 선행 기술1로써, 특허 등록번호 10-0794410에서는 항만의 컨테이너를 운반하는 트레일러의 운전자가 보조 작업자 없이 혼자서 정지위치를 파악하고 트레일러를 정지시키도록 구성한 "항만 트레일러 자동 정지위치 모니터링 시스템"이 등록되어 있다.As a related prior art 1, in Patent Registration No. 10-0794410, the “port trailer automatic stop position monitoring system” is registered in which the driver of the trailer carrying the port container identifies the stop position and stops the trailer by himself without an assistant worker. Has been.

도 1은 종래의 항만 트레일러 자동 정지위치 모니터링 시스템의 구성도이다.1 is a block diagram of a conventional port trailer automatic stop position monitoring system.

항만 트레일러 자동 정지위치 모니터링 시스템은 CCD 카메라(100)와 프레임 그래버(Frame Grabber, FG)(102), 퍼스널 컴퓨터(PC)(104), 프로그래머블 로직 컨트롤러(Programmable Logic Controller, PLC)(106), 디스플레이 표시등(108) 및 다수개의 레이저 센서(110)로 구성된다. 상기 시스템은 기존 갠트리 크레인에 레이저 센서(110)와 CCD 카메라(100)를 부착시키는 작업만으로 간단히 시스템을 구성할 수 있다.The port trailer automatic stop position monitoring system includes a CCD camera (100), a frame grabber (FG) (102), a personal computer (PC) (104), a programmable logic controller (PLC) (106), and a display. It is composed of an indicator 108 and a plurality of laser sensors 110. The system can be configured simply by attaching the laser sensor 110 and the CCD camera 100 to the existing gantry crane.

CCD 카메라(100)와 레이저 센서(110)는 크레인 구조물(10)의 상/하측단에 각각 설치되며, CCD 카메라(100)에 입력된 아날로그 신호는 프레임 그래버(FG)(102)에서 디지털 영상 신호로 변환되고, 이 디지털 영상 신호는 PC(104)로 입력된다. 상기 PC(104)에 입력된 디지털 영상 신호는 "Optical Flow" 영상처리기법을 이용하여 트레일러(20)의 움직임을 포착한다. 즉, PC(104)는 세로 열을 1/10로 축소시킨 640 ×48(pixel)의 화소를 가지는 영상을 사용하여 크레인 내부의 횡축으로 20m 길이 폭을 감지하게 된다. 따라서, 한 화소당 3.1cm의 분해능을 가질 수 있으며, 샤시의 레이저 센서(110)를 이용하여 더욱 정밀한 정지위치를 감지할 수 있다. The CCD camera 100 and the laser sensor 110 are installed at the upper and lower ends of the crane structure 10, respectively, and the analog signal input to the CCD camera 100 is a digital image signal from the frame grabber (FG) 102. Is converted into, and this digital video signal is input to the PC 104. The digital image signal input to the PC 104 captures the movement of the trailer 20 using an "Optical Flow" image processing technique. That is, the PC 104 detects a width of 20 m in the horizontal axis inside the crane by using an image having 640 × 48 (pixel) pixels in which the vertical column is reduced to 1/10. Therefore, it can have a resolution of 3.1 cm per pixel, and a more precise stop position can be detected using the laser sensor 110 of the chassis.

CCD 카메라(100)는 크레인 구조물(10)의 상단부에 설치되며, 바람직하게는 스프레드의 작업을 방해하지 않도록 하고 견고하게 고정시켜 작업도중 흔들림에 의해 정확도가 떨어지지 않도록 설치한다.The CCD camera 100 is installed on the upper end of the crane structure 10, and is preferably installed so as not to interfere with the work of the spread and to be firmly fixed so that the accuracy is not degraded by shaking during work.

항만 트레일러 자동 정지위치 모니터링 시스템은 Port trailer automatic stop position monitoring system

선박에서 크레인을 이용하여 화물을 양ㆍ적함에 있어서,In loading and unloading cargo using a crane on a ship,

상기 크레인 구조물의 하측단에 설치되어 트레일러의 측면에서 위치를 감지하는 적어도 1개 이상의 레이저 센서와, 상기 크레인 구조물의 상측단에 설치되어 트레일러의 상단부에서 위치를 감지하는 CCD 카메라로 구성되어 상기 크레인의 위치 변화에 따른 트레일러의 정지위치를 자동 인식화하는 감지수단과;At least one laser sensor installed at the lower end of the crane structure to detect the position from the side of the trailer, and a CCD camera installed at the upper end of the crane structure to detect the position at the upper end of the crane. Sensing means for automatically recognizing the stop position of the trailer according to the position change;

상기 트레일러의 정지위치를 운전자에게 시각적 신호로 알려주는 디스플레이 수단과;A display means for notifying a driver of a stop position of the trailer through a visual signal;

상기 CCD 카메라로부터 전송된 아날로그 신호를 디지털 신호로 변환시키는 프레임 그래버와;A frame grabber for converting the analog signal transmitted from the CCD camera into a digital signal;

상기 프레임 그래버로부터 입력된 디지털 신호를 "Optical flow" 영상처리기법을 이용하여 트레일러의 움직임을 포착하는 퍼스널 컴퓨터와;A personal computer for capturing the motion of the trailer by using the "Optical flow" image processing technique of the digital signal input from the frame grabber;

상기 퍼스널 컴퓨터에서 계산된 비트열과 상기 레이저 센서에서 전송되는 비트열을 연산 처리하는 PLC를 포함한다. And a PLC for calculating and processing the bit string calculated by the personal computer and the bit string transmitted from the laser sensor.

레이저 센서는 컨테이너의 크기에 따라 4군데에 각각 2개의 쌍으로 구성되며, 각각의 데이터를 상기 PLC로 전송한다. According to the size of the container, the laser sensor is composed of two pairs in four places, and each data is transmitted to the PLC.

상기 디스플레이 수단은,The display means,

상기 트레일러의 진입을 동적으로 표시한 상태표시부와,A status display unit that dynamically displays the entry of the trailer;

상기 트레일러의 정지 위치를 알려주는 지시부와,An indicator indicating the stop position of the trailer,

상기 감지수단의 동작상태를 나타내는 마킹부로 구성된다. It consists of a marking unit indicating the operating state of the sensing means.

항만 트레일러 자동 정지위치 모니터링 시스템은 다음과 같은 효과를 제공한다.The port trailer automatic stop position monitoring system provides the following effects.

첫 번째로, 작업중인 차선 이외의 차선에서 컨테이너가 진입하더라도 레이저 센서와 CCD 카메라가 동시에 감지하므로 오작동이 전혀 발생하지 않는 장점을 가지고 있다.First, even if a container enters from a lane other than the working lane, the laser sensor and the CCD camera simultaneously detect it, so it has the advantage that no malfunction occurs at all.

두 번째로, 디스플레이 형태는 트레일러의 움직임에 따른 동적인 상황을 연속적으로 보여주고 정지위치를 알려줌으로서 운전자는 예측운전을 할 수 있으므로 급정지에 대한 부담이 상당히 줄어드는 이점이 있다.Second, the display type continuously shows the dynamic situation according to the movement of the trailer and informs the stop position, so that the driver can predictive driving, thus significantly reducing the burden on sudden stops.

세 번째로, 4군데의 각각 2개의 쌍으로된 레이저 센서를 이용함으로 보다 정확한 위치 정보를 제공하며, 트레일러가 정지지점을 지나가더라도 오차의 정도를 운전자에게 제공할 수 있다.Third, it provides more accurate location information by using two pairs of laser sensors in each of the four locations, and the degree of error can be provided to the driver even if the trailer passes the stopping point.

네 번째로, 레이저 센서 이외의 향상된 데이터 처리 속도와 높은 분해능을 가진 CCD 카메라를 이용하여 켄테이너 차량을 감지하므로 양ㆍ적하시 모두 사용할 수 있다.Fourth, it can be used in both loading and unloading because it detects the container vehicle by using a CCD camera with improved data processing speed and high resolution other than the laser sensor.

다섯 번째로, 레이저 센서와 CCD 카메라가 서로 보조하여 정지위치를 디스플레이 함으로서 보다 신뢰성 있는 정지위치 정보를 제공하는 효과가 있다.Fifth, the laser sensor and the CCD camera assist each other to display the stop position, thereby providing more reliable stop position information.

이와 관련된 선행기술2로써, 특허 등록번호 10-1978292에서는 "항만 게이트 OCR 시스템 장치"가 등록되어 있다. As a related prior art 2, a "port gate OCR system device" is registered in Patent Registration No. 10-1978292.

항만 게이트 OCR 시스템 장치는 4개가 항만 게이트 통로 레인에 순차적으로 배치되고 컨테이너 차량의 헤드를 인식하면 1 값을 출력하고, 그 외 부분은 0 값을 출력하며, 연속된 3개가 컨테이너 전방에서 후방까지 인식되는 간격으로 배치되는 센서, 상기 센서의 인식값을 받아 제어신호로 전달하는 제어부, 컨테이너의 전면, 우측면을 촬영하는 전면카메라, 컨테이너의 후면, 좌측면을 촬영하는 후면카메라로 구성되어 컨테이너의 수량과 위치를 즉각적으로 파악하고 다양한 번호 인식을 동시다발적으로 진행하여 짧은 시간 내에 정보를 획득하고 컨테이너의 분류와 이동에 적용 가능하도록 한다.Port gate OCR system devices are arranged sequentially in the port gate passage lane, and when the head of the container vehicle is recognized, a value of 1 is output, and the other parts output a value of 0, and three consecutive units are recognized from the front to the rear of the container. It consists of a sensor arranged at intervals, a control unit that receives the recognition value of the sensor and transmits it as a control signal, a front camera that photographs the front and right sides of the container, and a rear camera that photographs the rear and left side of the container. By immediately grasping the location and simultaneously performing various number recognition, information is acquired within a short time and can be applied to the classification and movement of containers.

이와 관련된 선행기술3로써, 특허 등록번호 10-1068681에서는 "항만 통합 보안 감시 운영 시스템"이 등록되어 있다. As a related prior art 3, in patent registration number 10-1068681, a "port integrated security monitoring operation system" is registered.

항만 통합 보안 감시 운영 시스템은 감시 대상 항만 영역에 대해 피사체를 촬상하는 카메라를 포함하는 항만 보안 감시부와; 항만 내에 출입되는 화물 또는 사람에 대해 장착되거나 착용된 고유 식별태그를 검출하여 항만내에서의 화물 또는 사람에 대한 위치 정보를 검출하는 출입 및 이동 위치 검출부와; 출입 및 이동 위치 검출부에서 제공되는 정보를 기반으로 항만 내의 출입 정보 및 감시 대상물에 대한 위치 이동 정보를 생성 및 저장 처리하고, 감시대상물에 대한 이동 정보를 이용하여 항만 보안 감시부에서 실시간으로 추적할 수 있도록 항만 보안 감시부를 제어하는 항만 통합 감시 서버와; 상기 항만 통합 감시 서버와 무선망을 통해 통신하면서 입력부를 통해 요청한 상기 항만 내의 지리정보, 상기 항만 내의 물류 위치 정보를 포함한 항만 상황 정보를 상기 항만 통합 감시 서버로부터 제공받아 표시하는 휴대용 항만 정보 단말기를 구비하고,The port integrated security monitoring operation system includes: a port security monitoring unit including a camera for photographing a subject in a port area to be monitored; An entry and exit location detection unit for detecting location information on cargo or people in the port by detecting a unique identification tag mounted or worn on cargo or people entering and exiting the port; Based on the information provided by the access and movement location detection unit, the access information in the port and the location movement information of the monitored object are created and processed, and the port security monitoring unit can track it in real time using the movement information of the monitoring object. A port integrated monitoring server for controlling the port security monitoring unit so that; A portable port information terminal for receiving and displaying port status information including geographic information in the port and logistics location information in the port requested through an input unit while communicating with the port integrated monitoring server through a wireless network. and,

상기 식별태그는 RFID 태그이고, 상기 출입 및 이동 위치 검출부는 사람 또는 화물이 입출되는 게이트를 포함한 설정된 검출 위치마다 상기 RFID태그를 인식할 수 있도록 설치되어 검출 정보를 상기 항만 통합 감시서버로 제공하는 RFID 리더기이며,The identification tag is an RFID tag, and the entry and exit location detection unit is installed to recognize the RFID tag at each set detection location including a gate through which a person or cargo enters and exits, and provides detection information to the port integrated monitoring server. Reader,

상기 항만 통합 감시 서버는 항만에 입출하는 선박에 대한 정보를 제공하는 해양안전정보 시스템과 네트워크를 통해 접속되어 상기 선박에 대한 정보를 제공받아 미등록 선박이 있는 지를 상기 항만 보안 감시부를 통해 판단하고, 미등록 선박에 대해서는 상기 항만 보안 감시부를 통해 감시되게 처리하며,The port integrated monitoring server is connected through a marine safety information system and a network that provides information on ships entering and leaving the port, receives information on the ship, and determines whether there is an unregistered ship through the port security monitoring unit, and is not registered. Ships are processed to be monitored through the port security monitoring unit,

상기 항만 통합감시 서버는 컨테이너 화물의 생산지로부터 목적지까지의 물류 이동정보를 관리하는 항만운영정보 시스템과 네트웍을 통해 접속되어 항만 내로 출입되는 컨테이너 화물에 대한 사전 정보를 취득하도록 되어있고,The integrated port monitoring server is to obtain advance information on container cargo entering and exiting the port by being connected through a network and a port operation information system that manages logistics movement information from the production place of container cargo to the destination.

상기 항만보안 감시부는The port security monitoring unit

감시 대상 항만 영역에 대해 광대역을 촬상할 수 있도록 설치된 중앙 카메라와;A central camera installed to capture a broadband image of a port area to be monitored;

상기 감시 영역에 대해 할당된 로컬 영역을 촬상할 수 있도록 설치된 복수개의 로컬 카메라와;A plurality of local cameras installed to capture an image of a local area allocated to the surveillance area;

상기 중앙 카메라에 대응되게 설치되어 상기 중앙 카메라의 촬상방향 변동에 대한 카메라 위치 정보를 검출하는 위치 정보 제공부와;A location information providing unit installed to correspond to the central camera and detecting camera location information on a change in an imaging direction of the central camera;

상기 중앙 카메라에 대응되게 설치되어 상기 중앙 카메라의 촬상방향 전방에 있는 물체의 거리를 측정하는 거리 측정기와;A distance measuring device installed corresponding to the central camera to measure a distance of an object in front of the central camera in the imaging direction;

상기 감시 대상 항만 영역 중 설정된 비허가 영역에 대한 침입여부를 검출할 수 있게 설치된 침입검출 센서와;An intrusion detection sensor installed to detect whether an intrusion into a set non-permitted area among the port areas to be monitored;

상기 침입검출 센서의 출력신호로부터 칩입여부를 판단하는 침입검출부와;An intrusion detection unit that determines whether or not a chip is inserted from the output signal of the intrusion detection sensor;

상기 항만 감시 영역에 대해 이동 물체의 유무를 검출하는 레이더;를 구비하고,A radar for detecting the presence or absence of a moving object in the port monitoring area; and

상기 항만통합 감시서버는 상기 중앙 카메라, 상기 로컬 카메라, 상기 위치정보 제공부, 상기 거리 측정기, 상기 칩임 검출부 및 상기 레이더에서 전송되는 정보를 수신 처리하여 저장하고, 상기 중앙카메라 및 상기 로컬 카메라의 촬상 방향을 원격으로 제어한다. The integrated port monitoring server receives and stores information transmitted from the central camera, the local camera, the location information providing unit, the distance measuring device, the chip presence detection unit and the radar, and capturing the central camera and the local camera. Control the direction remotely.

항만 통합 보안 감시 운영 시스템에 의하면, 출입 차량, 화물, 사람에 대한 현재 위치를 파악할 수 있어 보안레벨에 따른 접근통제가 가능하며, 이동 피사체에 대한 사전 정보를 이용하여 항만내 비정상적인 물류활동과 정상적인 물류활동을 구별하여 실시간 탐지 및 추적이 가능한 장점을 제공한다.According to the port integrated security monitoring and operation system, access control according to the security level is possible because the current location of incoming and outgoing vehicles, cargo, and people can be identified, and abnormal logistics activities and normal logistics in the port using prior information on moving subjects. It provides the advantage of real-time detection and tracking by distinguishing activities.

이와 관련된 선행기술4로써, 특허 등록번호 10-1071379에서는 "항만 통합 보안 감시 시스템"이 등록되어 있다. As a related prior art 4, in patent registration number 10-1071379, a "port integrated security monitoring system" is registered.

항만 통합 보안 감시 시스템은, 감시 대상 항만 영역에 대해 광대역을 촬상할 수 있도록 설치된 중앙 카메라와; 상기 감시 영역에 대해 할당된 로컬 영역을 촬상할 수 있도록 설치된 복수개의 로컬 카메라와; 상기 중앙 카메라에 대응되게 설치되어 상기 중앙 카메라의 촬상방향 변동에 대한 위치 정보를 검출하는 위치 정보 제공부와; 상기 중앙 카메라에 대응되게 설치되어 상기 중앙 카메라의 촬상방향 전방에 있는 물체의 거리를 측정하는 거리 측정기와; 상기 감시 대상 항만 영역에 대해 침입여부를 검출할 수 있게 설치된 침입검출 센서와; 상기 침입검출 센서의 출력신호로부터 칩입여부를 판단하는 침입검출부와; 상기 항만 감시 영역에 대해 이동 물체의 유무를 검출하는 레이더와; 상기 중앙 카메라, 상기 로컬 카메라, 상기 위치정보 제공부, 상기 거리 측정기, 상기 칩임 검출부 및 상기 레이더에서 전송되는 정보를 수신 처리하여 저장하고, 상기 중앙카메라 및 상기 로컬카메라의 촬상 방향을 원격으로 제어하는 관리 서버와; 상기 항만의 해저영역을 통한 침입여부를 감시할 수 있도록 수중을 통해 초음파를 송출하고, 수신된 초음파로부터 침입여부 정보를 상기 관리서버에 제공하는 음파 탐지기를 구비하고,The port integrated security surveillance system includes: a central camera installed to capture a broadband image of a port area to be monitored; A plurality of local cameras installed to capture an image of a local area allocated to the surveillance area; A location information providing unit installed to correspond to the central camera and detecting location information on a change in the imaging direction of the central camera; A distance measuring device installed corresponding to the central camera to measure a distance of an object in front of the central camera in the imaging direction; An intrusion detection sensor installed to detect whether an intrusion has occurred in the port area to be monitored; An intrusion detection unit that determines whether or not a chip is inserted from the output signal of the intrusion detection sensor; A radar detecting the presence or absence of a moving object in the port monitoring area; Receiving and storing information transmitted from the central camera, the local camera, the location information providing unit, the range finder, the chip presence detection unit, and the radar, and remotely controlling the imaging direction of the central camera and the local camera A management server; And a sound wave detector that transmits ultrasonic waves underwater to monitor the presence of intrusion through the seabed area of the port, and provides intrusion information to the management server from the received ultrasonic waves,

상기 관리서버는 상기 중앙카메라에서 전송된 영상을 데이터 베이스에 저장하고 상기 데이터 베이스에 저장된 영상의 프레임 상호간을 비교하여 이동 물체의 유무를 판별하는 수신정보 처리부; 상기 수신정보 처리부로부터 이동물체에 대한 정보가 제공되면, 상기 중앙 카메라 또는 상기 로컬 카메라가 이 동물체가 검출된 영역에 대해 촬상을 수행할 수 있도록 상기 중앙카메라 또는 로컬 카메라를 제어하고, 등록된 관리자의 통신주소로 경보정보를 전송하는 원격제어처리부; 상기 데이터 베이스에 저장된 영상정보의 열람을 요구시 해당 정보를 제공하는 자료열람 제공부를 구비하고,The management server includes: a reception information processing unit that stores the image transmitted from the central camera in a database and compares frames of the image stored in the database to determine the presence or absence of a moving object; When information on a moving object is provided from the reception information processing unit, the central camera or the local camera controls the central camera or the local camera so that it can capture an area where the animal object is detected, and A remote control processing unit for transmitting alarm information to a communication address; When requesting to view the image information stored in the database, and having a data viewing providing unit that provides the information,

상기 위치 정보 제공부는 상기 중앙 카메라의 위치정보를 제공하기 위해 설치된 GPS수신기와; 상기 중앙카메라의 자세 정보를 제공하는 디지털 마그네틱 콤파스를 구비한다. 항만통합 보안감시 시스템은 광대한 항만 시설 내로의 수상, 수중, 공중 및 지상을 통한 침입여부를 감시 및 추적할 수 있다. The location information providing unit includes a GPS receiver installed to provide location information of the central camera; And a digital magnetic compass that provides posture information of the central camera. The port integrated security monitoring system can monitor and track the intrusion into vast port facilities through water, water, air and ground.

이와 관련된 선행기술5로써, 특허 등록번호 10-1045323에서는 다시점 카메라 시스템을 이용하여 항만에 대한 파노라마 영상을 생성하고, 여기에 AIS, PORT-MIS 또는 레이더 신호와 연계하여 360도 실시간 항만 관제가 가능한 "다시점 카메라 시스템을 이용한 실시간 항만 영상관제 시스템 및 그 방법"이 등록되어 있다. As a related prior art 5, in Patent Registration No. 10-1045323, a panoramic image of a port is generated using a multi-view camera system, and 360-degree real-time port control is possible in connection with AIS, PORT-MIS or radar signals. "A real-time port video control system using a multi-view camera system and its method" has been registered.

다시점 카메라 시스템을 이용한 실시간 항만 영상관제 시스템은 A real-time port video control system using a multi-view camera system

항만 전체를 다수의 카메라로 분할하여 동시에 촬영하고, 상기 촬영된 영상들로부터 파노라마 영상 데이터를 생성하는 다시점 카메라 시스템과; A multi-view camera system for dividing the entire port into a plurality of cameras to simultaneously take pictures, and generating panoramic image data from the captured images;

상기 파노라마 영상 데이터에서 파노라마 공간 좌표계를 생성하는 파노라마 좌표부와; A panoramic coordinate unit for generating a panoramic spatial coordinate system from the panoramic image data;

선박의 AIS 신호, PORT-MIS, 레이더 중 어느 하나 이상을 수신하여 선박 정보를 제공하는 선박 정보 입력부와; A ship information input unit that provides ship information by receiving at least one of a ship's AIS signal, PORT-MIS, and radar;

전자해도에서 항만의 지형 정보를 입력하는 지형 정보 입력부와; A topographic information input unit for inputting topographic information of a port in the electronic chart;

상기 다시점 카메라 시스템의 파노라마 영상 데이터에 상기 선박 정보 입력부의 선박 정보와 지형 정보 입력부의 지형 정보를 매칭하여 표시하는 영상 관제 표시부로 구성된 다시점 카메라 시스템을 이용한 실시간 항만 영상관제 시스템을 제공하며, 이에 따라 한 화면에 항만 전체를 표시할 수 있으므로 360도 실시간 항만 영상관제가 가능하게 되는 것이며, 이러한 파노라마 영상에 AIS, PORT-MIS 또는 레이더 신호로부터 분석한 선박 정보를 표시하며, 기존 선박과 관제사 간에 무선 통신을 이용해 주고받던 정보들을 파노라마 영상으로 한 화면에 표시하며 관제사가 현장을 직접 보면서 관제하는 것과 같이 영상관제를 하는 효과를 얻을 수 있다.Provides a real-time port video control system using a multi-view camera system composed of an image control display unit that matches and displays the ship information of the ship information input unit and the terrain information of the terrain information input unit with the panoramic image data of the multi-view camera system. Accordingly, since the entire port can be displayed on one screen, 360-degree real-time port video control is possible. Ship information analyzed from AIS, PORT-MIS or radar signals is displayed on this panoramic image, and wireless communication between the existing ship and the controller The information that was exchanged by using is displayed on a single screen as a panoramic image, and the effect of controlling the video can be obtained as if the controller was watching the site directly.

이와 관련된 선행기술6로써, 특허 등록번호 10-1313025에서는 "무선인식을 이용한 항만 장치장 내 무인이송장비의 정지위치 인식시스템"이 공개되어 있다.As a prior art 6 related to this, in Patent Registration No. 10-1313025, "a system for recognizing a stop position of an unmanned transport equipment in a port facility using wireless recognition" is disclosed.

무선인식을 이용한 항만 장치장 내 무인이송장비의 정지위치 인식시스템은 The stationary position recognition system of unmanned transport equipment in the port facility using wireless recognition

무인이송장비의 정지위치 인식시스템에 있어서,In the stationary position recognition system of unmanned transportation equipment,

항만 터미널 장치장 내에 지정된 구역에 설치 구성되는 무선인식(RFID) 태그(100);A radio identification (RFID) tag 100 installed and configured in a designated area within the port terminal equipment field;

항만 터미널 장치장 내의 겐트리 크레인(10, Gentry Crane), 타워 크레인(20, Tower Crane)에 설치 구성되는 무선인식(RFID) 리더기(200);A wireless recognition (RFID) reader 200 installed and configured in a gantry crane 10, a tower crane 20 in a port terminal equipment site;

항만 터미널 장치장 내의 겐트리 크레인(Gentry Crane), 타워 크레인(Tower Crane)에 설치 구성되어 중앙통제수단과 무선 통신하기 위한 무선랜모듈(300);A wireless LAN module 300 for wireless communication with a central control means installed and configured in a gantry crane and a tower crane in the port terminal equipment;

2개의 지향성 안테나가 탑재된 무선인식(RFID)리더기와 무선랜 모듈이 설치 구성되는 무인운반차량(400);An unmanned vehicle 400 in which a wireless identification (RFID) reader and a wireless LAN module are installed and configured with two directional antennas;

겐트리 크레인(Gentry Crane)에 하역 작업을 수행할 위치 정보를 송출하며, 무인운반차량에 작업 구역으로 이동하기 위한 호출 메세지를 송출하며, 타워 크레인(Tower Crane)에 작업 구역으로 이동하기 위한 호출 메세지를 송출하는 중앙통제수단(500)을 포함하여 구성된다.Sending location information to perform unloading work to the Gentry Crane, sending a call message to move to the work area to an unmanned vehicle, and a call message to move to the work area to the Tower Crane It is configured to include a central control means 500 for sending.

이와 관련된 선행기술7로써, 특허 등록번호 10-1042343에서는 "UWB 센서를 사용한 항만 내 차량의 위치 인식시스템"이 등록되어 있다. As a prior art 7 related to this, in Patent Registration No. 10-1042343, "a system for recognizing the location of vehicles in a port using a UWB sensor" is registered.

항만 내 운행 중인 차량의 위치 인식하는 기술은, 기존 GPS, RFID가 아닌 UWB 센서를 이용하여 항만내의 차량의 위치를 인식하는 방법을 제공한다. 기존 GPS를 이용한 차량의 위치 인식 시스템의 항만 내에서 차량의 위치가 5m 이상의 차이를 보였고, RFID를 이용한 차량위치 인식시스템은 항만의 특수한 환경적인 요소인 물과 컨테이너 인체 오차가 1~5M 이상의 위치 오차를 보였다. 하지만, UWB 신호를 이용하여 30cm 이내의 위치 오차 값을 가질 수 있고, 30cm 오차도 움직이는 차량의 속도를 고려한 속도 필터를 이용하여 오차 값을 줄여 보다 정확한 차량의 위치를 인식하기 위한 것이다.The technology for recognizing the location of a vehicle running in a port provides a method of recognizing the location of a vehicle in a port using a UWB sensor rather than an existing GPS or RFID. The position of the vehicle within the port of the existing GPS-based vehicle location recognition system showed a difference of more than 5m, and the vehicle location recognition system using RFID has a location error of more than 1~5M in the water and container human body error, which is a special environmental factor of the port. Showed. However, it is possible to have a position error value within 30cm by using the UWB signal, and to recognize the position of the vehicle more accurately by reducing the error value by using a speed filter that considers the speed of a moving vehicle with a 30cm error.

제 1 관점으로 UWB 센서를 사용한 항만 내 차량의 위치 인식시스템의 속도필터를 사용한 위치인식오차감소방법에 있어서, 발신장치(100)에서 수신장치(UWB 센서)(200)에 UWB 신호를 전달하는 1단계(S110)와; 상기 수신장치(200)에서 상기 발신장치(100)의 위치를 계산하는 2단계(S120)와; 상기 수신장치(200)에서 위치인식서버(300)에 위치를 포함한 신호를 전달하는 3단계(S130)와; 상기 위치인식서버(300)에서 차량의 속도 값을 고려하여 위치 값을 속도필터를 사용하여 필터링하는 4단계(S140)와; 상기 필터링된 위치값을 그래픽유저인터페이스에 표시하는 5단계(S150)를 포함하는 UWB 센서를 사용한 항만 내 차량의 위치 인식시스템의 속도필터를 사용한 위치인식오차감소방법이 제시된다.As a first aspect, in the method for reducing a position recognition error using a speed filter of a vehicle position recognition system in a port using a UWB sensor, 1 for transmitting a UWB signal from the transmitter 100 to the receiver (UWB sensor) 200 Step (S110) and; A second step (S120) of calculating the location of the sending device 100 in the receiving device 200; A third step (S130) of transmitting a signal including a location from the receiving device 200 to the location recognition server 300; A fourth step (S140) of filtering the position value using a speed filter in consideration of the speed value of the vehicle in the position recognition server 300; A method for reducing a position recognition error using a speed filter of a position recognition system of a vehicle in a port using a UWB sensor including a fifth step (S150) of displaying the filtered position value on a graphic user interface is presented.

제 2 관점으로, UWB 센서를 사용한 항만 내 차량의 위치 인식시스템에 있어서, 항만 내 차량에 설치되어 특정신호를 발신하는 발신장치(100)와; 상기 발신장치(100)에서 발신한 신호를 수신하여 TDOA를 이용하여 발신장치(100)의 위치를 계산하고 상기 수신한 신호를 위치인식서버에 전달하는 수신장치(200)와; 상기 수신장치(200)에서 발신한 신호를 수신하여 발신장치(100)의 속도를 계산하고, 속도필터(310)를 사용하여 위치오차를 줄이는 위치인식서버(300)를 포함하는 UWB 센서를 사용한 항만 내 차량의 위치 인식시스템이 제시된다.As a second aspect, a system for recognizing a position of a vehicle in a port using a UWB sensor, comprising: a transmission device 100 installed in a vehicle in the port to transmit a specific signal; A receiving device 200 for receiving a signal transmitted from the transmitting device 100, calculating a location of the transmitting device 100 using TDOA, and transmitting the received signal to a location recognition server; Port using a UWB sensor including a location recognition server 300 that receives the signal transmitted from the receiving device 200 to calculate the speed of the sending device 100 and reduces the position error using the speed filter 310 The location recognition system of my vehicle is presented.

1. Non-GPU 기반 딥러닝 영상처리 기술 개발의 필요성1. Necessity of developing non-GPU-based deep learning image processing technology

Figure 112020086055347-pat00001
Figure 112020086055347-pat00001

Figure 112020086055347-pat00002
Figure 112020086055347-pat00002

최근, 세계 3위의 컨테이너 항만 보유국인 국내의 항만 물류 산업은 상하이를 인접 국가의 주변항의 급성장과 지식 기반 항만물류 기술 산업, 조선 및 해운업의 불경기까지 겹쳐 있지만, ICT 기술을 기반으로 선진화된 지능형 항만 시스템이 필요하게 되었다. Recently, the port logistics industry in Korea, the world's third largest container port owner, overlaps Shanghai with the rapid growth of neighboring ports in neighboring countries, knowledge-based port logistics technology industry, and the downturn in shipbuilding and shipping industries, but advanced intelligent ports based on ICT technology. A system was needed.

해양수산부는 기존 상용화된 해외 자동화 항만 기술 대비 효율성·생산성을 향상하기 위한 스마트 자동화 항만 시스템(Overhead Shuttle System, OSS)을 연구개발을 추진하였다(2013-2017). - 초대형 컨선(2만5천 TEU급) 22시간 하역 서비스(재래식 : 40시간, 해외자동화 : 28시간 이상 소요) -The Ministry of Maritime Affairs and Fisheries promoted research and development of a smart automated port system (Overhead Shuttle System, OSS) to improve efficiency and productivity compared to existing commercialized overseas automated port technology (2013-2017). -Extra-large conveyor (25,000 TEU class) 22 hours unloading service (conventional: 40 hours, overseas automation: more than 28 hours)-

지금까지 국내 항만 컨테이너터미널에서는 양적하시에 언더맨, 작업 관리자, 신호수, 겸수 등 많은 인력이 동원되어 수동적으로 이루어지고 있으며, 이로 인해 인건비, 안전사고의 위험성, 작업 효율성, STS 양적하시에 작업자의 육안 인식에 의해 이루어지는 작업자의 휴먼 에러가 발생되고 있다. 또한, 일부 자동화 된 항만 컨테이너 터미널에서는 900MHz RFID를 사용하여 수동터미널 대비 항만 컨테이너 터미널의 양·적하 생산성 및 효율성을 높이고 있다. GPS를 적용한 항만 컨테이너 터미널은 PNC(부산신항만주식회사)가 터미널이 유일하다.Until now, in domestic port container terminals, many human resources such as underman, work manager, signal officer, and combined staff have been mobilized and passively carried out during loading. This is the result of labor costs, risk of safety accidents, work efficiency, and the naked eye of workers when loading STS. The human error of the operator is occurring due to recognition. In addition, some automated port container terminals use 900MHz RFID to increase the productivity and efficiency of loading and unloading port container terminals compared to manual terminals. PNC (Busan New Port Co., Ltd.) is the only port container terminal to which GPS is applied.

도 1b는 항만 Gate, Yard의 Block, Block Entrance, ARMGC, QC, TC, STS(Ship To Shore Crane)를 구비하는 항만 컨테이너 터미널의 Yard 지도이다. 항만 Gate와 세관 검사장(CS)을 통과하면, 해당 차량의 RFID가 검출되고 작업자가 작업지시서를 발급받고 항만 물류 정보를 관리하며, Yard의 Block(A1,B1,C1,D1,E1,F1,G1, A2,B2,C2,D2,E2,F2,G2)의 각각의 블록 진입구(Block Entrance)는 카메라와 좌우에 RFID 리더가 구비되며, 배에 컨테이너를 양적하하는 QC(Quay Crane)가 구비된다. XT, YT 차량은 해측(sea side)만 일방 통행한다. 1B is a Yard map of a port container terminal equipped with a port gate, Yard's Block, Block Entrance, ARMGC, QC, TC, and STS (Ship To Shore Crane). When passing through the port gate and customs inspection site (CS), the relevant vehicle's RFID is detected, and the operator receives work orders and manages port logistics information, and Yard's Blocks (A1, B1, C1, D1, E1, F1, G1) , A2,B2,C2,D2,E2,F2,G2) each block entrance is equipped with a camera and an RFID reader on the left and right, and a QC (Quay Crane) that loads and loads containers on the ship. . XT and YT vehicles have one way only on the sea side.

TC는 Transfer Crane, ATC는 Automated Transfer Crane(ARMGC), YT는 Yard Tractor, XT는 external truck, STS는 Ship To Shore Shore, QC는 Quay Crane이다. TC is Transfer Crane, ATC is Automated Transfer Crane (ARMGC), YT is Yard Tractor, XT is external truck, STS is Ship To Shore Shore, and QC is Quay Crane.

TC(Transfer Crane)는 RTGC(Rubber Tired Gantry Crane)와 RMGC(Rail Mounted Gantry Crane)를 구비한다. RTGC는 무인화(완전 자동, 반자동)가 아직 안되어 있으며, RMGC는 무인화(완전 자동, 반자동) 운영중인데 무인 RMGC를 ARMGC(Automated Rail Mounted Gantry Crane)이라고 한다. ARMGC는 초당 2~3m 이동하며 운용사마다 ATC(Automated Transfer Crane)라고 불린다.TC (Transfer Crane) is equipped with RTGC (Rubber Tired Gantry Crane) and RMGC (Rail Mounted Gantry Crane). RTGC is not yet unmanned (fully automatic, semi-automatic), and RMGC is operating unmanned (fully automatic, semi-automatic). Unmanned RMGC is called ARMGC (Automated Rail Mounted Gantry Crane). ARMGC moves 2-3m per second and is called ATC (Automated Transfer Crane) for each operator.

기존 항만 컨테이너 터미널 RFID 시스템은 항만 뮬류 RFID 시스템으로써, 항만 게이트 출입구 RFID 시스템, Yard RFID 시스템, ATC RFID 시스템, QC RFID 시스템이 구비되며 터미널 운용 시스템(TOS)에 연결되며, 항만 Gate 출입구, 차량의 900MHz RFID 태그를 사용한 차량 출입 관리와 작업 지시서를 발급받고 항만 물류 관리 정보와 세관 정보를 관리하며, 차량 번호 인식, RFID 리더가 Yard의 블록 진입구(Block Entrance)마다 설치되며, QC(Quay Crane)에서 선박으로 양·적하되는 컨테이너 번호 인식, ATC(Automated Transfer Crane, ARMGC)에 구비된다. RFID 시스템은 차량에 부착된 900MHz RFID 태그를 검출하는 900MHz RFID 리더와 미들웨어와 PC를 구비한다. The existing port container terminal RFID system is a port mule type RFID system, equipped with a port gate entrance RFID system, Yard RFID system, ATC RFID system, and QC RFID system, and is connected to the terminal operation system (TOS), and is connected to the port gate entrance and vehicle 900MHz. Vehicle access control and work orders using RFID tags are issued, port logistics management information and customs information are managed, vehicle number recognition, and RFID readers are installed at each block entrance of Yard, and ships at QC (Quay Crane) It is equipped in ATC (Automated Transfer Crane, ARMGC), which recognizes the number of containers being loaded and unloaded. The RFID system includes a 900MHz RFID reader, middleware, and PC that detects 900MHz RFID tags attached to a vehicle.

현재까지 항만 컨테이너 터미널은 자동화를 위해 바코드 인식, 900MHz RFID 인식, GPS+RTLS(2.4GHz 비콘)을 개발하였으나, 항만 컨테이너 터미널의 GPS 위치 측위 오차와 환경적인 변수에 의해 큰 오차를 나타내고 있으며, 신뢰성 있는 정보를 받지 못하고 있다.To date, port container terminals have developed barcode recognition, 900MHz RFID recognition, and GPS+RTLS (2.4GHz beacon) for automation, but they show a large error due to GPS positioning errors and environmental variables of the port container terminal. You are not receiving information.

RTLS 기술은 RFID, GPS, 2.4GHz 비콘 기술을 사용한 여러가지 솔류션이 제공되고 있으나, 항만 터미널의 ISM 밴드의 전파 간섭과 환경적인 영향에 의해 신뢰성있는 항만 컨테이너 차량의 정확한 위치 추적이 필요하다. RTLS technology provides various solutions using RFID, GPS, and 2.4GHz beacon technology, but reliable location tracking of port container vehicles is required due to environmental effects and radio interference of the ISM band of the port terminal.

또한, 항만 컨테이너 터미널에서 사용된 적외선 투광기가 구비된 차량 번호를 인식하는 차량 검지기로 사용되는 LPR(License Plate Recognition)(차선당 1,000만원), OCR(Optical character recognition)(항만 게이트용 차선당 7,000만원), 고사양의 GPU(graphic processing unit) 기반 영상인식 시스템은 고성능의 그래픽 처리를 위한 복잡한 하드웨어 구성과 고가의 시스템 구축 비용이 들며, 각각의 판독 소프트웨어 사용으로 호환이 어렵고, 인식률이 서로 상이하다(OCR은 문자 이외에 판독 안됨). In addition, LPR (License Plate Recognition) (10 million won per lane) and OCR (Optical character recognition) (70 million won per lane for port gates) are used as vehicle detectors that recognize vehicle numbers equipped with infrared emitters used in port container terminals. ), high-end GPU (graphic processing unit) based image recognition system requires complex hardware configuration and expensive system construction cost for high-performance graphic processing, and it is difficult to be compatible with each reading software, and the recognition rate is different from each other (OCR Is not read other than characters).

이를 위해, 인공지능의 딥러닝 모듈이 탑재된 소형 FPGA 기반 임베디드 비전 시스템의 영상인식 기술 개발이 필요하며, Non-GPU 기반 딥러닝 영상 인식 모듈과 정밀한 위치 보정이 가능한 GPS 시스템의 개발이 필요하며, 항만 컨테이너 터미널의 양적하 효율성을 높이고 신뢰성을 개선해야 한다. For this, it is necessary to develop image recognition technology for a small FPGA-based embedded vision system equipped with an artificial intelligence deep learning module, and a non-GPU-based deep learning image recognition module and a GPS system capable of precise position correction are required. The efficiency of loading and unloading of port container terminals should be improved and reliability should be improved.

본 기업은 2012년 설립 후, 국내외 항만 컨테이너 터미널의 자동화 시스템을 개발/구축하였으며, 그외 터미널, 출입 통제, 항만 통합 물류 관리 시스템에 HW/SW 납품 실적을 가지고 있다. Since its establishment in 2012, the company has developed/built an automation system for domestic and overseas port container terminals, and has a track record of delivering HW/SW to terminals, access control, and port integrated logistics management systems.

해외 항만 컨테이너 터미널의 경우, 넓은 부지로 인해 컨테이너를 높게 적재하지 않아 멀티 패스 현상이 발생하지 않는다. In the case of overseas port container terminals, the multi-pass phenomenon does not occur because containers are not loaded high due to the large site.

국내 항만 컨테이너 터미널의 경우 4~6 단의 컨테이너 적재로 인해 난반사가 심하며, 지구 자전에 의한 오차, 적재된 컨테이너에 의한 음영 및 난반사로 인한 오차가 존재한다. In the case of domestic port container terminals, diffuse reflection is severe due to the loading of 4-6 containers, and errors due to earth rotation, shading and diffuse reflection due to loaded containers exist.

특허 등록번호 10-0794410 (등록일자 2008년 1월 7일), "항만 트레일러 자동 정지위치 모니터링 시스템", 권영수, 이권순Patent Registration No. 10-0794410 (Registration Date January 7, 2008), "Port Trailer Automatic Stop Position Monitoring System", Kwon Young-soo, Lee Kwon-soon 특허 등록번호 10-1978292 (등록일자 2019년 5월 8일), "항만 게이트 OCR 시스템 장치", (주) 케이엔에스Patent Registration No. 10-1978292 (Registration Date May 8, 2019), "Port Gate OCR System Device", KNS Co., Ltd. 특허 등록번호 10-1068681 (등록일자 2011년 9월 22일), "항만 통합 보안 감시 시스템", 한국해양연구원Patent registration number 10-1068681 (Registration date September 22, 2011), "Port Integrated Security Monitoring System", Korea Ocean Research & Development Institute 특허 등록번호 10-1071379 (등록일자 2011년 9월 30일), "항만 통합 보안 감시 시스템", 한국해양연구원Patent registration number 10-1071379 (Registration date September 30, 2011), "Port Integrated Security Monitoring System", Korea Ocean Research & Development Institute 특허 등록번호 10-1045323 (등록일자 2011년 6월 23일), " 다시점 카메라 시스템을 이용한 실시간 항만 영상관제 시스템 및 그 방법", (주)에디넷Patent Registration No. 10-1045323 (Registration Date June 23, 2011), "Real-time port video control system and method using multi-view camera system", Ednet Co., Ltd. 특허 등록번호 10-1313025 (등록일자 2013년 9월 24일), "무선인식을 이용한 항만 장치장 내 무인이송장비의 정지위치 인식시스템", 동명대학교산학협력단Patent Registration No. 10-1313025 (Registration Date September 24, 2013), "Stop Position Recognition System of Unmanned Transport Equipment in Harbor Equipment Using Wireless Recognition", Dongmyeong University Industry-Academic Cooperation Foundation 특허 등록번호 10-1042343 (등록일자 2011년 6월 10일), "UWB 센서를 사용한 항만 내 차량의 위치 인식시스템", 동명대학교산학협력단Patent Registration No. 10-1042343 (Registration Date June 10, 2011), "Location Recognition System of Vehicles in Harbor Using UWB Sensor", Dongmyeong University Industry-Academic Cooperation Foundation

상기 문제점을 해결하기 위한 본 발명의 목적은 항만 컨테이너 터미널에서 차량 출입 관리와 다수의 카메라와 연동된 FPGA 기반 임베디드 비전 시스템(TLEM)의 딥러닝 모듈에 의해 딥러닝 학습 데이터에 따라 카메라 영상의 객체들의 특징 추출과 분류를 통해 컨테이너 차량과 사람을 검출하며, 항만 Gate/Yard의 Block/Block Entrance, ARMGC 차량 검출, 차선 인식, 차량 번호 인식, 컨테이너 번호 인식, 위험 지역 작업자 및 차량 검출, 역 주행 차량 검출, 작업자의 안전보호구/안전 조끼 착용 여부 검출, QC에서 선박으로 양적하되는 컨테이너 번호(ISO 코드) 추출하며, FPGA 기반 임베디드 비전 시스템(TLEM)으로부터 미들웨어로 학습된 객체 추출 이벤트(text)와 사각박스로 마킹된 객체 추출 영상 데이터를 전송하며, DR-GPS를 구비한 차량의 위치 정보(X,Y 좌표)를 터미널 운용 시스템(TOS)으로 전송하며, TLEM 또는 미들웨어가 항만 컨테이너 터미널의 Yard에 구비된 해당 지역의 스피커 방송을 통해 작업자와 차량의 위험 지역 안전관리를 제공하는, 항만 컨테이너 터미널에서 차량 출입 관리와 위치 추적 및 객체를 인식하는 비전 카메라 시스템을 제공한다. An object of the present invention for solving the above problem is to control vehicle access in a port container terminal and to control objects of camera images according to deep learning learning data by a deep learning module of an FPGA-based embedded vision system (TLEM) linked with a plurality of cameras. Detects container vehicles and people through feature extraction and classification, block/block entrance of port gate/Yard, ARMGC vehicle detection, lane recognition, vehicle number recognition, container number recognition, hazardous area worker and vehicle detection, reverse driving vehicle detection , Detects whether workers are wearing safety protective equipment/safety vests, extracts the container number (ISO code) that is being loaded onto the ship from QC, and extracts the object learned as middleware from the FPGA-based embedded vision system (TLEM), event (text) and square box It transmits the object extraction image data marked with, and transmits the location information (X,Y coordinates) of the vehicle equipped with DR-GPS to the terminal operation system (TOS), and TLEM or middleware is provided in the Yard of the port container terminal. It provides a vision camera system for vehicle access management, location tracking, and object recognition at the port container terminal, which provides safety management of dangerous areas for workers and vehicles through speaker broadcasts in the corresponding area.

본 발명의 다른 목적은 딥러닝 모듈이 탑재된 FPGA 기반 임베디드 비전 시스템(TLEM)이 미들웨어를 통해 터미널 운영 시스템(TOS)과 연결되는, 항만 컨테이너 터미널에서 차량 출입 관리와 위치 추적 및 비전 카메라 시스템의 객체를 인식하는 방법을 제공한다.Another object of the present invention is that an FPGA-based embedded vision system (TLEM) equipped with a deep learning module is connected to a terminal operation system (TOS) through a middleware, and an object of vehicle access management and location tracking and vision camera system in a port container terminal Provides a way to recognize.

항만 컨테이너 터미널에서 양적하 생산성과 효율을 개선을 위한 비전 시스템은 Non-GPU 기반의 FPGA 기반 임베디드 비전 시스템의 딥러닝 모듈을 사용하여 카메라 영상의 객체 식별 및 문자 인식을 하며, YT 차량과 XT 차량은 DR-GPS와 6축 센서 또는 9축 센서를 구비하는 위치보정 DR-GPS 단말기를 구비한다. The vision system for improving the productivity and efficiency of loading and unloading at the port container terminal uses the deep learning module of the non-GPU-based FPGA-based embedded vision system to identify objects of camera images and recognize characters.YT vehicles and XT vehicles It is equipped with a DR-GPS and a position correction DR-GPS terminal equipped with a 6-axis sensor or a 9-axis sensor.

본 과제는, 첫째, 항만 컨테이너 터미널에서 항만 Gate 출입구, 교차로, Yard의 Block Entrance, STS(Ship To Shore Crane) / TC(Transfer Crane), 위험지역에 네트워크 카메라를 설치하여 차량 번호, 컨테이너 크기와 컨테이너 번호(ISO Code), YT 번호 인식, YT(Yard Tractor), 작업자 안전모/안전조끼 착용여부, 위험 지역 차량 및 작업자 검출과 인원수 감지, 차량 역주행/안전속도 감지를 위한 딥러닝 S/W를 개발하며, 둘째, 영상 인식된 YT 번호, 컨테이너 번호, 차량 번호의 객체의 문자 인식 및 DR-GPS 단말기가 탑재된 XT(external truck)의 위치 인식, 차량의 위치 보정된 GPS 위치 정보를 TOS(Terminal Operation System)에 전달하여 항만 컨테이너터미널 자동화 분야에서 상용화를 위한 기초 기술을 확보하는데 그 목적이 있다.First, in the port container terminal, the port gate entrance, intersection, Yard's block entrance, STS (Ship To Shore Crane) / TC (Transfer Crane), and network cameras are installed in hazardous areas to provide vehicle number, container size and container. Developing deep learning S/W to detect ISO Code, YT number recognition, YT (Yard Tractor), worker's hard hat/safety vest, detect vehicles and workers in hazardous areas and the number of people, and detect vehicle reverse running/safe speed. , Second, text recognition of the object of the image recognized YT number, container number, and vehicle number, and location recognition of XT (external truck) equipped with a DR-GPS terminal, and GPS location information corrected for the location of the vehicle is TOS (Terminal Operation System) ) To secure basic technology for commercialization in the port container terminal automation field.

본 발명의 목적을 달성하기 위해, 항만 컨테이너 터미널에서 차량 출입 관리와 객체를 인식하는 비전 카메라 시스템은, 항만 컨테이너 터미널에서 항만 Gate, Yard/Block, Block Entrance, ARMGC, QC 각 지역에 설치된 다수의 카메라; 및 상기 다수의 카메라 영상 데이터를 입력받아 딥러닝 모듈에 의해 학습 데이터에 따라 카메라 영상내 객체들을 검출하고 문자를 인식하며, 차선 인식, 차량 번호 인식, 컨테이너 번호(ISO code) 문자 인식, 컨테이너 데미지 인식, 블록 진입구 진입 차량 인식, 위험 지역 진입 차량과 작업자, 역주행 차량, Yard 작업자 안전보호구/안전 조끼 착용 여부 검출, 양·적하 장비 위치를 검출하고, 학습된 객체 추출 이벤트(text)와 사각박스로 마킹된 객체 추출 영상 데이터를 미들웨어로 전송하는 FPGA 기반 임베디드 비전 시스템(TLEM)을 포함하며,
상기 FPGA 기반 임베디드 비전 시스템(TLEM)은 Non-GPU 기반의 영상의 객체들을 검출하고 차량 번호와 컨테이너 번호(ISO code)의 문자를 인식하는 딥러닝 모듈을 구비한다.
In order to achieve the object of the present invention, a vision camera system for managing vehicle access and recognizing objects in a port container terminal includes a plurality of cameras installed in each area of the port gate, Yard/Block, Block Entrance, ARMGC, and QC in the port container terminal. ; And receiving the plurality of camera image data and detecting objects in the camera image according to the learning data by a deep learning module and recognizing characters, lane recognition, vehicle number recognition, container number (ISO code) character recognition, container damage recognition , Recognition of vehicles entering the block entrance, vehicles and workers entering dangerous areas, vehicles and workers entering a dangerous area, detection of whether or not wearing safety protection/safety vests for yard workers, loading/unloading equipment locations are detected, and learned object extraction event (text) and marking with square boxes It includes an FPGA-based embedded vision system (TLEM) that transmits the extracted object extracted image data to the middleware,
The FPGA-based embedded vision system (TLEM) includes a deep learning module that detects non-GPU-based image objects and recognizes characters of vehicle numbers and container numbers (ISO codes).

본 발명의 항만 컨테이너 터미널에서 객체를 인식하는 비전 카메라 시스템은 항만 컨테이너 터미널에서 차량 출입 관리와 DR-GPS 단말기(DR-GPS, 6축 센서 또는 9축 센서)를 구비하는 차량 위치 추적(YT 번호, 컨테이너 번호, 차량 번호 등), 다수의 카메라와 연동된 FPGA 기반 임베디드 비전 시스템(TLEM)의 딥러닝 모듈에 의해 딥러닝 학습 데이터에 따라 카메라 영상내 객체들의 특징 추출과 분류를 통해 컨테이너와 차량과 사람, 양적하 장비를 검출하며, 항만 Gate/Yard의 Block/Block Entrance, ARMGC 차량 검출, 차선 인식, 차량 번호 인식, 컨테이너 번호 문자 인식, 위험 지역 작업자 및 차량 검출, 역 주행 차량 검출, 작업자의 안전보호구/안전 조끼 착용 여부 검출, QC에서 선박으로 양적하되는 컨테이너 번호(ISO 코드) 추출, FPGA 기반 임베디드 비전 시스템(TLEM)으로부터 미들웨어로 학습된 객체 추출 이벤트(text)와 사각박스로 마킹된 객체 추출 영상 데이터를 전송하며, 이를 터미널 운용 시스템(TOS)으로 전송하며, TLEM 또는 미들웨어가 항만 컨테이너 터미널의 Yard에 구비된 해당 지역의 스피커 방송을 통해 작업자와 차량의 위험 지역 안전관리를 제공하여 작업자와 차량의 안전사고를 예방하고, 컨테이너 터미널에서 차량 번호 인식, STS Crane이 작업하는 컨테이너 번호(ISO 번호) 인식 및 Crane 하부 작업자 안전관리를 제공한다. DR-GPS를 구비한 컨테이너 차량(XT 차량, YT 차량)의 위치 정보(X,Y 좌표)를 미들웨어를 통해 터미널 운영 시스템(TOS)으로 전송하며, 터미널 운영 시스템(TOS)은 실시간으로 DR-GPS를 구비한 컨테이너 차량(XT 차량, YT 차량)의 위치 정보(X,Y 좌표)를 제공하여 어느 Yard의 몇 번 Block에 해당 컨테이너 차량이 있는지 실시간으로 제공한다. 이를 통해 항만 컨테이너 터미널의 자동화 시스템을 구축하여 양·적하 생산성을 향상시키게 되었다. The vision camera system for recognizing an object in a port container terminal of the present invention includes vehicle access management and a DR-GPS terminal (DR-GPS, 6-axis sensor, or 9-axis sensor) at the port container terminal. Container number, vehicle number, etc.), container, vehicle, and people through feature extraction and classification of objects in camera image according to deep learning learning data by deep learning module of FPGA-based embedded vision system (TLEM) linked with multiple cameras. , Detecting loading and unloading equipment, Block/Block Entrance of Port Gate/Yard, ARMGC vehicle detection, lane recognition, vehicle number recognition, container number text recognition, hazardous area worker and vehicle detection, reverse driving vehicle detection, worker's safety protection /Detecting whether the safety vest is worn, extracting the container number (ISO code) loaded onto the ship from QC, extracting the object learned as middleware from the FPGA-based embedded vision system (TLEM), the event (text) and the object extracted image marked with a square box It transmits data and transmits it to the terminal operation system (TOS), and TLEM or middleware provides safety management of hazardous areas of workers and vehicles through the local speaker broadcast provided in the yard of the port container terminal. It prevents safety accidents, recognizes the vehicle number at the container terminal, recognizes the container number (ISO number) that STS Crane works on, and provides safety management for workers under the crane. The location information (X,Y coordinates) of container vehicles (XT vehicles, YT vehicles) equipped with DR-GPS are transmitted to the terminal operation system (TOS) through middleware, and the terminal operation system (TOS) is DR-GPS in real time. By providing the location information (X, Y coordinates) of the container vehicle (XT vehicle, YT vehicle) equipped with, in real time, the container vehicle is provided in the number of blocks of which yard. Through this, the automation system of the port container terminal was established to improve the unloading and unloading productivity.

또한, 항만 컨테이너 터미널에서, 컨테이너들이 적재되어 높게 쌓인 컨테이너에 의해 발생되는 멀티패스(multi-path)에 의한 위치 오차와 TC(Transfer Crane) 또는 QC(Quay Crane) 밑에서 GPS 신호를 받지 못하는 환경에서, 9축 센서와 차량의 CAN 신호와, 차량의 속도 신호를 이용하여 항만내 차량의 정밀 위치 측위 가능한 DR-GPS 단말기(안테나, DR-GPS, 6축 센서 또는 9축 센서 사용)를 개발하여 DR-GPS 단말기와 CAN 통신을 사용하는 차량의 항만내 정밀 위치 추적(YT 번호, 컨테이너 번호, 차량 번호 인식)이 가능하게 되었다. In addition, in the port container terminal, in the environment where GPS signals are not received under the position error due to multi-path and the TC (Transfer Crane) or QC (Quay Crane) caused by the containers stacked high by loading containers, DR-GPS terminal (using antenna, DR-GPS, 6-axis sensor or 9-axis sensor) that can precisely position the vehicle in the port using the 9-axis sensor, the vehicle's CAN signal, and the vehicle's speed signal. Accurate location tracking (YT number, container number, vehicle number recognition) in the port of vehicles using CAN communication with GPS terminals became possible.

본 제품(TLEM)은 항만 컨테이너 터미널에서 RFID, OCR, LPR 대비 가격 경쟁력 및 딥러닝 모듈의 영상의 객체 인식에 성능 우위를 가지며, 여러 가지의 기능을 하나의 기능으로 통합하여 장비 수량을 최소화하고 유지 보수 비용을 줄이며 기존의 50% 이하의 가격으로 공급이 가능하며, 항만 출입 보안 시스템, 컨테이너 터미널, 이송 장비(안벽 크레인 Quay Crane, 야드 크레인 Rail Mounted Gantry Crane, 야드 트랙터 Yard Tractor, 야드 샤시 Yard Chassis, 지게차 Fork Lift, 리치 스태커 Reach Stacker, 엠프리 핸들러 Empty Handler), 진입 차선 인식, 항만 컨테이너 터미널 출입 관리/통제, Yard 작업자 안전모/안전 조끼 착용 여부를 검출하여 항만 안전/보안에 특화된 다기능 비전 시스템을 제공하여 항만 자동화 시스템에 적용가능하다. 또한, 해외 TOS 개발사를 통한 공동 영업으로 항만 자동화 터미널의 해외 시장 진출이 가능하다. This product (TLEM) has a price competitiveness compared to RFID, OCR, and LPR in port container terminals, and has a performance advantage in object recognition of images from deep learning modules, and minimizes and maintains the number of equipment by integrating various functions into one function. It reduces maintenance costs and can be supplied at a price of less than 50% of the existing port access security system, container terminal, and transport equipment (Quay Crane, Yard Crane Rail Mounted Gantry Crane, Yard Tractor, Yard Chassis, Yard Chassis, Forklift Fork Lift, Reach Stacker Reach Stacker, Ampri Handler Empty Handler), entry lane recognition, port container terminal access management/control, and Yard worker's hard hat/safety vest detection to provide a multifunctional vision system specialized for port safety/security. Applicable to port automation system. In addition, it is possible to enter the overseas market of port automation terminals through joint sales through overseas TOS developers.

도 1a는 종래의 항만 트레일러 자동 정지위치 모니터링 시스템의 구성도이다.
도 1b는 항만 Gate, Yard의 Block, Block Entrance, ARMGC, QC, TC, STS(Ship To Shore Crane)를 구비하는 항만 컨테이너 터미널의 Yard 지도이다.
도 2a는 카메라 영상 장비를 이용한 항만 컨테이널 터미널의 양·적하 생산성, 안전과 보안 향상을 위한 기술 개발의 필요성을 나타낸 그림이다.
도 2b는 항만 물류의 컨테이너 차량의 GPS 위치 보정, FPGA 기반 임베디드 비전 시스템(Smart Vision System) 기반의 IoT 기술을 적용하여 항만 물류 유통시간의 최소화를 통한 양적하 생산성 증대와 비용 절감을 위한 기술적 필요성, 생산성 향상에 따른 경제적 효과를 보인 도면이다.
도 2c는 항만 터미널 RTLS(Real-Time Location System) 시스템, 항만 터미널 OCR 시스템, 항만 터미널 RFID 시스템 사진이다.
도 3은 항만 컨테이너 터미널에서 DR-GPS 단말기를 구비하는 차량 출입 관리와 위치 추적 및 객체를 인식하는 비전 카메라 시스템의 개요: 1) 장치장에 대한 실시간 위치정보 제공, 2) TC/ATC에서 (YT,XT ↔ Yard) vision system을 사용한 컨테이너, Shuttle, YT 번호, 차량 번호, 컨테이너 번호의 문자 인식, 및 차량 정위치 확인, 3) QC(ship ↔ XT, shuttle) 컨테이너, Shuttle, YT, 문자 인식, 및 차량 정위치 확인, 레인 위치 확인 기능을 제공한다.
도 4는 항만 컨테이너 터미널에서, 기존 LPR, OCR 인식 시스템과 GPU 기반 Vision 시스템과의 비교한 그림이다.
도 5는 항만 컨테이너 터미널에서, 기존 GPS/GNSS, DGPS, 2.4GHz BLE 비콘/Wi-Fi 게이트웨이 항만 위치 추적 시스템과, 개발된 DR-GPS 단말기와 6축 센서/9축 센서와 이용한 위치 보정 시스템을 비교한 도면이다.
도 6은 차세대 미래형 스마트 포트(smart port)를 위한 Gate system/TC system/QC system/Block Entrance/Safety 응용 분야의 기술 로드맵을 보인 도면이다.
도 7a는 딥러닝을 사용한 카메라 영상의 실시간 객체 인식: CNN(Convolutional Neural Networks) 개념, RNN(Recurrent Neural Networks)과LSTM(Long-Short Term Memory)의 적용 개념을 설명한 도면이다.
도 7b는 딥러닝을 사용한 카메라 영상의 실시간 객체 인식: YOLO(You Only Look Once)모델을 설명한 도면이다.
도 8은 항만 컨테이너 터미널에서 비전 카메라 시스템과 모니터링 PC의 미들웨어를 통해 터미널 운용 시스템(TOS)과 연동되는 최종 개발 목표를 보인 도면이다.
도 9a는 항만 컨테이너 터미널에서, (1) Non-GPU 기반 객체인식 딥러닝 모듈 SW와 FPGA 기반 임베디드 비전 시스템(TLEM)의 프레임워크를 나타낸 도면이다.
도 9b는 항만 컨테이너 터미널에서, (2) 9축 센서를 이용한 고정밀 Dead Reckoning 적용 DR-GPS 모듈 개발, (3) 터미널 운용 시스템(Terminal Operating System, TOS)과의 연계를 위한 통합 미들웨어를 나타낸 도면이다.
도 9c는 터미널 운용 시스템(Terminal Operating System, TOS)과의 연계를 위한 통합 미들웨어 구성도이다.
도 10은 본 발명에 따른 항만 컨테이너 터미널에서 DR-GPS 단말기(DR-GPS와 6축 센서/9축 센서)를 구비하는 차량 출입 관리와 위치 추적 및 객체를 인식하는 비전 카메라 시스템 구성도이다.
도 11은 본 발명의 실시예에 따른 항만 컨테이너 터미널에서 차량 출입 관리와 카메라 영상의 객체를 인식하는 비전 카메라 시스템의 구성도이다.
도 12는 카메라 영상의 객체를 검출하고 차량 번호와 컨테이너 번호(ISO code)가 포함된 이미지의 문자를 인식하는 딥러닝 모듈(YOLO, SSD)이 탑재된 FPGA 기반 임베디드 비전 시스템(TLEM)의 블럭도이다.
도 13은 항만 안전과 컨테이너 터미널의 양적하 생산성과 효율을 향상시키기 위한 Non-GPU 기반 딥러닝 모듈이 탑재된 FPGA 기반 임베디드 비전 시스템의 정량적 평가 항목을 보인 도면이다.
도 14는 항만 컨테이너 터미널에서 실시간 카메라 영상 데이터 및 위치 정보 서비스 화면이다.
도 15는 항만 컨테이너 터미널 테스트 영상: (1) GPS only, (2) GPS + 9축 센서 + 위치 보정 알고리즘을 사용한 항만 컨테이너 터미널에서 차선 구분이 가능한 위치 보정 GPS 테스트 - 수평 구조 Yard의 Block 사이의 거리는 20~24m 간격 이다.
도 16은 항만 컨테이너 터미널에서, Port GPS system(차량 추적), Port RFID system(차량 인식), OTR device(차량 위치 인식), BLE Beacon System (IoT)의 년도별 사업화 실적을 보인 도표이다.
도 17은 사업화 모델 비즈니스 전략, 해외 시장 진출 계획을 보인 도표이다.
도 18은 국내 컨테이너 터미널의 상/하역 장비 현황 및 전세계 물동량 추이를 나타낸다.
도 19는 국내외 자동화 컨테이너 터미널의 년도별 수요 전망을 나타낸다.
1A is a block diagram of a conventional port trailer automatic stop position monitoring system.
1B is a Yard map of a port container terminal equipped with a port gate, Yard's Block, Block Entrance, ARMGC, QC, TC, and STS (Ship To Shore Crane).
FIG. 2A is a diagram showing the necessity of developing technology for improving the productivity, safety and security of a port container terminal using a camera imaging device.
Figure 2b is a technical necessity for increasing productivity and cost reduction by minimizing the distribution time of port logistics by applying GPS position correction of container vehicles in port logistics and IoT technology based on FPGA-based embedded vision system (Smart Vision System), It is a diagram showing the economic effect of productivity improvement.
2C is a photograph of a port terminal Real-Time Location System (RTLS) system, a port terminal OCR system, and a port terminal RFID system.
Figure 3 is an overview of a vision camera system for vehicle access management and location tracking and object recognition equipped with a DR-GPS terminal in a port container terminal: 1) Real-time location information for the equipment site, 2) TC/ATC (YT, XT ↔ Yard) container using vision system, Shuttle, YT number, vehicle number, character recognition of container number, and vehicle correct position confirmation, 3) QC (ship ↔ XT, shuttle) container, Shuttle, YT, character recognition, and Provides vehicle correct position check and lane position check function.
4 is a diagram illustrating a comparison between an existing LPR and OCR recognition system and a GPU-based vision system in a port container terminal.
5 is a port container terminal, an existing GPS/GNSS, DGPS, 2.4GHz BLE beacon/Wi-Fi gateway port location tracking system, and a location correction system used with a developed DR-GPS terminal and a 6-axis sensor/9-axis sensor. It is a comparison drawing.
6 is a diagram showing a technology roadmap for the application field of Gate system/TC system/QC system/Block Entrance/Safety for next-generation future smart ports.
7A is a diagram illustrating a real-time object recognition of a camera image using deep learning: the concept of convolutional neural networks (CNN), recurrent neural networks (RNN), and long-short term memory (LSTM) applications.
7B is a diagram illustrating a real-time object recognition: You Only Look Once (YOLO) model of a camera image using deep learning.
8 is a diagram showing the final development goal of linking with the terminal operation system (TOS) through the middleware of a vision camera system and a monitoring PC in a port container terminal.
9A is a diagram showing a framework of (1) a non-GPU-based object recognition deep learning module SW and an FPGA-based embedded vision system (TLEM) in a port container terminal.
9B is a view showing an integrated middleware for (2) developing a high-precision dead reckoning applied DR-GPS module using a 9-axis sensor, and (3) linking with a terminal operating system (TOS) in a port container terminal. .
9C is a block diagram of an integrated middleware for linking with a terminal operating system (TOS).
10 is a block diagram of a vision camera system for vehicle access management, location tracking, and object recognition including a DR-GPS terminal (DR-GPS and 6-axis sensor/9-axis sensor) in a port container terminal according to the present invention.
11 is a block diagram of a vision camera system for managing vehicle access and recognizing an object of a camera image in a port container terminal according to an embodiment of the present invention.
12 is a block diagram of an FPGA-based embedded vision system (TLEM) equipped with a deep learning module (YOLO, SSD) that detects an object in a camera image and recognizes characters in an image including a vehicle number and a container number (ISO code). to be.
13 is a diagram showing quantitative evaluation items of an FPGA-based embedded vision system equipped with a non-GPU-based deep learning module to improve port safety and productivity and efficiency of loading and unloading container terminals.
14 is a real-time camera image data and location information service screen in a port container terminal.
Figure 15 is a port container terminal test image: (1) GPS only, (2) GPS + 9-axis sensor + location correction GPS test that can distinguish lanes at the port container terminal using a position correction algorithm-The distance between blocks of the horizontal structure Yard is It is 20~24m interval.
FIG. 16 is a chart showing the commercialization performance of Port GPS system (vehicle tracking), Port RFID system (vehicle recognition), OTR device (vehicle location recognition), and BLE Beacon System (IoT) by year in a port container terminal.
17 is a diagram showing a commercialization model business strategy and plans to enter overseas markets.
18 shows the current status of the loading/unloading equipment of a domestic container terminal and the trend of global shipments.
19 shows the annual demand forecast of domestic and overseas automated container terminals.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 발명의 구성 및 동작을 상세하게 설명한다. 본 발명의 설명에 있어서 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 자세한 설명을 생략한다. 또한, 첨부된 도면 번호는 동일한 구성을 표기할 때에 다른 도면에서 동일한 도면번호를 부여한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the present invention, when it is determined that a detailed description of a related known function or a known configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, when the attached reference numbers indicate the same configuration, the same reference numbers are assigned to other drawings.

본 발명의 항만 컨테이너 터미널에서 차량 출입 관리와 위치 추적 및 객체를 인식하는 비전 카메라 시스템은 항만 컨테이너 터미널에서 차량 출입 관리와 DR-GPS 단말기(DR-GPS, 6축 센서 또는 9축 센서를 구비)를 구비하는 차량 위치 추적(YT 번호, 컨테이너 번호, 차량 번호 등), 다수의 카메라와 연동된 FPGA 기반 임베디드 비전 시스템(Tiny Local Embedded Module, TLEM)의 딥러닝 모듈이 지능형 영상 분석에 의해 딥러닝 학습 결과에 따라 카메라 영상내 객체들(컨테이너, 차량, 사람, 양·적하 장비)의 특징 추출과 분류를 통해 컨테이너 차량과 사람을 검출하며, 항만 Gate/Yard의 Block/Block Entrance 차량 검출, 차선 인식, 차량 번호 인식, 컨테이너 번호(ISO code) 문자 인식, 위험 지역 작업자 및 차량 검출, 역 주행 차량 검출, 작업자의 안전보호구/안전 조끼 착용 여부 검출, QC에서 선박으로 양적하되는 컨테이너 번호(ISO 코드) 문자 추출, FPGA 기반 임베디드 비전 시스템(TLEM)으로부터 미들웨어로 학습된 객체 추출 이벤트(text)와 사각박스로 마킹된 객체 추출 영상 데이터를 전송하며, 이를 터미널 운용 시스템(TOS)으로 전송하며, FPGA 기반 임베디드 비전 시스템(TLEM) 또는 미들웨어가 항만 컨테이너 터미널의 Yard의 Block에 구비된 해당 지역의 스피커 방송을 통해 작업자와 차량의 위험 지역 안전관리를 제공하며, 항만 컨테이너 터미널에서 차량 번호 인식, 차선 인식, STS Crane이 작업하는 컨테이너 번호(ISO 번호) 문자 인식 및 Crane 하부 작업자 안전관리를 제공한다. FPGA 기반 임베디드 비전 시스템(TLEM)은 미들웨어를 통해 터미널 운영 시스템(TOS)과 연동된다. GPS 안테나와 DR-GPS 단말기를 구비한 차량의 위치(X,Y 좌표)를 실시간으로 미들웨어를 통해 터미널 운영 시스템(TOS)으로 전송하며, 터미널 운영 시스템(TOS) The vision camera system for vehicle access management, location tracking, and object recognition in a port container terminal of the present invention includes vehicle access management and a DR-GPS terminal (with DR-GPS, 6-axis sensor or 9-axis sensor) in the port container terminal. Equipped vehicle location tracking (YT number, container number, vehicle number, etc.), deep learning module of FPGA-based embedded vision system (Tiny Local Embedded Module, TLEM) linked with multiple cameras, through intelligent image analysis, results of deep learning learning Detects container vehicles and people through feature extraction and classification of objects (containers, vehicles, people, loading/unloading equipment) in the camera image according to, and detecting block/block entrance vehicles of port gate/yard, lane recognition, vehicle Number recognition, container number (ISO code) character recognition, hazardous area worker and vehicle detection, reverse driving vehicle detection, detection of whether the worker is wearing safety protective gear/safety vest, extraction of container number (ISO code) characters quantitatively unloaded from QC to the ship , Transmits the object extraction event (text) learned from the FPGA-based embedded vision system (TLEM) to the middleware and the object extraction image data marked with a square box, and transmits it to the terminal operating system (TOS), and an FPGA-based embedded vision system (TLEM) or middleware provides safety management of dangerous areas for workers and vehicles through speaker broadcasting in the area equipped on the Yard block of the port container terminal, and the vehicle number recognition, lane recognition, and STS Crane work in the port container terminal. It provides the container number (ISO number) character recognition and safety management for workers under the crane. The FPGA-based embedded vision system (TLEM) is interlocked with the terminal operating system (TOS) through middleware. The location (X,Y coordinates) of a vehicle equipped with a GPS antenna and a DR-GPS terminal is transmitted to the terminal operation system (TOS) through middleware in real time, and the terminal operation system (TOS)

다. 항만 컨테이너 터미널의 자동화 시스템을 구축하여 양·적하 생산성을 향상시키기 위한 것이다. All. It is to improve the productivity of loading and unloading by establishing an automated system for port container terminals.

비전 시스템은 기존의 GPU 기반 비전 시스템을 사용하지 않고, The vision system does not use the existing GPU-based vision system,

실시예에서는, 다수의 카메라와 연결되는 Non-GPU 기반 딥러닝 모듈이 탑재된 FPGA 기반 임베디드 비전 시스템(TLEM, IoT 디바이스)을 사용한다. In the embodiment, an FPGA-based embedded vision system (TLEM, IoT device) equipped with a non-GPU-based deep learning module connected to a plurality of cameras is used.

본 과제는 항만 컨테이너 터미널에서 적용되지 않았던 Non-GPU 기반 FPGA 기반 임베디드 비전 시스템(TLEM)의 딥러닝 모듈을 사용하여 카메라 영상의 객체들(컨테이너, 차량, 사람, 양적하 장비 등)을 검출하며, 사전에 객체를 학습한 데이터를 임베디드 비전 시스템에 적용하며, TLEM의 딥러닝 모듈에 의해 학습 데이터에 따라 카메라 영상내 객체 인식을 처리함으로써, 고속 인식 및 하드웨어의 저 사양 적용이 가능하다. 또한, DR-GPS와 9축 센서를 이용한 고정밀 Dead Reckoning 적용한 DR-GPS 단말기를 개발하여 항만 물류 통합 서비스를 제공하는 새로운 기술을 도입하였다.This task detects objects of camera images (containers, vehicles, people, loading and unloading equipment, etc.) using the deep learning module of the non-GPU-based FPGA-based embedded vision system (TLEM), which was not applied in the port container terminal. By applying the data obtained by learning the object in advance to the embedded vision system, and processing the object recognition in the camera image according to the learning data by the deep learning module of TLEM, high-speed recognition and low specification of hardware can be applied. In addition, by developing a DR-GPS terminal with high-precision dead reckoning using DR-GPS and 9-axis sensors, a new technology was introduced to provide integrated port logistics services.

항만 컨테이너 터미널의 항만 Gate에서 출입구 카메라 영상 데이터가 입력된 Non-GPU 기반 FPGA 기반 임베디드 비전 시스템(TLEM)의 딥러닝 모듈은 차선 인식, 차량 번호 인식, 컨테이너 번호가 포함된 이미지의 문자 인식하여 차량 출입관리 정보를 미들웨어를 통해 터미널 운영 시스템(TOS)으로 전송하며, 터미널 운영 시스템(TOS)은 이를 확인하여 작업지시서를 발급한다.The deep learning module of the non-GPU-based FPGA-based embedded vision system (TLEM), in which the entrance camera image data is input at the port gate of the port container terminal, recognizes lanes, vehicle numbers, and characters in images containing container numbers to enter and exit vehicles. Management information is transmitted to the terminal operating system (TOS) through middleware, and the terminal operating system (TOS) verifies this and issues a work order.

항만 컨테이너 터미널에서, 양적하 생산성과 효율을 개선하기 위해 다수의 카메라와 연동된 Non-GPU 기반의 딥러닝 모듈이 탑재된 FPGA 기반 임베디드 비전 시스템(TLEM)은 딥러닝 모듈을 사용하여 카메라 영상의 객체 식별 및 컨테이너 인식과 차량 번호 인식을 위한 문자 인식을 한다. 컨테이너 차량은 DR-GPS, 6축 센서 또는 9축 센서를 구비하는 DR-GPS 단말기를 구비하며, 컨테이너 차량의 DR-GPS 위치를 미들웨어를 통해 터미널 운영 시스템(TOS)으로 전송된다. In the port container terminal, the FPGA-based embedded vision system (TLEM), equipped with a non-GPU-based deep learning module linked to a number of cameras, uses a deep learning module to improve the productivity and efficiency of loading and unloading. Character recognition for identification, container recognition, and vehicle number recognition. The container vehicle is equipped with a DR-GPS terminal equipped with a DR-GPS, 6-axis sensor, or 9-axis sensor, and the DR-GPS position of the container vehicle is transmitted to the terminal operation system (TOS) through middleware.

도 2a는 영상 장비를 사용한 항만 컨테이널 터미널의 양·적하 생산성, 안전과 보안 향상을 위한 기술 개발의 필요성을 나타낸 그림이다. 2A is a diagram showing the necessity of developing technology for improving the unloading and unloading productivity, safety and security of a port container terminal using video equipment.

항만 컨테이너 터미널에서 양적하 생산성과 효율을 개선하기 위한 비전 시스템은 Non-GPU 기반의 FPGA 기반 임베디드 비전 시스템의 딥러닝 모듈을 사용하여 카메라 영상의 객체 검출 및 문자 인식(YT 번호, 컨테이너 번호, 차량 번호)을 하며, YT 차량과 XT 차량은 DR-GPS와 6축 센서 또는 9축 센서를 사용하여 위치보정 DR-GPS 시스템을 구비한다. The vision system to improve the productivity and efficiency of loading and unloading at the port container terminal uses the deep learning module of the non-GPU-based FPGA-based embedded vision system to detect objects and recognize characters (YT number, container number, vehicle number) ), and YT and XT vehicles are equipped with a DR-GPS system for position correction using DR-GPS and 6-axis sensors or 9-axis sensors.

본 과제는, 첫째, 항만 컨테이너 터미널에서 항만 Gate 출입구, 교차로, Yard의 Block Entrance, STS(Ship To Shore Crane) / TC(Transfer Crane), 위험지역에 네트워크 카메라가 설치되며, Non-GPU 기반의 FPGA 기반 임베디드 비전 시스템(TLEM)의 딥러닝 모듈을 사용하여 카메라 영상의 객체 검출 및 문자 인식(YT 번호, 컨테이너 번호, 차량 번호)과 영상 분석을 통해 양적하 장비 위치 및 ID 검출/침입자 감지, 위험 지역 차량 및 작업자 검출과 인원수 감지, 역주행 차량 알림/안전 속도 감지, 작업자 안전모/안전조끼 착용여부 검출하는 딥러닝 모듈 S/W를 구비하는 지능형 영상 시스템을 구축한다. This task is, first, from the port container terminal to the port gate entrance, intersection, Yard's block entrance, STS (Ship To Shore Crane) / TC (Transfer Crane), network cameras installed in hazardous areas, and non-GPU based FPGA Object detection and character recognition (YT number, container number, vehicle number) of camera image using deep learning module of the based embedded vision system (TLEM) and quantitative loading equipment location and ID detection/intruder detection through image analysis, hazardous area It builds an intelligent video system equipped with a deep learning module S/W that detects vehicles and workers and detects the number of people, notifies vehicles running backwards, detects safety speed, and detects whether or not the worker's hard hat/safety vest is worn.

둘째, Non-GPU 기반의 FPGA 기반 임베디드 비전 시스템(TLEM)의 딥러닝 모듈은 오인식 방지로 인한 신뢰성이 향상되도록 위험 지역 차량 및 작업자 검출과 인원수 감지, 역주행 차량 알림/안전 속도 감지, 작업자 안전모/안전조끼 착용여부 검출하여 작업자의 안전 예방을 제공하는 스마트 영상 감시를 제공하며, 딥러닝 모듈에 의해 영상 인식된 YT 번호, 컨테이너 번호(ISO code), 차량 번호의 문자 인식을 제공한다. FPGA 기반 임베디드 비전 시스템(TLEM)은 미들웨어를 통해 터미널 운영 시스템(Terminal Operation System, TOS)에 연결되며, 터미널 운영 시스템(TOS)은 미들웨어를 통해 DR-GPS 단말기가 탑재된 XT(external truck) 또는 YT 차량의 차량 번호와 DR-GPS 위치 정보를 수신하고, 차량 번호와 차량의 정밀 위치 보정된 DR-GPS 위치를 표시한다. Second, the deep learning module of the non-GPU-based FPGA-based embedded vision system (TLEM) detects vehicles and workers in dangerous areas and the number of people, detects vehicles in reverse driving, and detects safety and safety. It provides smart video surveillance that detects whether the vest is worn and provides worker safety prevention, and provides character recognition of YT numbers, container numbers (ISO codes), and vehicle numbers recognized by the deep learning module. The FPGA-based Embedded Vision System (TLEM) is connected to the Terminal Operation System (TOS) through middleware, and the Terminal Operation System (TOS) is an XT (external truck) or YT equipped with a DR-GPS terminal through the middleware. It receives the vehicle's vehicle number and DR-GPS location information, and displays the vehicle number and the corrected DR-GPS location of the vehicle.

터미널 운영 시스템(TOS)은 컨테이너 차량/작업자의 작업 지시서 발급, 항만 물류 관리, 컨테이너 위치 관리, 컨테이너 양적하 정보, 세관 정보를 관리한다. Terminal Operation System (TOS) manages container vehicle/worker's work order issuance, port logistics management, container location management, container loading and unloading information, and customs information.

도 2b는 항만 물류의 컨테이너 차량의 GPS 위치 보정, FPGA 기반 임베디드 비전 시스템(Smart Vision System) 기반의 IoT 기술을 적용하여 항만 물류 유통시간의 최소화를 통한 양적하 생산성 증대와 비용 절감을 위한 기술적 필요성, 생산성 향상에 따른 경제적 효과를 보인 도면이다. Figure 2b is a technical necessity for increasing productivity and cost reduction by minimizing the distribution time of port logistics by applying GPS position correction of container vehicles in port logistics and IoT technology based on FPGA-based embedded vision system (Smart Vision System), It is a diagram showing the economic effect of productivity improvement.

도 2c는 항만 터미널 RTLS(Real-Time Location System) 시스템, 항만 터미널 OCR 시스템, 항만 터미널 RFID 시스템 사진이다. 2C is a photograph of a port terminal Real-Time Location System (RTLS) system, a port terminal OCR system, and a port terminal RFID system.

도 3은 본 발명에 따른 항만 컨테이너 터미널에서 DR-GPS 단말기를 구비하는 차량 출입 관리와 위치 추적 및 객체를 인식하는 비전 카메라 시스템의 개요: 1) 장치장에 대한 실시간 위치정보 제공, 2) TC/ATC에서 (YT,XT ↔ Yard) vision system을 사용한 컨테이너, Shuttle, YT 번호, 차량 번호, 컨테이너 번호의 문자 인식, 및 차량 정위치 확인, 3) QC(ship ↔ XT, shuttle) 컨테이너, Shuttle, YT, 문자 인식, 및 차량 정위치 확인, 레인 위치 확인 기능을 제공한다. 3 is an overview of a vision camera system for vehicle access management, location tracking, and object recognition equipped with a DR-GPS terminal in a port container terminal according to the present invention: 1) Provision of real-time location information for device heads, 2) TC/ATC Container using (YT,XT ↔ Yard) vision system, Recognition of characters of Shuttle, YT number, vehicle number, container number, and vehicle correct position, 3) QC (ship ↔ XT, shuttle) container, Shuttle, YT, It provides text recognition, vehicle positioning, and lane positioning functions.

항만 컨테이너 터미널에서 DR-GPS 단말기를 구비하는 차량 출입 관리와 위치 추적 및 객체(컨테이너, 차량, 사람, 양적하 장비)를 인식하는 비전 카메라 시스템은 항만 컨테이너 터미널에서 정밀 GPS위치 추적과 오차 보정이 가능한 Dead Reckoning 기능을 갖는 6축 센서/9축 센서를 사용하는 DR-GPS 단말기와 CAN 통신을 사용하는 차량 위치 추적(컨테이너 번호, 차량 번호, YT 번호 등), GPU 기반 비전 카메라 시스템의 딥러닝을 사용한 지능형 영상 분석에 의해 영상내 객체들을 검출하고 각각의 객체의 특징 추출과 분류를 통해 컨테이너와 차량과 사람, 양·적하 장비 객체를 인식하며, 양·적하 장비 위치 및 ID 검출(침입자 검출), 위험 지역 안전관리, 위험 지역 작업자 및 차량 진입 검출/알림과 역 주행 차량 알림, 작업자의 안전보호구 착용 여부 검출/알림의 지능형 영상 분석을 통해 이벤트 발생시마다 알림 메시지를 터미널 운용 시스템(TOS)으로 전송하고, 터미널 운용 시스템(TOS)의 항만 스피커 방송을 통해 항만 작업자 안전 예방을 위한 음성 신호를 송출하며, 작업자와 차량의 안전사고를 예방하고, 컨테이너 터미널(container terminal) 내의 STS Crane이 작업하는 컨테이너 인식 및 Crane 하부 작업자 안전관리 등에 적용이 가능하며, 항만 컨테이너 터미널에서 양·적하 생산성을 향상시키기 위한 것이다. A vision camera system that recognizes vehicle access management and location tracking and objects (containers, vehicles, people, loading and unloading equipment) equipped with DR-GPS terminals at the port container terminal enables precise GPS location tracking and error correction at the port container terminal. DR-GPS terminal using 6-axis sensor/9-axis sensor with dead reckoning function, vehicle location tracking using CAN communication (container number, vehicle number, YT number, etc.), using deep learning of GPU-based vision camera system Detects objects in images by intelligent image analysis, recognizes containers, vehicles and people, and objects of loading/unloading equipment through feature extraction and classification of each object, detection of location and ID of loading/unloading equipment (intruder detection), and danger Through intelligent video analysis of local safety management, detection/notification of dangerous area workers and vehicles entering detection/notification and reverse driving vehicle notification, and detection/notification of whether the worker is wearing safety protective equipment, a notification message is transmitted to the terminal operation system (TOS) whenever an event occurs. Through the port speaker broadcasting of the terminal operation system (TOS), it transmits a voice signal to prevent the safety of port workers, prevents safety accidents between workers and vehicles, and recognizes containers and cranes in which STS Cranes in the container terminal work. It can be applied to lower worker safety management, etc., and is to improve unloading and unloading productivity in port container terminals.

또한, 기존 GPS 위치 오차 보정 DR-GPS 단말기를 개발하여 항만 컨테이너 터미널에서 안테나와 DR-GPS와 6축 센서 또는 9축 센서를 사용하는 DR-GPS 단말기와 자동차 ECU와 CAN 통신을 사용하여 차량의 속도 신호 또는 차량의 가속도 신호에 참조하여 차량의 위치를 보정함으로써 차량의 정밀 위치 추적이 가능하게 되었다. In addition, by developing an existing GPS position error correction DR-GPS terminal, the speed of the vehicle using CAN communication with an antenna, DR-GPS and 6-axis sensor or 9-axis sensor at the port container terminal, and vehicle ECU and CAN communication. By correcting the position of the vehicle by referring to the signal or the acceleration signal of the vehicle, it is possible to accurately track the vehicle position.

항만 컨테이너 터미널에서, 카메라 또는 영상 저장 서버(NVR 또는 DVR)에 설치된 딥러닝 모듈에 의해 위험 지역(작업구역 YT) 작업자와 차량의 객체를 인식하여 작업자의 안전보호구 착용여부와 위험 지역 작업자와 차량 출입여부에 대한 알림을 실시간 STS 조정실과 운영실의 터미널 운용 시스템(TOS)에 전송한다. 또한, 항만 컨테이너 터미널에서 작업자가 안전보호구를 착용하지 않고 작업구역(STS /TC /GATE) 및 위험 구역 출입시 경고 방송을 제공하도록 알림이 가능하며, 차량역주행 및 주행속도 판단이 가능하며, 이를 통해 항만 보안과 안전의 감시가 가능하다.At the port container terminal, by using a deep learning module installed in a camera or video storage server (NVR or DVR), it recognizes the objects of workers and vehicles in a hazardous area (work area YT), and whether or not the worker wears safety protection and enters the hazardous area worker and vehicle. The notification on whether or not is transmitted to the terminal operation system (TOS) of the real-time STS control room and operation room. In addition, at the port container terminal, it is possible to notify the operator to provide a warning broadcast when entering the work area (STS /TC /GATE) and dangerous areas without wearing safety gear, and it is possible to determine the vehicle reverse driving and driving speed. Port security and safety monitoring are possible.

도 4는 항만 컨테이너 터미널에서, 기존 LPR, OCR 인식 시스템과 GPU 기반 Vision 시스템과의 비교한 그림이다. 4 is a diagram illustrating a comparison between an existing LPR and OCR recognition system and a GPU-based vision system in a port container terminal.

또한, 항만 컨테이너 터미널에서 사용된 적외선 투광기가 구비된 차량 검지기로 사용되는 LPR(License Plate Recognition)(차선당 1,000만원), OCR(Optical character recognition)(항만 게이트용 차선당 7,000만원), 고사양의 GPU(graphic processing unit) 기반 영상인식 시스템은 복잡한 하드웨어 구성과 고가의 시스템 구축 비용이 들며, 각각의 판독 소프트웨어 사용으로 호환이 어렵고, 인식률이 서로 상이하다(OCR은 문자 이외에 판독 안됨). In addition, LPR (License Plate Recognition) (10 million won per lane), OCR (Optical character recognition) (70 million won per lane for port gate), and high-end GPUs used as vehicle detectors equipped with infrared emitters used in port container terminals The image recognition system based on (graphic processing unit) requires a complicated hardware configuration and expensive system construction cost, is difficult to be compatible with each reading software, and has different recognition rates (OCR cannot read other than text).

표3은 LPR, OCR, 제안된 딥러닝 기술의 비전 시스템을 비교하였다. Table 3 compares the vision system of LPR, OCR, and the proposed deep learning technology.

Figure 112020086055347-pat00003
Figure 112020086055347-pat00003

도 5는 항만 컨테이너 터미널에서, 기존 GPS/GNSS, DGPS, 2.4GHz BLE 비콘/Wi-Fi 게이트웨이 항만 위치 추적 시스템과, 개발된 DR-GPS 단말기와 6축 센서/9축 센서와 이용한 위치 보정 시스템을 비교한 도면이다.5 is a port container terminal, an existing GPS/GNSS, DGPS, 2.4GHz BLE beacon/Wi-Fi gateway port location tracking system, and a location correction system used with a developed DR-GPS terminal and a 6-axis sensor/9-axis sensor. It is a comparison drawing.

표 4는 GPS/GNSS, DGPS, 2.4GHz Beacon, 차량에 구비된 DR-GPS 단말기(DR-GPS, 6축 센서 또는 9축 센서)를 사용한 제안 기술의 차량 위치 추적 시스템을 비교하였다. Table 4 compares the vehicle location tracking system of the proposed technology using GPS/GNSS, DGPS, 2.4GHz Beacon, and a DR-GPS terminal (DR-GPS, 6-axis sensor or 9-axis sensor) equipped in the vehicle.

Figure 112020086055347-pat00004
Figure 112020086055347-pat00004

항만 컨테이너 터미널의 경우, 컨테이너들이 높게 적재되면, 높은 빌딩에 비해 전반사를 일으키는 전파 간섭 환경 영향으로 GPS 신호가 끊기거나 해당 GPS 위치에서 큰 오차가 발생되며, 이를 위해 별도의 위치 보정을 위한 하드웨어(HW)와 알고리즘이 필요하다. In the case of a port container terminal, when containers are loaded high, the GPS signal is cut off or a large error occurs in the corresponding GPS location due to the radio wave interference environment that causes total reflection compared to a tall building. To this end, a separate location correction hardware (HW ) And an algorithm are required.

항만 컨테이너 터미널에서, 항만 YT 차량은 DR-GPS와 6축 센서 또는 9축 센서를 구비하는 DR-GPS 단말기와 자동차 ECU와 CAN controller와 CAN tranceiver의 CAN 통신을 사용한다. 자동차 ECU와 CAN controller - CAN tranceiver를 통해 DR-GPS 단말기와 연결되며, DR-GPS 단말기의 GPS 신호가 끊겨도 Dead Reckoning 기능에 의해 자동차 ECU로부터 제공된 시간(time)에 따른 차량 속도 신호를 사용하여 위치 오차를 기존 GPS 단말기 보다 정밀하게 차량의 GPS 위치를 보정하며, 항만 내에서 위치 보정된 정밀 GPS 위치 제공 서비스가 가능하다.In the port container terminal, the port YT vehicle uses a DR-GPS terminal equipped with a DR-GPS and a 6-axis sensor or a 9-axis sensor, and a CAN communication of a vehicle ECU, a CAN controller, and a CAN tranceiver. Vehicle ECU and CAN controller-Connected to the DR-GPS terminal through the CAN tranceiver. Even if the GPS signal of the DR-GPS terminal is cut off, the vehicle speed signal according to the time provided from the vehicle ECU is used by the Dead Reckoning function to position the vehicle. It corrects the GPS location of the vehicle more precisely than the existing GPS terminal, and provides a precise GPS location service with corrected location within the port.

6축 센서는 가속도 센서와 Gyro 센서를 사용한다. The 6-axis sensor uses an acceleration sensor and a Gyro sensor.

9축 센서는 가속도 센서와 Gyro 센서와 지자계를 사용한다. The 9-axis sensor uses an acceleration sensor, a Gyro sensor, and a geomagnetic field.

항만 컨테이너 터미널에서, 9축 센서와 차량의 CAN 신호(차량 속도와 차량 가속도 신호)를 이용한 위치보정은 스마트 포트(smart port) 자동화를 위해 딥러닝 모듈을 사용한 영상 인식 기반 객체 식별(컨테이너, 차량, 사람, 양·적하 장비) 및 문자 인식(YT 번호, 컨테이너 번호, 차량 번호)과 위치 보정 DR-GPS 단말기에 의해 TOS 시스템으로 컨테이너 터미널의 양·적하 효율성 개선과 안전도 향상을 위한 솔루션을 제공한다. In the port container terminal, position correction using 9-axis sensors and vehicle CAN signals (vehicle speed and vehicle acceleration signals) is performed using image recognition-based object identification (container, vehicle, and vehicle) using a deep learning module for smart port automation. Provides a solution for improving the efficiency and safety of container terminals with TOS system through human, loading and unloading equipment) and character recognition (YT number, container number, vehicle number) and position correction DR-GPS terminal. .

참고로, 국내 항만시설은 보안구역으로 지정되어 (국제항해선박소유자 및 항만시설소유자의 보안등급별 세부 보안조치사항(제3조 제3항 관련) 허가 없이 보안구역 출입 및 촬영 제재로 장시간 딥러닝을 위한 영상데이터 샘플 확보 어려움을 겪었다. 항만 컨테이너 터미널의 다양한 Yard 구조(수직, 수평), 이송장비(STS, TC, YT)에 의해 카메라 거치 위치 선정에 어려움을 겪었다. For reference, domestic port facilities are designated as security zones (detailed security measures for each security level of international voyage ship owners and port facility owners (related to Article 3, Paragraph 3)) Difficulty in securing image data samples for port container terminal due to various Yard structures (vertical, horizontal) and transport equipment (STS, TC, YT) in selecting a camera location.

도 6은 차세대 미래형 스마트 포트(smart port)를 위한 Gate system/TC system/QC system/Block Entrance/Safety 응용 분야의 기술 로드맵을 보인 도면이다.6 is a diagram showing a technology roadmap for the application field of Gate system/TC system/QC system/Block Entrance/Safety for next-generation future smart ports.

(1) 항만 게이트 시스템: (1) Port gate system:

(As Is) LPR을 이용한 진입 차량 인식, RFID를 이용한 차량 인식, Barcode + 슬랩 -> (To Be) 딥러닝 기반 AI 객체 및 문자 인식 Vision System (차량 번호 인식, 컨테이너 번호 인식, 블록 진입 차량 인식, Yard 작업자 안전구 착용 여부 감지, 돌발 및 위험 상황 감지) (As Is) Recognition of entering vehicle using LPR, vehicle recognition using RFID, Barcode + slab -> (To Be) Deep learning based AI object and character recognition Vision System (vehicle number recognition, container number recognition, block entering vehicle recognition, Yard worker safety equipment detection, accidental and dangerous situations detection)

(2) TC(Transfer Crane) system : (As Is) RFID 차량 검지 -> (To Be) 딥러닝 기반 AI 객체 및 문자 인식 Vision System (차량 번호 인식, 컨테이너 번호 인식, 블록 진입 차량 인식, Yard 작업자 안전구 착용 여부 감지, 돌발 및 위험 상황 감지) (2) TC (Transfer Crane) system: (As Is) RFID vehicle detection -> (To Be) Deep learning based AI object and character recognition Vision System (vehicle number recognition, container number recognition, block entry vehicle recognition, yard worker safety Detecting whether or not the sphere is worn, detecting unexpected and dangerous situations)

(3) QC(Quay Crane) system : (As Is) Under Man의 차량 및 컨테이너 번호 육안 인식 -> (To Be) 딥러닝 기반 AI 객체 및 문자 인식 Vision System (차량 번호 인식, 컨테이너 번호 인식, 블록 진입 차량 인식, Yard 작업자 안전구 착용 여부 감지, 돌발 및 위험 상황 감지) (3) QC(Quay Crane) system: (As Is) Under Man's vehicle and container number visual recognition -> (To Be) Deep learning based AI object and character recognition Vision System (vehicle number recognition, container number recognition, block entry) Vehicle recognition, detection of wearing safety gear for yard workers, detection of unexpected and dangerous situations)

(4) Block Entrance : (As Is) RFID에 의한 블록 엔터 ->(To Be) 딥러닝 기반 AI 객체 및 문자 인식 Vision System (차량 번호 인식, 컨테이너 번호 인식, 블록 진입 차량 인식, Yard 작업자 안전구 착용 여부 감지, 돌발 및 위험 상황 감지)(4) Block Entrance: (As Is) Block Enter by RFID -> (To Be) Deep Learning based AI object and character recognition Vision System (Vehicle number recognition, container number recognition, block entry vehicle recognition, Yard worker wearing safety equipment) Detection, detection of unexpected and dangerous situations)

컨테이너 차량 번호판 또는 컨테이너에 부착된 컨테이너 번호의 정지 이미지 또는 컨테이너 번호의 이미지를 저장한 후, 이미지의 문자 인식 프로그램에 의해 카메라에서 촬영된 컨테이너 차량 번호판 또는 컨테이너에 부착된 컨테이너 번호의 정지 이미지에서 관심지역(ROI, Region Of Interest)의 직사각형 구조의 컨테이너 차량 번호판 또는 컨테이너에 부착된 컨테이너 번호의 정지 이미지(Blob)를 추출하여 이미지 프로세싱(image processing)에 의해 차량 번호/컨테이너 번호 인식 기술을 사용하여 컨테이너 차량 번호판 또는 컨테이너에 부착된 컨테이너 번호의 정지 이미지에서 문자와 숫자로 구성된 차량 번호를 추출하여 문자를 인식한다. A region of interest in the container vehicle license plate or a still image of the container number attached to the container or the container vehicle license plate taken by the camera by the character recognition program of the image after saving the image of the container number or the container number attached to the container Container vehicle using vehicle number/container number recognition technology by image processing by extracting a container vehicle license plate of (ROI, Region Of Interest) rectangular structure or a still image (blob) of the container number attached to the container. A vehicle number consisting of letters and numbers is extracted from a license plate or a still image of a container number attached to a container to recognize characters.

(5) Safety : (As Is) 안전 관리자에 의한 순찰, 작업자의 직관적인 판단 (5) Safety: (As Is) patrol by safety manager, intuitive judgment of workers

-> (To Be) 정밀 DR-GPS와 6축 센서(가속도 센서, Gyro 센서) 또는 9축 센서(자이로 센서/가속도 센서/지자계)를 구비하는 DR-GPS 단말기와 자동차의 ECU와 CAN 통신을 제공하는 차량의 실시간 위치 트래킹 -> (To Be) DR-GPS terminal equipped with precision DR-GPS and 6-axis sensor (acceleration sensor, Gyro sensor) or 9-axis sensor (gyro sensor/acceleration sensor/geomagnetic field) and CAN communication with ECU of automobile Real-time location tracking of provided vehicles

도 7a는 딥러닝을 사용한 카메라 영상의 실시간 객체 인식: CNN(Convolutional Neural Networks) 개념, RNN(Recurrent Neural Networks)과LSTM(Long-Short Term Memory)의 적용 개념을 설명한 도면이다. 7A is a diagram illustrating a real-time object recognition of a camera image using deep learning: the concept of convolutional neural networks (CNN), recurrent neural networks (RNN), and long-short term memory (LSTM) applications.

딥러닝 모듈은 CNN(Convolutional Neural Network), RNN(Recurrent Neural Networks), R-CNN(Recurrent Convolutional Neural Network), Fast RCNN, 및 Faster RCNN(Region based Convolutional Neural Network), YOLO(You Only Look Once), SSD(Single Shot Detector) 알고리즘 중 어느 하나의 알고리즘을 사용하여 카메라 영상 내의 객체들을 검출(object detection)한다. Deep learning modules include CNN (Convolutional Neural Network), RNN (Recurrent Neural Networks), R-CNN (Recurrent Convolutional Neural Network), Fast RCNN, and Faster RCNN (Region based Convolutional Neural Network), YOLO (You Only Look Once), Objects in the camera image are detected using any one of SSD (Single Shot Detector) algorithms.

○ 이미지 인식의 대표적인 CNN(Convolutional Neural Networks)은 카메라 영상의 이미지 속의 객체(차량, 컨테이너, 양적하 장비)를 검출하거나 숫자/글자를 추출하는 문자 인식(YT 번호 인식, 차량 번호 인식, 컨테이너 번호 인식) 기술로 사용되며, 충분한 학습데이터를 확보하면 높은 수준의 인식 정확도를 보인다.○ Representative CNN (Convolutional Neural Networks) of image recognition detects objects (vehicles, containers, loading and unloading equipment) in images of cameras, or character recognition (YT number recognition, vehicle number recognition, container number recognition) that extracts numbers/letters. ) It is used as a technology, and if sufficient learning data is secured, it shows a high level of recognition accuracy.

CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 인공 신경망 계층들로 구성되며, 가중치와 통합 계층(pooling layer)들을 추가로 활용하며, 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용한다.CNN is composed of one or several convolutional layers and artificial neural network layers on top of it, and additionally utilizes weights and pooling layers.Thanks to this structure, CNNs can fully utilize the input data of a two-dimensional structure. Use.

CNN 알고리즘은 카메라 입력 영상으로부터 입력층(input layer)/L-1개의 은닉층(hidden layer)(Layer 1, Layer 2, Layer3.. )/출력층(output layer)을 포함하며, AlexNet, VGGNet, ResNet 중 어느 하나의 CNN 딥러닝 알고리즘을 사용할 수 있다. The CNN algorithm includes an input layer/L-1 hidden layer (Layer 1, Layer 2, Layer3.. )/output layer from the camera input image, among AlexNet, VGGNet, and ResNet. Any one CNN deep learning algorithm can be used.

다층구조의 합성곱 신경망(CNN)을 사용하여 Multilayer Perceptron을 통해 카메라 영상의 특징 추출(feature extraction)과 객체를 분류(classification)하여 객체(컨테이너, 차량, 사람, 양·적하 장비 등)를 검출한다.Objects (containers, vehicles, people, loading/unloading equipment, etc.) are detected by feature extraction of camera images and classification of objects through a multilayer perceptron using a multilayered convolutional neural network (CNN). .

합성곱 신경망(CNN)은 컨볼루셔널 층(Convolutional Layer), 풀링 층(Pooling Layer), FC 층(Fully Connected Layer, 완전연결층)을 포함하는 3개의 레이어가 사용된다.In the convolutional neural network (CNN), three layers including a convolutional layer, a pooling layer, and a fully connected layer (FC) are used.

CNN 알고리즘은 가중치를 갖는 마스크(예, 3x3 윈도우)를 이동해가며 컨볼루셔널 층(Convolutional Layer)과 풀링 층(Pooling Layer)에 의해 각각 convolution(합성곱)과 subsampling을 반복하여 영상의 데이터량을 줄이며 영상의 왜곡에 강한 특징을 추출하며(feature extraction), 컨볼루션에 의해 특징맵(feature map)을 추출하고, 신경망(Neural Network)에 의해 객체(컨테이너, 차량, 사람, 양·적하 장비 등)를 분류(classification)한다. The CNN algorithm reduces the amount of data in the image by repeating convolution and subsampling by moving a weighted mask (e.g., 3x3 window) and by convolutional and pooling layers, respectively. Features strong against distortion of images (feature extraction), feature maps are extracted by convolution, and objects (containers, vehicles, people, loading and unloading equipment, etc.) are extracted by neural networks. Classification.

CNN 알고리즘을 사용한 영상처리에서, 컨볼루션(convolution)은 가중치를 갖는 마스크(예, 3x3 윈도우)를 사용하여 영상처리가 이루어지며, 입력 영상에 가중치를 갖는 마스크(예, 3x3 window, 5x5 window)를 이동해가며, 현재 입력 영상에 가중치를 갖는 마스크를 씌운 후 입력 영상의 픽셀값과 마스크의 가중치를 각각 곱한 후 그 합을 출력 영상의 픽셀값으로 정해진다. In image processing using the CNN algorithm, convolution is image processing using a weighted mask (e.g., 3x3 window), and a weighted mask (e.g., 3x3 window, 5x5 window) is applied to the input image. Moving on, a mask having a weight is applied to the current input image, and the pixel value of the input image is multiplied by the weight of the mask, and the sum is determined as the pixel value of the output image.

subsampling은 화면 크기를 줄이는 과정이며, 해당영역의 최대치를 선택하는 max pooling을 사용한다. Subsampling is the process of reducing the screen size, and max pooling is used to select the maximum value of the area.

FC 층(Fully Connected Layer, 완전연결층)은 신경망의 입력 단자에 연결시켜 학습(learninf)에 따라 영상의 객체들(컨테이너, 차량, 사람, 양적하 장비)을 분류한다. The FC layer (fully connected layer) is connected to the input terminal of the neural network and classifies the objects of the image (containers, vehicles, people, and loading equipment) according to learning (learninf).

예를 들면, 현재 5층의 convolution layer와 3층의 fully_connected layer로 이루어져 있다. For example, it currently consists of a convolution layer of 5 layers and a fully_connected layer of 3 layers.

컨볼루셔널 층(Convolutional Layer)의 출력은 Max-Pooling Layer에 의해 subsampling을 진행하여 image의 사이즈가 줄여지며, Max-Pooling의 출력은 FC 층(Fully Connected Layer)에서 객체의 클래스를 분류한다.The output of the convolutional layer is subsampling by the Max-Pooling Layer to reduce the size of the image, and the output of the Max-Pooling classifies the object class in the FC layer (Fully Connected Layer).

결과적으로, 항만 컨테이너 터미널에서 다수의 카메라의 영상의 객체를 검출하고 CNN 구조의 중간 몇 개의 컨볼루션 층(convolutional layer)에서 객체 위치영역과 종류 정보를 포함하는 특징맵(feature map)을 추출하고, Pooling layer를 통과함에 따라 특징맵(feature map)의 크기가 작아지며 각각 다른 크기의 특징 맵에서 객체 위치영역 정보를 추출하여 객체들을 검출하여, FC 층(Fully Connected Layer, 완전 연결층)에 의해 객체들을 분류(classification)한다. As a result, the port container terminal detects the object of the image of a plurality of cameras and extracts a feature map including object location region and type information from several convolutional layers in the middle of the CNN structure, As it passes through the pooling layer, the size of the feature map decreases, and objects are detected by extracting object location area information from feature maps of different sizes, and objects are detected by the FC layer (Fully Connected Layer). Classify them.

추가적으로, 항만 컨테이너 터미널의 카메라 영상의 객체 검출과 객체 추적을 학습하기 위해 영상내 객체 검출과 객체 추적용 데이터베이스를 사용하여 학습할 수도 있다.Additionally, in order to learn object detection and object tracking of the camera image of the port container terminal, it may be learned using a database for object detection and object tracking in the image.

추가적으로, 영상의 객체 추적 알고리즘은 카메라 영상 처리시에 칼만 필터 알고리즘을 사용할 수 있다. 칼만 필터 알고리즘은 컴퓨터 비전, 로봇 비전에 사용되며, 선형 시스템(linear system)에서 측정 모델(measurement model)과 상태 모델(process model)로부터 과거 데이터와 현재 데이터로부터 오차를 보정하여 미래의 움직임의 상태를 예측하여 추정하는 영상내 객체 추적 알고리즘으로 사용된다. Additionally, the image object tracking algorithm may use a Kalman filter algorithm when processing camera images. The Kalman filter algorithm is used in computer vision and robot vision, and corrects errors from past and present data from measurement models and process models in a linear system to determine the state of future movements. It is used as an in-video object tracking algorithm that is predicted and estimated.

○ 동영상 인식을 위한 대표적인 기술은 RNN(Recurrent Neural Networks)과 LSTM(Long-Short Term Memory)은 카메라 영상이 시간 축을 가진 이미지의 연속이므로 CNN 출력 값은 LSTM에 연결하여 영상을 설명하는 문장을 생성하여 영상을 분석 가능하다. ○ Representative technologies for video recognition are RNN (Recurrent Neural Networks) and LSTM (Long-Short Term Memory), because the camera image is a series of images with a time axis, the CNN output value is connected to the LSTM to generate a sentence describing the image. Video can be analyzed.

도 7b는 딥러닝을 사용한 카메라 영상의 실시간 객체 인식: YOLO(You Only Look Once) 모델을 설명한 도면이다. 7B is a diagram illustrating a real-time object recognition: You Only Look Once (YOLO) model of a camera image using deep learning.

딥러닝 알고리즘은 영상내 객체 검출 속도가 빠른 YOLO(You only Look Once), SSD(Single Shot Detector) 등의 인공지능/딥러닝 비전 기술을 사용하여 프레임워크 개발, 로컬 임베디드 영상 처리 시스템 개발, 9축 센서를 사용한 정밀 DR-GPS 위치 보정 기술 개발하여 항만 컨테이너 터미널에서 AI 기반 Vision System을 사용한 미래형 스마트 포트(smart port)를 위한 항만 컨테이너 터미널의 양·적화 자동화의 응용 기술로 사용된다. The deep learning algorithm uses artificial intelligence/deep learning vision technologies such as YOLO (You Only Look Once), SSD (Single Shot Detector), etc., which detect objects in images, using a framework development, local embedded image processing system development, 9 axis By developing a precise DR-GPS position correction technology using a sensor, it is used as an application technology for the automation of quantification and optimization of a port container terminal for a future smart port using an AI-based vision system in the port container terminal.

○ 딥러닝을 사용한 카메라 영상의 실시간 객체 인식을 위한 YOLO(You Only Look Once)모델○ YOLO (You Only Look Once) model for real-time object recognition of camera images using deep learning

- YOLO는 각 이미지를 SxS 개의 그리드(grid, 경계 상자)로 분할하고, 각 그리드의 신뢰도를 계산하여 그리드 내 객체 인식시 정확도를 반영하여 이미지 전체를 한번에 보는 방식으로 클래스를 구분하며, YOLO는 단순한 처리로 다른 모델에 비해 2배 정도 높은 성능을 갖고 있다. 그리드에 객체 포함 여부를 계산하기 위해, 객체 클래스 점수를 계산한다. 이 결과로 총 S x S x N 객체가 예측된다. -YOLO divides each image into SxS grids (grid, bounding box), calculates the reliability of each grid, reflects the accuracy when recognizing objects in the grid, and classifies the class by viewing the entire image at once. It has twice the performance of other models by processing. To calculate whether an object is included in the grid, the object class score is calculated. As a result of this, a total of S x S x N objects is predicted.

- YOLO와 유사하면서 더 나은 성능을 보이는 SSD(Single Shot Detector) 모델은 영상내 객체 검출 속도 및 정확도 사이의 균형감이 고유한 장점, SSD는 입력 이미지에 대한 CNN을 단 한번만 실행하고도 특징 맵(feature map) 계산이 가능하여 다양한 스케일의 물체 검출 가능하다. -The SSD (Single Shot Detector) model, which is similar to YOLO and shows better performance, has a unique advantage of a balance between the speed and accuracy of object detection in the image. SSD is a feature map even after executing the CNN for the input image only once. map) calculation is possible to detect objects of various scales.

SSD는 카메라 영상 내의 객체 검출(object detection)을 위한 그리드(grid)가 표시되는 객체 검출 속도 및 정확도 사이의 균형이 있는 인공지능 기반 객체 검출 알고리즘이다. SSD는 한 번만 입력 이미지에 대한 CNN(Convolutional Neural Network)을 실행하고, 특징 맵(feature map)을 계산한다. 그리드 및 객체 분류 확률을 예측하기 위해 특징 맵을 3 × 3 필터 크기로 CNN을 수행한다. SSD는 CNN처리 후, 그리드(grid)를 예측한다. 이 방법은 다양한 스케일의 객체를 검출할 수 있다.SSD is an artificial intelligence-based object detection algorithm that has a balance between object detection speed and accuracy in which a grid for object detection in a camera image is displayed. The SSD executes a convolutional neural network (CNN) for the input image only once and calculates a feature map. In order to predict the probability of grid and object classification, CNN is performed on the feature map with a 3 × 3 filter size. The SSD predicts a grid after CNN processing. This method can detect objects of various scales.

FPGA 기반 임베디드 비전 시스템(TLEM)은 Non-GPU 기반의 영상의 객체들을 검출하고 차량 번호와 컨테이너 번호의 문자를 인식하는 딥러닝 모듈을 구비한다.The FPGA-based embedded vision system (TLEM) is equipped with a deep learning module that detects non-GPU-based image objects and recognizes characters of vehicle numbers and container numbers.

FPGA 기반 임베디드 비전 시스템(TLEM)의 딥러닝 모듈의 카메라 영상 데이터의 객체 및 문자인식, 컨테이너 차량의 DR-GPS 모듈+Wi-Fi 통신부를 결합한 포터블 위치 추적장치로 사용이 가능하다. It can be used as a portable location tracking device combining object and character recognition of camera image data of deep learning module of FPGA-based embedded vision system (TLEM), DR-GPS module + Wi-Fi communication unit of container vehicle.

(실시예)(Example)

도 8은 항만 컨테이너 터미널에서, FPGA 기반 비전 시스템(TLEM)과 미들웨어를 통해 터미널 운용 시스템(Terminal Operating System, TOS)과 연동되는 최종 개발 목표를 보인 도면이다. FIG. 8 is a diagram showing a final development goal of interlocking with a terminal operating system (TOS) through an FPGA-based vision system (TLEM) and middleware in a port container terminal.

도 9a는 항만 컨테이너 터미널에서, (1) Non-GPU 기반 객체인식 딥러닝 모듈 SW와 FPGA 기반 임베디드 비전 시스템(TLEM)의 프레임워크를 나타낸 도면이다. 9A is a diagram showing a framework of (1) a non-GPU-based object recognition deep learning module SW and an FPGA-based embedded vision system (TLEM) in a port container terminal.

도 9b는 항만 컨테이너 터미널에서, (2) 9축 센서를 이용한 고정밀 Dead Reckoning을 적용한 DR-GPS 모듈 개발, (3) 터미널 운용 시스템(Terminal Operating System, TOS)과의 연계를 위한 통합 미들웨어를 나타낸 도면이다.FIG. 9B is a view showing an integrated middleware for connection with (2) a DR-GPS module applying high-precision dead reckoning using a 9-axis sensor, and (3) a terminal operating system (TOS) in a port container terminal to be.

도 9c는 터미널 운용 시스템(Terminal Operating System, TOS)과의 연계를 위한 통합 미들웨어 구성도이다.9C is a block diagram of an integrated middleware for linking with a terminal operating system (TOS).

도 10은 본 발명에 따른 항만 컨테이너 터미널에서 DR-GPS 단말기(DR-GPS와 6축 센서/9축 센서)를 구비하는 차량 출입 관리와 위치 추적 및 카메라 영상의 객체를 인식하는 비전 카메라 시스템 구성도이다. FIG. 10 is a configuration diagram of a vision camera system for vehicle access management, location tracking, and object recognition of a camera image equipped with a DR-GPS terminal (DR-GPS and 6-axis sensor/9-axis sensor) in a port container terminal according to the present invention to be.

도 11은 본 발명의 실시예에 따른 항만 컨테이너 터미널에서 차량 출입 관리와 위치 추적 및 카메라 영상의 객체를 인식하는 비전 카메라 시스템의 구성도이다. 11 is a block diagram of a vision camera system for managing vehicle access, tracking location, and recognizing an object of a camera image in a port container terminal according to an embodiment of the present invention.

본 발명의 항만 컨테이너 터미널에서 차량 출입 관리와 위치 추적 및 객체를 인식하는 비전 카메라 시스템은 The vision camera system for vehicle access management, location tracking, and object recognition in a port container terminal of the present invention

항만 컨테이너 터미널에서 항만 Gate, Yard/Block, Block Entrance, ARMGC, QC 각 지역에 설치된 다수의 카메라; Multiple cameras installed in each area of Port Gate, Yard/Block, Block Entrance, ARMGC, and QC at the Port Container Terminal;

항만 컨테이너 터미널에서, AI 알고리즘을 사용하는 딥러닝 모듈이 탑재되며, 컨테이너/차량/사람/양적하 장비의 사전 학습 데이터에 기초하여 항만 Gate, Yard/Block, Block Entrance, ARMGC, QC 카메라 영상 데이터의 객체들의 특징 추출과 분류를 통해 영상의 객체(컨테이너, 차량, 사람, 양·적하 장비)들을 검출하고 차선 인식, 차량 번호 인식, 컨테이너 번호(ISO code) 문자를 인식하며, 컨테이너 데미지 인식, 블록 진입구 진입 차량 인식, 위험 지역 진입 차량과 작업자 검출, 역주행 차량 검출, Yard 작업자 안전보호구/안전 조끼 착용 여부 검출, 양·적하 장비 위치를 검출하여 이벤트 검출시마다 미들웨어로 전송하거나 또는 직접 GPIO 인터페이스를 통해 항만내 해당 스피커(IP 스피커)로 경고 방송을 송출하는 FPGA 기반 임베디드 비전 시스템(TLEM)(100); 및 In the port container terminal, a deep learning module using AI algorithm is installed, and based on the pre-learning data of container/vehicle/person/loading equipment, the port gate, yard/block, block entrance, ARMGC, and QC camera image data are Detects image objects (containers, vehicles, people, loading/unloading equipment) through object feature extraction and classification, lane recognition, vehicle number recognition, container number (ISO code) character recognition, container damage recognition, block entrance Recognition of entering vehicles, detection of vehicles and workers entering dangerous areas, detection of vehicles traveling in reverse, detection of wearing safety protective equipment/safety vests for yard workers, detection of the location of loading and unloading equipment, and transmission to middleware whenever an event is detected, or directly in the port through GPIO FPGA-based embedded vision system (TLEM) 100 for transmitting a warning broadcast to the speaker (IP speaker); And

이기종 하드웨어와 SW를 연동하며, 상기 FPGA 기반 임베디드 비전 시스템(TLEM)(100)으로부터 TLEM 딥러닝 미들웨어를 통해 학습된 객체 추출 이벤트(text)와 사각박스로 마킹된 객체 추출 영상 데이터를 수신받아 모니터링 PC로 출력되도록 하며, 이벤트 검출시에 TCP/IP를 통해 항만내 해당 스피커(IP 스피커)로 경고 방송을 하며, 엣지-미들웨어와 통합-미들웨어를 구비하는 미들웨어(200)를 포함하며,
상기 FPGA 기반 임베디드 비전 시스템(TLEM)은 Non-GPU 기반의 영상의 객체들을 검출하고 차량 번호와 컨테이너 번호(ISO code)의 문자를 인식하는 딥러닝 모듈을 구비한다.
A monitoring PC that interlocks with heterogeneous hardware and software and receives the object extraction event (text) learned through TLEM deep learning middleware from the FPGA-based embedded vision system (TLEM) 100 and the object extraction image data marked with a square box. It is to be output to, and when an event is detected, it broadcasts a warning to the corresponding speaker (IP speaker) in the port through TCP/IP, and includes a middleware 200 having edge-middleware and integration-middleware,
The FPGA-based embedded vision system (TLEM) includes a deep learning module that detects non-GPU-based image objects and recognizes characters of vehicle numbers and container numbers (ISO codes).

다수의 카메라와 연결되는 FPGA 기반 임베디드 비전 시스템(TLEM)(100)은 미들웨어(200)를 통해 터미널 운영 시스템(Terminal operating system, TOS)(300)과 연동되며, STS 조정실/운영실의 터미널 운영 시스템(TOS)(300)은 모니터링 PC(310)와 연결된다. The FPGA-based embedded vision system (TLEM) 100, which is connected to a plurality of cameras, is interlocked with the terminal operating system (TOS) 300 through the middleware 200, and the terminal operating system of the STS control room/operation room ( TOS) (300) is connected to the monitoring PC (310).

다수의 카메라(C)(101)는 항만 Gate 출입구, Yard의 Block Entrance, ATC(ARMGC), 교차로, STS(Ship To Shore Crane)/TC(Transfer Crane), QC 위험 지역 등의 항만 컨테이너 터미널의 여러 지역에 설치된다.Multiple cameras (C)(101) are used at the port gate entrance, Yard's block entrance, ATC (ARMGC), intersection, STS (Ship To Shore Crane)/TC (Transfer Crane), and various port container terminals such as QC hazardous areas. It is installed in the area.

영상 저장 서버(102)는 NVR 또는 DVR을 사용한다. The image storage server 102 uses an NVR or DVR.

NVR(Network Viedo Recorder)은 다수의 카메라(C)를 동시에 접속되는 ONVIF, RTSP 표준 프로토콜을 지원한다. 또한, 영상 저장 서버(NVR 또는 DVR)를 사용하지 않는 경우, 특정 지역을 별도로 감시하는 하나의 카메라와 관제 PC를 연결하는 카메라 인터페이스는 프레임 그래버(Frame Grabber), Gigabit Ethernet(GigE), IEEE 1394a, IEEE 1394b, 카메라 링크, USB 3.0 모듈 중 어느 하나를 사용할 수 있다. The NVR (Network Viedo Recorder) supports ONVIF and RTSP standard protocols that connect multiple cameras (C) at the same time. In addition, when an image storage server (NVR or DVR) is not used, the camera interface that connects one camera that separately monitors a specific area and the control PC is a frame grabber, Gigabit Ethernet (GigE), IEEE 1394a, Any one of IEEE 1394b, Camera Link, or USB 3.0 module can be used.

FPGA 기반 임베디드 비전 시스템(TLEM)(100)은 차량 번호판/컨테이너 번호 문자 인식 프로그램과 딥러닝 모듈(110)이 탑재되며 다수의 카메라(C)(101)와 HDMI 인터페이스를 통해 직접 연결되거나 또는 여러 지역에 설치된 다수의 카메라(101)와 TCP/IP를 통해 영상 저장 서버(NVR 또는 DVR)(102)와 연결되며, HDMI 인터페이스를 통해 모니터와 연결되고, TCP/IP를 통해 미들웨어(200)와 연결된다. The FPGA-based embedded vision system (TLEM) 100 is equipped with a license plate/container number character recognition program and a deep learning module 110, and is directly connected to multiple cameras (C) 101 and via an HDMI interface, or It is connected to a video storage server (NVR or DVR) 102 through a plurality of cameras 101 installed in the device and TCP/IP, connected to a monitor through an HDMI interface, and connected to the middleware 200 through TCP/IP. .

딥러닝 모듈(110)은 카메라 영상 데이터의 딥러닝 기반 실시간 객체 인식을 위해 CNN(Convolutional Neural Network), RNN(Recurrent Neural Networks), R-CNN(Recurrent Convolutional Neural Network), Fast RCNN, 및 Faster RCNN(Region based Convolutional Neural Network), YOLO(You Only Look Once), 또는 SSD(Single Shot Detector) 알고리즘 중 어느 하나의 딥러닝 알고리즘을 사용하여 카메라 영상의 객체들을 특징 추출과 분률 통해 객체들을 검출(object detection)한다. The deep learning module 110 is a CNN (Convolutional Neural Network), RNN (Recurrent Neural Networks), R-CNN (Recurrent Convolutional Neural Network), Fast RCNN, and Faster RCNN for real-time object recognition based on deep learning of camera image data. Region based Convolutional Neural Network), YOLO (You Only Look Once), or SSD (Single Shot Detector) algorithms, using any one of deep learning algorithms to detect objects through feature extraction and fractionation of objects in the camera image do.

딥러닝 모듈(100)은 상기 딥러닝 알고리즘을 사용하여 카메라 영상의 객체들을 검출하여 사각박스(grid)로 마킹된 객체들의 특징 추출과 분류를 통해 컨테이너, 차량과 사람, 양·적하 장비의 객체들을 인식하고, 차선 인식, 차량 번호 인식, 컨테이너 번호(ISO code) 문자 인식, 컨테이너 데미지 인식, 블록 진입구 진입 차량 인식, 위험 지역 진입 차량과 작업자 검출, 역주행 차량 검출, Yard 작업자 안전보호구/안전 조끼 착용 여부 검출, 양·적하 장비 위치를 검출하여 이벤트 발생시마다 미들웨어(200)로 전송하며, 이벤트 발생시마다 FPGA 기반 임베디드 비전 시스템(TLEM)(100)의 GPIO interface를 통해 상기 해당 스피커로 원격 경고 방송을 송출한다. The deep learning module 100 detects objects in the camera image using the deep learning algorithm, and extracts and classifies features of the objects marked as a grid, so that the objects of containers, vehicles and people, and loading and unloading equipment are detected. Recognition, lane recognition, vehicle number recognition, container number (ISO code) text recognition, container damage recognition, block entrance vehicle recognition, hazardous area entry vehicle and worker detection, reverse driving vehicle detection, yard worker safety protection/safety vest It detects the location of detection, loading and unloading equipment, and transmits it to the middleware 200 whenever an event occurs, and transmits a remote warning broadcast to the speaker through the GPIO interface of the FPGA-based embedded vision system (TLEM) 100 whenever an event occurs. .

상기 엣지 미들웨어는 상기 FPGA 기반 임베디드 비전 시스템(TLEM)(100)으로부터 학습된 객체 추출 이벤트(text)와 사각박스로 마킹된 객체 추출 영상 데이터를 수신받는 TLEM 딥러닝 미들웨어; XT, YT 차량의 차량 번호와 DR-GPS 위치를 수신하는 DR-GPS 미들웨어; 및 이벤트 발생시마다 TCP/IP를 통해 상기 해당 스피커(IP 스피커)로 원격 경고 방송을 송출하는 스피커 방송 미들웨어를 포함한다. The edge middleware includes a TLEM deep learning middleware that receives an object extraction event (text) learned from the FPGA-based embedded vision system (TLEM) 100 and object extraction image data marked with a square box; DR-GPS middleware for receiving vehicle number and DR-GPS location of XT and YT vehicles; And a speaker broadcasting middleware that transmits a remote warning broadcast to the corresponding speaker (IP speaker) through TCP/IP whenever an event occurs.

상기 엣지 미들웨어는 필요 장소에 따라 Yard의 각각의 블록 진입구(Block Entrance)에 900MHz RFID 리더가 설치될 수 있으며, 각 RFID 리더에 검출된 차량의 900MHz RFID 태그 정보를 수신하는 RFID 미들웨어를 더 포함할 수 있다. The edge middleware may have a 900MHz RFID reader installed at each block entrance of the Yard according to the required location, and further include RFID middleware that receives 900MHz RFID tag information of the vehicle detected by each RFID reader. have.

도 9c를 참조하면, 미들웨어(200)는 터미널 운영 시스템(TOS)(300)의 연계를 위한 엣지 미들웨어와 통합 미들웨어로 구성된다. Referring to FIG. 9C, the middleware 200 includes edge middleware and integrated middleware for linking the terminal operating system (TOS) 300.

미들웨어(200)는 일측은 FPGA 기반 임베디드 비전 시스템(TLEM)(100)과 연결되고, 타측은 터미널 운영 시스템(TOS)(300)과 연동된다. One side of the middleware 200 is connected to the FPGA-based embedded vision system (TLEM) 100, and the other side is connected to the terminal operating system (TOS) 300.

미들웨어(200)는 Middleware 200 is

상기 FPGA 기반 임베디드 비전 시스템(TLEM)(100)에서 수집한 컨테이너 번호, 차량 번호, YT번호, 차선위치, 하위 디바이스 연결, 근거리 필드 이벤트 대응(스피커 경고 신호 송출), 카메라 영상 데이터 압축을 제공하는 엣지-미들웨어(Edge-Middleware); 및 Edge providing container number, vehicle number, YT number, lane location, sub-device connection, near field event response (speaker warning signal transmission), and camera image data compression collected by the FPGA-based embedded vision system (TLEM) 100 -Middleware (Edge-Middleware); And

항만 컨테이너 터미널에서 지리적으로 분산된 엣지-미들웨어(Edge-Middleware)의 데이터를 수집하며, 로그, 메세지 라우터, 터미널 운영 시스템(TOS) 연계하는 통합-미들웨어(Integration-Middleware)을 포함한다. It collects geographically distributed Edge-Middleware data from the port container terminal, and includes integration-middleware that connects with logs, message routers, and terminal operating systems (TOS).

미들웨어(200)는 Middleware 200 is

항만 컨테이너 터미널 시스템에서 사용 중인 이기종 소프트웨어와 하드웨어 장비에 대한 어댑터 및 TOS 연계 모듈이 구비되며, Adapters and TOS linkage modules for heterogeneous software and hardware equipment used in the port container terminal system are provided.

엣지 미들웨어 관리 및 제어 모듈(Edge M/W 데몬 관리, Edge M/W 상태 관리, Edge Registry), 로그 관리 모듈, 인식 정보 위치 정보 모듈(Proxy), 모듈 및 제어 모듈(모듈 정보 관리, 모듈 상태 관리, 모듈 명령어 처리), ALE 서비스 엔진(ALE Interface, 이벤트 스케쥴러, Filtering & Reporting, 위치 정보 관리, Event Cycle 관리)를 구비하는 엣지- 미들웨어; 및Edge middleware management and control module (Edge M/W daemon management, Edge M/W status management, Edge Registry), log management module, recognition information location information module (Proxy), module and control module (module information management, module status management) , Module command processing), an ALE service engine (ALE Interface, event scheduler, Filtering & Reporting, location information management, and Event Cycle management); And

상기 엣지-미들웨어와 연결되며, 관리자 브라우저, 시스템 모니터링 및 관리 모듈(로그 관리, 시스템 모니터링, M/W 관리), 시스템 자원 보호 모듈(보안 설정 및 키 관리, Secure Notification, Edge M/W 접근 제어), 터미널 운용 시스템(TOS)의 DB 서버와 TCP/IP 통신되는 Management 채널 모듈을 구비하는 통합-미들웨어를 포함한다. Connected to the edge-middleware, administrator browser, system monitoring and management module (log management, system monitoring, M/W management), system resource protection module (security setting and key management, Secure Notification, Edge M/W access control) , Including an integration-middleware including a management channel module in TCP/IP communication with the DB server of the terminal operating system (TOS).

터미널 운영 시스템(TOS)(300)은 미들웨어 UI, 이벤트 뷰어, 실시간 차량의 모니터링 프로그램을 구비한다. The terminal operating system (TOS) 300 includes a middleware UI, an event viewer, and a real-time vehicle monitoring program.

항만 컨테이너 터미널의 출입관리를 위해, XT, YT 차량은 안테나와 DR-GPS와 6축 센서 또는 9축 센서를 구비하는 DR-GPS 단말기를 사용하며, GPS 신호가 끊기더라도 DR-GPS 단말기는 CAN tranceiver- CAN controller와 차량 ECU와의 시간에 따른 차량 속도 신호 또는 차량 가속도 신호를 수신받는 CAN 통신을 제공하며, 6축 센서/9축 센서를 사용하여 차량의 위치를 보정한다. For access control of port container terminals, XT and YT vehicles use DR-GPS terminals equipped with antennas, DR-GPS and 6-axis sensors or 9-axis sensors. Even if the GPS signal is cut off, the DR-GPS terminal is a CAN tranceiver. -It provides CAN communication to receive vehicle speed signal or vehicle acceleration signal according to time between CAN controller and vehicle ECU, and corrects the position of the vehicle using 6-axis sensor/9-axis sensor.

컨테이너가 탑재된 차량은 GPS 안테나와 DR-GPS 단말기(DC 12~24V), 상기 DR-GPS 단말기와 시그널 케이블에 연결된 속도 표시 및 경보기를 구비하며, DR-GPS 단말기는 P-LTE Router와 통신되어 터미널 운영 시스템(TOS)의 위치 측위 서버에 연결된다. The container-mounted vehicle is equipped with a GPS antenna, a DR-GPS terminal (DC 12~24V), a speed indicator and an alarm connected to the DR-GPS terminal and signal cable, and the DR-GPS terminal communicates with the P-LTE router. It is connected to the location location server of the Terminal Operating System (TOS).

상기 차량은 안테나와 DR-GPS와 6축 센서 또는 9축 센서를 구비하는 DR-GPS 단말기를 사용하며, 상기 6축 센서는 가속도 센서와 Gyro 센서를 사용하거나 또는 상기 9축 센서는 가속도 센서와 Gyro 센서와 지자계를 사용하며, The vehicle uses an antenna, a DR-GPS, and a DR-GPS terminal having a 6-axis sensor or a 9-axis sensor, and the 6-axis sensor uses an acceleration sensor and a Gyro sensor, or the 9-axis sensor is an acceleration sensor and a Gyro sensor. Using a sensor and a geomagnetic field,

상기 차량의 ECU는 CAN controller - CAN tranceiver를 통해 DR-GPS 단말기와 연결되고, 상기 DR-GPS 단말기와 CAN 통신을 제공하며, DR-GPS 단말기는 GPS 신호가 끊겨도 Dead Reckoning 기능에 의해 차량 ECU와의 CAN 통신을 통해 시간에 따른 차량 속도 신호 또는 차량 가속도 신호를 사용하여 6축 센서/9축 센서로 위치를 보정하여 항만 컨테이너 터미널에서 차량의 보정된 GPS 위치를 DR-GPS 미들웨어를 통해 터미널 운영 시스템(TOS)으로 전송한다. The vehicle's ECU is connected to the DR-GPS terminal through a CAN controller-CAN tranceiver, and provides CAN communication with the DR-GPS terminal, and the DR-GPS terminal communicates with the vehicle ECU by a dead reckoning function even when the GPS signal is cut off. Using the vehicle speed signal or vehicle acceleration signal over time through CAN communication, the corrected GPS position of the vehicle in the port container terminal is corrected by using a 6-axis sensor/9-axis sensor, and the terminal operating system (via DR-GPS middleware) TOS).

상기 항만 터미널 운영 시스템(TOS)(300)은 상기 FPGA 기반 임베디드 비전 시스템(TLEM)(100)과 미들웨어(200)를 통해 연동되며, 항만의 다수 카메라별 영상 데이터의 그리드가 표시된 객체들(컨테이너, 차량, 사람, 양·적하 장비 등)이 포함된 영상 데이터를 모니터링 PC(310)의 화면에 출력하며, XT, YT 차량의 차량 번호와 DR-GPS 위치가 항만 컨테이너 터미널 Yard 지도에 표시된다. The port terminal operation system (TOS) 300 is interlocked through the FPGA-based embedded vision system (TLEM) 100 and the middleware 200, and objects (container, Video data including vehicles, people, loading/unloading equipment, etc.) are output on the screen of the monitoring PC 310, and vehicle numbers and DR-GPS locations of XT and YT vehicles are displayed on the Yard map of the port container terminal.

또한, 안테나와 DR-GPS와 6축 센서 또는 9축 센서를 사용하는 DR-GPS 단말기를 구비하는 차량은 항만 컨테이너 터미널의 2D 또는 3D GIS 지도에 차량의 위치(location)를 표시할 수 있다. In addition, a vehicle equipped with an antenna, a DR-GPS, and a DR-GPS terminal using a 6-axis sensor or a 9-axis sensor can display the location of the vehicle on a 2D or 3D GIS map of the port container terminal.

상기 항만 터미널 운영 시스템(TOS)(300)은 항만 물류 정보 시스템이 구비되며, 항만 스피커 방송 시스템과 연동될 수 있다. The port terminal operation system (TOS) 300 is provided with a port logistics information system, and may be interlocked with a port speaker broadcasting system.

예를들면, 항만 컨테이너 터미널에서 위험 지역 작업자 또는 차량 검출 시에, TLEM 또는 미들웨어는 해당 스피커(IP 스피커)로 원격 경고 방송("여기는 접근이 금지된 위험 지역이니 위험 지역을 떠나주세요")을 송출한다. For example, when detecting a hazardous area worker or vehicle at a port container terminal, the TLEM or middleware sends a remote warning broadcast ("This is a dangerous area where access is prohibited, please leave the dangerous area") to the corresponding speaker (IP speaker). do.

예를들면, 역주행 차량 검출 시에, TLEM 또는 미들웨어는 해당 스피커로 원격 경고 방송("여기는 역주행이 금지된 지역입니다")을 송출한다. For example, upon detection of a reverse driving vehicle, the TLEM or middleware sends a remote warning broadcast ("this is an area where reverse driving is prohibited") to the corresponding speaker.

예를들면, 작업자 안전 보호구 미착용 검출 시에 TLEM 또는 미들웨어는 해당 스피커로 안내 방송("작업 지역에서는 안전 보호구를 착용해주세요")을 송출한다. For example, when detecting that the worker's safety gear is not worn, the TLEM or middleware sends out an announcement ("Please wear safety gear in the work area") to the speaker.

도 12는 카메라 영상의 객체를 검출하고 차량 번호와 컨테이너 번호(ISO code)가 포함된 영상의 이미지의 문자를 인식하는 딥러닝 모듈(YOLO, 또는 SSD)이 탑재된 FPGA 기반 임베디드 비전 시스템(TLEM)의 블럭도이다. 12 is an FPGA-based embedded vision system (TLEM) equipped with a deep learning module (YOLO or SSD) that detects an object of a camera image and recognizes characters of an image of an image including a vehicle number and a container number (ISO code). It is a block diagram of.

카메라 영상의 객체를 검출하고 문자를 인식하는 딥러닝 모듈이 탑재된 FPGA 기반 임베디드 비전 시스템(TLEM)(100)은 The FPGA-based embedded vision system (TLEM) 100 equipped with a deep learning module that detects objects in camera images and recognizes characters

카메라 영상 데이터의 객체를 인식하는 딥러닝 모듈과 MCU(CPU)가 탑재된 FPGA; A deep learning module for recognizing an object of camera image data and an FPGA equipped with an MCU (CPU);

상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되고, 상기 딥러닝 모듈에 의해 영상의 객체 검출과 차량 번호와 컨테이너 번호(ISO code), YT 번호가 포함된 영상의 이미지를 문자 인식하여 영상을 처리하는 DSP; It is connected to the deep learning module and the FPGA on which the MCU is mounted, and the deep learning module processes the image by character recognition of the image of the image including the object detection, vehicle number, container number (ISO code), and YT number. DSP to do;

상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되고, 카메라(C)로부터 영상 데이터를 HDMI 2.0 Rx/Tx를 통해 수신하고 출력하는 비디어 코덱의 인코더/디코더를 구비하는 비디오 인터페이스부; A video interface unit including an encoder/decoder of a video codec, which is connected to the deep learning module and the FPGA on which the MCU is mounted, and receives and outputs image data from the camera C through HDMI 2.0 Rx/Tx;

상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되는 플래시 메모리와 SDRAM; A flash memory and SDRAM connected to an FPGA on which the deep learning module and MCU are mounted;

상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되고, USB를 연결하는 USB-UART 단말부; A USB-UART terminal unit connected to the deep learning module and the FPGA on which the MCU is mounted, and connecting USB;

상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되고, GPIO 인터페이스를 통해 외부 스피커(IP 스피커)를 연결하는 GPIO 인터페이스부; A GPIO interface unit connected to the deep learning module and the FPGA on which the MCU is mounted, and connecting an external speaker (IP speaker) through a GPIO interface;

상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되는 이더넷 연결부;An Ethernet connection part connected to the deep learning module and the FPGA on which the MCU is mounted;

상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되는 Wi-Fi 통신부; 및 A Wi-Fi communication unit connected to the deep learning module and the FPGA on which the MCU is mounted; And

DC 12V ~ DC 24V 전원을 공급하는 DC 전원공급부를 포함한다. It includes a DC power supply that supplies DC 12V ~ DC 24V power.

FPGA 기반 임베디드 시스템(TLEM)(100)은 입력부와 표시부와 딥러닝 모듈(예, YOLO, SSD)이 탑재된 제어부(MCU)와 저장부와 유무선 통신부(Giga LAN 이더넷 연결부, USB 케이블 연결부, Wi-Fi 통신부)를 구비하는 소형 IoT 디바이스로 제작된다. The FPGA-based embedded system (TLEM) 100 includes an input unit, a display unit, a control unit (MCU) equipped with a deep learning module (eg, YOLO, SSD), a storage unit, and a wired/wireless communication unit (Giga LAN Ethernet connection, USB cable connection, Wi- It is manufactured as a small IoT device equipped with a Fi communication unit).

상기 FPGA 기반 임베디드 비전 시스템(TLEM)은 The FPGA-based embedded vision system (TLEM)

상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되고, SD 카드가 착탈식으로 장착/이격되는 SD 카드 연결부를 더 포함한다. It is connected to the deep learning module and the FPGA on which the MCU is mounted, and further includes an SD card connection to which the SD card is detachably mounted/separated.

상기 FPGA 기반 임베디드 비전 시스템(TLEM)은 GPIO 인터페이스를 통해 스피커와 연결되며, 상기 스피커는 기 저장된 음성 데이터가 저장되며 상기 FPGA 기반 임베디드 비전 시스템(TLEM)의 원격 방송 신호에 따라 해당 음성 데이터가 출력되는 IP 스피커 인 것을 특징으로 한다. The FPGA-based embedded vision system (TLEM) is connected to a speaker through a GPIO interface, and the speaker stores pre-stored voice data, and the corresponding voice data is output according to a remote broadcast signal of the FPGA-based embedded vision system (TLEM). It is characterized by being an IP speaker.

* 딥러닝 모듈: 딥러닝 객체인식 SW(YOLO V3, SSD) * Deep Learning Module: Deep Learning Object Recognition SW (YOLO V3, SSD)

- 항만 Gate, Block Entrance,TC, QC용 각각의 딥러닝 파일 생성 -Create deep learning files for each port gate, block entrance, TC, and QC

- 하드웨어 산정에 따른 YOLO V2/V3, SSD 성능 비교 및 테스트 -Comparison and test of YOLO V2/V3, SSD performance according to hardware calculation

- 항만 Gate, Block Entrance, TC, QC용 딥러닝 모듈 SW-Deep learning module SW for Port Gate, Block Entrance, TC, QC

- 항만 Gate, Yard의 Block, Block Entrance, ARMGC 차량 및 작업자 검출, QC에서 선박으로 양적하되는 컨테이너 번호(ISO 코드) 인식, 컨테이너 데미지, YT 인식, 차량번호 인식, 라인 구분, Yard 작업자의 안전모/안전 조끼 착용 여부를 검출하는 딥러닝 모듈-Port Gate, Yard Block, Block Entrance, ARMGC vehicle and worker detection, container number (ISO code) recognition, container damage, YT recognition, vehicle number recognition, line classification, yard worker's hard hat/ Deep learning module to detect whether a safety vest is worn

- 차량, 사람, 컨테이너, 양적하 장비 응용 요소와 인식률에 따른 각각의 소형 로컬 디바이스 탑재용 딥러닝 학습 파일 생성-Creation of deep learning learning files for loading small local devices according to vehicle, human, container, and loading equipment application factors and recognition rates

* FPGA 기반 임베디드 비전 시스템(TLEM)에서 구동하는 소형 프레임워크* Small framework running on FPGA-based embedded vision system (TLEM)

- 저장 매체를 통한 카메라 영상 데이터와 영상 저장 장치(NVR, DVR)에서 전송되는 실시간 동영상 스트림의 딥러닝을 사용한 객체 검출과 문자 인식의 영상처리를 위한 프레임워크 개발(OpenCV, DirectShow) -Development of a framework for object detection and image processing of character recognition using deep learning of camera image data through storage media and real-time video streams transmitted from image storage devices (NVR, DVR) (OpenCV, DirectShow)

- NVR(Network Viedo Recorder)에 다수의 카메라(C)의 동시에 접속되는 ONVIF, RTSP 표준 프로토콜 구현-Implementation of ONVIF, RTSP standard protocol for simultaneous connection of multiple cameras (C) to NVR (Network Viedo Recorder)

* 엣지 미들웨어 및 API(Application Programming Interface) 설계* Edge middleware and API (Application Programming Interface) design

- 이기종 디바이스(HW/SW) 접속 엣지 미들웨어(edge-middlewre) 개발-Development of edge-middlewre for connecting heterogeneous devices (HW/SW)

(TLEM 딥러닝 미들웨어, RFID 미들웨어, 차량 번호와 DR-GPS 위치를 수신하는 DR-GPS 미들웨어, 스피커 방송 미들웨어)(TLEM deep learning middleware, RFID middleware, DR-GPS middleware that receives vehicle number and DR-GPS location, speaker broadcasting middleware)

- DR-GPS 단말기와 TLEM(Tiny Local Embedded Module)의 연동 API 개발-Developed API for linkage between DR-GPS terminal and TLEM (Tiny Local Embedded Module)

- Integration middleware와 MQTT 통신을 위한 IoT 프로토콜 정의 및 개발-IoT protocol definition and development for MQTT communication with Integration middleware

* CNN(Convolutional Neural Network) 알고리즘의 설계 및 경량화* Design and weight reduction of CNN (Convolutional Neural Network) algorithm

* 실시간 동영상의 특정 객체 인식을 위한 Network layer의 소형화 연구개발* Research and development of miniaturization of the network layer for real-time video recognition of specific objects

- 항만에 특정화된 객체만 구분함으로써 학습시간을 줄이고 낮은 HW사양으로-By classifying only the objects specified in the port, the learning time is reduced and the HW specification is reduced.

구동하기 위한 연구 Research to drive

* 차량에 탑재되는 9축 센서(가속도 센서/Gyro 센서/ 지자계)를 이용한 고징밀 Dead Reckoning 적용 DR-GPS 모듈 개발* Development of DR-GPS module with high precision dead reckoning using 9-axis sensors (acceleration sensor/Gyro sensor/ geomagnetic field) mounted on a vehicle

* 터미널 운용 시스템(TOS) 연동을 위한 통합 미들웨어와 API 개발 * Development of integrated middleware and API for interworking with terminal operation system (TOS)

* 터미널 운용 시스템(TOS)의 이벤트 뷰어, 모니터링 SW* Event viewer and monitoring SW of Terminal Operation System (TOS)

(1) 딥러닝 모듈의 객체인식과 영상 처리 SW와 소형 FPGA 기반 임베디드 비전 시스템(Tiny Local Embedded module, TLEM) 개발(1) Deep learning module object recognition and image processing SW and small FPGA-based embedded vision system (Tiny Local Embedded module, TLEM) development

- 저가형/소형 FPGA 기반 임베디드 비전 하드웨어(IoT 디바이스) 개발 -Low-cost/small FPGA-based embedded vision hardware (IoT device) development

- 카메라 영상 데이터의 실시간 딥러닝 모듈의 객체 인식 SW 개발-Development of object recognition software for real-time deep learning module of camera image data

- CNN 알고리즘의 객체들의 사전 학습을 통한 최적의 학습데이터 개발-Development of optimal learning data through prior learning of CNN algorithm objects

- FPGA 기반 임베디드 비전 시스템(TLEM)으로부터 학습된 객체 추출 이벤트(text)와 사각박스로 마킹된 객체 추출 영상 데이터를 수신받아 모니터링 PC로 출력되도록 하며, 이벤트 발생시 해당 스피커로 경고 방송을 하는 미들웨어 개발 -Develop middleware that receives the learned object extraction event (text) from the FPGA-based embedded vision system (TLEM) and object extraction image data marked with a square box and outputs it to a monitoring PC, and broadcasts a warning to the speaker when an event occurs.

- 실시간 영상에서 작업자의 안전여부 판단(안전모/형광 조끼 착용 여부) 알고리즘 개발-Development of an algorithm to determine whether the worker is safe or not (whether wearing a helmet/fluorescent vest) in real-time video

- 차량 역주행, 주행 방향에 따른 작업자의 충돌 여부 감지, YT/XT의 차량 번호 인식, 차선 인식, 컨테이너 번호(ISO code) 인식, 컨테이너 데미지 인식-Vehicle reverse driving, detection of worker collision according to driving direction, vehicle number recognition of YT/XT, lane recognition, container number (ISO code) recognition, container damage recognition

(2) 9축 센서를 이용한 고정밀 Dead Reckoning 적용 DR-GPS 모듈 개발(2) Development of DR-GPS module applying high-precision dead reckoning using 9-axis sensor

- 항만 내 Yard의 Block에 컨테이너들이 적재되어 높게 쌓인 컨테이너에 의해 발생되는 멀티패스(multi-path)에 의한 위치 오차와 TC(Transfer Crane) 또는 QC(Quay Crane) 밑에서 GPS 신호를 받지 못하는 환경에서 9축 센서와 차량의 CAN 신호와, 차량의 속도 신호를 이용하여 항만내 차량의 정밀 위치 측위 가능한 DR-GPS 단말기 개발-In an environment where the GPS signal is not received under the TC (Transfer Crane) or QC (Quay Crane) and the location error due to multi-path caused by containers stacked high because containers are loaded on the Yard block in the port. Development of a DR-GPS terminal capable of precise location positioning of vehicles in ports by using axis sensors, vehicle CAN signals, and vehicle speed signals

- 초기 가동 시, GPS 수신 불가 상태에서 신속하고 빠른 복귀 알고리즘 개발-Development of a quick and fast return algorithm when GPS reception is unavailable during initial operation

(3) 터미널 운용 시스템(Terminal Operating System)의 연계를 위한 통합 미들웨어 개발(3) Development of integrated middleware for connection with Terminal Operating System

- 다수의 카메라(C) 또는 영상 저장 장치(NVR 또는 DVR)와 연동되는 FPGA 기반 임베디드 비전 시스템의 딥러닝 모듈의 영상의 객체 인식과 영상처리 후, -After object recognition and image processing of the image of the deep learning module of the FPGA-based embedded vision system interlocked with multiple cameras (C) or image storage devices (NVR or DVR),

- DR-GPS 단말기를 구비한 차량의 위치를 미들웨어를 통해 터미널 운용 시스템(TOS)으로 전송하는 DR-GPS 미들웨어 개발-Development of DR-GPS middleware that transmits the location of a vehicle equipped with a DR-GPS terminal to the terminal operation system (TOS) through the middleware

- 컨테이너 터미널 서비스를 위한 모니터링 프로그램 및 미들웨어 UI 개발-Development of monitoring program and middleware UI for container terminal service

④ 부산신항만 내 컨테이너 터미널 실증 테스트베드 구축(실시예)④ Construction of a container terminal demonstration test bed in Busan New Port (Example)

- TOS 시스템 연동 모듈 개발-TOS system interlocking module development

- QC 1기에 비전 시스템 설치, YT 5대에 DR GPS 설치 후 TOS 시스템 연동-Vision system installed in QC 1 unit, DR GPS installed on 5 YT units, and then interlocked with TOS system

o 최종 제품o Final product

(H/W) - 딥러닝 모듈의 영상 처리 프레임워크를 위한(H/W)-for deep learning module's image processing framework

FPGA 기반 임베디드 비전 시스템(Tiny Local Embedded Module, TLEM) FPGA-based embedded vision system (Tiny Local Embedded Module, TLEM)

- 컨테이너 차량(XT, YT 차량)에 탑재되는 DR-GPS 단말기 모듈 개발 -Development of DR-GPS terminal module mounted on container vehicles (XT, YT vehicles)

(S/W) - 딥러닝 모듈의 카메라 영상 데이터의 객체 인식 SW(S/W)-Object recognition SW of camera image data of deep learning module

- 카메라 영상 데이터의 객체 인식을 위한 딥러닝 학습용 프로그램 -Deep learning learning program for object recognition of camera image data

- 터미널 운용 시스템(TOS) 연동을 위한 통합 미들웨어 및 API -Integrated middleware and API for interworking with Terminal Operation System (TOS)

- 이벤트 뷰어, 모니터링 SW -Event viewer, monitoring SW

[세부 개발 목표][Detailed development goals]

(1) 딥러닝 기반 객체인식 SW와 소형 FPGA 기반 임베디드 시스템(Tiny Local Embedded module, TLEM) 개발(1) Deep learning-based object recognition software and small FPGA-based embedded system (Tiny Local Embedded module, TLEM) development

a. 영상처리 기술 개발a. Image processing technology development

- 항만 컨테이너 터미널에서 획득된 동영상 파일이나 서버 또는 영상장치에서 전송되는 실시간 영상 스트림 작업을 위한 멀티미디어 프레임워크 개발[VMF(Video for windows), OpenCV, DirectShow] -Development of a multimedia framework for working with video files acquired from port container terminals or real-time video streams transmitted from servers or video devices [VMF (Video for windows), OpenCV, DirectShow]

- 카메라 영상에서 노이즈 제거의 전처리, 후처리, 객체의 특징점 추출, 패턴 인식 및 카메라 영상 데이터 압축 및 저장, 저장된 패턴과 입력된 영상을 비교하여 일치 여부를 판단하는 기술 개발-Development of technology to determine whether or not to match by comparing the stored pattern and the input image, pre-processing, post-processing, object feature point extraction, pattern recognition and camera image data compression and storage, from camera images

- 차량 번호, 컨테이너 번호 문자 추출 및 컨테이너 데미지 이미지 추출-Vehicle number, container number character extraction and container damage image extraction

b. 딥러닝 기술 개발b. Deep learning technology development

- Convolution 연산을 활용한 카메라 영상의 이미지 특징점 추출 및 분류 기법의 CNN 학습 모델링 선정 및 모듈 개발 -CNN learning modeling selection and module development for extracting and classifying image feature points of camera images using convolution operation

- AlexNET, VGGNet, GoogLeNet, RestNet, Yolo, SSD 모듈 개발 -AlexNET, VGGNet, GoogLeNet, RestNet, Yolo, SSD module development

- 컨테이너 번호와 차량 번호의 문자 이미지에서 문자 인식 및 차선 구분을 위한 real-time 인식이 가능한 딥러닝 모델링 비교/선정 및 학습 모듈 개발-Deep learning modeling comparison/selection and learning module development capable of real-time recognition for character recognition and lane classification in the character image of container number and vehicle number

- 딥러닝 알고리즘에 의한 작업자의 안전모와 안전조끼 착용자/비착용자 구분 학습데이터 생성-Generation of learning data for the worker's hard hat and safety vest wearer/non-wearer by deep learning algorithm

- 카메라 영상 데이터의 객체들의 인식률 개선과 및 문자인식을 위한 정형 및 비정형적 데이터를 위한 학습 데이터 생성-Improvement of recognition rate of objects of camera image data and generation of learning data for structured and unstructured data for character recognition

c. 멀티미디어 프레임워크, FPGA 기반 임베디드 비전 시스템(TLEM)의 딥러닝 모듈 개발 c. Multimedia framework, FPGA-based embedded vision system (TLEM) deep learning module development

(2) 9축 센서를 이용한 고정밀 Dead Reckoning 적용 DR-GPS 모듈 개발(2) Development of DR-GPS module applying high-precision dead reckoning using 9-axis sensor

- GPS, GNSS의 위성신호와 3축 자이로센서, 6축 자이로 센서+가속도 센서, 9축 자이로 센서+가속도 센서+지자계 센서를 이용한 위치 보정 알고리즘 개발-Development of a position correction algorithm using GPS and GNSS satellite signals, 3-axis gyro sensor, 6-axis gyro sensor + acceleration sensor, 9-axis gyro sensor + acceleration sensor + geomagnetic sensor

- 차량의 변속 레버와 시간에 따른 차량 속도 신호를 CAN 통신을 통해 -The vehicle's shift lever and the vehicle speed signal over time are transmitted through CAN communication.

전달받아 위치 보정 알고리즘 개발 Received and developed position correction algorithm

- 차량전원 공급 미지원시 내장 베터리의 저전력 알고리즘 및 GPS의 위성 수신 상태의 WARM & HOT 유지 알고리즘 개발-Development of low power algorithm for built-in battery and WARM & HOT maintenance algorithm of GPS satellite reception when vehicle power supply is not supported

(3) 터미널 운영 시스템(Terminal Operating System)의 연동을 위한 (3) For interworking with Terminal Operating System

통합 미들웨어 개발 [도 9c] Integrated middleware development [Fig. 9c]

a. 엣지-미들웨어(Edge-Middleware) 개발a. Edge-Middleware development

- 엣지-미들웨어(Edge M/W): TLEM 딥러닝 미들웨어, RFID 미들웨어, 차량 번호와 DR-GPS 위치를 수신하는 DR-GPS 미들웨어, 스피커 방송 미들웨어-Edge-Middleware (Edge M/W): TLEM deep learning middleware, RFID middleware, DR-GPS middleware receiving vehicle number and DR-GPS location, speaker broadcasting middleware

- FPGA 기반 임베디드 비전 시스템(TLEM)에서 검출한 컨테이너 번호, 차량번호, YT 번호, 차선위치, 하위 디바이스 연결, 근거리 필드 이벤트 대응 경고 신호 스피커 송출, 카메라 영상 데이터 압축.-Container number, vehicle number, YT number, lane location, sub-device connection detected by FPGA-based embedded vision system (TLEM), warning signal speaker transmission for short-range field events, camera image data compression.

b. 통합-미들웨어(Integration-Middleware) 개발b. Integration-Middleware development

- 분산된 엣지-미들웨어(Edge-Middleware)의 데이터들을 수집하며, 로그, 메시지 라우터, TOS 연계-Collects distributed Edge-Middleware data and connects logs, message routers, and TOS

c. 항만 컨테이너 터미널 시스템에서 사용 중인 이기종 장비(HW/SW)에 대한 어댑터 개발 및 TOS 연계 모듈 개발c. Developed adapters for heterogeneous equipment (HW/SW) used in port container terminal systems and developed TOS linkage modules

d. 미들웨어 UI, 이벤트 뷰어, 실시간 차량의 모니터링 프로그램 개발d. Middleware UI, event viewer, real-time vehicle monitoring program development

(4) 부산 신항만 내 컨테이너 터미널 실증 테스트베드 구축(실시예)(4) Construction of a container terminal demonstration test bed in Busan New Port (Example)

- TOS 시스템 연동 모듈 개발-TOS system interlocking module development

- QC 1기에 비전 시스템 설치, YT 5대에 DR GPS 설치 후 TOS 시스템 연동-Vision system installed in QC 1 unit, DR GPS installed on 5 YT units, and then interlocked with TOS system

o 주요 성능치o Main performance values

1) 컨테이너 번호, 차량번호, YT 번호 인식률 1) Container number, vehicle number, YT number recognition rate

2) 인식 속도 2) recognition speed

3) GPS의 음영 지역 또는 Dead Reckoning 적용 시 위치 보정율 3) Position correction rate when GPS shaded area or Dead Reckoning is applied

4) Yard 근무자의 안전모/안전조끼 착용여부 검지, 4) Yard worker's hard hat/safety vest detection,

차량/작업자 충돌 위험 검지율 Vehicle/worker collision risk detection rate

5) 테스트베드 구축 시 이전 대비 효율성 5) Efficiency compared to previous times when building a test bed

실시예에서는, 신항만 컨테이너 실증 테스트베드는 TOS 시스템 연동 미들웨어 개발, QC 1기에 비전 시스템 설치, YT 5대에 GPS 안테나와 DR-GPS 설치 후 TOS 시스템과 연동하였다. In the embodiment, the new port container demonstration test bed was interlocked with the TOS system after the development of the TOS system interlocking middleware, the vision system installation in the 1st QC, GPS antenna and DR-GPS in 5 YTs.

항만 Gate에 LANE1, LANE2 등의 레인 별로 진입/퇴출 차량의 정면과 후방, 윗면, 측면을 촬영하기 위해 설치된 카메라들에 따라 LANE1, LANE2 등의 레인 별로 좌측과 우측에 설치된 카메라들에 의해 QC 내부 컨테이너 측면 ID 인식, 컨테이너 뒤쪽 도어 ID 인식 및 차량 번호 인식, 컨테이너 옆 좌측 ID 인식 및 윗면 ID와 차량 번호가 인식된다. 또한, 카메라 설치 위치별로 카메라들에 의해 촬영된 영상으로부터 영상 처리(image processing)에 의해 QC 레인별로 진입한 차량의 컨테이너 번호에 표기된 ISO code 문자를 인식한다. QC internal container by cameras installed on the left and right for each lane such as LANE1 and LANE2 according to the cameras installed to photograph the front, rear, top and side of the vehicle entering/exiting each lane such as LANE1 and LANE2 at the port gate Side ID recognition, container rear door ID recognition and vehicle number recognition, container side left ID recognition, top ID and vehicle number recognition. In addition, ISO code characters indicated in container numbers of vehicles entering each QC lane are recognized by image processing from images captured by cameras for each camera installation location.

항만 컨테이너 터미널에서 차량 출입 관리와 카메라 영상의 객체를 인식하는 비전 카메라 시스템의 비전 인식 방법은 The vision recognition method of the vision camera system that recognizes vehicle access management and camera image objects at the port container terminal

(a) 항만 컨테이너 터미널에서, 항만 Gate, Yard/Block, Block Entrance, ARMGC, QC 각 지역에 설치된 다수의 카메라(C)와 연동되는 FPGA 기반 임베디드 비전 시스템(TLEM)은 각각의 카메라 영상 데이터에 대하여 딥러닝 모듈(YOLO, SSD 등)에 의해 객체들의 사전 학습 데이터에 따라 항만 Gate, Yard/Block, Block Entrance, ARMGC, QC 카메라 영상 데이터의 객체들의 특징 추출과 분류를 통해 사각박스(grid)로 마킹된 객체들(컨테이너와 차량과 사람, 양·적하 장비)을 검출하는 단계; (a) In the port container terminal, the FPGA-based embedded vision system (TLEM) interlocks with a number of cameras (C) installed in each area of the port gate, yard/block, block entrance, ARMGC, and QC for each camera image data. By deep learning module (YOLO, SSD, etc.), according to the pre-learning data of the objects, it is marked as a grid through feature extraction and classification of the objects of the port gate, Yard/Block, Block Entrance, ARMGC, and QC camera image data. Detecting the objects (containers and vehicles and people, loading and unloading equipment);

(b) FPGA 기반 임베디드 비전 시스템(TLEM)은 차선 인식, 차량 번호 인식, 컨테이너 번호(ISO code)가 포함된 영상의 이미지의 문자 인식, 컨테이너 데미지 인식, 블록 진입구 진입 차량 인식, 위험 지역 진입 차량과 작업자 검출, 역주행 차량 검출, Yard 작업자 안전보호구/안전 조끼 착용 여부 검출, 양적하 장비 위치를 검출하는 단계; 및 (b) The FPGA-based embedded vision system (TLEM) recognizes lanes, vehicle number recognition, character recognition of image images including container number (ISO code), container damage recognition, vehicle entering block entrance, vehicle entering dangerous area and Detecting a worker, detecting a reverse driving vehicle, detecting whether a yard worker is wearing a safety protective device/safety vest, and detecting a position of a loading and unloading equipment; And

(c) 이벤트 발생시마다, FPGA 기반 임베디드 비전 시스템(TLEM)으로부터 GPIO 인터페이스를 통해 직접 해당 스피커로 경고 방송 신호 송출하는 단계를 포함한다. (c) whenever an event occurs, transmitting a warning broadcast signal directly from the FPGA-based embedded vision system (TLEM) to the corresponding speaker through the GPIO interface.

상기 방법은 (d) 이벤트 발생시마다 FPGA 기반 임베디드 비전 시스템(TLEM)으로부터 학습된 객체 추출 이벤트(text)와 사각박스(grid)로 마킹된 객체 추출 영상 데이터를 미들웨어(TLEM 딥러닝 미들웨어)로 전송하고, 미들웨어가 TCP/IP를 사용하여 해당 스피커로 경고 방송 신호 송출하는 단계를 더 포함한다. The method includes (d) transmitting the object extraction event (text) learned from the FPGA-based embedded vision system (TLEM) and the object extraction image data marked as a grid to middleware (TLEM deep learning middleware) whenever an event occurs. And transmitting, by the middleware, a warning broadcast signal to a corresponding speaker using TCP/IP.

상기 방법은 (e) 상기 FPGA 기반 임베디드 비전 시스템(TLEM)은 미들웨어(엣지 미들웨어, 통합 미들웨어)를 통해 터미널 운용 시스템(TOS)과 연동되며, GPS 안테나와 DR-GPS, 6축 센서 또는 9축 센서를 사용하는 DR-GPS 단말기를 구비한 차량의 위치를 DR-GPS 미들웨어를 통해 항만 터미널 운영 시스템(TOS)으로 전송하여 출력하는 단계를 더 포함한다. The method is (e) The FPGA-based embedded vision system (TLEM) is interlocked with the terminal operating system (TOS) through middleware (edge middleware, integrated middleware), and a GPS antenna and DR-GPS, 6-axis sensor or 9-axis sensor It further comprises the step of transmitting and outputting the location of the vehicle equipped with the DR-GPS terminal using the DR-GPS middleware to the port terminal operating system (TOS).

터미널 운영 시스템(TOS)(300)은 미들웨어 UI, 이벤트 뷰어, 실시간 차량의 모니터링 프로그램, 항만 물류 관리 시스템과 연동된다. The terminal operation system (TOS) 300 is linked with a middleware UI, an event viewer, a real-time vehicle monitoring program, and a port logistics management system.

항만 컨테이너 터미널의 출입관리를 위해, XT, YT 차량은 GPS 안테나와 DR-GPS와 6축 센서 또는 9축 센서를 사용하는 DR-GPS 단말기를 구비하며, GPS 신호가 끊기더라도 위치 보정을 위해 DR-GPS 단말기는 CAN tranceiver- CAN controller와 차량 ECU와의 차량 속도 신호 또는 차량 가속도 신호를 수신받는 CAN 통신을 제공한다. For access control of port container terminals, XT and YT vehicles are equipped with a GPS antenna, DR-GPS, and a DR-GPS terminal using a 6-axis sensor or a 9-axis sensor. The GPS terminal provides CAN communication for receiving vehicle speed signals or vehicle acceleration signals between CAN controller and vehicle ECU.

컨테이너가 탑재된 차량은 GPS 안테나와 DR-GPS 단말기(DC 12~24V), 상기 DR-GPS 단말기와 시그널 케이블에 연결된 속도 표시 및 경보기를 구비하며, DR-GPS 단말기는 P-LTE Router와 통신되어 터미널 운영 시스템(TOS)의 위치 측위 서버에 연결된다. The container-mounted vehicle is equipped with a GPS antenna, a DR-GPS terminal (DC 12~24V), a speed indicator and an alarm connected to the DR-GPS terminal and signal cable, and the DR-GPS terminal communicates with the P-LTE router. It is connected to the location location server of the Terminal Operating System (TOS).

상기 차량은 GPS 안테나와 DR-GPS와 6축 센서 또는 9축 센서를 사용하는 DR-GPS 단말기를 사용하며, 상기 6축 센서는 가속도 센서와 Gyro 센서를 사용하거나 또는 상기 9축 센서는 가속도 센서와 Gyro 센서와 지자계를 사용하며, The vehicle uses a GPS antenna, a DR-GPS, and a DR-GPS terminal using a 6-axis sensor or a 9-axis sensor, and the 6-axis sensor uses an acceleration sensor and a Gyro sensor, or the 9-axis sensor is an acceleration sensor and a Gyro sensor and geomagnetic field are used,

상기 차량의 ECU는 CAN controller - CAN tranceiver를 통해 DR-GPS 단말기와 연결되고, 6축 센서 또는 9축 센서를 사용하는 DR-GPS 단말기와 CAN 통신을 제공하며, DR-GPS 단말기의 GPS 신호가 끊겨도 Dead Reckoning 기능에 의해 차량 ECU와의 CAN 통신을 통해 차량 속도 또는 차량 가속도 신호를 사용하여 항만내 정밀 GPS 위치를 보정하여 DR-GPS 미들웨어를 통해 터미널 운영 시스템(TOS)으로 전송한다. The vehicle's ECU is connected to the DR-GPS terminal through a CAN controller-CAN tranceiver, provides CAN communication with a DR-GPS terminal using a 6-axis sensor or a 9-axis sensor, and the GPS signal of the DR-GPS terminal is cut off. Also, the dead reckoning function corrects the precise GPS position in the port using the vehicle speed or vehicle acceleration signal through CAN communication with the vehicle ECU, and transmits it to the terminal operating system (TOS) through the DR-GPS middleware.

상기 항만 터미널 운영 시스템(TOS)(300)은 상기 FPGA 기반 임베디드 비전 시스템(TLEM)(100)과 미들웨어(200)를 통해 연동되며, 항만의 다수 카메라별 영상 데이터의 그리드가 표시된 객체들(컨테이너, 차량, 사람, 양·적하 장비 등)이 포함된 영상 데이터를 모니터링 PC(310)의 화면에 출력하며, XT, YT 차량의 차량 번호와 DR-GPS 위치가 항만 컨테이너 터미널 Yard 지도에 표시된다. The port terminal operation system (TOS) 300 is interlocked through the FPGA-based embedded vision system (TLEM) 100 and the middleware 200, and objects (container, Video data including vehicles, people, loading/unloading equipment, etc.) are output on the screen of the monitoring PC 310, and vehicle numbers and DR-GPS locations of XT and YT vehicles are displayed on the Yard map of the port container terminal.

또한, GPS 안테나와 DR-GPS와 6축 센서 또는 9축 센서를 사용하는 DR-GPS 단말기를 구비하는 차량은 항만 컨테이너 터미널의 2D 또는 3D GIS 지도에 차량의 위치(location)를 표시할 수 있다. 또한, 실시간으로 촬영되는 카메라 영상에 의해 컨테이너 치량의 위치를 검지할 수 있다. In addition, a vehicle equipped with a GPS antenna, a DR-GPS, and a DR-GPS terminal using a 6-axis sensor or a 9-axis sensor can display the location of the vehicle on a 2D or 3D GIS map of the port container terminal. In addition, it is possible to detect the position of the container value by the camera image captured in real time.

도 13은 항만 안전과 컨테이너 터미널의 양적하 생산성과 효율을 향상하기 위한 Non-GPU 기반 딥러닝 모듈이 탑재된 FPGA 기반 임베디드 비전 시스템(TLEM)의 정량적 평가 항목을 보인 도면이다. 13 is a view showing quantitative evaluation items of an FPGA-based embedded vision system (TLEM) equipped with a non-GPU-based deep learning module to improve port safety and productivity and efficiency of loading and unloading container terminals.

정량적 평가 항목은 딥러닝 인식 성능(1. 인식 객체 가지수, 2. 인식 성공률, 3. 최대 인식 거리, 4. 인식 속도 5. 카메라 인식 해상도), 딥러닝 인식 모듈 환경 시험(6. 동작 온도, 7. 열충격, 8. 방수방전, 9. 전파 인증(KC)), 정밀 DR-GPS 모듈(10. 동작 온도, 11. Data Update Time, 12. 위치 오차), TOS 연계 미들웨어(13. 미들웨어 소프트웨어 평가, 14. Host & IoT Interface 호환 종류)로 구성되며, 공인시험 성적서 또는 전파 인증성적서로 평가받는다. Quantitative evaluation items include deep learning recognition performance (1. number of recognized objects, 2. recognition success rate, 3. maximum recognition distance, 4. recognition speed 5. camera recognition resolution), deep learning recognition module environmental test (6. operation temperature, 7. Thermal Shock, 8. Waterproof Discharge, 9. Radio Wave Certification (KC)), Precision DR-GPS Module (10. Operating Temperature, 11. Data Update Time, 12. Position Error), TOS Linked Middleware (13. Middleware Software Evaluation) , 14. Host & IoT Interface compatible type), and is evaluated with an official test report or radio wave certification report.

본 기업은 2012년 설립 후, 국내외 항만 컨테이너 터미널의 자동화 시스템을 개발/구축하였으며, 그외 터미널, 출입 통제, 항만 통합 물류 관리 시스템에 HW/SW 납품 실적을 가지고 있다. Since its establishment in 2012, the company has developed/built an automation system for domestic and overseas port container terminals, and has a track record of delivering HW/SW to terminals, access control, and port integrated logistics management systems.

해외 항만 컨테이너 터미널의 경우, 넓은 부지로 인해 컨테이너를 높게 적재하지 않아 멀티 패스 현상이 발생하지 않는다. In the case of overseas port container terminals, the multi-pass phenomenon does not occur because containers are not loaded high due to the large site.

국내 항만 컨테이너 터미널의 경우 4~6 단의 컨테이너 적재로 인해 난반사가 심하며, 지구 자전에 의한 오차, 적재된 컨테이너에 의한 음영 및 난반사로 인한 오차가 존재한다. In the case of domestic port container terminals, diffuse reflection is severe due to the loading of 4-6 containers, and errors due to earth rotation, shading and diffuse reflection due to loaded containers exist.

도 14는 항만 컨테이너 터미널에서 실시간 카메라 영상 데이터 및 위치 정보 서비스 화면이다. 14 is a real-time camera image data and location information service screen in a port container terminal.

도 15는 항만 컨테이너 터미널 테스트 영상: (1) GPS only, (2) GPS + 9축 센서 + 위치 보정 알고리즘을 사용한 항만 컨테이너 터미널에서 차선 구분이 가능한 위치 보정 GPS 테스트 - 수평 구조 Yard의 Block 사이의 거리는 20~24m 간격 이다. Figure 15 is a port container terminal test image: (1) GPS only, (2) GPS + 9-axis sensor + location correction GPS test that can distinguish lanes at the port container terminal using a position correction algorithm-The distance between blocks of the horizontal structure Yard is It is 20~24m interval.

항만 컨테이너 터미널에서 터미널 운영 시스템(TOS)과 수평 구조 Yard의 차선 구분이 가능한 위치 보정 GPS 테스트를 하였다. At the port container terminal, a location correction GPS test was performed that enables the terminal operation system (TOS) and the lane division of the horizontal structure yard to be distinguished.

인천 신항 항만 컨테이너 터미널에서는, GPS 단말기만 사용한(GPS only) 경우, 수평 구조의 Yard의 Block 사이의 거리는 20 ~ 24m 간격으로, Block 좌우로 Sea side 2차로, Land side 2차로로 나뉘며, 항만 자동화를 위해 차선 구분이 가능한 위치 측위 시스템이 필요하였다. In Incheon New Port Container Terminal, when only GPS terminal is used (GPS only), the distance between blocks of horizontal Yard is divided into 20 to 24m intervals, two lanes on the sea side and two lanes on the land side. For this, a location positioning system capable of distinguishing lanes was needed.

DR-GPS + 9축 센서 + 위치 보정 알고리즘을 사용한 경우, Ublock사의 chipset이 탑재된 EV KIT를 이용한 항만내 차량의 위치 보정 GPS 테스트를 진행하였으며, DR-GPS 테스트 결과 차량의 동일한 코스 3회 주행시 정밀도/정확성에서 최대 대략 43m급 좌표 차이가 발생하였다.In the case of using DR-GPS + 9-axis sensor + position correction algorithm, GPS test for position correction of vehicles in port using EV KIT equipped with Ublock chipset was conducted. / There was a maximum of approximately 43m coordinate difference in accuracy.

도 16은 항만 컨테이너 터미널에서, Port GPS system(차량 추적), Port RFID system(차량 인식), OTR device(차량 위치 인식), BLE Beacon System (IoT 디바이스)의 년도별 사업화 실적을 보인 도표이다. 16 is a chart showing the commercialization performance of the Port GPS system (vehicle tracking), Port RFID system (vehicle recognition), OTR device (vehicle location recognition), and BLE Beacon System (IoT device) by year in a port container terminal.

도 17은 사업화 모델 비즈니스 전략, 해외 시장 진출 계획을 보인 도표이다.17 is a diagram showing a commercialization model business strategy and plans to enter overseas markets.

도 18은 국내 컨테이너 터미널의 상/하역 장비 현황 및 전세계 물동량 추이를 나타낸 도면이다.18 is a view showing the current status of the loading/unloading equipment of the domestic container terminal and the trend of global cargo volume.

도 19는 국내외 자동화 컨테이너 터미널의 년도별 수요 전망을 보인 도면이다. 19 is a diagram showing the annual demand forecast of domestic and overseas automated container terminals.

본 발명의 항만 컨테이너 터미널에서 차량 출입 관리와 위치 추적 및 객체를 인식하는 비전 카메라 시스템은 항만 컨테이너 터미널에서 차량 출입 관리와 DR-GPS 단말기(DR-GPS, 6축 센서 또는 9축 센서)를 구비하는 차량 위치 추적(YT 번호, 컨테이너 번호, 차량 번호 등), 다수의 카메라와 연동된 FPGA 기반 임베디드 비전 시스템(TLEM)의 딥러닝 모듈에 의해 딥러닝 학습 결과에 따라 카메라 영상내 객체들의 특징 추출과 분류를 통해 컨테이너 차량과 사람을 검출하며, 항만 Gate/Yard의 Block/Block Entrance, ARMGC 차량 검출, 위험 지역 작업자 및 차량 검출, 역 주행 차량, 작업자의 안전보호구/안전 조끼 착용 여부, QC에서 양적하되는 컨테이너 번호(ISO 코드) 추출, DR-GPS를 구비한 차량의 위치 정보(X,Y 좌표)를 인식하며, FPGA 기반 임베디드 비전 시스템(TLEM)으로부터 미들웨어로 학습된 객체 추출 이벤트(text)와 사각박스로 마킹된 객체 추출 영상 데이터를 전송하며, 이를 터미널 운용 시스템(TOS)으로 전송하며, TLEM 또는 미들웨어가 항만 컨테이너 터미널의 Yard의 Block에 구비된 해당 지역의 스피커 방송을 통해 작업자와 차량의 안전사고를 방지하도록 위험 지역 안전관리를 제공하며, 컨테이너 터미널내에서 차량 번호 인식, STS Crane이 작업하는 컨테이너 번호(ISO 번호) 문자 인식 및 Crane 하부 작업자 안전관리를 제공한다. DR-GPS를 구비한 컨테이너 차량(XT 차량, YT 차량)의 위치 정보(X,Y 좌표)를 미들웨어를 통해 터미널 운영 시스템(TOS)으로 전송하며, 터미널 운영 시스템(TOS)은 실시간으로 DR-GPS를 구비한 컨테이너 차량(XT 차량, YT 차량)의 위치 정보(X,Y 좌표)를 제공하여 어느 Yard의 몇 번 Block에 해당 컨테이너 차량이 있는지 실시간으로 제공한다. 이를 통해 항만 컨테이너 터미널의 자동화 시스템을 구축하여 양·적하 생산성을 향상시키게 되었다. The vision camera system for vehicle access management, location tracking, and object recognition in a port container terminal of the present invention includes vehicle access management and a DR-GPS terminal (DR-GPS, 6-axis sensor or 9-axis sensor) in the port container terminal. Vehicle location tracking (YT number, container number, vehicle number, etc.), feature extraction and classification of objects in camera images according to deep learning learning results by deep learning module of FPGA-based embedded vision system (TLEM) linked with multiple cameras It detects container vehicles and people through the port gate/Yard Block/Block Entrance, ARMGC vehicle detection, hazardous area worker and vehicle detection, reverse driving vehicle, whether the worker wears safety protective equipment/safety vest, and is quantitatively unloaded by QC. Container number (ISO code) extraction, recognition of vehicle location information (X,Y coordinates) equipped with DR-GPS, object extraction event (text) and square box learned as middleware from FPGA-based embedded vision system (TLEM) It transmits the object extraction image data marked with and transmits it to the terminal operation system (TOS), and the TLEM or middleware reports safety accidents between workers and vehicles through the local speaker broadcast provided in the Yard block of the port container terminal. It provides safety management in hazardous areas to prevent, and provides vehicle number recognition in container terminals, container number (ISO number) character recognition that STS Crane works on, and safety management of workers under the crane. The location information (X,Y coordinates) of container vehicles (XT vehicles, YT vehicles) equipped with DR-GPS are transmitted to the terminal operation system (TOS) through middleware, and the terminal operation system (TOS) is DR-GPS in real time. By providing the location information (X, Y coordinates) of the container vehicle (XT vehicle, YT vehicle) equipped with, in real time, the container vehicle is provided in the number of blocks of which yard. Through this, the automation system of the port container terminal was established to improve the unloading and unloading productivity.

또한, 항만 컨테이너 터미널에서, 컨테이너들이 적재되어 높게 쌓인 컨테이너에 의해 발생되는 멀티패스(multi-path)에 의한 위치 오차와 TC(Transfer Crane) 또는 QC(Quay Crane) 밑에서 GPS 신호를 받지 못하는 환경에서, 9축 센서와 차량의 CAN 신호와, 차량의 속도 신호를 이용하여 항만내 차량의 정밀 위치 측위 가능한 DR-GPS 단말기(DR-GPS, 6축 센서 또는 9축 센서 사용)를 개발하여 DR-GPS 단말기와 CAN 통신을 사용하는 차량의 항만내 정밀 위치 추적(YT 번호, 컨테이너 번호, 차량 번호 인식)이 가능하게 되었다. In addition, in the port container terminal, in the environment where GPS signals are not received under the position error due to multi-path and the TC (Transfer Crane) or QC (Quay Crane) caused by the containers stacked high by loading containers, DR-GPS terminal by developing a DR-GPS terminal (using DR-GPS, 6-axis sensor or 9-axis sensor) that can precisely position the vehicle in the port by using the 9-axis sensor, the vehicle's CAN signal and the vehicle's speed signal. Precision location tracking (YT number, container number, vehicle number recognition) in the port of vehicles using and CAN communication became possible.

본 제품(TLEM)은 항만 컨테이너 터미널에서 RFID, OCR, LPR 대비 가격 경쟁력 및 딥러닝 모듈의 영상의 객체 인식에 성능 우위를 가지며, 여러 가지의 기능을 하나의 기능으로 통합하여 장비 수량을 최소화하고 유지 보수 비용을 줄이며 기존의 50% 이하의 가격으로 공급이 가능하며, 항만 출입 보안 시스템, 컨테이너 터미널, 이송 장비(안벽 크레인 Quay Crane, 야드 크레인 Rail Mounted Gantry Crane, 야드 트랙터 Yard Tractor, 야드 샤시 Yard Chassis, 지게차 Fork Lift, 리치 스태커 Reach Stacker, 엠프리 핸들러 Empty Handler), 진입 차선 인식, 항만 컨테이너 터미널 출입 관리/통제, Yard 작업자 안전모/안전 조끼 착용 여부를 검출하여 항만 안전/보안에 특화된 다기능 비전 시스템을 제공하여 항만 자동화 시스템에 적용가능하다. 또한, 해외 TOS 개발사를 통한 공동 영업으로 항만 자동화 터미널의 해외 시장 진출이 가능하다. This product (TLEM) has a price competitiveness compared to RFID, OCR, and LPR in port container terminals, and has a performance advantage in object recognition of images from deep learning modules, and minimizes and maintains the number of equipment by integrating various functions into one function. It reduces maintenance costs and can be supplied at a price of less than 50% of the existing port access security system, container terminal, and transport equipment (Quay Crane, Yard Crane Rail Mounted Gantry Crane, Yard Tractor, Yard Chassis, Yard Chassis, Forklift Fork Lift, Reach Stacker Reach Stacker, Ampri Handler Empty Handler), entry lane recognition, port container terminal access management/control, and Yard worker's hard hat/safety vest detection to provide a multifunctional vision system specialized for port safety/security. Applicable to port automation system. In addition, it is possible to enter the overseas market of port automation terminals through joint sales through overseas TOS developers.

본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되고 컴퓨터 판독 가능 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조를 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 기록 매체는 스토리지, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 저장 매체에 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예는 컴파일러에 의해 만들어지는 것과, 기계어 코드뿐만 아니라 인터프리터를 사용하여 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로써 작동하도록 구성될 수 있다.The embodiments according to the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, and data structures alone or in combination. Computer-readable recording media include storage, magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device configured to store and execute program commands in a storage medium such as magneto-optical media, and ROM, RAM, flash memory, etc. may be included. Examples of program instructions may include those produced by a compiler, and high-level language codes that can be executed by a computer using an interpreter as well as machine language codes. The hardware device may be configured to operate as one or more software modules to perform the operation of the present invention.

이상에서 설명한 바와 같이, 본 발명의 방법은 프로그램으로 구현되어 컴퓨터의 소프트웨어를 이용하여 읽을 수 있는 형태로 기록매체(CD-ROM, RAM, ROM, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등)에 저장될 수 있다. As described above, the method of the present invention is implemented as a program and can be read using software of a computer, and a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.) ) Can be stored.

본 발명의 구체적인 실시예를 참조하여 설명하였지만, 본 발명은 상기와 같이 기술적 사상을 예시하기 위해 구체적인 실시 예와 동일한 구성 및 작용에만 한정되지 않고, 본 발명의 기술적 사상과 범위를 벗어나지 않는 한도 내에서 다양하게 변형하여 실시될 수 있다. 따라서, 그와 같은 변형도 본 발명의 범위에 속하는 것으로 간주해야 하며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.Although described with reference to specific embodiments of the present invention, the present invention is not limited to the same configuration and operation as the specific embodiments in order to illustrate the technical idea as described above, and within the limits not departing from the technical spirit and scope of the present invention. It can be implemented by various modifications. Therefore, such modifications should be regarded as belonging to the scope of the present invention, and the scope of the present invention should be determined by the claims to be described later.

101: 카메라
102: 영상 저장 서버(NVR/DVR)
100: FPGA 기반 임베디드 비전 시스템(TLEM)
110: 딥러닝 모듈
200: 미들웨어(엣지 미들웨어 + 통합 미들웨어)
210: 엣지 미들웨어(Edge M/W)
230: 통합 미들웨어
300: 터미널 운용 시스템(TOS)
310: 모니터링 PC
YT: Yard Tractor
TC: Transfer Crane
XT: external truck
STS: Ship To Shore Shore
QC: Quay Crane
ATC: Automated Transfer Crane(ARMGC)
TOS: Terminal Operating System
101: camera
102: video storage server (NVR/DVR)
100: FPGA-based embedded vision system (TLEM)
110: deep learning module
200: middleware (edge middleware + integrated middleware)
210: Edge middleware (Edge M/W)
230: integrated middleware
300: Terminal Operating System (TOS)
310: Monitoring PC
YT: Yard Tractor
TC: Transfer Crane
XT: external truck
STS: Ship To Shore Shore
QC: Quay Crane
ATC: Automated Transfer Crane (ARMGC)
TOS: Terminal Operating System

Claims (7)

항만 컨테이너 터미널에서 항만 Gate, Yard/Block, Block Entrance, ARMGC, QC 각 지역에 설치된 다수의 카메라; 및
상기 다수의 카메라 영상 데이터를 입력받아 딥러닝 모듈에 의해 학습 데이터에 따라 카메라 영상내 객체들을 검출하고 문자를 인식하며, 차선 인식, 차량 번호 인식, 컨테이너 번호(ISO code) 문자 인식, 컨테이너 데미지 인식, 블록 진입구 진입 차량 인식, 위험 지역 진입 차량과 작업자, 역주행 차량, Yard 작업자 안전보호구/안전 조끼 착용 여부 검출, 양·적하 장비 위치를 검출하고, 학습된 객체 추출 이벤트(text)와 사각박스로 마킹된 객체 추출 영상 데이터를 미들웨어로 전송하는 FPGA 기반 임베디드 비전 시스템(TLEM)을 포함하며,
상기 FPGA 기반 임베디드 비전 시스템(TLEM)은 Non-GPU 기반의 영상의 객체들을 검출하고 차량 번호와 컨테이너 번호(ISO code)의 문자를 인식하는 딥러닝 모듈을 구비하는, 항만 컨테이너 터미널에서 차량 출입 관리와 객체를 인식하는 비전 카메라 시스템.
Multiple cameras installed in each area of Port Gate, Yard/Block, Block Entrance, ARMGC, and QC at the Port Container Terminal; And
Receive the multiple camera image data and detect objects in the camera image according to the learning data by a deep learning module and recognize characters, lane recognition, vehicle number recognition, container number (ISO code) character recognition, container damage recognition, Recognition of vehicles entering the block entrance, vehicles and workers entering dangerous areas, vehicles running in reverse, detection of wearing safety protective equipment/safety vests for yard workers, detection of the location of loading and unloading equipment, and the learned object extraction event (text) and marked with a square box. It includes an FPGA-based embedded vision system (TLEM) that transmits object extraction image data to middleware,
The FPGA-based embedded vision system (TLEM) is equipped with a deep learning module that detects non-GPU-based image objects and recognizes characters of vehicle number and container number (ISO code). Vision camera system that recognizes objects.
삭제delete 제1항에 있어서,
상기 딥러닝 모듈은 카메라 영상의 객체 인식을 위해 CNN, RNN, R-CNN, Fast RCNN, Faster RCNN, YOLO, 또는 SSD 모델 증 어느 하나의 딥러닝 알고리즘을 사용하는, 항만 컨테이너 터미널에서 차량 출입 관리와 객체를 인식하는 비전 카메라 시스템.
The method of claim 1,
The deep learning module uses a deep learning algorithm of any one of CNN, RNN, R-CNN, Fast RCNN, Faster RCNN, YOLO, or SSD model for object recognition of camera images, Vision camera system that recognizes objects.
제1항에 있어서,
상기 FPGA 기반 임베디드 비전 시스템(TLEM)은
카메라 영상 데이터의 객체를 인식하는 딥러닝 모듈과 MCU(CPU)가 탑재된 FPGA;
상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되고, 상기 딥러닝 모듈에 의해 영상의 객체 검출과 차량 번호와 컨테이너 번호(ISO code), YT 번호가 포함된 영상의 이미지의 문자 인식을 하여 영상을 처리하는 DSP;
상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되고, 카메라(C)로부터 영상 데이터를 HDMI Rx/Tx를 통해 수신하고 출력하는 비디어 코덱의 인코더/디코더를 구비하는 비디오 인터페이스부;
상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되는 플래시 메모리와 SDRAM;
상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되는 USB-UART 단말부;
상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되고, GPIO 인터페이스를 통해 외부 스피커를 연결하는 GPIO 인터페이스부;
상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되는 이더넷 연결부;
상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되는 Wi-Fi 통신부; 및
DC 전원공급부를 포함하는, 항만 컨테이너 터미널에서 차량 출입 관리와 객체를 인식하는 비전 카메라 시스템.
The method of claim 1,
The FPGA-based embedded vision system (TLEM)
A deep learning module for recognizing an object of camera image data and an FPGA equipped with an MCU (CPU);
It is connected to the deep learning module and the FPGA on which the MCU is mounted, and the deep learning module detects the object of the image and recognizes the text of the image including the vehicle number, container number (ISO code), and YT number to display the image. DSP processing;
A video interface unit including an encoder/decoder of a video codec, which is connected to the deep learning module and the FPGA on which the MCU is mounted, and receives and outputs image data from the camera C through HDMI Rx/Tx;
A flash memory and SDRAM connected to an FPGA on which the deep learning module and MCU are mounted;
A USB-UART terminal unit connected to the deep learning module and the FPGA on which the MCU is mounted;
A GPIO interface unit connected to the deep learning module and the FPGA on which the MCU is mounted, and for connecting an external speaker through a GPIO interface;
An Ethernet connection part connected to the deep learning module and the FPGA on which the MCU is mounted;
A Wi-Fi communication unit connected to the deep learning module and the FPGA on which the MCU is mounted; And
A vision camera system for vehicle access management and object recognition in a port container terminal, including a DC power supply.
제1항에 있어서,
상기 FPGA 기반 임베디드 비전 시스템(TLEM)은
상기 딥러닝 모듈과 MCU가 탑재된 FPGA에 연결되고, SD 카드가 착탈식으로 장착/이격되는 SD 카드 연결부를 더 포함하는, 항만 컨테이너 터미널에서 차량 출입 관리와 객체를 인식하는 비전 카메라 시스템.
The method of claim 1,
The FPGA-based embedded vision system (TLEM)
A vision camera system for managing vehicle access and recognizing objects in a port container terminal, further comprising an SD card connection unit connected to the deep learning module and the FPGA on which the MCU is mounted, and the SD card is detachably mounted/separated.
제1항에 있어서,
상기 FPGA 기반 임베디드 비전 시스템(TLEM)은 GPIO 인터페이스를 통해 스피커와 연결되며, 상기 스피커는 기 저장된 음성 데이터가 저장되며 상기 FPGA 기반 임베디드 비전 시스템(TLEM)의 원격 방송 신호에 따라 해당 음성 데이터가 출력되는 IP 스피커 인 것을 특징으로 하는 항만 컨테이너 터미널에서 차량 출입 관리와 객체를 인식하는 비전 카메라 시스템.
The method of claim 1,
The FPGA-based embedded vision system (TLEM) is connected to a speaker through a GPIO interface, and the speaker stores pre-stored voice data, and the corresponding voice data is output according to a remote broadcast signal of the FPGA-based embedded vision system (TLEM). A vision camera system for vehicle access management and object recognition in a port container terminal, which is an IP speaker.
제1항에 있어서,
상기 FPGA 기반 임베디드 비전 시스템(TLEM)과 미들웨어와 연동되며, 상기 미들웨어는 터미널 운영 시스템(TOS)에 연결되며, 상기 미들웨어는 사용 중인 이기종 소프트웨어와 하드웨어 장비에 대한 어댑터 및 TOS 연계 모듈이 구비되고,
상기 미들웨어는 상기 FPGA 기반 임베디드 비전 시스템(TLEM)으로부터 이벤트 발생시마다 학습된 객체 추출 이벤트(text)와 사각박스(grid)로 마킹된 객체 추출 영상 데이터를 수신받고, 이벤트 발생시 해당 스피커로 경고 방송을 하며, DR-GPS 단말기를 구비한 차량의 DR-GPS 위치 정보를 API를 통해 전송받는 상기 터미널 운영 시스템(TOS)과 연동되는, 항만 컨테이너 터미널에서 차량 출입 관리와 객체를 인식하는 비전 카메라 시스템.
The method of claim 1,
The FPGA-based embedded vision system (TLEM) is interlocked with middleware, the middleware is connected to a terminal operating system (TOS), and the middleware is provided with an adapter and a TOS linkage module for heterogeneous software and hardware equipment in use,
The middleware receives the learned object extraction event (text) from the FPGA-based embedded vision system (TLEM) each time an event occurs, and object extraction image data marked as a square box (grid), and when an event occurs, it broadcasts a warning to a corresponding speaker. , A vision camera system for vehicle access management and object recognition in a port container terminal, which is linked with the terminal operating system (TOS) that receives DR-GPS location information of a vehicle equipped with a DR-GPS terminal through an API.
KR1020200102810A 2020-08-14 2020-08-14 Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof KR102206662B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200102810A KR102206662B1 (en) 2020-08-14 2020-08-14 Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof
PCT/KR2021/002233 WO2022035008A1 (en) 2020-08-14 2021-02-23 Vision camera system and method for managing vehicle access and recognizing object in port container terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200102810A KR102206662B1 (en) 2020-08-14 2020-08-14 Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof

Publications (1)

Publication Number Publication Date
KR102206662B1 true KR102206662B1 (en) 2021-01-22

Family

ID=74309888

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200102810A KR102206662B1 (en) 2020-08-14 2020-08-14 Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof

Country Status (2)

Country Link
KR (1) KR102206662B1 (en)
WO (1) WO2022035008A1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113468999A (en) * 2021-06-23 2021-10-01 浙江省能源集团有限公司 Job site intelligent recognition device that breaks rules and regulations based on degree of depth learning
WO2021258195A1 (en) * 2020-06-22 2021-12-30 Canscan Softwares And Technologies Inc. Image-based system and method for shipping container management with edge computing
WO2022035008A1 (en) * 2020-08-14 2022-02-17 아이티플래닛 주식회사 Vision camera system and method for managing vehicle access and recognizing object in port container terminal
CN114882342A (en) * 2022-05-11 2022-08-09 北京国泰星云科技有限公司 Container dangerous article identification detection method based on machine vision and deep learning
KR102441669B1 (en) 2022-04-19 2022-09-08 이경민 Port vehicle access control system using rfid and image processing, and method thereof
KR20220124355A (en) 2021-03-03 2022-09-14 주식회사 이노메트릭스 Container photo damage reading of quay crane and international maritime dangerous goods rule reading system
KR20220124349A (en) 2021-03-03 2022-09-14 주식회사 이노메트릭스 Quay crane container number recognition system
KR20230051012A (en) 2021-10-08 2023-04-17 주식회사 서안에스앤씨 Management system of lighters wharf
KR20230052576A (en) 2021-10-13 2023-04-20 부산항만공사 Monitoring system of lighters wharf
KR102541212B1 (en) 2022-11-08 2023-06-13 주식회사 영신 Embeded image recognition safety monitering and controling integrated platform comprising ai based image recognition system
KR102541221B1 (en) 2022-11-08 2023-06-13 주식회사 경우시스테크 Movable and intelligent cctv system device with ai based image recognition platform
KR102623236B1 (en) 2023-06-20 2024-01-10 주식회사 글로벌엔씨 Container terminal gate automation container damage detection system based on ai and method performing thereof
CN118171826A (en) * 2024-05-16 2024-06-11 中交第四航务工程勘察设计院有限公司 Harbor operation management method and system based on wave analysis

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115303815A (en) * 2022-06-24 2022-11-08 苏州今泰轩信息技术有限公司 Automatic operation system for empty containers in container terminal
CN115690061B (en) * 2022-11-08 2024-01-05 北京国泰星云科技有限公司 Vision-based container terminal truck collection detection method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101042343B1 (en) 2008-11-12 2011-06-17 동명대학교산학협력단 The position recognition system of a vehicle in a harbor using a uwb sensor
KR101045323B1 (en) 2011-04-07 2011-06-29 (주)에디넷 Realtime image control system using multiple view point camera and control method therefor
KR101068681B1 (en) 2009-10-06 2011-09-28 한국해양연구원 port watching management system
KR101071379B1 (en) 2009-09-25 2011-10-07 한국해양연구원 port watching system
KR20120133612A (en) * 2011-05-31 2012-12-11 호서대학교 산학협력단 System for reducing a power using embedded vision system
KR101313025B1 (en) 2012-06-20 2013-10-01 동명대학교산학협력단 Stop position recognition system of automated guidedvehicle using rfid and thereof
KR101978292B1 (en) 2019-01-07 2019-05-14 (주) 케이엔에스 Port gate OCR system device
KR20190063729A (en) * 2017-11-30 2019-06-10 주식회사 넥토마이닝 Life protection system for social disaster using convergence technology like camera, sensor network, and directional speaker system
KR102024149B1 (en) * 2019-04-03 2019-09-23 주식회사 데이터넷 Smart selevtive intelligent surveillance system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101542134B1 (en) * 2014-12-11 2015-08-07 주식회사 에보시스 The apparatus and method of surveillance a rock fall based on smart video analytic
KR102143029B1 (en) * 2020-04-02 2020-08-10 아성글로벌(주) Artificial intelligence cctv system
KR102206662B1 (en) * 2020-08-14 2021-01-22 아이티플래닛 주식회사 Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101042343B1 (en) 2008-11-12 2011-06-17 동명대학교산학협력단 The position recognition system of a vehicle in a harbor using a uwb sensor
KR101071379B1 (en) 2009-09-25 2011-10-07 한국해양연구원 port watching system
KR101068681B1 (en) 2009-10-06 2011-09-28 한국해양연구원 port watching management system
KR101045323B1 (en) 2011-04-07 2011-06-29 (주)에디넷 Realtime image control system using multiple view point camera and control method therefor
KR20120133612A (en) * 2011-05-31 2012-12-11 호서대학교 산학협력단 System for reducing a power using embedded vision system
KR101313025B1 (en) 2012-06-20 2013-10-01 동명대학교산학협력단 Stop position recognition system of automated guidedvehicle using rfid and thereof
KR20190063729A (en) * 2017-11-30 2019-06-10 주식회사 넥토마이닝 Life protection system for social disaster using convergence technology like camera, sensor network, and directional speaker system
KR101978292B1 (en) 2019-01-07 2019-05-14 (주) 케이엔에스 Port gate OCR system device
KR102024149B1 (en) * 2019-04-03 2019-09-23 주식회사 데이터넷 Smart selevtive intelligent surveillance system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
특허 등록번호 10-0794410 (등록일자 2008년 1월 7일), "항만 트레일러 자동 정지위치 모니터링 시스템", 권영수, 이권순

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021258195A1 (en) * 2020-06-22 2021-12-30 Canscan Softwares And Technologies Inc. Image-based system and method for shipping container management with edge computing
WO2022035008A1 (en) * 2020-08-14 2022-02-17 아이티플래닛 주식회사 Vision camera system and method for managing vehicle access and recognizing object in port container terminal
KR20220124355A (en) 2021-03-03 2022-09-14 주식회사 이노메트릭스 Container photo damage reading of quay crane and international maritime dangerous goods rule reading system
KR20220124349A (en) 2021-03-03 2022-09-14 주식회사 이노메트릭스 Quay crane container number recognition system
CN113468999A (en) * 2021-06-23 2021-10-01 浙江省能源集团有限公司 Job site intelligent recognition device that breaks rules and regulations based on degree of depth learning
KR20230051012A (en) 2021-10-08 2023-04-17 주식회사 서안에스앤씨 Management system of lighters wharf
KR20230052576A (en) 2021-10-13 2023-04-20 부산항만공사 Monitoring system of lighters wharf
KR102441669B1 (en) 2022-04-19 2022-09-08 이경민 Port vehicle access control system using rfid and image processing, and method thereof
CN114882342A (en) * 2022-05-11 2022-08-09 北京国泰星云科技有限公司 Container dangerous article identification detection method based on machine vision and deep learning
KR102541212B1 (en) 2022-11-08 2023-06-13 주식회사 영신 Embeded image recognition safety monitering and controling integrated platform comprising ai based image recognition system
KR102541221B1 (en) 2022-11-08 2023-06-13 주식회사 경우시스테크 Movable and intelligent cctv system device with ai based image recognition platform
KR102623236B1 (en) 2023-06-20 2024-01-10 주식회사 글로벌엔씨 Container terminal gate automation container damage detection system based on ai and method performing thereof
CN118171826A (en) * 2024-05-16 2024-06-11 中交第四航务工程勘察设计院有限公司 Harbor operation management method and system based on wave analysis

Also Published As

Publication number Publication date
WO2022035008A1 (en) 2022-02-17

Similar Documents

Publication Publication Date Title
KR102206662B1 (en) Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof
KR102206658B1 (en) Vision camera system to be communicated with Terminal Operating System through middleware in a port container terminal and method thereof
CN111537515B (en) Iron tower bolt defect display method and system based on three-dimensional live-action model
US10699125B2 (en) Systems and methods for object tracking and classification
Mi et al. Vision-based measurement: actualities and developing trends in automated container terminals
CN107226087B (en) A kind of structured road automatic Pilot transport vehicle and control method
CN109725310B (en) Ship positioning supervision system based on YOLO algorithm and shore-based radar system
CN101214851B (en) Intelligent all-weather actively safety early warning system and early warning method thereof for ship running
CN107380163A (en) Automobile intelligent alarm forecasting system and its method based on magnetic navigation
CN111757822A (en) System and method for enhanced collision avoidance on logistics floor support equipment using multi-sensor detection fusion
CN111275923B (en) Man-machine collision early warning method and system for construction site
CN107896253A (en) A kind of dangerous material port area storing and transporting security supervisory systems
CN114241298A (en) Tower crane environment target detection method and system based on laser radar and image fusion
CN116208745A (en) Dock ship berthing monitoring and recording system and method
US11941579B2 (en) Autonomous vehicles performing inventory management
CN114861956A (en) Intelligent port integrated management system
CN111274934A (en) Implementation method and system for intelligently monitoring forklift operation track in warehousing management
CN115049322A (en) Container management method and system for container yard
WO2024101726A1 (en) Embedded image recognition and integrated safety management platform comprising artificial intelligence-based image recognition system
CN111966126A (en) Unmanned aerial vehicle patrol method and device and unmanned aerial vehicle
KR101913391B1 (en) System for collecting and generating complex information using unmanned robot comprising unmanned aerial vehicle, unmanned surface vehicle, unmanned underwater vehicle and unmanned ground vehicle
CN107045805A (en) A kind of monitoring method and system for small-sized aerial craft and thing drifted by wind
CN114971595A (en) Ship intelligent supervision system applying video data analysis processing technology
CN114200961A (en) Air-ground cooperative system based on unmanned aerial vehicle and intelligent wearable equipment
Caballini et al. Augmented reality and portable devices to increase safety in container terminals: the testing of A4S project in the port of Genoa

Legal Events

Date Code Title Description
GRNT Written decision to grant