KR102620115B1 - Wireless AI Object Recognition Remote Monitoring System And Oject Recognition Method by the Same - Google Patents

Wireless AI Object Recognition Remote Monitoring System And Oject Recognition Method by the Same Download PDF

Info

Publication number
KR102620115B1
KR102620115B1 KR1020230117469A KR20230117469A KR102620115B1 KR 102620115 B1 KR102620115 B1 KR 102620115B1 KR 1020230117469 A KR1020230117469 A KR 1020230117469A KR 20230117469 A KR20230117469 A KR 20230117469A KR 102620115 B1 KR102620115 B1 KR 102620115B1
Authority
KR
South Korea
Prior art keywords
wireless
module
unit
mobile vehicle
ultrasonic
Prior art date
Application number
KR1020230117469A
Other languages
Korean (ko)
Inventor
박찬배
Original Assignee
박찬배
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박찬배 filed Critical 박찬배
Priority to KR1020230117469A priority Critical patent/KR102620115B1/en
Application granted granted Critical
Publication of KR102620115B1 publication Critical patent/KR102620115B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F17/00Safety devices, e.g. for limiting or indicating lifting force
    • B66F17/003Safety devices, e.g. for limiting or indicating lifting force for fork-lift trucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Geology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Structural Engineering (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 지게차와 같은 이동식 차량의 전면 및 후면에 설치된 무선 초음파 모듈 및 무선 카메라 모듈에 의해 이동식 차량에 접근하는 사람을 인식하여 이동식 차량의 조종석에 설치된 모니터를 통해 실시간으로 이를 확인할 수 있는 무선형 인공지능 객체인식 원격 모니터링 시스템 및 이를 이용한 객체 인식 방법을 제공하는 것을 목적으로 한다. 특히, 본 발명은 복수의 무선 초음파 모듈에 의하여 측정된 무선 초음파 데이터와 복수의 무선 카메라 모듈에 의하여 측정된 영상 데이터가 융합되어 결과를 분석하는 것이며, 무선 초음파 모듈은 사람 및 물체를 모두 검출하는 반면, 무선 카메라 모듈에 측정된 영상 데이터를 인공 지능으로 사람을 분석하여, 무선 초음파 모듈과 무선 카메라 모듈에 의하여 측정된 데이터를 융합(merge)하여 최종 검출 정보를 근거리로 전송하는 것을 목적으로 한다.The present invention is intended to solve the above problems, and recognizes people approaching the mobile vehicle using a wireless ultrasonic module and a wireless camera module installed on the front and rear of a mobile vehicle such as a forklift, and monitors installed in the cockpit of the mobile vehicle. The purpose is to provide a wireless artificial intelligence object recognition remote monitoring system that can check this in real time and an object recognition method using the same. In particular, the present invention analyzes the results by fusing wireless ultrasound data measured by a plurality of wireless ultrasound modules and image data measured by a plurality of wireless camera modules, while the wireless ultrasound module detects both people and objects. The purpose is to analyze the image data measured by the wireless camera module using artificial intelligence, merge the data measured by the wireless ultrasound module and the wireless camera module, and transmit the final detection information over a short distance.

Description

무선형 인공지능 객체인식 원격 모니터링 시스템 및 이를 이용한 객체 인식 방법{Wireless AI Object Recognition Remote Monitoring System And Oject Recognition Method by the Same}Wireless AI Object Recognition Remote Monitoring System And Object Recognition Method by the Same}

본 발명은 무선형 인공지능 객체인식 원격 모니터링 시스템에 관한 것으로, 보다 상세하게는 지게차와 같은 이동식 차량의 전면 및 후면에 설치된 무선 초음파 모듈 및 무선 카메라 모듈에 의해 이동식 차량에 접근하는 사람을 인식하여 이동식 차량의 내부에 설치된 모니터를 통해 실시간으로 이를 확인할 수 있는 무선형 인공지능 객체인식 원격 모니터링 시스템 및 이를 이용한 객체 인식 방법에 관한 것이다.The present invention relates to a wireless artificial intelligence object recognition remote monitoring system, and more specifically, to recognize people approaching a mobile vehicle using a wireless ultrasonic module and a wireless camera module installed on the front and rear of a mobile vehicle such as a forklift, thereby This relates to a wireless artificial intelligence object recognition remote monitoring system that can be checked in real time through a monitor installed inside the vehicle and an object recognition method using the same.

인공지능 객체인식은 카메라로부터 입력받은 영상 내에 존재하는 객체를 인공지능에 의해 실시간으로 처리하는 기술로 보안감시 시스템, 의학 영상 분석과 같은 분야에서 활용되고 있다. 이러한 실시간 객체 인식은 정확한 인식률과 빠른 인식속도를 모두 보장해야 한다. Artificial intelligence object recognition is a technology that processes objects present in images input from a camera in real time using artificial intelligence, and is used in fields such as security surveillance systems and medical image analysis. Such real-time object recognition must ensure both accurate recognition rate and fast recognition speed.

이러한 인공지능 객체인식 기술은 지게차, 이동식 차량 등 산업 현장에서 광범위하게 사용되고 있다. 실시간 객체인식 기술을 이용하게 되면 지게차, 이동식 차량 등의 후방 또는 전방에 카메라를 설치하여 지게차, 이동식 차량의 후방 또는 전방에 접근하는 물체 중 사람을 검출하여 차량과 사람이 충돌하는 사고를 예방할 수 있다.This artificial intelligence object recognition technology is widely used in industrial fields such as forklifts and mobile vehicles. By using real-time object recognition technology, cameras can be installed at the rear or front of forklifts, mobile vehicles, etc. to detect people among objects approaching the rear or front of forklifts or mobile vehicles, thereby preventing collisions between vehicles and people. .

현재 기술로 가장 광범위하게 활용되는 인공지능 객체인식 시스템은 CCTV와 같은 유선형 인체감지 시스템으로 메인 제어기와 카메라 장치가 유선으로 연결되어 있다. 실제 현장에서 설치되는 카메라의 경우 유선으로 길게는 15~20 미터까지 연장선을 사용하여 작업자가 설치해야 하고 설치 시간도 많이 소요되는 단점이 있었다. 또한, 카메라의 인체감지율을 높이기 위한 연구가 더 필요한 실정이다.The most widely used artificial intelligence object recognition system with current technology is a wired human body detection system such as CCTV, where the main controller and camera device are connected by wire. In the case of cameras actually installed in the field, they had the disadvantage of having to be installed by workers using a wired extension cable up to 15 to 20 meters long, and that installation time took a lot of time. In addition, more research is needed to increase the human body detection rate of cameras.

대한민국 등록특허공보 제10-1418872호Republic of Korea Patent Publication No. 10-1418872 대한민국 등록특허공보 제10-1854461호Republic of Korea Patent Publication No. 10-1854461 대한민국 등록특허공보 제10-2390813호Republic of Korea Patent Publication No. 10-2390813 대한민국 공개특허공보 제10-2021-0066207호Republic of Korea Patent Publication No. 10-2021-0066207

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 지게차와 같은 이동식 차량의 전면 및 후면에 설치된 무선 초음파 모듈 및 무선 카메라 모듈에 의해 이동식 차량에 접근하는 사람을 인식하여 이동식 차량의 조종석에 설치된 모니터를 통해 실시간으로 이를 확인할 수 있는 무선형 인공지능 객체인식 원격 모니터링 시스템 및 이를 이용한 객체 인식 방법을 제공하는 것을 목적으로 한다.The present invention is intended to solve the above problems, and recognizes people approaching the mobile vehicle using a wireless ultrasonic module and a wireless camera module installed on the front and rear of a mobile vehicle such as a forklift, and monitors installed in the cockpit of the mobile vehicle. The purpose is to provide a wireless artificial intelligence object recognition remote monitoring system that can check this in real time and an object recognition method using the same.

특히, 본 발명은 복수의 무선 초음파 모듈에 의하여 측정된 무선 초음파 데이터와 복수의 무선 카메라 모듈에 의하여 측정된 영상 데이터가 융합되어 결과를 분석하는 것이며, 무선 초음파 모듈은 사람 및 물체를 모두 검출하는 반면, 무선 카메라 모듈에 측정된 영상 데이터를 인공 지능으로 사람을 분석하여, 무선 초음파 모듈과 무선 카메라 모듈에 의하여 측정된 데이터를 융합(merge)하여 최종 검출 정보를 근거리로 전송하는 것을 목적으로 한다.In particular, the present invention analyzes the results by fusing wireless ultrasound data measured by a plurality of wireless ultrasound modules and image data measured by a plurality of wireless camera modules, while the wireless ultrasound module detects both people and objects. The purpose is to analyze the image data measured by the wireless camera module using artificial intelligence, merge the data measured by the wireless ultrasound module and the wireless camera module, and transmit the final detection information over a short distance.

대부분 LTE를 사용하는 원격 영상 전송을 사용하게 되면, LTE는 비용이 발생하고 딜레이타임(망 사업자 간의 트래픽 문제로 시간이 지나면 버벅거림)으로 실시간 사람검출이 용이하지 않는 점을 해결한다. When using remote video transmission, which mostly uses LTE, LTE incurs costs and it is difficult to detect people in real time due to delay time (stuttering over time due to traffic problems between network operators).

상기한 목적을 달성하기 위한 본 발명의 일 실시예에 의한 무선형 인공지능 객체인식 원격 모니터링 시스템은, 사람의 인식이 필요한 이동식 차량의 전면 및 후면에 설치되어 실시간으로 초음파 센서에 의해 사람을 감지하여 감지 신호 데이터를 무선 통신으로 전송하는 복수의 무선 초음파 모듈; 상기 복수의 무선 초음파 모듈이 설치된 곳에 설치되어 실시간으로 영상을 촬영하고 촬영된 영상 데이터를 무선 통신으로 전송하는 복수의 무선 카메라 모듈; 상기 이동식 차량과 이격된 곳에 설치되어, 상기 무선 초음파 모듈로부터 전송된 상기 감지 신호 데이터를 수신하고 처리하여 전송하며, 상기 무선 카메라 모듈에서 전송된 상기 영상 데이터를 수신하고 인공지능에 의해 상기 영상 데이터를 분석하여 사람을 검출하여 전송하는 서버 모듈; 및 상기 이동식 차량의 내부에 설치되어 상기 서버 모듈에서 처리된 감지 신호 데이터 및 상기 서버 모듈에서 분석된 영상 데이터를 수신하여 디스플레이하는 이동식 차량 모듈;을 포함한다.In order to achieve the above object, the wireless artificial intelligence object recognition remote monitoring system according to an embodiment of the present invention is installed on the front and rear of a mobile vehicle requiring human recognition and detects people in real time using an ultrasonic sensor. A plurality of wireless ultrasonic modules transmitting detection signal data through wireless communication; A plurality of wireless camera modules installed where the plurality of wireless ultrasound modules are installed to capture images in real time and transmit the captured image data through wireless communication; It is installed at a location spaced apart from the mobile vehicle, receives, processes, and transmits the detection signal data transmitted from the wireless ultrasonic module, receives the image data transmitted from the wireless camera module, and analyzes the image data by artificial intelligence. A server module that analyzes, detects and transmits people; and a mobile vehicle module installed inside the mobile vehicle to receive and display the detection signal data processed by the server module and the image data analyzed by the server module.

상기 무선 초음파 모듈은, 초음파를 발사하여 상기 이동식 차량에 접근하는 사람을 감지하는 초음파 센서부, 상기 초음파 센서부에서 사람이 감지되면 감지 신호 데이터를 생성하는 초음파 데이터 생성부 및 상기 초음파 데이터 생성부에서 생성된 감지 신호 데이터를 무선 통신으로 상기 서버 모듈로 전송하는 초음파 통신부를 포함한다.The wireless ultrasonic module includes an ultrasonic sensor unit that emits ultrasonic waves to detect a person approaching the mobile vehicle, an ultrasonic data generator that generates detection signal data when a person is detected by the ultrasonic sensor unit, and the ultrasonic data generator. It includes an ultrasonic communication unit that transmits the generated detection signal data to the server module through wireless communication.

상기 서버 모듈은, 상기 무선 카메라 모듈로부터 전송된 영상 데이터 및 상기 무선 초음파 모듈로부터 전송된 감지 신호 데이터를 수신하며, 처리된 감지 신호 데이터 및 분석된 영상 데이터를 상기 이동식 차량 모듈로 송신하는 서버 통신부, 상기 서버 통신부에서 수신된 감지 신호 데이터를 처리하여 감지 신호 데이터를 전송한 상기 무선 초음파 모듈을 식별하고, 경고음 제어 신호를 생성하는 초음파 데이터 처리부, 상기 서버 통신부에서 수신한 감지 신호 데이터 및 영상 데이터가 일치하는 경우만 처리하게 하는 데이터 판정부, 상기 데이터 판정부에서 전송된 영상 데이터를 인공지능에 의해 분석하여 사람을 검출하는 인공지능 분석부 및 상기 인공지능 분석부에서 사람이 검출된 영상이 디스플레이되는 서버 디스플레이부를 포함한다.The server module receives image data transmitted from the wireless camera module and detection signal data transmitted from the wireless ultrasonic module, and transmits the processed detection signal data and analyzed image data to the mobile vehicle module; An ultrasonic data processing unit that processes the detection signal data received from the server communication unit, identifies the wireless ultrasonic module that transmitted the detection signal data, and generates a warning sound control signal, and the detection signal data received from the server communication unit matches the image data. A data determination unit that only processes cases, an artificial intelligence analysis unit that detects people by analyzing the image data transmitted from the data determination unit by artificial intelligence, and a server that displays images in which people are detected by the artificial intelligence analysis unit. Includes a display unit.

상기 인공지능 분석부는, 인공지능이 사람을 인식할 수 있도록 데이터를 학습시키는 인공지능 학습부, 상기 인공지능 학습부에서 학습된 내용을 기반으로 상기 데이터 판정부에서 전송된 영상 데이터에서 인공지능에 의해 사람을 검출하는 사람 검출부 및 상기 사람 검출부가 상기 영상 데이터에서 사람을 검출한 경우 상기 이동식 차량 모듈에 상기 사람을 특정 색상으로 표시하도록 상기 이동식 차량 모듈을 위한 색상 제어 신호를 생성하는 색상 제어 신호 생성부를 포함한다.The artificial intelligence analysis unit is an artificial intelligence learning unit that learns data so that artificial intelligence can recognize people, and an artificial intelligence A person detection unit that detects a person, and a color control signal generator that generates a color control signal for the mobile vehicle module to display the person in a specific color on the mobile vehicle module when the person detection unit detects a person in the image data. Includes.

상기 이동식 차량 모듈은, 상기 서버 모듈로부터 전송되는 상기 서버 모듈에서 분석된 영상 데이터 및 상기 서버 모듈에서 처리된 감지 신호 데이터를 수신하는 이동식 차량 통신부, 상기 이동식 차량 통신부에서 수신된 감지 신호 데이터에 의해 감지 신호 데이터를 전송한 상기 무선 초음파 모듈을 표시하는 제1 디스플레이부, 상기 이동식 차량 통신부에서 수신된 영상 데이터가 디스플레이되며, 상기 인공지능 제어부에 의해 사람이 검출된 경우 특정 색상으로 사람이 표시되어 디스플레이되는 제2 디스플레이부, 상기 초음파 데이터 처리부에서 생성된 경고음 제어 신호를 전송받아 상기 이동식 차량의 내부에서 경고음으로 경고하는 제1 경보부 및상기 초음파 데이터 처리부에서 생성된 경고음 제어 신호를 전송받아 상기 이동식 차량의 외부에서 경고음으로 경고하는 제2 경보부를 포함한다.The mobile vehicle module includes a mobile vehicle communication unit that receives image data analyzed by the server module and detection signal data processed by the server module transmitted from the server module, and detection by detection signal data received from the mobile vehicle communication unit. A first display unit that displays the wireless ultrasonic module that transmitted signal data, image data received from the mobile vehicle communication unit is displayed, and when a person is detected by the artificial intelligence control unit, the person is displayed in a specific color. A second display unit, a first alarm unit that receives the warning sound control signal generated by the ultrasonic data processing unit and warns with a warning sound inside the mobile vehicle, and a first alarm unit that receives the warning sound control signal generated by the ultrasonic data processing unit and warns the outside of the mobile vehicle It includes a second alarm unit that warns with a warning sound.

상기 무선 카메라 모듈은 촬영된 영상 데이터를 무선 통신으로 상기 서버 모듈에 전송하는 카메라 통신부을 구비하며, 상기 카메라 통신부, 초음파 통신부, 서버 통신부 및 이동식 차량 통신부 사이는 R/F(Radio Frequency) 방식 또는 LTE(Long-Term Evolution) 방식으로 무선통신하는 것을 특징으로 한다.The wireless camera module is provided with a camera communication unit that transmits captured image data to the server module through wireless communication, and a connection between the camera communication unit, ultrasonic communication unit, server communication unit, and mobile vehicle communication unit is performed using R/F (Radio Frequency) or LTE (LTE). It is characterized by wireless communication using the Long-Term Evolution (Long-Term Evolution) method.

또한, 상기한 목적을 달성하기 위한 본 발명의 일 실시예에 의한 무선형 인공지능 객체인식 원격 모니터링 시스템을 이용한 객체 인식 방법은, 이동식 차량에 무선 초음파 모듈, 무선 카메라 모듈 및 이동식 차량 모듈이 설치되는 제1 단계; 상기 무선 초음파 모듈에 의해 사람이 감지되어 감지 신호 데이터가 생성되어 서버 모듈로 전송되며, 상기 무선 카메라 모듈에 의해 촬영된 영상 데이터가 서버 모듈로 전송되는 제2 단계; 상기 서버 모듈에 의해 상기 감지 신호 데이터 및 영상 데이터가 처리되어 상기 이동식 차량 모듈로 전송되는 제3 단계; 상기 이동식 차량에서 경고음이 울리고 제1 디스플레이부에 상기 무선 초음파 모듈의 위치가 표시되고, 제2 디스플레이부에 인공지능에 의해 인식된 사람이 특정 색상으로 표시되어 디스플레이되는 제4 단계;를 포함한다.In addition, an object recognition method using a wireless artificial intelligence object recognition remote monitoring system according to an embodiment of the present invention to achieve the above object includes a wireless ultrasonic module, a wireless camera module, and a mobile vehicle module installed in a mobile vehicle. first step; A second step in which a person is detected by the wireless ultrasonic module, detection signal data is generated and transmitted to the server module, and image data captured by the wireless camera module is transmitted to the server module; A third step in which the detection signal data and image data are processed by the server module and transmitted to the mobile vehicle module; It includes a fourth step in which a warning sound sounds in the mobile vehicle, the location of the wireless ultrasonic module is displayed on the first display, and the person recognized by artificial intelligence is displayed in a specific color on the second display.

상술한 바와 같이, 본 발명은 무선 초음파 모듈에 의해 사람이 감지된 경우에만 무선 카메라 모듈에 의해 촬영된 영상 데이터에서 인공지능에 의해 사람을 검출하기 때문에 객체 검출율을 높여 충돌 사고를 예방할 수 있는 장점이 있다.As described above, the present invention has the advantage of preventing collisions by increasing the object detection rate because it detects people using artificial intelligence in the image data captured by the wireless camera module only when the person is detected by the wireless ultrasonic module. There is.

도 1은 본 발명의 일 실시예에 의한 무선형 인공지능 객체인식 원격 모니터링 시스템의 개념도이다.
도 2는 본 발명의 일 실시예에 의한 무선 초음파 모듈의 개념도이다.
도 3은 본 발명의 일 실시예에 의한 무선 초음파 모듈의 구성도이다.
도 4는 본 발명의 일 실시예에 의한 서버 모듈의 구성도이다.
도 5는 본 발명의 일 실시예에 의한 인공지능 분석부의 구성도이다.
도 6은 본 발명의 일 실시예에 의한 이동식 차량 모듈의 구성도이다.
도 7은 본 발명의 일 실시예에 의한 이동식 차량에 대하여 사람의 방향을 기준으로 경고 방송을 수행하는 개념도를 나타낸다.
도 8은 본 발명의 일 실시예에 의한 무선형 인공지능 객체인식 원격 모니터링 시스템을 이용한 객체 인식 방법의 순서도이다.
Figure 1 is a conceptual diagram of a wireless artificial intelligence object recognition remote monitoring system according to an embodiment of the present invention.
Figure 2 is a conceptual diagram of a wireless ultrasonic module according to an embodiment of the present invention.
Figure 3 is a configuration diagram of a wireless ultrasonic module according to an embodiment of the present invention.
Figure 4 is a configuration diagram of a server module according to an embodiment of the present invention.
Figure 5 is a configuration diagram of an artificial intelligence analysis unit according to an embodiment of the present invention.
Figure 6 is a configuration diagram of a mobile vehicle module according to an embodiment of the present invention.
Figure 7 shows a conceptual diagram of performing a warning broadcast based on the direction of a person for a mobile vehicle according to an embodiment of the present invention.
Figure 8 is a flow chart of an object recognition method using a wireless artificial intelligence object recognition remote monitoring system according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention. While describing each drawing, similar reference numerals are used for similar components.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first, second, A, B, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term “and/or” includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

이하에서는 본 발명의 일 실시예에 의한 무선형 객체인식 원격 모니터링 시스템에 대해 도면을 참조하여 설명한다. 도 1은 본 발명의 일 실시예에 의한 무선형 인공지능 객체인식 원격 모니터링 시스템의 개념도이다. 도 1을 참조하면, 본 발명의 일 실시예에 의한 무선형 인공지능 객체인식 원격 모니터링 시스템은 무선 초음파 모듈(100), 무선 카메라 모듈(200), 서버 모듈(300) 및 이동식 차량 모듈(400)을 포함하여 구성될 수 있다. 여기서, 이동식 차량은 지게차, 트럭 등 산업 현장에서 사용되는 차량을 의미한다.Hereinafter, a wireless object recognition remote monitoring system according to an embodiment of the present invention will be described with reference to the drawings. Figure 1 is a conceptual diagram of a wireless artificial intelligence object recognition remote monitoring system according to an embodiment of the present invention. Referring to FIG. 1, the wireless artificial intelligence object recognition remote monitoring system according to an embodiment of the present invention includes a wireless ultrasonic module 100, a wireless camera module 200, a server module 300, and a mobile vehicle module 400. It may be configured to include. Here, mobile vehicles refer to vehicles used in industrial sites, such as forklifts and trucks.

무선 초음파 모듈(100)은 사람의 인식이 필요한 이동식 차량의 전면 및 후면에 설치되어 실시간으로 초음파 센서에 의해 사람을 감지하여 감지 신호 데이터를 무선 통신으로 전송한다. 무선 초음파 모듈(100)은 무선 카메라 모듈(200)이 설치된 이동식 차량의 전면 및 후면에 복수 개가 설치된다. 본 발명의 일 실시예에서는 이동식 차량을 기준으로 전방 좌측에 구비된 제1 무선 초음파 모듈, 이동식 차량을 기준으로 전방 우측에 구비된 제2 무선 초음파 모듈, 이동식 차량을 기준으로 후방 좌측에 구비된 제3 무선 초음파 모듈, 및 이동식 차량을 기준으로 후방 우측에 구비된 제4 무선 초음파 모듈을 구비할 수 있다. 도 2는 본 발명의 일 실시예에 의한 무선 초음파 모듈(100)의 개념도이며, 도 3은 본 발명의 일 실시예에 의한 무선 초음파 모듈(100)의 구성도이다. 도 2 및 도 3을 참조하면, 본 발명의 일 실시예에 의한 무선 초음파 모듈(100)은 초음파 센서부(110), 초음파 데이터 생성부(120) 및 초음파 통신부(130)를 포함하여 구성될 수 있다.The wireless ultrasonic module 100 is installed on the front and rear of a mobile vehicle that requires human recognition, detects people in real time using an ultrasonic sensor, and transmits detection signal data through wireless communication. A plurality of wireless ultrasonic modules 100 are installed at the front and rear of a mobile vehicle on which the wireless camera module 200 is installed. In one embodiment of the present invention, a first wireless ultrasonic module is provided on the front left side of the mobile vehicle, a second wireless ultrasonic module is provided on the front right side of the mobile vehicle, and a second wireless ultrasonic module is provided on the rear left side of the mobile vehicle. It may be equipped with three wireless ultrasonic modules, and a fourth wireless ultrasonic module provided on the rear right side based on the mobile vehicle. FIG. 2 is a conceptual diagram of a wireless ultrasonic module 100 according to an embodiment of the present invention, and FIG. 3 is a configuration diagram of a wireless ultrasonic module 100 according to an embodiment of the present invention. 2 and 3, the wireless ultrasonic module 100 according to an embodiment of the present invention may be configured to include an ultrasonic sensor unit 110, an ultrasonic data generator 120, and an ultrasonic communication unit 130. there is.

초음파 센서부(110)는 초음파를 발사하여 이동식 차량에 접근하는 사람을 감지한다. 초음파 센서부(110)는 초음파를 발사하는 초음파 송신부와 발사된 초음파가 반사되어 되돌아오는 것을 수신하는 초음파 수신부를 구비한다. 초음파 송신부는 23~40 kHz 사이의 주파수를 포함하는 고주파 음파의 짧은 버스트를 방출하고 이 소리의 펄스가 물체에 부딪히면 일부 음파는 초음파 수신부로 다시 반사된다. 초음파를 발사한 후 수신할 때까지의 시간을 측정하여 거리를 측정하게 되는데, 초음부 센서부와 벽 또는 도로에 사이에 사람이 들어오게 되면 측정 거리에 변화가 생기면서 사람을 인식하게 된다. 초음파 센서부(110)는 안정적인 전력 공급을 위해 레귤레이터를 구비할 수 있다.The ultrasonic sensor unit 110 detects a person approaching the mobile vehicle by emitting ultrasonic waves. The ultrasonic sensor unit 110 includes an ultrasonic transmitter that emits ultrasonic waves and an ultrasonic receiver that receives the reflected ultrasonic waves returned. The ultrasonic transmitter emits short bursts of high-frequency sound waves containing frequencies between 23 and 40 kHz, and when these sound pulses hit an object, some of the sound waves are reflected back to the ultrasonic receiver. The distance is measured by measuring the time from when ultrasonic waves are emitted to when they are received. If a person comes between the ultrasonic sensor unit and the wall or road, the measured distance changes and the person is recognized. The ultrasonic sensor unit 110 may be equipped with a regulator for stable power supply.

초음파 데이터 생성부(120)는 초음파 센서부(110)에서 물체가 감지되면 감지 신호 데이터를 생성한다. 초음파 데이터 생성부(120)는 초음파 센서부(110)에서 사람을 감지되면 이를 디지털화하여 감지 신호 데이터를 생성한다. 감지 신호 데이터 내에는 사람을 감지한 특정 무선 초음파 모듈(100)의 위치가 포함된다. 또한, 상기 초음파 데이터 생성부(120)는 감지 신호 데이터를 생성한 후 상기 감지 신호 데이터를 같은 위치에 위치한 무선 카메라 모듈(200)로 전송하여 상기 무선 카메라 모듈(200)이 작동하게 하는 카메라 작동 통지부를 구비하는 것을 특징으로 한다. 무선 카메라 모듈(200)의 카메라는 평소에는 off 상태를 유지하고 있다가 카메라 작동 통지부에서 전송한 감지 신호 데이터를 수신하고 카메라를 on으로 작동시켜 영상을 촬영할 수 있다. 카메라 작동 통지부를 이용하면 사람이 감지되지 않은 경우, 무선 카메라 모듈(200)은 off 상태를 유지하고 무선 초음파 모듈(100)이 사람을 감지하는 경우에만 on으로 작동시켜 무선 카메라 모듈(200)의 전력을 절약할 수 있고, 무선 카메라 모듈(200)이 사람을 감지하는 감지율을 높일 수 있는 장점이 있다.The ultrasonic data generation unit 120 generates detection signal data when an object is detected by the ultrasonic sensor unit 110. When a person is detected by the ultrasonic sensor unit 110, the ultrasonic data generator 120 digitizes the detected person and generates detection signal data. The detection signal data includes the location of the specific wireless ultrasonic module 100 that detected the person. In addition, the ultrasonic data generator 120 generates detection signal data and then transmits the detection signal data to the wireless camera module 200 located at the same location to notify the camera operation to cause the wireless camera module 200 to operate. It is characterized by having wealth. The camera of the wireless camera module 200 is normally kept in an off state, and then receives detection signal data transmitted from the camera operation notification unit and turns the camera on to capture images. Using the camera operation notification unit, if a person is not detected, the wireless camera module 200 remains in the off state and turns on only when the wireless ultrasonic module 100 detects a person, thereby reducing the power of the wireless camera module 200. There is an advantage in that the wireless camera module 200 can increase the detection rate of detecting people.

초음파 통신부(130)는 초음파 데이터 생성부(120)에서 생성된 감지 신호 데이터를 무선 통신으로 서버 모듈(300)의 서버 통신부(310)에 전송한다. 본 발명의 초음파 통신부(130) 및 서버 통신부(310)는 무선 통신으로 R/F 방식 또는 LTE 방식을 사용할 수 있다. R/F 통신은 radio frequency에서 작동하는 통신으로, 통신 주파수 대역은 일반적으로 300 kHz에서 300 GHz이다. RF 통신은 적외선 통신에 비교해 더 멀리까지 신호를 전달할 수 있고, 초음파 통신부(130)와 서버 통신부(310) 사이에 장애물이 있어도 통신이 가능하며, 또한 R/F 통신은 특정 주파수 대역을 사용하므로 간섭의 영향이 낮은 장점이 있다. 본 발명의 초음파 통신부(130), 카메라 통신부, 서버 통신부(310) 및 이동식 차량 통신부(410)는 내부에 R/F 모듈을 구비하는데, R/F 모듈은 2개의 디바이스 간에 무선 신호를 송수신하기 위해 사용되는 작은 전자 디바이스이다. RF 모듈은 433.92 MHz, 915 MHz 및 2,400 MHz와 같은 산업, 과학 및 의료용의 ISM 무선 대역의 주파수를 포함하여, 상용 RF 모듈에서 여러 반송파 주파수가 일반적으로 사용된다. 이러한 주파수는 통신을 위한 무선 사용에 관한 국내 및 국제 규정에 근거해 사용된다. 근거리 장치는 315 MHz 및 868 MHz와 같이 비면허용 주파수를 사용할 수도 있다. 본 발명에서는 초음파 통신부(130), 카메라 통신부, 서버 통신부(310) 및 이동식 차량 통신부(410)의 주파수 대역은 1 내지 4 GHz일 수 있고, 안정적으로 송수신하기 위해 주파수의 안정적인 사용 대역인 2.5 GHz를 사용하는 것이 바람직하다. 또한, 본 발명에서는 초음파 통신부(130), 카메라 통신부, 서버 통신부(310) 및 이동식 차량 통신부(410)에 무선 통신 방식으로 LTE(Long-Term Evolution) 방식을 사용할 수 있다.The ultrasonic communication unit 130 transmits the detection signal data generated by the ultrasonic data generation unit 120 to the server communication unit 310 of the server module 300 through wireless communication. The ultrasonic communication unit 130 and the server communication unit 310 of the present invention can use the R/F method or the LTE method for wireless communication. R/F communication is communication that operates at radio frequency, and the communication frequency band is generally 300 kHz to 300 GHz. RF communication can transmit signals farther than infrared communication, and communication is possible even if there are obstacles between the ultrasonic communication unit 130 and the server communication unit 310. Additionally, R/F communication uses a specific frequency band, so there is no interference. It has the advantage of having a low impact. The ultrasonic communication unit 130, camera communication unit, server communication unit 310, and mobile vehicle communication unit 410 of the present invention have an R/F module therein, and the R/F module is used to transmit and receive wireless signals between two devices. It is a small electronic device used. Several carrier frequencies are commonly used in commercial RF modules, including frequencies in the ISM radio band for industrial, scientific, and medical purposes, such as 433.92 MHz, 915 MHz, and 2,400 MHz. These frequencies are used based on national and international regulations regarding the use of radios for communications. Near-field devices may also use license-exempt frequencies such as 315 MHz and 868 MHz. In the present invention, the frequency band of the ultrasonic communication unit 130, camera communication unit, server communication unit 310, and mobile vehicle communication unit 410 may be 1 to 4 GHz, and in order to stably transmit and receive, 2.5 GHz, which is a stable frequency use band, is used. It is desirable to use Additionally, in the present invention, the LTE (Long-Term Evolution) method can be used as a wireless communication method for the ultrasonic communication unit 130, camera communication unit, server communication unit 310, and mobile vehicle communication unit 410.

무선 카메라 모듈(200)은 복수의 무선 초음파 모듈(100)이 설치된 곳에 설치되어 실시간으로 영상을 촬영하고 촬영된 영상 데이터를 무선 통신으로 전송한다. 본 발명의 일 실시예에서 무선 카메라 모듈(200)은 이동식 차량의 전면의 양측에 2개, 후면의 양측에 2개 설치되지만, 다양한 실시예에 의해 5개, 6개, 7개, 8개, 9개, 10개 등의 무선 카메라 모듈(200)이 이동식 차량에 설치될 수 있다. 무선 카메라 모듈(200)은 카메라와 카메라 통신부를 구비한다. 무선 카메라 모듈(200)의 카메라는 1개당 화각 120도 확보 가능하며, 전방 2채널, 후방 2채널 설치 시 주변 320~360도 시야 확보가능하도록 카메라를 배치한다.The wireless camera module 200 is installed where a plurality of wireless ultrasound modules 100 are installed, captures images in real time, and transmits the captured image data through wireless communication. In one embodiment of the present invention, two wireless camera modules 200 are installed on both sides of the front and two on both sides of the rear of the mobile vehicle, but according to various embodiments, five, six, seven, eight, Nine, ten, etc. wireless camera modules 200 may be installed in a mobile vehicle. The wireless camera module 200 includes a camera and a camera communication unit. Each camera of the wireless camera module 200 can secure an angle of view of 120 degrees, and when installing 2 front channels and 2 rear channels, the cameras are arranged to secure a 320 to 360 degree view of the surrounding area.

카메라는 무선 카메라 모듈(200)이 설치된 위치에서 실시간으로 영상을 촬영하는데, 이동식 차량에 접근하는 물체 또는 사람을 촬영한다. 일반적으로 카메라에 사용되는 센서에 따라 카메라가 분류되는데 CCD 센서 방식과 CMOS 센서 방식이 있다. CCD 센서와 CMOS 센서 모두 빛의 밝기 신호(전하량)을 프로세서로 전송하지만, 이미지 센서의 설계 방식에 따라 전하량을 직접 전송하는 방식(CCD)과 각 픽셀의 전하량을 디지털 신호로 전달하는 방식(CMOS)으로 나눌 수 있다. 디지털 신호로 변환하는 과정에서 전하의 손실이 발생할 수 있어 상대적으로 CCD가 화질면에서 우수하지만, CMOS는 반도체 기술을 기반으로 더욱 집적화되고 있는 추세이며 이러한 이유로 사이즈가 작아지고 전력 효율면에서 뛰어난 장점이 있다. 본 발명에서는 CCD 센서 방식 또는 CMOS 센서 방식 중 선택하여 사용할 수 있지만, 소비 전력이 작고 고속 처리가 가능한 CMOS 센서 방식의 카메라를 사용하는 것이 바람직하다.The camera captures images in real time at the location where the wireless camera module 200 is installed, and captures images of objects or people approaching the mobile vehicle. In general, cameras are classified according to the sensor used in the camera, and there are two types: CCD sensor type and CMOS sensor type. Both CCD sensors and CMOS sensors transmit light brightness signals (charge) to the processor, but depending on the design of the image sensor, there is a method that transmits the charge directly (CCD) or a method that transmits the charge of each pixel as a digital signal (CMOS). It can be divided into Charge loss may occur during conversion to digital signals, so CCD is relatively superior in terms of image quality, but CMOS is becoming more integrated based on semiconductor technology, and for this reason, it has a small size and excellent power efficiency. there is. In the present invention, either a CCD sensor type or a CMOS sensor type can be selected and used, but it is preferable to use a CMOS sensor type camera that consumes less power and enables high-speed processing.

카메라 통신부는 카메라에서 촬영된 영상 데이터를 무선 통신으로 서버 모듈(300)의 서버 통신부(310)에 전송한다. 본 발명의 카메라 통신부 및 서버 통신부(310)는 무선 통신으로 R/F 방식 또는 LTE 방식을 사용할 수 있다. 또한, 본 발명에서는 카메라에서 촬영한 영상을 단시간에 효율적으로 보내기 위해 카메라 통신부 및 서버 통신부(310)에 무선 통신 방식으로 LTE(Long-Term Evolution) 방식을 사용할 수 있다.The camera communication unit transmits image data captured by the camera to the server communication unit 310 of the server module 300 through wireless communication. The camera communication unit and server communication unit 310 of the present invention can use the R/F method or the LTE method for wireless communication. Additionally, in the present invention, Long-Term Evolution (LTE) can be used as a wireless communication method for the camera communication unit and the server communication unit 310 in order to efficiently transmit images captured by a camera in a short time.

서버 모듈(300)은 이동식 차량과 이격된 곳에 설치되어, 무선 초음파 모듈(100)로부터 전송된 감지 신호 데이터를 수신하고 처리하여 이동식 차량 모듈(400)로 전송하며, 무선 카메라 모듈(200)에서 전송된 영상 데이터를 수신하고 인공지능에 의해 영상 데이터를 분석하여 사람을 검출하여 이동식 차량 모듈(400)로 전송한다. 도 4는 본 발명의 일 실시예에 의한 서버 모듈(300)의 구성도이다. 도 4를 참조하면, 본 발명의 일 실시예에 의한 서버 모듈(300)은 서버 통신부(310), 초음파 데이터 처리부(320), 데이터 판정부(330), 인공지능 분석부(340), 서버 디스플레이부(350)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 의한 서버 모듈(300)은 임베디드 리눅스 시스템을 사용할 수 있고, 인공지능은 파이썬으로 제작된 프로그램일 수 있다. 또한, 사람으로 검출된 결과는 임베디스 시스템의 GPIO 포트에 연결된 서버 디스플레이부(350)를 통해 표시될 수 있다. GPIO 포트의 출력값은 또 다른 MCU 모듈로 전송되어 인터럽트 기능을 활성화하여 반응 속도를 향상시킬 수 있는 장점이 있다. The server module 300 is installed at a distance from the mobile vehicle, receives and processes detection signal data transmitted from the wireless ultrasonic module 100, and transmits it to the mobile vehicle module 400, and transmits it from the wireless camera module 200. Receives video data, analyzes the video data using artificial intelligence, detects people, and transmits it to the mobile vehicle module 400. Figure 4 is a configuration diagram of the server module 300 according to an embodiment of the present invention. Referring to FIG. 4, the server module 300 according to an embodiment of the present invention includes a server communication unit 310, an ultrasonic data processing unit 320, a data determination unit 330, an artificial intelligence analysis unit 340, and a server display. It may be configured to include a unit 350. The server module 300 according to an embodiment of the present invention may use an embedded Linux system, and the artificial intelligence may be a program written in Python. Additionally, the result of detecting a person can be displayed through the server display unit 350 connected to the GPIO port of the embedded system. The output value of the GPIO port is transmitted to another MCU module, which has the advantage of improving response speed by activating the interrupt function.

서버 통신부(310)는 무선 초음파 모듈(100)로부터 전송된 감지 신호 데이터 및 무선 카메라 모듈(200)로부터 전송된 영상 데이터를 수신하며, 처리된 감지 신호 데이터 및 분석된 영상 데이터를 이동식 차량 모듈(400)로 송신한다. 서버 통신부(310)와 무선 초음파 모듈(100), 무선 카메라 모듈(200) 및 이동식 차량 모듈(400)은 무선 통신으로 연결되고, 무선 통신으로는 R/F(Radio Frequency) 방식 또는 LTE(Long-Term Evolution) 방식으로 통신할 수 있다.The server communication unit 310 receives detection signal data transmitted from the wireless ultrasonic module 100 and image data transmitted from the wireless camera module 200, and sends the processed detection signal data and analyzed image data to the mobile vehicle module 400. ) and send it to The server communication unit 310, the wireless ultrasonic module 100, the wireless camera module 200, and the mobile vehicle module 400 are connected by wireless communication, and the wireless communication is R/F (Radio Frequency) or LTE (Long-Frequency). You can communicate using the Term Evolution method.

초음파 데이터 처리부(320)는 서버 통신부(310)에서 수신된 감지 신호 데이터를 처리하여 감지 신호 데이터를 전송한 상기 무선 초음파 모듈(100)을 식별하고, 경고음 제어 신호를 생성한다. 초음파 데이터 처리부(320)는 무선 초음파 모듈(100)로부터 전송된 감지 신호 데이터에서 이를 전송한 무선 초음파 모듈(100)을 식별하여 식별 신호를 생성하여 서버 통신부(310)를 통해 이동식 차량 모듈(400)로 전송한다. 식별 신호를 수신한 제2 디스플레이부(430)에는 감지 신호 데이터를 전송한 무선 초음파 모듈(100)이 표시되어 이동식 차량의 운전자가 이를 확인할 수 있도록 한다. 또한, 무선 초음파 모듈(100)이 사람을 감지한 경우 초음파 데이터 처리부(320)는 경고음 제어 신호를 생성하여 이를 이동식 차량 모듈(400)로 전송하여 제1 경고부(440) 및 제2 경보부(450)에서 경고음을 내도록 한다.The ultrasonic data processing unit 320 processes the detection signal data received from the server communication unit 310, identifies the wireless ultrasonic module 100 that transmitted the detection signal data, and generates a warning sound control signal. The ultrasonic data processing unit 320 identifies the wireless ultrasonic module 100 that transmitted it from the detection signal data transmitted from the wireless ultrasonic module 100, generates an identification signal, and transmits it to the mobile vehicle module 400 through the server communication unit 310. send to The wireless ultrasonic module 100 that transmitted the detection signal data is displayed on the second display unit 430, which has received the identification signal, so that the driver of the mobile vehicle can check it. In addition, when the wireless ultrasonic module 100 detects a person, the ultrasonic data processing unit 320 generates a warning sound control signal and transmits it to the mobile vehicle module 400 to activate the first warning unit 440 and the second warning unit 450. ) to make a warning sound.

데이터 판정부(330)는 서버 통신부(310)에서 수신한 감지 신호 데이터 및 영상 데이터가 일치하는 경우만 처리하게 한다. 즉, 본 발명에서는 무선 초음파 모듈(100)에서 사람을 감지한 경우에만 무선 카메라 모듈(200)에서 전송한 영상 데이터가 처리되게 한다. 무선 초음파 모듈(100)은 초음파에 의해 사람을 감지하며 감지율이 다른 센서보다 높은데, 무선 카메라 모듈(200)을 무선 초음파 모듈(100)과 연동시켜 무선 초음파 모듈(100)에서 사람을 감지하는 경우에는 무선 카메라 모듈(200)에서 전송한 영상 데이터를 인공지능에 의해 분석하여 사람을 검출하게 한다. 이를 위해 데이터 판정부(330)에서는 무선 초음파 모듈(100)로부터 감지 신호 데이터가 수신되면서 수신되는 무선 카메라 모듈(200)의 영상 데이터만 처리되도록 한다.The data determination unit 330 processes only cases where the detection signal data and image data received from the server communication unit 310 match. That is, in the present invention, image data transmitted from the wireless camera module 200 is processed only when the wireless ultrasound module 100 detects a person. The wireless ultrasonic module 100 detects people using ultrasonic waves and has a higher detection rate than other sensors. When the wireless camera module 200 is linked with the wireless ultrasonic module 100 to detect people, the wireless ultrasonic module 100 detects people. In this case, video data transmitted from the wireless camera module 200 is analyzed by artificial intelligence to detect people. To this end, the data determination unit 330 processes only the image data of the wireless camera module 200 that is received while the detection signal data is received from the wireless ultrasonic module 100.

인공지능 분석부(340)는 데이터 판정부(330)에서 전송된 영상 데이터를 인공지능에 의해 분석하여 사람을 검출한다. 도 5는 본 발명의 일 실시예에 의한 인공지능 분석부(340)의 구성도이다. 도 5를 참조하면, 본 발명의 일 실시예에 의한 인공지능 분석부(340)는 인공지능 학습부(341), 사람 검출부(342) 및 색상 제어 신호 생성부(343)를 포함하여 구성될 수 있다. 본 발명의 사람 인식에는 인공지능에 의한 객체 탐지 모델을 사용하는데, 객체 탐지 모델은 크게 One-Stage Detector와 Two-Stage Detector로 구분할 수 있다. One-stage Detector에는 YOLO, SSD, RetinaNet가 있고, Two-stage Detector에는 R-CNN, Fast R-CNN, Faster R-CNN이 있다. 본 발명의 인공지능의 알고리즘으로는 YOLO, SSD, RetinaNet, R-CNN, Fast R-CNN, Faster R-CNN 중에서 하나를 선택하여 사용할 수 있다.The artificial intelligence analysis unit 340 analyzes the image data transmitted from the data determination unit 330 using artificial intelligence to detect people. Figure 5 is a configuration diagram of the artificial intelligence analysis unit 340 according to an embodiment of the present invention. Referring to Figure 5, the artificial intelligence analysis unit 340 according to an embodiment of the present invention may be configured to include an artificial intelligence learning unit 341, a person detection unit 342, and a color control signal generating unit 343. there is. The human recognition of the present invention uses an object detection model based on artificial intelligence, and the object detection model can be broadly divided into One-Stage Detector and Two-Stage Detector. One-stage detectors include YOLO, SSD, and RetinaNet, and two-stage detectors include R-CNN, Fast R-CNN, and Faster R-CNN. As the artificial intelligence algorithm of the present invention, one of YOLO, SSD, RetinaNet, R-CNN, Fast R-CNN, and Faster R-CNN can be selected and used.

인공지능 학습부(341)는 인공지능이 사람을 인식할 수 있도록 데이터를 학습시킨다. 본 발명의 인공지능 학습부(341)는 라벨링된 데이터가 머신러닝 또는 딥러닝에 의해 이미 반복되게 학습이 된 상태이다.The artificial intelligence learning unit 341 learns data so that artificial intelligence can recognize people. The artificial intelligence learning unit 341 of the present invention has already repeatedly learned labeled data through machine learning or deep learning.

사람 검출부(342)는 인공지능 학습부(341)에서 학습된 내용을 기반으로 상기 데이터 판정부(330)에서 전송된 영상 데이터에서 인공지능에 의해 사람을 검출한다. 사람 검출부(342)는 인공지능 학습부(341)에서 학습된 데이터를 기반으로 데이터 판정부(330)에서 전송된 영상 데이터를 실시간으로 분석하는데, 영상 데이터 중에서 인공지능에 의해 사람을 검출하고, 사람 검출 신호를 생성하여 색상 제어 신호 생성부(343)로 전송한다. 사람 검출부(342)는 작업장에서 근무하는 근무자와 비근무자를 구분하는 근무자용 검출부를 구비한다. 상기 근무자용 검출부는 근무자가 인공지능 학습부(341)에 학습되고, 촬영된 영상 데이터에서 촬영된 사람은 근무자 또는 비근무자를 판별한다. 예를 들어, 색상 제어 신호 생성부(343)는 근무자용 검출부에서 구분된 근무자와 비근무자에 대하여 서로 다른 색상을 생성하여 서버 디스플레이부(350) 및 제1 디스플레이부(420)로 전송하여 운전자가 근무자 또는 비근자를 인식하게 할 수 있다. The person detection unit 342 detects people using artificial intelligence in the image data transmitted from the data determination unit 330 based on content learned in the artificial intelligence learning unit 341. The person detection unit 342 analyzes image data transmitted from the data determination unit 330 in real time based on data learned from the artificial intelligence learning unit 341. It detects people using artificial intelligence among the image data, and detects people using artificial intelligence. A detection signal is generated and transmitted to the color control signal generator 343. The person detection unit 342 includes a worker detection unit that distinguishes between workers and non-workers working in the workplace. The worker detection unit learns the worker from the artificial intelligence learning unit 341, and determines whether the person photographed is a worker or a non-worker from the captured image data. For example, the color control signal generator 343 generates different colors for workers and non-workers classified in the worker detection unit and transmits them to the server display unit 350 and the first display unit 420 so that the driver can It can be used to recognize workers or non-workers.

색상 제어 신호 생성부(343)는 사람 검출부(342)가 영상 데이터에서 사람을 검출한 경우 이동식 차량 모듈(400)에 사람을 특정 색상으로 표시하도록 이동식 차량 모듈(400)을 위한 색상 제어 신호를 생성한다. 색상 제어 신호 생성부(343)는 사람 검출부(342)로부터 사람 검출 신호를 수신하고 영상 데이터에서 사람을 구분할 수 있도록 인식된 사람의 색깔을 변경하거나 사람 영상의 외곽에 선이 표시되도록 할 수 있다. 예를 들어, 색상 제어 신호 생성부(343)는 영상 데이터에서 검출된 사람의 외곽선을 붉은 점선으로 표시하는 색상 제어 신호를 생성하여 서버 디스플레이부(350) 및 제1 디스플레이부(420)로 전송하면, 서버 디스플레이부(350) 및 제2 디스플레이부(430)는 사람의 외곽선이 붉은 점선으로 처리된 영상을 디스플레이하게 된다. The color control signal generator 343 generates a color control signal for the mobile vehicle module 400 to display the person in a specific color on the mobile vehicle module 400 when the person detection unit 342 detects a person in the image data. do. The color control signal generator 343 may receive a person detection signal from the person detection unit 342 and change the color of the recognized person or display a line on the outside of the person image so that the person can be distinguished from the image data. For example, the color control signal generator 343 generates a color control signal that displays the outline of a person detected in the image data as a red dotted line and transmits it to the server display unit 350 and the first display unit 420. , the server display unit 350 and the second display unit 430 display an image in which the outline of a person is processed with a red dotted line.

서버 디스플레이부(350)는 인공지능 분석부(340)에서 사람이 검출된 영상을 디스플레이한다. 무선 카메라 모듈(200)에서 촬영된 영상 데이터는 서버 모듈(300)로 전송되어 데이터 판정부(330)에 의해 선별된 영상 데이터가 인공지능 분석부(340)에 의해 실시간으로 분석되며, 실시간으로 분석된 영상 데이터는 서버 디스플레이부(350)를 통해 디스플레이된다. 서버 디스플레이부(350)를 통해 관리자는 인공지능 분석부(340)에 의해 사람이 검출되는 것을 실시간으로 확인할 수 있다. 본 발명의 서버 디스플레이부(350), 제1 디스플레이부(420) 및 제2 디스플레이부(430)는 다양한 형태의 디스플레이를 사용할 수 있는데, 예를 들어 CRT(Cathode Ray Tube), PDP(Plasma Display Panel), OLED(Organic LED), LED(Light Emitting Diode), FED(Field, Emission Display), VFD(Vacuum Fluorescent Display), LCD(Liquid Crystal Display), EPD(Electrophoretic Display), ECD(Electrochromic Display) 중에서 하나를 선택할 수 있지만, 여기에 제한되지 않고 여기에 나열되지 않은 디스플레이까지 포함하여 사용할 수 있다.The server display unit 350 displays an image in which a person is detected by the artificial intelligence analysis unit 340. The image data captured by the wireless camera module 200 is transmitted to the server module 300, and the image data selected by the data determination unit 330 is analyzed in real time by the artificial intelligence analysis unit 340. The image data is displayed through the server display unit 350. Through the server display unit 350, the manager can check in real time whether a person is detected by the artificial intelligence analysis unit 340. The server display unit 350, first display unit 420, and second display unit 430 of the present invention can use various types of displays, for example, CRT (Cathode Ray Tube), PDP (Plasma Display Panel) ), OLED (Organic LED), LED (Light Emitting Diode), FED (Field, Emission Display), VFD (Vacuum Fluorescent Display), LCD (Liquid Crystal Display), EPD (Electrophoretic Display), ECD (Electrochromic Display) However, you are not limited to this and can use displays including those not listed here.

이동식 차량 모듈(400)은 이동식 차량의 내부에 설치되어 서버 모듈(300)에서 분석된 영상 데이터 및 서버 모듈(300)에서 처리된 감지 신호 데이터를 수신하여 디스플레이한다. 도 6은 본 발명의 일 실시예에 의한 이동식 차량 모듈(400)의 구성도이다. 도 6을 참조하면, 본 발명의 일 실시예에 의한 이동식 차량 모듈(400)은 이동식 차량 통신부(410), 제1 디스플레이부(420), 제2 디스플레이부(430), 제1 경보부(440) 및 제2 경보부(450)를 포함하여 구성될 수 있다.The mobile vehicle module 400 is installed inside the mobile vehicle and receives and displays the image data analyzed by the server module 300 and the detection signal data processed by the server module 300. Figure 6 is a configuration diagram of a mobile vehicle module 400 according to an embodiment of the present invention. Referring to FIG. 6, the mobile vehicle module 400 according to an embodiment of the present invention includes a mobile vehicle communication unit 410, a first display unit 420, a second display unit 430, and a first alarm unit 440. and a second alarm unit 450.

이동식 차량 통신부(410)는 서버 모듈(300)로부터 전송되는 상기 서버 모듈(300)에서 분석된 영상 데이터 및 상기 서버 모듈(300)에서 처리된 감지 신호 데이터를 수신한다. 서버 통신부(310)와 이동식 차량 모듈(400)은 무선 통신으로 연결되고, 무선 통신으로는 R/F(Radio Frequency) 방식 또는 LTE(Long-Term Evolution) 방식으로 통신할 수 있다.The mobile vehicle communication unit 410 receives the image data analyzed by the server module 300 and the detection signal data processed by the server module 300, which are transmitted from the server module 300. The server communication unit 310 and the mobile vehicle module 400 are connected through wireless communication, and may communicate wirelessly using a Radio Frequency (R/F) method or a Long-Term Evolution (LTE) method.

제1 디스플레이부(420)는 이동식 차량 통신부(410)에서 수신된 감지 신호 데이터에 의해 감지 신호 데이터를 전송한 무선 초음파 모듈(100)을 표시한다. 제1 디스플레이부(420)는 초음파 데이터 처리부(320)에 전송된 식별 신호에 의해 식별된 무선 초음파 모듈(100)을 표시하여, 운전자에게 상기 무선 초음파 모듈(100)에 의해 사람이 감지되었음을 알리고 사람이 감지된 무선 초음파 모듈(100)을 디스플레이하여 운전자가 사람이 감지된 위치를 알 수 있도록 한다.The first display unit 420 displays the wireless ultrasonic module 100 that transmitted the detection signal data based on the detection signal data received from the mobile vehicle communication unit 410. The first display unit 420 displays the wireless ultrasonic module 100 identified by the identification signal transmitted to the ultrasonic data processing unit 320, notifies the driver that a person has been detected by the wireless ultrasonic module 100, and informs the driver that a person has been detected by the wireless ultrasonic module 100. The detected wireless ultrasonic module 100 is displayed so that the driver can know the location where the person was detected.

제2 디스플레이부(430)는 이동식 차량 통신부(410)에서 수신된 영상 데이터가 디스플레이되며, 인공지능 제어부에 의해 사람이 검출된 경우 특정 색상으로 사람이 표시되어 디스플레이된다. 제2 디스플레이부(430)는 인공지능 분석부(340)에서 분석된 영상이 표시되는데, 색상 제어 신호 생성부(343)에서 생성된 색상 제어 신호를 수신하여 사람을 특정 색상 또는 붉은 점선 등으로 표시하여 운전자가 사람이 감지되었음을 바로 인식하게 한다. 운전자는 제1 디스플레이부(420)를 통해 어느 방향에서 이동식 차량에 사람이 접근하였음을 확인할 수 있고, 제2 디스플레이부(430)를 통해서는 구체적으로 디스플레이되는 영상을 통해 사람의 위치를 확인할 수 있다. 상기 제2 디스플레이부(430)는 상기 무선 카메라 모듈(200)의 수만큼 화면이 분할되고 사람이 감지된 무선 카메라 모듈(200)의 재생화면은 다른 화면보다 확대하여 재생할 수 있다. The second display unit 430 displays image data received from the mobile vehicle communication unit 410, and when a person is detected by the artificial intelligence control unit, the person is displayed in a specific color. The second display unit 430 displays the image analyzed by the artificial intelligence analysis unit 340, and receives the color control signal generated by the color control signal generator 343 to display people in a specific color or with a red dotted line. This allows the driver to immediately recognize that a person has been detected. The driver can confirm that a person has approached the mobile vehicle from any direction through the first display unit 420, and can confirm the location of the person through a specifically displayed image through the second display unit 430. . The second display unit 430 has a screen divided by the number of wireless camera modules 200, and the playback screen of the wireless camera module 200 where a person is detected can be enlarged and played back compared to other screens.

본 발명의 제2 디스플레이부(430)는 화면 분할부를 구비할 수 있다. 상기 화면 분할부는 이동식 차량을 기준으로 전면 좌측에 구비된 전면좌측용 무선 카메라 모듈(200)의 제1 영상, 전면 우측에 구비된 전면우측용 무선 카메라 모듈(200)의 제2 영상, 후면 좌측에 구비된 후면좌측용 무선 카메라 모듈(200)의 제3 영상, 후면 우측에 구비된 후면우측용 무선 카메라 모듈(200)의 제4 영상을 하나의 화면에 동일한 면적으로 분할된 4개 영역으로 디스플레이할 수 있다. 또한, 상기 화면 분할부는 화면 크기 조정부를 구비하고, 상기 화면 크기 조정부는 상기 제1 영상 내지 제4 영상의 어느 하나의 영상에 사람이 관찰된 경우, 상기 사람이 관찰된 영상을 사람이 관찰되지 않은 영상보다 크게 확대하여 나타낼 수 있다. 예를 들어, 상기 제1 영상에 사람이 관찰되면, 상기 제1 영상의 크기를 1.5배 내지 2배로 크게하고, 상기 제2 영상 내지 제4 영상의 크기를 0.3배 내지 0.5배로 작게할 수 있다. 또한, 상기 화면 분할부는 상기 화면 위치 조정부를 구비하고, 상기 화면 위치 조정부는 상기 제1 영상 내지 제4 영상의 어느 하나의 영상에 사람이 관찰된 경우, 상기 사람이 관찰된 영상을 화면의 중앙에 위치하게 할 수 있다. 따라서, 운전자는 위험지역의 영상을 수동으로 확대하지 않고도 보다 면밀하게 관찰하면서 운전을 계속할 수 있다.The second display unit 430 of the present invention may include a screen splitter. The screen dividing unit is a first image of the wireless camera module 200 for the front left side of the mobile vehicle, a second image of the wireless camera module 200 for the front right side, and a second image of the wireless camera module 200 for the front right side, and The third image of the wireless camera module 200 for the rear left and the fourth image of the wireless camera module 200 for the rear right can be displayed in four areas divided into equal areas on one screen. You can. In addition, the screen dividing unit includes a screen size adjusting unit, and the screen size adjusting unit, when a person is observed in any one of the first to fourth images, changes the image in which the person is observed to the image in which the person is not observed. It can be displayed by enlarging it larger than the image. For example, when a person is observed in the first image, the size of the first image may be increased by 1.5 to 2 times, and the size of the second to fourth images may be reduced by 0.3 to 0.5 times. In addition, the screen dividing unit includes a screen position adjusting unit, and the screen position adjusting unit adjusts the image in which the person is observed to the center of the screen when a person is observed in any one of the first to fourth images. It can be positioned. Therefore, the driver can continue driving while observing more closely without manually enlarging the image of the dangerous area.

제1 경보부(440)는 초음파 데이터 처리부(320)에서 생성된 경고음 제어 신호를 전송받아 상기 이동식 차량의 내부에서 경고음으로 경고한다. 제1 경보부(440)는 무선 초음파 모듈(100)이 사람을 감지한 경우 초음파 데이터 처리부(320)에서 생성한 경고음 제어 신호를 무선 통신으로 전송받아 경고음으로 경고한다. 제1 경보부(440)는 이동식 차량의 조종석 내부에 위치하여 무선 초음파 모듈(100)에 의해 사람이 감지되었음을 경고음으로 알린다. 본 발명의 일 실시예에 의한 제1 경보부(440)는 제1 디스플레이부(420)의 내부에 내장된 스피커를 사용할 수 있는데, 경고음은 60~80 db일 수 있다. 또한, 제1 경보부(440)는 미리 녹음된 사람의 음성으로 사람이 감지된 특정 무선 초음파 모듈(100)의 위치를 알릴 수 있다. 예를 들어, 제1 경보부(440)은 우측 후면에 위치한 무선 초음파 모듈(100)이 사람을 감지한 경우, "우측 후면에 사람이 감지되었습니다. 조심하세요."라는 음성을 재생하여 운전자에게 사람이 감지된 구체적인 위치를 알릴 수 있다.The first warning unit 440 receives the warning sound control signal generated by the ultrasonic data processing unit 320 and issues a warning sound inside the mobile vehicle. When the wireless ultrasonic module 100 detects a person, the first alarm unit 440 receives the warning sound control signal generated by the ultrasonic data processing unit 320 through wireless communication and warns with a warning sound. The first alarm unit 440 is located inside the cockpit of the mobile vehicle and sounds a warning sound to indicate that a person has been detected by the wireless ultrasonic module 100. The first alarm unit 440 according to an embodiment of the present invention may use a speaker built into the first display unit 420, and the warning sound may be 60 to 80 db. Additionally, the first alarm unit 440 may notify the location of a specific wireless ultrasonic module 100 in which a person is detected using a pre-recorded human voice. For example, when the wireless ultrasonic module 100 located at the right rear detects a person, the first alarm unit 440 plays a voice saying “A person has been detected at the right rear. Be careful” to alert the driver that the person is present. The specific detected location can be notified.

제2 경보부(450)는 초음파 데이터 처리부(320)에서 생성된 경고음 제어 신호를 전송받아 이동식 차량의 외부에서 경고음으로 경고한다. 제1 경보부(440)가 이동식 차량의 운전자에게 경고음으로 경고한다면, 제2 경보부(450)는 이동식 차량의 외부의 사람에게 경고음으로 경고한다. 제2 경보부(450)는 제1 경보부(440)와 다르게 이동식 차량의 외부에 설치되어 이동식 차량에 접근하는 사람에게 경고음으로 경고를 할 수 있다. 제2 경보부(450)의 경고음으로 130~150 db의 비교적 큰 소리로 이동식 차량에 접근하는 사람에게 경고할 수 있다. 또한, 제2 경보부(450)는 미리 녹음된 사람의 음성으로 사람이 감지된 접근하는 사람에게 위험 상황을 알릴 수 있다. 예를 들어, 제2 경보부(450)은 특정의 무선 초음파 모듈(100)이 사람을 감지한 경우, "이동식 차량과 충돌 위험이 있습니다. 이동식 차량과 멀리 떨어지세요."라는 음성을 재생하여 이동식 차량에 접근하는 사람에게 위험 상황을 알릴 수 있다. 상기 제2 경보부(450)는 복수의 경보기를 구비하며, 상기 경보기는 이동식 차량을 기준으로 전면 좌측에 구비된 전면 좌측용 제2 경보기(450A), 전면 우측에 구비된 전면 우측용 제2 경보기(450B), 후면 좌측에 구비된 후면 좌측용 제2 경보기(450C) 및 후면 우측에 구비된 후면 우측용 제2 경보기(450D)를 구비하며, 제2 경보부는 선택 경고부를 구비하여 복수의 경보기 중에서 복수의 무선 카메라 모듈(200)로부터 얻어진 영상 데이터로부터 사람이 관측된 위치에 해당하는 경보기에 한하여 경고 방송을 선택적으로 내보낼 수 있다. The second warning unit 450 receives the warning sound control signal generated by the ultrasonic data processing unit 320 and issues a warning sound from the outside of the mobile vehicle. If the first warning unit 440 warns the driver of the mobile vehicle with a warning sound, the second warning unit 450 warns people outside the mobile vehicle with a warning sound. Unlike the first alarm unit 440, the second alarm unit 450 is installed outside the mobile vehicle and can sound a warning sound to a person approaching the mobile vehicle. The warning sound of the second warning unit 450 can warn people approaching the mobile vehicle with a relatively loud sound of 130 to 150 db. Additionally, the second alarm unit 450 can notify a dangerous situation to a detected approaching person using a pre-recorded human voice. For example, when the specific wireless ultrasonic module 100 detects a person, the second alarm unit 450 plays a voice saying "There is a risk of collision with a mobile vehicle. Stay away from the mobile vehicle." You can notify people approaching of a dangerous situation. The second alarm unit 450 is provided with a plurality of alarms, and the alarms include a second alarm 450A for the front left side provided on the front left side of the mobile vehicle, and a second alarm device 450A for the front right side provided on the front right side ( 450B), a second alarm for the rear left (450C) provided on the rear left, and a second alarm for the rear right (450D) provided on the rear right, and the second alarm unit has a selection warning unit to detect a plurality of alarms among a plurality of alarms. From the image data obtained from the wireless camera module 200, a warning broadcast can be selectively sent only to alarms corresponding to the location where the person was observed.

상기 이동식 차량 모듈(400)은 상기 제1 경보부(440) 및 제2 경보부(450)에 의해 경고음이 울리는 상황에서 상기 무선 초음파 모듈(110)에서 상기 이동식 차량 및 사람의 거리가 일정 거리 이하로 근접하는 경우 상기 이동식 차량의 작동을 정지시키는 긴급 정지부를 더 포함할 수 있다. 긴급 정지부는 이동식 차량에 근접하는 사람이나 운전자가 경고음 또는 제1 디스플레이부(420) 및 제2 디스플레이부(430)의 화면을 인식하지 못하는 특수 상황에서 이동식 차량과 사람이 일정 거리 이하로 근접하는 경우 이동식 차량의 작동을 정지시킬 수 있다. 긴급 정지부는 이동식 차량의 전기회로로 연결되어 긴급 상황시 전류를 흘려주어 이동식 차량이 정지될 수 있게 한다. 관리자는 근접 거리를 설정할 수 있는데, 예를 들어, 이동식 차량과 사람의 거리가 1m로 들어오는 경우 이동식 차량이 정지되게 설정할 수 있다. 긴급 정지부를 구비하면, 사람과 이동식 차량이 충돌하는 상황을 방지할 수 있는 장점이 있다.In a situation where a warning sound is sounded by the first alarm unit 440 and the second alarm unit 450 of the mobile vehicle module 400, the distance between the mobile vehicle and the person from the wireless ultrasonic module 110 is less than a certain distance. In this case, it may further include an emergency stop unit that stops the operation of the mobile vehicle. The emergency stop is a special situation in which a person approaching the mobile vehicle or the driver does not recognize the warning sound or the screen of the first display unit 420 and the second display unit 430, when the mobile vehicle and the person are close to a certain distance or less. It can stop the operation of a mobile vehicle. The emergency stop unit is connected to the electric circuit of the mobile vehicle and supplies current in an emergency situation, allowing the mobile vehicle to stop. The administrator can set the proximity distance, for example, set the mobile vehicle to stop when the distance between the mobile vehicle and the person is 1 meter. Having an emergency stop unit has the advantage of preventing a collision situation between people and a mobile vehicle.

도 7은 본 발명의 일 실시예에 의한 이동식 차량에 대하여 사람의 방향을 기준으로 경고 방송을 수행하는 개념도를 나타낸다. 인공 지능 분석부(340)의 사람 검출부(342)는 영상 데이터를 분석하여 이동식 차량에 대하여 사람이 향하는 방향을 검출하는 방향 검출부를 구비하고, 제2 경보부(450)는 상기 방향 검출부에서 검출된 이동식 차량에 대하여 사람이 향하는 방향에 대응하는 경고 방송을 내보내는 방향 대응부를 구비한다. 여기서, 상기 경고 방송은 사람이 위치하는 방향에 따라 이동식 차량에 대한 경고 방향을 전방 우측에 차량이 있음, 전방 좌측에 차량이 있음, 후방 우측에 차량이 있음, 및 후방 좌측에 차량이 있음의 어느 하나의 경고를 방송한다. 예를 들어, 이동식 차량의 전방 좌측에 사람이 있을 때, 전면 좌측용 제2 경보기가 방송을 하며, 또한 사람이 이동식 차량의 전방과 같은 방향(i)을 바라보고 있을 때(①)에 "후방 우측에 차량이 있음"의 경고 방송을 하고, 사람이 이동식 차량의 우측 방향과 같은 방향(ii)을 바라보고 있을 때(②)에 "전방 우측에 차량이 있음"의 경고 방송을 하고, 사람이 이동식 차량의 좌측 방향(iii)과 같은 방향을 바라보고 있을 때(③)에 "후방 좌측에 차량이 있음"의 경고 방송을 하고, 사람이 이동식 차량의 후방과 같은 방향(iv)을 바라보고 있을 때(④)에 "전방 좌측에 차량이 있음"의 경고 방송을 하여, 사람의 방향에 따라 이동식 차량의 위치를 인공지능이 분석하여 알려주게 되어 사람이 효과적으로 대피를 할 수 있게 된다. Figure 7 shows a conceptual diagram of performing a warning broadcast based on the direction of a person for a mobile vehicle according to an embodiment of the present invention. The person detection unit 342 of the artificial intelligence analysis unit 340 includes a direction detection unit that analyzes image data and detects the direction in which the person is heading with respect to the mobile vehicle, and the second alarm unit 450 includes a mobile vehicle detected by the direction detection unit. It is provided with a direction response unit that sends out a warning broadcast corresponding to the direction in which the person is heading with respect to the vehicle. Here, the warning broadcast indicates the warning direction for the mobile vehicle according to the direction in which the person is located: there is a vehicle on the front right, there is a vehicle on the front left, there is a vehicle on the rear right, and there is a vehicle on the rear left. Broadcast a warning. For example, when there is a person on the front left side of the mobile vehicle, the second alarm for the front left broadcasts, and also when the person is facing the same direction (i) as the front of the mobile vehicle (①), “Rear A warning broadcast saying "There is a vehicle on the right" is made, and when a person is looking in the same direction (ii) as the right side of the mobile vehicle (②), a warning broadcast saying "There is a vehicle on the right ahead" is broadcast, and the person is looking in the same direction (ii) to the right of the mobile vehicle. When a person is facing the same direction as the left side (iii) of the mobile vehicle (③), a warning message is broadcast saying “there is a vehicle on the rear left”, and when a person is looking in the same direction (iv) as the rear of the mobile vehicle, a warning message is broadcast (③). At (④), a warning broadcast saying "There is a vehicle on the left ahead" is broadcast, and artificial intelligence analyzes and informs the location of the mobile vehicle according to the person's direction, allowing people to evacuate effectively.

이하에서는 본 발명의 일 실시예에 의한 무선형 인공지능 객체인식 원격 모니터링 시스템을 이용한 객체 인식 방법에 대해 도면을 참조하여 설명한다. 도 8은 본 발명의 일 실시예에 의한 무선형 인공지능 객체인식 원격 모니터링 시스템을 이용한 객체 인식 방법의 순서도이다. 도 8을 참조하면, 본 발명의 일 실시예에 의한 무선형 인공지능 객체인식 원격 모니터링 시스템을 이용한 객체 인식 방법은 하기 4 단계를 포함하여 구성될 수 있다.Hereinafter, an object recognition method using a wireless artificial intelligence object recognition remote monitoring system according to an embodiment of the present invention will be described with reference to the drawings. Figure 8 is a flow chart of an object recognition method using a wireless artificial intelligence object recognition remote monitoring system according to an embodiment of the present invention. Referring to FIG. 8, an object recognition method using a wireless artificial intelligence object recognition remote monitoring system according to an embodiment of the present invention may be configured to include the following four steps.

제1 단계(S10) : 이동식 차량에 무선 초음파 모듈(100), 무선 카메라 모듈(200) 및 이동식 차량 모듈(400)이 설치되는 단계First step (S10): Installing the wireless ultrasonic module 100, wireless camera module 200, and mobile vehicle module 400 in a mobile vehicle.

제2 단계(S20) : 무선 초음파 모듈(100)에 의해 사람이 감지되어 감지 신호 데이터가 생성되어 서버 모듈(300)로 전송되며, 무선 카메라 모듈(200)에 의해 촬영된 영상 데이터가 서버 모듈(300)로 전송되는 단계Second step (S20): A person is detected by the wireless ultrasonic module 100, detection signal data is generated and transmitted to the server module 300, and image data captured by the wireless camera module 200 is transmitted to the server module ( Step 300)

제3 단계(S30) : 서버 모듈(300)에 의해 감지 신호 데이터 및 영상 데이터가 처리되어 이동식 차량 모듈(400)로 전송되는 단계Third step (S30): A step in which detection signal data and image data are processed by the server module 300 and transmitted to the mobile vehicle module 400.

제4 단계(S40) : 이동식 차량에서 경고음이 울리고 제1 디스플레이부(420)에 무선 초음파 모듈(100)의 위치가 표시되고, 제2 디스플레이부(430)에 인공지능에 의해 인식된 사람이 다른 색상으로 표시되어 디스플레이되는 단계Fourth step (S40): A warning sound sounds in the mobile vehicle, the location of the wireless ultrasonic module 100 is displayed on the first display unit 420, and the person recognized by artificial intelligence is displayed on the second display unit 430. Steps displayed in color

제1 단계(S10)는 이동식 차량에 무선 초음파 모듈(100), 무선 카메라 모듈(200) 및 이동식 차량 모듈(400)을 설치하는 단계이다. 복수의 무선 초음파 모듈(100) 및 무선 카메라 모듈(200)이 이동식 차량의 전면 및 후면에 설치된다. 이동식 차량 모듈(400)은 조정석 내부에 설치되고, 서버 모듈(300)은 이동식 차량과 떨어진 안전한 위치에 설치된다.The first step (S10) is a step of installing the wireless ultrasonic module 100, the wireless camera module 200, and the mobile vehicle module 400 in a mobile vehicle. A plurality of wireless ultrasonic modules 100 and wireless camera modules 200 are installed at the front and rear of the mobile vehicle. The mobile vehicle module 400 is installed inside the cockpit, and the server module 300 is installed in a safe location away from the mobile vehicle.

제2 단계(S20는 무선 초음파 모듈(100)에 의해 사람이 감지되어 감지 신호 데이터가 생성되어 서버 모듈(300)로 전송되며, 무선 카메라 모듈(200)에 의해 촬영된 영상 데이터가 서버 모듈(300)로 전송되는 단계이다. 무선 초음파 모듈(100)은 이동식 차량의 근처로 접근하는 사람을 감지하는데, 초음파 센서에 의해 사람이 감지되면 초음파 데이터 생성부(120)에 의해 감지 신호 데이터를 생성하여 서버 모듈(300)에 무선 통신으로 전송한다. 또한, 무선 카메라 모듈(200)은 이동식 차량의 근처로 접근하는 사람을 실시간으로 촬영하는데, 무선 카메라 모듈(200)은 촬영된 영상 데이터를 서버 모듈(300)에 무선 통신으로 전송한다.In the second step (S20), a person is detected by the wireless ultrasonic module 100, detection signal data is generated and transmitted to the server module 300, and image data captured by the wireless camera module 200 is sent to the server module 300. ). The wireless ultrasonic module 100 detects a person approaching the mobile vehicle. When a person is detected by the ultrasonic sensor, detection signal data is generated by the ultrasonic data generator 120 and sent to the server. It is transmitted through wireless communication to the module 300. In addition, the wireless camera module 200 captures people approaching the vicinity of the mobile vehicle in real time, and the wireless camera module 200 transmits the captured image data to the server module 300. ) is transmitted by wireless communication.

제3 단계(S30)는 서버 모듈(300)에 의해 감지 신호 데이터 및 영상 데이터가 처리되어 이동식 차량 모듈(400)로 전송되는 단계이다. 무선 초음파 모듈(100)에서 전송한 감지 신호 데이터를 수신한 서버 모듈(300)은 초음파 데이터 처리부(320)에 의해 감지 신호 데이터를 전송한 무선 초음파 모듈(100)을 식별하고, 경고음 제어 신호를 생성하여 무선 통신으로 이동식 차량 모듈(400)로 전송한다. 또한, 데이터 판정부(330)는 수신한 감지 신호 데이터 및 영상 데이터가 일치하는 경우만 인공지능에 의해 영상 데이터가 분석되게 한다. 인공지능 분석부(340)는 데이터 판정부(330)에서 전송된 영상 데이터를 분석하여 사람을 인식하여 검출된 사람이 특정 색상으로 표시되도록 색상 제어 신호를 생성하여 무선통신으로 이동식 차량에 전송한다.The third step (S30) is a step in which the detection signal data and image data are processed by the server module 300 and transmitted to the mobile vehicle module 400. The server module 300, which has received the detection signal data transmitted from the wireless ultrasonic module 100, identifies the wireless ultrasonic module 100 that transmitted the detection signal data by the ultrasonic data processing unit 320 and generates a warning sound control signal. and transmits it to the mobile vehicle module 400 through wireless communication. Additionally, the data determination unit 330 allows image data to be analyzed by artificial intelligence only when the received detection signal data and image data match. The artificial intelligence analysis unit 340 analyzes the image data transmitted from the data determination unit 330, recognizes the person, generates a color control signal so that the detected person is displayed in a specific color, and transmits it to the mobile vehicle through wireless communication.

제4 단계(S40)는 이동식 차량에서 경고음이 울리고 제1 디스플레이부(420)에 무선 초음파 모듈(100)의 위치가 표시되고, 제2 디스플레이부(430)에 인공지능에 의해 인식된 사람이 특정 색상으로 표시되어 디스플레이되는 단계이다. 이동식 차량은 초음파 데이터 처리부(320)에서 전송한 경고음 제어 신호를 수신하여 이동식 차량의 내부에 위치한 제1 경보부(440) 및 이동식 차량의 외부에 위치한 제2 경보부(450)를 통해 경고음을 울린다. 또한, 초음파 데이터 처리부(320)에서 전송한 무선 초음파 모듈(100) 식별 신호를 수신하여 제1 디스플레이부(420)에 사람을 인식한 무선 초음파 모듈(100)의 위치를 표시한다. 또한, 이동식 차량 모듈(400)은 인공지능 분석부(340)에서 분석되어 색상 제어 신호가 추가된 영상 데이터를 수신하여 제2 디스플레이부(430)에 인식된 사람을 특정 색상으로 표시하여 디스플레이한다.In the fourth step (S40), a warning sound sounds in the mobile vehicle, the location of the wireless ultrasonic module 100 is displayed on the first display unit 420, and the person recognized by artificial intelligence is specified on the second display unit 430. This is the stage where it is displayed in color. The mobile vehicle receives the warning sound control signal transmitted from the ultrasonic data processing unit 320 and sounds a warning sound through the first alarm unit 440 located inside the mobile vehicle and the second alarm unit 450 located outside the mobile vehicle. Additionally, the identification signal of the wireless ultrasound module 100 transmitted from the ultrasound data processing unit 320 is received and the location of the wireless ultrasound module 100 that has recognized the person is displayed on the first display unit 420. In addition, the mobile vehicle module 400 receives image data analyzed by the artificial intelligence analysis unit 340 and to which a color control signal is added, and displays the recognized person in a specific color on the second display unit 430.

본 발명은 상기 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 제조될 수 있으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.The present invention is not limited to the above-mentioned embodiments, but can be manufactured in various different forms, and those skilled in the art may manufacture the present invention in other specific forms without changing the technical idea or essential features of the present invention. You will understand that it can be done. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

100 : 무선 초음파 모듈
110 : 초음파 센서부
120 : 초음파 데이터 생성부
130 : 초음파 통신부
200 ; 무선 카메라 모듈
300 : 서버 모듈
310 : 서버 통신부
320 : 초음파 데이터 처리부
330 : 데이터 판정부
340 : 인공지능 분석부
341 : 인공지능 학습부
342 : 사람 검출부
343 : 색상 제어 신호 생성부
350 : 서버 디스플레이부
400 : 이동식 차량 모듈
410 : 이동식 차량 통신부
420 : 제1 디스플레이부
430 : 제2 디스플레이부
440 : 제1 경보부
450 : 제2 경보부
500 : 이동식 차량
600 : 사람
100: wireless ultrasonic module
110: ultrasonic sensor unit
120: Ultrasound data generation unit
130: Ultrasonic communication department
200 ; wireless camera module
300: server module
310: Server communication department
320: Ultrasonic data processing unit
330: data judgment unit
340: Artificial intelligence analysis department
341: Artificial Intelligence Learning Department
342: person detection unit
343: Color control signal generator
350: Server display unit
400: Mobile vehicle module
410: Mobile vehicle communication unit
420: first display unit
430: second display unit
440: 1st warning unit
450: 2nd alarm unit
500: Mobile vehicle
600: people

Claims (7)

이동식 차량의 전면 및 후면에 설치되어 실시간으로 초음파 센서에 의해 사람을 감지하여 감지 신호 데이터를 무선 통신으로 전송하는 복수의 무선 초음파 모듈;
상기 이동식 차량의 전면 및 후면에 설치되어 실시간으로 영상을 촬영하고 촬영된 영상 데이터를 무선 통신으로 전송하는 복수의 무선 카메라 모듈;
상기 무선 초음파 모듈로부터 전송된 상기 감지 신호 데이터를 수신하고 처리하여 전송하며, 상기 무선 카메라 모듈에서 전송된 상기 영상 데이터를 수신하고 인공지능에 의해 상기 영상 데이터를 분석하여 사람을 검출하여 전송하는 서버 모듈; 및
상기 이동식 차량의 내부에 설치되어 상기 서버 모듈에서 처리된 감지 신호 데이터 및 상기 서버 모듈에서 분석된 영상 데이터를 수신하여 디스플레이하는 이동식 차량 모듈;을 포함하며,
상기 무선 초음파 모듈은,
초음파를 보내어 상기 이동식 차량과 인접한 사람을 감지하는 초음파 센서부,
상기 초음파 센서부에서 사람이 감지되면 감지 신호 데이터를 생성하는 초음파 데이터 생성부 및
상기 초음파 데이터 생성부에서 생성된 감지 신호 데이터를 무선 통신으로 상기 서버 모듈로 전송하는 초음파 통신부를 포함하며,
상기 서버 모듈은,
상기 무선 카메라 모듈로부터 전송된 영상 데이터 및 상기 무선 초음파 모듈로부터 전송된 감지 신호 데이터를 수신하며, 처리된 감지 신호 데이터 및 분석된 영상 데이터를 상기 이동식 차량 모듈로 송신하는 서버 통신부,
상기 서버 통신부에서 수신된 감지 신호 데이터를 처리하여 감지 신호 데이터를 전송한 상기 무선 초음파 모듈을 식별하고, 경고음 제어 신호를 생성하는 초음파 데이터 처리부,
상기 서버 통신부에서 수신한 감지 신호 데이터 및 영상 데이터가 일치하는 경우만 처리를 수행하는 데이터 판정부,
상기 데이터 판정부에서 전송된 영상 데이터를 인공지능에 의해 분석하여 사람을 검출하는 인공지능 분석부 및
상기 인공지능 분석부에서 사람이 검출된 영상이 디스플레이되는 서버 디스플레이부를 포함하는 무선형 인공지능 객체인식 원격 모니터링 시스템.
A plurality of wireless ultrasonic modules installed on the front and rear of the mobile vehicle to detect people in real time using an ultrasonic sensor and transmit detection signal data through wireless communication;
A plurality of wireless camera modules installed on the front and rear of the mobile vehicle to capture images in real time and transmit the captured image data through wireless communication;
A server module that receives, processes, and transmits the detection signal data transmitted from the wireless ultrasonic module, receives the image data transmitted from the wireless camera module, analyzes the image data by artificial intelligence, detects a person, and transmits it. ; and
A mobile vehicle module installed inside the mobile vehicle to receive and display the detection signal data processed by the server module and the image data analyzed by the server module,
The wireless ultrasonic module,
An ultrasonic sensor unit that sends ultrasonic waves to detect people adjacent to the mobile vehicle,
An ultrasonic data generator that generates detection signal data when a person is detected by the ultrasonic sensor unit, and
It includes an ultrasonic communication unit that transmits the detection signal data generated by the ultrasonic data generation unit to the server module through wireless communication,
The server module is,
A server communication unit that receives image data transmitted from the wireless camera module and detection signal data transmitted from the wireless ultrasonic module, and transmits the processed detection signal data and analyzed image data to the mobile vehicle module;
An ultrasonic data processing unit that processes detection signal data received from the server communication unit, identifies the wireless ultrasonic module that transmitted the detection signal data, and generates a warning sound control signal;
a data determination unit that performs processing only when the detection signal data and image data received from the server communication unit match;
An artificial intelligence analysis unit that detects people by analyzing the image data transmitted from the data determination unit using artificial intelligence, and
A wireless artificial intelligence object recognition remote monitoring system including a server display unit on which an image of a person detected in the artificial intelligence analysis unit is displayed.
삭제delete 삭제delete 청구항 1에 있어서,
상기 인공지능 분석부는,
인공지능이 사람을 인식할 수 있도록 데이터를 학습시키는 인공지능 학습부,
상기 인공지능 학습부에서 학습된 내용을 기반으로 상기 데이터 판정부에서 전송된 영상 데이터에서 인공지능에 의해 사람을 검출하는 사람 검출부 및
상기 사람 검출부가 상기 영상 데이터에서 사람을 검출한 경우 상기 이동식 차량 모듈에 상기 사람을 특정 색상으로 표시하도록 상기 이동식 차량 모듈을 위한 색상 제어 신호를 생성하는 색상 제어 신호 생성부를 포함하는 무선형 인공지능 객체인식 원격 모니터링 시스템.
In claim 1,
The artificial intelligence analysis unit,
An artificial intelligence learning department that learns data so that artificial intelligence can recognize people,
A person detection unit that detects a person by artificial intelligence from the image data transmitted from the data determination unit based on the content learned in the artificial intelligence learning unit, and
A wireless artificial intelligence object including a color control signal generator that generates a color control signal for the mobile vehicle module to display the person in a specific color on the mobile vehicle module when the person detection unit detects a person in the image data. Cognitive remote monitoring system.
삭제delete 삭제delete 삭제delete
KR1020230117469A 2023-09-05 2023-09-05 Wireless AI Object Recognition Remote Monitoring System And Oject Recognition Method by the Same KR102620115B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230117469A KR102620115B1 (en) 2023-09-05 2023-09-05 Wireless AI Object Recognition Remote Monitoring System And Oject Recognition Method by the Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230117469A KR102620115B1 (en) 2023-09-05 2023-09-05 Wireless AI Object Recognition Remote Monitoring System And Oject Recognition Method by the Same

Publications (1)

Publication Number Publication Date
KR102620115B1 true KR102620115B1 (en) 2024-01-02

Family

ID=89511982

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230117469A KR102620115B1 (en) 2023-09-05 2023-09-05 Wireless AI Object Recognition Remote Monitoring System And Oject Recognition Method by the Same

Country Status (1)

Country Link
KR (1) KR102620115B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090002764U (en) * 2007-09-14 2009-03-18 백동철 Automobile rear system using wireless mechanism
KR101418872B1 (en) 2012-11-09 2014-07-21 한국과학기술연구원 Wireless recognizing apparatus for location of dynamic object in real-time, and thereof method
KR101854461B1 (en) 2016-10-12 2018-05-03 전자부품연구원 Camera system and method for recognizing object thereof
KR20180047149A (en) * 2016-10-31 2018-05-10 고려대학교 산학협력단 Apparatus and method for risk alarming of collision
KR20210066207A (en) 2019-11-28 2021-06-07 엘지전자 주식회사 Artificial intelligence apparatus and method for recognizing object
KR102390813B1 (en) 2022-03-03 2022-04-26 주식회사 제일엔지니어링종합건축사사무소 Apparatus and method for information collection and intelligent signal control using object recognition camera
KR20220167522A (en) * 2021-06-14 2022-12-21 주식회사 엠씨넥스 In-vehicle alarm generating device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090002764U (en) * 2007-09-14 2009-03-18 백동철 Automobile rear system using wireless mechanism
KR101418872B1 (en) 2012-11-09 2014-07-21 한국과학기술연구원 Wireless recognizing apparatus for location of dynamic object in real-time, and thereof method
KR101854461B1 (en) 2016-10-12 2018-05-03 전자부품연구원 Camera system and method for recognizing object thereof
KR20180047149A (en) * 2016-10-31 2018-05-10 고려대학교 산학협력단 Apparatus and method for risk alarming of collision
KR20210066207A (en) 2019-11-28 2021-06-07 엘지전자 주식회사 Artificial intelligence apparatus and method for recognizing object
KR20220167522A (en) * 2021-06-14 2022-12-21 주식회사 엠씨넥스 In-vehicle alarm generating device
KR102390813B1 (en) 2022-03-03 2022-04-26 주식회사 제일엔지니어링종합건축사사무소 Apparatus and method for information collection and intelligent signal control using object recognition camera

Similar Documents

Publication Publication Date Title
WO2021159549A1 (en) Road condition sensing and evaluation method for traffic safety
US8922431B2 (en) Apparatus, a system and a method for collission avoidance
WO2021159548A1 (en) Traffic safety early-warning monitoring and alarm apparatus
US20170313247A1 (en) Vehicle safety system
CN109671245B (en) Safety early warning system for road operators
US20100208074A1 (en) Outside view monitor system and vehicle having the same
CN106926779A (en) A kind of vehicle lane change accessory system
KR101927364B1 (en) Outside Intruding and Monitering Radar Syatem Based on Deep -Learning and Method thereof
CN110570687B (en) AGV control method and device and storage medium
JP2008097592A (en) Operation environment monitoring system
KR101737380B1 (en) Monitoring system using auto-lift, camera and detection device
CN107067612B (en) Portable infrared alarm and wireless video monitoring system and monitoring method
KR20170055370A (en) Security System by distance using Active RFID
CN105159292A (en) Tramcar operating real-time obstacle automatic detection and video feedback system and method
US9640076B2 (en) Communication device and communication method for a vehicle
JPH08223566A (en) Surrounding state recognition device for vehicle
KR102620115B1 (en) Wireless AI Object Recognition Remote Monitoring System And Oject Recognition Method by the Same
US8547235B2 (en) Security device and security system determining if the user can hear an audible alarm
US7026601B2 (en) Sensor system, and sensor apparatus and reception apparatus used in the sensor system
CN201876967U (en) Electronic monitoring system for detecting objects thrown at low altitude
KR102593769B1 (en) Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same
CN111063137A (en) Fire fighting access monitoring method and system
JP2003058978A (en) Vehicle monitoring system
CN209912100U (en) Invasion linkage alarm system
KR102416468B1 (en) Safety management system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant