KR102593769B1 - Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same - Google Patents

Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same Download PDF

Info

Publication number
KR102593769B1
KR102593769B1 KR1020230058615A KR20230058615A KR102593769B1 KR 102593769 B1 KR102593769 B1 KR 102593769B1 KR 1020230058615 A KR1020230058615 A KR 1020230058615A KR 20230058615 A KR20230058615 A KR 20230058615A KR 102593769 B1 KR102593769 B1 KR 102593769B1
Authority
KR
South Korea
Prior art keywords
unit
person
wireless camera
artificial intelligence
image data
Prior art date
Application number
KR1020230058615A
Other languages
Korean (ko)
Inventor
박찬배
Original Assignee
박찬배
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박찬배 filed Critical 박찬배
Priority to KR1020230058615A priority Critical patent/KR102593769B1/en
Application granted granted Critical
Publication of KR102593769B1 publication Critical patent/KR102593769B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 영상을 촬영하는 카메라와 인공지능에 의해 객체를 분석하는 본체 장치가 R/F 통신 송수신 모듈로 연결되어 설치가 용이하고 고가의 라우터를 필요하지 않는 인공지능에 의한 무선형 객체 인식 시스템 및 이를 이용한 객체 인식 방법을 제공한다.
본 발명의 인공지능에 의한 무선형 객체 인식 시스템은, 사람의 인식이 필요한 곳에 설치되어 실시간으로 촬영하고 촬영된 영상 데이터를 무선 통신으로 전송하는 무선 카메라부; 및 상기 무선 카메라부에서 전송된 영상 데이터를 수신하고, 인공지능에 의해 상기 영상 데이터를 분석하여 사람을 검출하는 본체부;를 포함한다.
The present invention is a wireless object recognition system using artificial intelligence that is easy to install and does not require an expensive router, in which a camera that captures images and a main device that analyzes objects by artificial intelligence are connected to an R/F communication transmission and reception module. An object recognition method using this is provided.
The wireless object recognition system based on artificial intelligence of the present invention includes a wireless camera unit installed in a place where human recognition is required, captures images in real time, and transmits the captured image data through wireless communication; and a main body unit that receives image data transmitted from the wireless camera unit and detects a person by analyzing the image data using artificial intelligence.

Description

인공지능에 의한 무선형 객체 인식 시스템 및 이를 이용한 객체 인식 방법{Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same}Wireless object recognition system by artificial intelligence and object recognition method using the same {Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same}

본 발명은 인공지능에 의한 무선형 객체 인식 시스템 및 이를 이용한 객체 인식 방법에 관한 것으로, 보다 상세하게는 사람의 검출이 필요한 곳에 설치된 카메라와 객체를 인공지능에 의해 분석하는 본체 장치가 R/F 통신 송수신 모듈로 연결되어 설치가 용이한 인공지능에 의한 무선형 객체 인식 시스템 및 이를 이용한 객체 인식 방법에 관한 것이다.The present invention relates to a wireless object recognition system using artificial intelligence and an object recognition method using the same. More specifically, the present invention relates to a wireless object recognition system using artificial intelligence and an object recognition method using the same. More specifically, a camera installed in a place where human detection is required and a main device that analyzes objects using artificial intelligence communicate through R/F communication. This relates to a wireless object recognition system using artificial intelligence that is connected to a transmitting and receiving module and is easy to install, and an object recognition method using the same.

인공지능 객체인식은 카메라로부터 입력받은 영상 내에 존재하는 객체를 인공지능에 의해 실시간으로 처리하는 기술로 보안감시 시스템, 의학 영상 분석과 같은 분야에서 활용되고 있다. 이러한 실시간 객체 인식은 정확한 인식률과 빠른 인식속도를 모두 보장해야 한다. Artificial intelligence object recognition is a technology that processes objects present in images input from a camera in real time using artificial intelligence, and is used in fields such as security surveillance systems and medical image analysis. Such real-time object recognition must ensure both accurate recognition rate and fast recognition speed.

이러한 인공지능 객체인식 기술은 지게차, 이동식 차량 등 산업 현장에서 광범위하게 사용되고 있다. 실시간 객체인식 기술을 이용하게 되면 지게차, 이동식 차량 등의 후방 또는 전방에 카메라를 설치하여 지게차, 이동식 차량의 후방 또는 전방에 접근하는 물체 중 사람을 검출하여 차량과 사람이 충돌하는 사고를 예방할 수 있다.This artificial intelligence object recognition technology is widely used in industrial fields such as forklifts and mobile vehicles. By using real-time object recognition technology, cameras can be installed at the rear or front of forklifts, mobile vehicles, etc. to detect people among objects approaching the rear or front of forklifts or mobile vehicles, thereby preventing collisions between vehicles and people. .

현재 기술로 가장 광범위하게 활용되는 인공지능 객체인식 시스템은 CCTV와 같은 유선형 인체감지 시스템으로 메인 제어기와 카메라 장치가 유선으로 연결되어 있다. 실제 현장에서 설치되는 카메라의 경우 유선으로 길게는 15~20 미터까지 연장선을 사용하여 사람이 설치해야 하고 설치 시간도 많이 소요되는 단점이 있었다. 또한, 도 1과 같이 종래의 기술에 의한 무선형 객체인식 시스템은 카메라에 고가의 라우터가 연결되어 설치 비용이 높고, 무선 통신으로 LTE 또는 Wi-Fi를 사용해야 하는 제한이 있었다.The most widely used artificial intelligence object recognition system with current technology is a wired human body detection system such as CCTV, where the main controller and camera device are connected by wire. In the case of cameras actually installed in the field, they had the disadvantage of having to be installed by a person using a wired extension cable up to 15 to 20 meters long, and that installation time took a lot of time. In addition, as shown in FIG. 1, the wireless object recognition system based on the prior art requires an expensive router to be connected to the camera, resulting in high installation costs and the limitation of having to use LTE or Wi-Fi for wireless communication.

대한민국 등록특허공보 제10-1418872호Republic of Korea Patent Publication No. 10-1418872 대한민국 등록특허공보 제10-1854461호Republic of Korea Patent Publication No. 10-1854461 대한민국 등록특허공보 제10-2390813호Republic of Korea Patent Publication No. 10-2390813 대한민국 공개특허공보 제10-2021-0066207호Republic of Korea Patent Publication No. 10-2021-0066207

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 영상을 촬영하는 카메라와 인공지능에 의해 객체를 분석하는 본체 장치가 R/F 통신 송수신 모듈로 연결되어 설치가 용이하고 고가의 라우터를 필요로 하지 않는 인공지능에 의한 무선형 객체 인식 시스템 및 이를 이용한 객체 인식 방법을 제공하는 것을 목적으로 한다.The present invention is intended to solve the above problems. A camera that captures images and a main device that analyzes objects using artificial intelligence are connected to an R/F communication transmission/reception module, making installation easy and eliminating the need for an expensive router. The purpose is to provide a wireless object recognition system using artificial intelligence and an object recognition method using the same.

상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 의한 인공지능에 의한 무선형 객체 인식 시스템은, 사람의 인식이 필요한 곳에 설치되어 실시간으로 촬영하고 촬영된 영상 데이터를 무선 통신으로 전송하는 무선 카메라부; 및 상기 무선 카메라부에서 전송된 영상 데이터를 수신하고, 인공지능에 의해 상기 영상 데이터를 분석하여 사람을 검출하는 본체부;를 포함한다.In order to achieve the above object, a wireless object recognition system using artificial intelligence according to an embodiment of the present invention is a wireless camera that is installed in a place where human recognition is required, captures images in real time, and transmits the captured image data through wireless communication. wealth; and a main body unit that receives image data transmitted from the wireless camera unit and detects a person by analyzing the image data using artificial intelligence.

상기 본체부는, 상기 무선 카메라로부터 전송된 영상 데이터를 수신하는 수신부, 상기 수신부에서 수신된 영상 데이터를 인공지능에 의해 분석하여 사람을 검출하는 인공지능 제어부, 상기 인공지능 제어부에서 분석된 영상 데이터가 디스플레이되며, 상기 인공지능 제어부에 의해 사람이 검출된 경우 특정 색상으로 사람이 표시되어 디스플레이되는 디스플레이부 및 상기 인공지능 제어부에 의해 사람이 검출된 경우 경고음으로 경고하는 경보부를 포함한다.The main body includes a receiver that receives image data transmitted from the wireless camera, an artificial intelligence control unit that analyzes the image data received from the receiver using artificial intelligence to detect a person, and displays the image data analyzed by the artificial intelligence control unit. It includes a display unit that displays a person in a specific color when a person is detected by the artificial intelligence control unit, and an alarm unit that warns with a warning sound when a person is detected by the artificial intelligence control unit.

상기 인공지능 제어부는, 인공지능이 사람을 인식할 수 있도록 데이터를 학습시키는 데이터 학습부, 상기 데이터 학습부에서 학습된 내용을 기반으로 상기 수신부에서 수신된 영상 데이터에서 인공지능이 사람을 검출하는 객체 검출부, 상기 객체 검출부가 상기 영상 데이터에서 사람을 검출한 경우 상기 디스플레이부에 상기 사람을 특정 색상으로 표시하도록 상기 디스플레이부에 색상 제어 신호를 생성하여 전송하는 객체 색상 지시부 및 상기 객체 검출부가 상기 영상 데이터에서 사람을 검출한 경우 상기 경보부에 경고음 제어 신호를 생성하여 전송하는 경고 신호 생성부를 포함한다.The artificial intelligence control unit is a data learning unit that learns data so that artificial intelligence can recognize people, and an object that artificial intelligence detects people from the image data received from the receiving unit based on the content learned in the data learning unit. A detection unit, an object color indicating unit for generating and transmitting a color control signal to the display unit to display the person in a specific color on the display unit when the object detection unit detects a person in the image data, and the object detection unit generating the image data It includes a warning signal generator that generates and transmits a warning sound control signal to the warning unit when a person is detected.

상기 무선 카메라부는 촬영된 영상 데이터를 무선 통신으로 상기 본체부에 전송하는 송신부을 구비하며, 상기 송신부 및 본체부의 수신부의 주파수 대역은 1GHz 내지 4GHz인 것을 특징으로 한다.The wireless camera unit includes a transmitter that transmits captured image data to the main body through wireless communication, and the frequency bands of the transmitter and the receiver of the main body are 1 GHz to 4 GHz.

상기 무선 카메라부는 복수 개일 수 있고, 상기 디스플레이부는 복수 개의 무선 카메라부의 영상 데이터를 한 화면에 다중으로 분할하여 디스플레이할 수 있는 것을 특징으로 한다.There may be a plurality of wireless camera units, and the display unit is capable of dividing and displaying image data from a plurality of wireless camera units on one screen.

상기 본체부는 사용자의 요청에 의해 검출 대상을 사람에서 사람의 신체 부위, 이동 차량, 화재로 검출 목표를 변경할 수 있는 검출 대상 변경부를 더 포함한다.The main body further includes a detection target change unit that can change the detection target from a person to a human body part, a moving vehicle, or a fire at the user's request.

또한, 상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 의한 인공지능에 의한 무선형 객체 인식 시스템을 이용한 객체 인식 방법은, 상기 무선 카메라부 및 본체부가 설치되는 제1 단계; 상기 무선 카메라부에 의해 촬영된 영상 데이터가 무선 통신으로 상기 본체부에 전송되는 제2 단계; 상기 본체부의 인공지능 제어부에서 수신된 영상 데이터가 분석되어 사람이 검출되는 제3 단계; 및 사람이 검출된 경우 상기 디스플레이부에 상기 사람이 특정 색상으로 표시되고, 동시에 상기 경보부를 통해 경고음으로 알리는 제4 단계;를 포함한다.In addition, in order to achieve the above object, an object recognition method using a wireless object recognition system based on artificial intelligence according to an embodiment of the present invention includes a first step of installing the wireless camera unit and the main body unit; A second step in which image data captured by the wireless camera unit is transmitted to the main body unit through wireless communication; A third step in which image data received from the artificial intelligence control unit of the main body is analyzed and a person is detected; and a fourth step where, when a person is detected, the person is displayed in a specific color on the display unit and simultaneously notified with a warning sound through the alarm unit.

상술한 바와 같이, 본 발명은 영상을 촬영하는 카메라와 인공지능에 의해 객체를 분석하는 본체 장치가 R/F 통신 송수신 모듈로 연결되어 유선 연장선이 필요하지 않기 때문에 설치가 용이한 장점이 있다.As described above, the present invention has the advantage of being easy to install because a camera that captures images and a main device that analyzes objects using artificial intelligence are connected to an R/F communication transmission/reception module, eliminating the need for a wired extension cable.

또한, 본 발명은 R/F 통신 송수신 모듈을 사용하기 때문에 고가의 라우터를 사용하지 않는 장점이 있다.Additionally, the present invention has the advantage of not using an expensive router because it uses an R/F communication transmission/reception module.

도 1은 종래의 기술에 의한 무선형 객체인식 시스템을 나타낸다.
도 2는 본 발명의 일 실시예에 의한 인공지능에 의한 무선형 객체 인식 시스템의 구성도이다.
도 3은 본 발명의 일 실시예에 의한 무선 카메라부의 구성도이다.
도 4는 본 발명의 일 실시예에 의한 본체부의 구성도이다.
도 5는 본 발명의 일 실시예에 의한 인공지능 제어부의 구성도이다.
도 6은 본 발명의 일 실시예에 의한 인공지능에 의한 무선형 객체 인식 시스템을 이용한 객체 인식 방법의 순서도이다.
Figure 1 shows a wireless object recognition system based on conventional technology.
Figure 2 is a configuration diagram of a wireless object recognition system using artificial intelligence according to an embodiment of the present invention.
Figure 3 is a configuration diagram of a wireless camera unit according to an embodiment of the present invention.
Figure 4 is a configuration diagram of the main body according to an embodiment of the present invention.
Figure 5 is a configuration diagram of an artificial intelligence control unit according to an embodiment of the present invention.
Figure 6 is a flowchart of an object recognition method using a wireless object recognition system based on artificial intelligence according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention. While describing each drawing, similar reference numerals are used for similar components.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first, second, A, B, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term “and/or” includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

이하에서는 본 발명의 일 실시예에 의한 인공지능에 의한 무선형 객체 인식 시스템(10)에 대해 도면을 참조하여 설명한다. 도 2는 본 발명의 일 실시예에 의한 인공지능에 의한 무선형 객체 인식 시스템(10)의 구성도이다. 도 2를 참조하면, 본 발명의 일 실시예에 의한 인공지능에 의한 무선형 객체 인식 시스템(10)은 복수의 무선 카메라부(100) 및 본체부(200)를 포함하여 구성될 수 있다.Hereinafter, a wireless object recognition system 10 using artificial intelligence according to an embodiment of the present invention will be described with reference to the drawings. Figure 2 is a configuration diagram of a wireless object recognition system 10 using artificial intelligence according to an embodiment of the present invention. Referring to FIG. 2, a wireless object recognition system 10 using artificial intelligence according to an embodiment of the present invention may be configured to include a plurality of wireless camera units 100 and a main body unit 200.

우선, 복수의 무선 카메라부(100)는 사람의 인식이 필요한 곳에 설치되어 실시간으로 영상을 촬영하고 촬영된 영상 데이터를 무선 통신으로 전송한다. 본 발명의 복수의 무선 카메라부(100)는 지게차, 이동식 차량 등과 같이 산업 현장에서 사람과의 충돌 사고 위험이 있는 이동식 차량의 전면이나 후면에 설치될 수 있다. 다양한 각도에서 접근하는 물체를 촬영하기 위해서 본 발명은 복수의 무선 카메라부(100)를 구비할 수 있다. 도 7은 이동식 차량에 무선 카메라부가 설치된 개요도를 나타낸다. 도 7에 나타난 것처럼, 사람의 인식이 필요한 곳에 설치된 복수의 무선 카메라부(100)는, 이동식 차량(500)을 기준으로 전면 좌측에 구비된 전면좌측용 무선 카메라(100A), 전면 우측에 구비된 전면우측용 무선 카메라(100B), 후면 좌측에 구비된 후면좌측용 무선 카메라(100C), 후면 우측에 구비된 후면우측용 무선 카메라(100D)를 포함하여, 이동식 차량의 전후 및 좌우의 영상을 촬영할 수 있다. First, a plurality of wireless camera units 100 are installed in places where human recognition is required, capture images in real time, and transmit the captured image data through wireless communication. The plurality of wireless camera units 100 of the present invention can be installed on the front or rear of a mobile vehicle, such as a forklift or mobile vehicle, that has a risk of collision with a person at an industrial site. In order to photograph objects approaching from various angles, the present invention may be provided with a plurality of wireless camera units 100. Figure 7 shows a schematic diagram of a wireless camera unit installed in a mobile vehicle. As shown in FIG. 7, a plurality of wireless camera units 100 installed in places where human recognition is required include a wireless camera 100A for the front left, a wireless camera 100A for the front left, and a wireless camera 100A for the front right of the mobile vehicle 500. Including the wireless camera for the front right (100B), the wireless camera for the rear left (100C) installed on the rear left, and the wireless camera for the rear right (100D) installed on the rear right, it is possible to capture images of the front, rear, and left and right sides of the mobile vehicle. You can.

도 3은 본 발명의 일 실시예에 의한 복수의 무선 카메라부(100)의 구성도이다. 도 3을 참조하면, 본 발명의 일 실시예에 의한 복수의 무선 카메라부(100)는 복수의 카메라(110) 및 송신부(120)를 포함하고, 추가적으로 외측 스피커를 포함할 수 있다.Figure 3 is a configuration diagram of a plurality of wireless camera units 100 according to an embodiment of the present invention. Referring to FIG. 3, the plurality of wireless camera units 100 according to an embodiment of the present invention includes a plurality of cameras 110 and a transmitter 120, and may additionally include an external speaker.

카메라(110)는 복수의 무선 카메라부(100)가 설치된 위치에서 실시간으로 영상을 촬영한다. 일반적으로 카메라(110)에 사용되는 센서에 따라 카메라(110)가 분류되는데 CCD 센서 방식과 CMOS 센서 방식이 있다. CCD 센서와 CMOS 센서 모두 빛의 밝기 신호(전하량)을 프로세서로 전송하지만, 이미지 센서의 설계 방식에 따라 전하량을 직접 전송하는 방식(CCD)과 각 픽셀의 전하량을 디지털 신호로 전달하는 방식(CMOS)으로 나눌 수 있다. 디지털 신호로 변환하는 과정에서 전하의 손실이 발생할 수 있어 상대적으로 CCD가 화질면에서 우수하지만, CMOS는 반도체 기술을 기반으로 더욱 집적화되고 있는 추세이며 이러한 이유로 사이즈가 작아지고 전력 효율면에서 뛰어난 장점이 있다. 본 발명에서는 CCD 센서 방식 또는 CMOS 센서 방식 중 선택하여 사용할 수 있지만, 소비 전력이 작고 고속 처리가 가능한 CMOS 센서 방식의 카메라(110)를 사용하는 것이 바람직하다.The camera 110 captures images in real time at a location where a plurality of wireless camera units 100 are installed. In general, the camera 110 is classified according to the sensor used in the camera 110, and includes a CCD sensor type and a CMOS sensor type. Both CCD sensors and CMOS sensors transmit light brightness signals (charge) to the processor, but depending on the design of the image sensor, there is a method that transmits the charge directly (CCD) or a method that transmits the charge of each pixel as a digital signal (CMOS). It can be divided into Charge loss may occur during conversion to digital signals, so CCD is relatively superior in terms of image quality, but CMOS is becoming more integrated based on semiconductor technology, and for this reason, it has a small size and excellent power efficiency. there is. In the present invention, either the CCD sensor type or the CMOS sensor type can be selected and used, but it is preferable to use the CMOS sensor type camera 110, which consumes less power and enables high-speed processing.

송신부(120)은 카메라(110)에서 촬영된 영상 데이터를 무선 통신으로 본체부(200)의 수신부(210)에 전송한다. 본 발명의 송신부(120) 및 수신부(210)는 무선 통신으로 RF 통신을 사용할 수 있고, RF 통신에 의해 구동되는 RF 모듈을 디바이스로 사용할 수 있다. RF 통신은 radio frequency에서 작동하는 통신으로, 통신 주파수 대역은 일반적으로 300kHz에서 300GHz이다. RF 통신은 적외선 통신에 비교해 더 멀리까지 신호를 전달할 수 있고, 송신부(120)와 수신부(210) 사이에 장애물이 있어도 통신이 가능하며, 또한 RF 통신은 특정 주파수 대역을 사용하므로 간섭의 영향이 낮은 장점이 있다. RF 모듈(radio-frequency module)은 2개의 디바이스 간 즉, 송신부(120)와 수신부(210) 사이에 무선 신호를 송수신하기 위해 사용되는 작은 전자 디바이스이다. RF 모듈은 433.92MHz, 915MHz 및 2400MHz와 같은 산업, 과학 및 의료용의 ISM 무선 대역의 주파수를 포함하여, 상용 RF 모듈에서 여러 반송파 주파수가 일반적으로 사용된다. 이러한 주파수는 통신을 위한 무선 사용에 관한 국내 및 국제 규정에 근거해 사용된다. 근거리 장치는 315MHz 및 868MHz와 같이 비면허용 주파수를 사용할 수도 있다. 본 발명에서는 송신부(120) 및 수신부(210)의 주파수 대역은 1 내지 4GHz일 수 있고, 영상 데이터를 안정적으로 송수신하기 위해 주파수의 안정적인 사용 대역인 2.5GHz를 사용하는 것이 바람직하다.The transmitter 120 transmits image data captured by the camera 110 to the receiver 210 of the main body 200 through wireless communication. The transmitter 120 and the receiver 210 of the present invention can use RF communication as wireless communication, and can use an RF module driven by RF communication as a device. RF communication is communication that operates at radio frequency, and the communication frequency band is generally 300kHz to 300GHz. RF communication can transmit signals farther than infrared communication, and communication is possible even if there are obstacles between the transmitter 120 and the receiver 210. Additionally, RF communication uses a specific frequency band, so the impact of interference is low. There is an advantage. An RF module (radio-frequency module) is a small electronic device used to transmit and receive wireless signals between two devices, that is, between the transmitter 120 and the receiver 210. Several carrier frequencies are commonly used in commercial RF modules, including frequencies in the ISM radio band for industrial, scientific, and medical applications, such as 433.92 MHz, 915 MHz, and 2400 MHz. These frequencies are used based on national and international regulations regarding the use of radios for communications. Near-field devices may also use license-exempt frequencies such as 315 MHz and 868 MHz. In the present invention, the frequency band of the transmitter 120 and the receiver 210 may be 1 to 4 GHz, and it is preferable to use 2.5 GHz, which is a stable frequency band, in order to stably transmit and receive video data.

다음으로, 본체부(200)는 복수의 무선 카메라부(100)에서 전송된 영상 데이터를 수신하고, 인공지능에 의해 영상 데이터를 분석하여 사람을 검출한다. 복수의 무선 카메라부(100)가 지게차, 이동식 차량 등과 같이 산업 현장에서 사람과의 충돌 사고 위험이 있는 이동식 차량의 전면이나 후면에 설치된다면, 본체부(200)는 지게차 또는 이동식 차량 등의 계기판이나 그 근처에 설치될 수 있다. 지게차, 이동식 차량 등의 운전자는 본체부(200)에 구비된 디스플레이부(230)를 통해 후면 또는 전면에 접근하는 물체를 실시간으로 확인할 수 있다. 본 발명의 일 실시예에 의한 본체부(200)는 임베디드 리눅스 시스템을 사용할 수 있고, 인공지능은 파이썬으로 제작된 프로그램일 수 있다. 또한, 사람으로 검출된 결과는 임베디스 시스템의 GPIO 포트에 연결된 경보부(240) 또는 디스플레이부(230)를 통해 표시될 수 있다. GPIO 포트의 출력값은 또 다른 MCU 모듈로 전송되어 인터럽트 기능을 활성화하여 반응 속도를 향상시킬 수 있는 장점이 있다. 도 4는 본 발명의 일 실시예에 의한 본체부(200)의 구성도이다. 도 4을 참조하면, 본 발명의 일 실시예에 의한 본체부(200)는 수신부(210), 인공지능 제어부(220), 디스플레이부(230), 경보부(240), 내측 스피커(240C)를 포함하여 구성될 수 있다.Next, the main body unit 200 receives image data transmitted from the plurality of wireless camera units 100 and analyzes the image data using artificial intelligence to detect people. If a plurality of wireless camera units 100 are installed on the front or rear of a mobile vehicle, such as a forklift or mobile vehicle, that has a risk of collision with people at an industrial site, the main body unit 200 is installed on the dashboard or the dashboard of the forklift or mobile vehicle. It can be installed nearby. Drivers of forklifts, mobile vehicles, etc. can check objects approaching the rear or front in real time through the display unit 230 provided in the main body 200. The main body 200 according to an embodiment of the present invention may use an embedded Linux system, and the artificial intelligence may be a program written in Python. Additionally, the result of detecting a person can be displayed through the alarm unit 240 or display unit 230 connected to the GPIO port of the embedded system. The output value of the GPIO port is transmitted to another MCU module, which has the advantage of improving response speed by activating the interrupt function. Figure 4 is a configuration diagram of the main body 200 according to an embodiment of the present invention. Referring to FIG. 4, the main body 200 according to an embodiment of the present invention includes a receiving unit 210, an artificial intelligence control unit 220, a display unit 230, an alarm unit 240, and an internal speaker 240C. It can be configured as follows.

수신부(210)는 무선 카메라(110)로부터 송신된 영상 데이터를 수신한다. 수신부(210)는 송신부(120)와 동일하게 무선 통신으로 RF 통신을 사용할 수 있고, RF 통신에 의해 구동되는 RF 모듈을 디바이스로 사용할 수 있다. The receiver 210 receives image data transmitted from the wireless camera 110. The receiver 210 can use RF communication as wireless communication like the transmitter 120, and can use an RF module driven by RF communication as a device.

인공지능 제어부(220)는 수신부(210)에서 수신된 영상 데이터를 인공지능에 의해 분석하여 사람을 검출한다. 도 5는 본 발명의 일 실시예에 의한 인공지능 제어부(220)의 구성도이다. 도 5를 참조하면, 본 발명의 일 실시예에 의한 인공지능 제어부(220)는 데이터 학습부(221), 객체 검출부(222), 객체 색상 지시부(223) 및 경고 신호 생성부(224)를 포함하여 구성될 수 있다. 본 발명의 객체 인식에는 인공지능에 의한 객체 탐지 모델을 사용하는데, 객체 탐지 모델은 크게 One-Stage Detector 및 Two-Stage Detector을 사용할 수 있다. 두 종류의 모델에서는 Classification 및 Region Proposal를 사용하는데, Classification은 특정 물체에 대해 어떤 물체인지 분류를 하는 것이고, Region Proposal은 물체가 있을만한 영역을 빠르게 찾아내는 알고리즘이다. One-stage Detector는 Classification, Regional Proposal을 동시에 수행하여 결과를 얻는 방법이다. 또한, Two-stage Detector는 Classification, Regional Proposal을 순차적으로 수행하여 결과를 얻는 방법이다. One-stage Detector에는 YOLO, SSD, RetinaNet가 있고, Two-stage Detector에는 R-CNN, Fast R-CNN, Faster R-CNN이 있다. 본 발명의 인공지능의 알고리즘으로는 YOLO, SSD, RetinaNet, R-CNN, Fast R-CNN, Faster R-CNN 중에서 적어도 하나를 선택하여 사용할 수 있다.The artificial intelligence control unit 220 analyzes the image data received from the receiver 210 using artificial intelligence to detect people. Figure 5 is a configuration diagram of the artificial intelligence control unit 220 according to an embodiment of the present invention. Referring to FIG. 5, the artificial intelligence control unit 220 according to an embodiment of the present invention includes a data learning unit 221, an object detection unit 222, an object color indicating unit 223, and a warning signal generating unit 224. It can be configured as follows. The object recognition of the present invention uses an object detection model based on artificial intelligence, and the object detection model can largely use One-Stage Detector and Two-Stage Detector. Two types of models use Classification and Region Proposal. Classification is an algorithm that classifies what kind of object a specific object is, and Region Proposal is an algorithm that quickly finds an area where an object is likely to be. One-stage detector is a method of obtaining results by simultaneously performing classification and regional proposal. Additionally, the Two-stage Detector is a method of obtaining results by sequentially performing Classification and Regional Proposal. One-stage detectors include YOLO, SSD, and RetinaNet, and two-stage detectors include R-CNN, Fast R-CNN, and Faster R-CNN. As the artificial intelligence algorithm of the present invention, at least one of YOLO, SSD, RetinaNet, R-CNN, Fast R-CNN, and Faster R-CNN can be selected and used.

데이터 학습부(221)에서는 인공지능이 영상 데이터에서 사람을 인식할 수 있도록 데이터를 학습시킨다. 본 발명의 데이터 학습부(221)는 라벨링된 데이터가 머신러닝 또는 딥러닝에 의해 이미 반복되게 학습이 된 상태이다.The data learning unit 221 learns data so that artificial intelligence can recognize people from image data. The data learning unit 221 of the present invention has already repeatedly learned labeled data using machine learning or deep learning.

객체 검출부(222)는 데이터 학습부(221)에서 학습된 내용을 기반으로 수신부(210)에서 수신된 영상 데이터에서 인공지능으로 사람을 검출한다. 객체 검출부(222)는 데이터 학습에서 학습된 데이터를 기반으로 복수의 무선 카메라부(100)에서 촬영한 영상 데이터를 실시간으로 분석하는데, 영상 데이터 중에서 인공지능에 의해 사람을 검출한다. 객체 검출부(222)는 상기 영상 데이터에서 사람이 검출된 경우 이를 상기 객체 색상 지시부(223) 및 경고 신호 생성부(224)에 알릴 수 있도록 신호를 생성하여 이를 상기 객체 색상 지시부(223) 및 경고 신호 생성부(224)에 전송하는 검출 신호 전송부를 구비할 수 있다. 검출 신호 전송부는 객체 검출부(222)에서 사람이 검출된 경우 객체 색상 지시부(223)에 사람 검출 신호를 생성하여 전송한다. 검출 신호 전송부는 객체 검출부(222)에서 더 이상 사람이 검출되지 않는 경우에는 객체 색상 지시부(223)에 사람 검출 중단 신호를 생성하여 전송한다. 사람 검출 중단 신호를 수신한 객체 색상 지시부(223)는 디스플레이부(230)에 색상 제어 신호를 디스플레이부(230)에 전송하지 않는다. 또한, 검출 신호 전송부는 객체 검출부(222)에서 사람이 검출된 경우 경고 신호 생성부(224)에 사람 검출 신호를 신호를 생성하여 전송한다. 검출 신호 전송부는 객체 검출부(222)에서 더 이상 사람이 검출되지 않는 경우에는 경고 신호 생성부(224)에 사람 검출 중단 신호를 생성하여 전송한다. 사람 검출 중단 신호를 수신한 경고 신호 생성부(224)는 경고음 제어 신호를 경보부(240)에 더 이상 전송하지 않는다.The object detection unit 222 detects people using artificial intelligence from the image data received from the receiving unit 210 based on content learned in the data learning unit 221. The object detection unit 222 analyzes image data captured by a plurality of wireless camera units 100 in real time based on data learned in data learning, and detects people among the image data using artificial intelligence. When a person is detected in the image data, the object detection unit 222 generates a signal to notify the object color indicator unit 223 and the warning signal generator 224, and sends it to the object color indicator unit 223 and the warning signal generator 224. It may be provided with a detection signal transmitting unit that transmits to the generating unit 224. When a person is detected in the object detection unit 222, the detection signal transmission unit generates and transmits a person detection signal to the object color indicator unit 223. When a person is no longer detected in the object detection unit 222, the detection signal transmission unit generates and transmits a person detection stop signal to the object color indicator unit 223. The object color indicating unit 223, which has received the human detection stop signal, does not transmit a color control signal to the display unit 230. Additionally, when a person is detected in the object detection unit 222, the detection signal transmission unit generates and transmits a person detection signal to the warning signal generation unit 224. When a person is no longer detected in the object detection unit 222, the detection signal transmission unit generates and transmits a person detection stop signal to the warning signal generation unit 224. The warning signal generator 224, which has received the person detection stop signal, no longer transmits the warning sound control signal to the warning unit 240.

객체 색상 지시부(223)는 객체 검출부(222)가 영상 데이터에서 사람을 검출한 경우 디스플레이부(230)에 사람을 특정 색상으로 표시하도록 디스플레이부(230)에 색상 제어 신호를 생성하여 전송한다. 객체 검출부(222)에서 인공지능에 의해 영상 데이터 중에서 사람이 검출되었으면, 객체 검출부(222)의 검출 신호 전송부는 사람 검출 신호를 생성하여 객체 색상 지시부(223)로 전송한다. 객체 색상 지시부(223)는 객체 검출부(222)로부터 사람 검출 신호를 수신하고 영상 데이터에서 사람을 구분할 수 있도록 인식된 사람의 색깔을 변경하거나 사람 영상의 외곽에 선이 표시되도록 할 수 있다. 예를 들어, 객체 색상 지시부(223)는 영상 데이터에서 검출된 사람의 외곽선을 붉은 점선으로 표시하는 색상 제어 신호를 생성하여 디스플레이부(230)로 전송하면, 디스플레이부(230)는 사람의 외곽선이 붉은 점선으로 처리된 영상을 디스플레이하게 된다.When the object detection unit 222 detects a person in the image data, the object color indicating unit 223 generates and transmits a color control signal to the display unit 230 so that the person is displayed in a specific color on the display unit 230. If a person is detected in the image data by artificial intelligence in the object detection unit 222, the detection signal transmission unit of the object detection unit 222 generates a person detection signal and transmits it to the object color indicator unit 223. The object color indicating unit 223 may receive a person detection signal from the object detection unit 222 and change the color of the recognized person or display a line on the outside of the person image so that the person can be distinguished from the image data. For example, when the object color indicating unit 223 generates a color control signal that displays the outline of a person detected in the image data as a red dotted line and transmits it to the display unit 230, the display unit 230 displays the outline of the person. The image processed with red dotted lines is displayed.

또한, 객체 색상 지시부(223)는 사람 구분 색상 지시부를 구비하고, 상기 사람 구분 색상 지시부는 데이터 학습부(221)에 기저장된 사람와 기저장되지 않은 사람를 서로 다른 색으로 구분하여 디스플레이부(230)에 나타낼 수 있다. 예를 들어, 촬영된 영상에 기저장된 사람이 나타나면 사람의 외곽선에 푸른색의 점선으로 처리된 영상을 나타내고, 촬영된 영상에 기저장되지 않은 사람이 나타나면 사람의 외곽선에 붉은색의 점선으로 처리된 영상을 나타낼 수 있다. 따라서, 운전자는 영상에 나타난 사람이 작업장에서 일하는 사람인지 아니면 외부에서 들어오거나 다른 작업장에 근무하는 사람인지를 알 수 있게 되어 경계심의 정도를 달리할 수 있다.In addition, the object color indicator 223 includes a person classification color indicator, and the person classification color indicator distinguishes people pre-stored in the data learning unit 221 from people not pre-stored in different colors and displays the information on the display unit 230. It can be expressed. For example, if a pre-recorded person appears in a captured video, the outline of the person is displayed with a blue dotted line. If a person who has not been pre-recorded appears in the captured video, the outline of the person is displayed with a red dotted line. It can display images. Accordingly, the driver can determine whether the person appearing in the video is a person working in the workplace, or a person coming from outside or working in another workplace, and can vary the level of vigilance.

경고 신호 생성부(224)는 객체 검출부(222)가 영상 데이터에서 사람을 검출한 경우 경보부(240)에 경고음 제어 신호를 생성하여 전송한다. 객체 검출부(222)에서 인공지능에 의해 영상 데이터 중에서 사람이 검출되었으면, 객체 검출부(222)의 검출 신호 전송부는 사람 검출 신호를 생성하여 경고 신호 생성부(224)로 전송한다. 경고 신호 생성부(224)는 객체 검출부(222)로부터 사람 검출 신호를 수신하고 경보부(240)가 경고음을 내보낼 수 있도록 경고음 제어 신호를 생성하여 경보부(240)에 전송한다.The warning signal generation unit 224 generates and transmits a warning sound control signal to the warning unit 240 when the object detection unit 222 detects a person in the image data. If a person is detected in the image data by artificial intelligence in the object detection unit 222, the detection signal transmission unit of the object detection unit 222 generates a person detection signal and transmits it to the warning signal generation unit 224. The warning signal generator 224 receives a person detection signal from the object detector 222, generates a warning sound control signal and transmits it to the alarm unit 240 so that the alarm unit 240 can emit a warning sound.

또한, 경고 신호 생성부(224)는 사람 구분 경고음 생성부를 구비하고, 상기 사람 구분 경고음 생성부는 데이터 학습부(221)에 기저장된 사람와 기저장되지 않은 사람를 구분하여 경보음을 다르게 생성할 수 있다. 예를 들어, 촬영된 영상에 기저장된 사람이 나타나면 기저장된 사람의 성명과 함께 위험지역에 들어왔음을 알리는 경보음을 생성하고, 촬영된 영상에 기저장되지 않은 사람이 나타나면 임의의 누군가 위험지역에 들어왔음을 알리는 경보음을 생성할 수 있다. 따라서, 운전자는 디스플레이를 통하지 않고도 영상에 나타난 사람이 작업장에서 일하는 사람인지 아니면 외부에서 들어오거나 다른 작업장에 근무하는 사람인지를 알 수 있게 되어 경계심의 정도를 달리할 수 있다.In addition, the warning signal generator 224 includes a person-discriminating warning sound generating unit, and the person-discriminating warning sound generating unit can generate warning sounds differently by distinguishing between people pre-stored in the data learning unit 221 and people not pre-stored. For example, if a pre-recorded person appears in the captured video, an alarm sound is generated along with the name of the pre-recorded person indicating that they have entered the dangerous area. If a person not pre-recorded appears in the recorded video, a random person enters the dangerous area. An alarm sound can be generated to indicate entry. Therefore, the driver can tell without going through the display whether the person appearing in the video is a person working in the workplace, or a person coming from outside or working in another workplace, and can vary the level of vigilance.

디스플레이부(230)는 인공지능 제어부(220)에서 분석된 영상 데이터가 디스플레이되며, 인공지능 제어부(220)에 의해 사람이 검출된 경우 특정 색상으로 사람이 표시되게 하여 디스플레이한다. 복수의 무선 카메라부(100)에서 촬영된 데이터는 본체부(200)로 전송되어 인공지능 제어부(220)에 의해 실시간으로 분석되며, 실시간으로 분석된 영상 데이터는 디스플레이부(230)를 통해 디스플레이된다. 본 발명의 인공지능에 의한 무선형 객체 인식 시스템(10)은 지게차, 이동식 차량 등에 설치되기 때문에 영상이 촬영되는 시점에서 인공지능에 의해 분석되고 디스플레이부(230)에 디스플레이되는 것은 거의 동시에 이루어져야 하고 시차가 크게 발생해서는 안 된다. 따라서, 디스플레이부(230)는 복수의 무선 카메라부(100)에서 촬영된 영상 데이터를 인공지능 제어부(220)를 거쳐 거의 동시간에 디스플레이하게 된다. 또한, 객체 검출부(222)에 의해 영상 데이터 중에서 사람이 검출된 경우 디스플레이부(230)는 객체 색상 지시부(223)로부터 색상 제어 신호를 전송받아 사람을 구분할 수 있도록 특정 색상으로 표시할 수 있다. 본 발명의 디스플레이부(230)는 다양한 형태의 디스플레이를 사용할 수 있는데, 예를 들어 CRT(Cathode Ray Tube), PDP(Plasma Display Panel), OLED(Organic LED), LED(Light Emitting Diode), FED(Field, Emission Display), VFD(Vacuum Fluorescent Display), LCD(Liquid Crystal Display), EPD(Electrophoretic Display), ECD(Electrochromic Display) 중에서 하나를 선택할 수 있지만, 여기에 제한되지 않고 여기에 나열되지 않은 디스플레이까지 포함하여 사용할 수 있다.The display unit 230 displays image data analyzed by the artificial intelligence control unit 220, and when a person is detected by the artificial intelligence control unit 220, the person is displayed in a specific color. Data captured by the plurality of wireless camera units 100 is transmitted to the main body unit 200 and analyzed in real time by the artificial intelligence control unit 220, and the image data analyzed in real time is displayed through the display unit 230. . Since the wireless object recognition system 10 based on artificial intelligence of the present invention is installed on forklifts, mobile vehicles, etc., the analysis by artificial intelligence and display on the display unit 230 at the time when the image is captured must be done almost simultaneously and there is a time difference. should not occur significantly. Accordingly, the display unit 230 displays image data captured by the plurality of wireless camera units 100 at almost the same time through the artificial intelligence control unit 220. Additionally, when a person is detected in the image data by the object detection unit 222, the display unit 230 may receive a color control signal from the object color indicator unit 223 and display the person in a specific color so that the person can be distinguished. The display unit 230 of the present invention can use various types of displays, for example, CRT (Cathode Ray Tube), PDP (Plasma Display Panel), OLED (Organic LED), LED (Light Emitting Diode), FED ( Field, Emission Display (VFD), Vacuum Fluorescent Display (VFD), Liquid Crystal Display (LCD), Electrophoretic Display (EPD), and Electrochromic Display (ECD), but not limited to displays not listed here. Can be used including.

본 발명의 복수의 무선 카메라부(100)는 복수 개일 수 있고, 디스플레이부(230)는 복수 개의 복수의 무선 카메라부(100)의 영상 데이터를 한 화면에 다중으로 분할하여 디스플레이할 수 있다. 예를 들어, 4개의 복수의 무선 카메라부(100)가 설치되면, 디스플레이부(230)는 화면은 4개로 분할되어 디스플레이될 수 있다. 즉, 무선 카메라(110)의 갯수대로 디스플레이부(230)의 화면은 분할될 수 있다. 디스플레이부(230)는 화면에 무선 카메라(110)가 촬영한 영상을 디스플레이해야 하기 때문에 무선 카메라(110)의 갯수만큼 화면을 분할하여 화면에 복수의 무선 카메라(110)에서 촬영된 영상이 동시에 디스플레이되게 할 수 있다.There may be a plurality of wireless camera units 100 of the present invention, and the display unit 230 may divide the image data of the plurality of wireless camera units 100 into multiple pieces and display them on one screen. For example, if four wireless camera units 100 are installed, the display unit 230 may be divided into four screens and displayed. That is, the screen of the display unit 230 can be divided according to the number of wireless cameras 110. Since the display unit 230 must display images captured by the wireless cameras 110 on the screen, the screen is divided by the number of wireless cameras 110 and images captured by a plurality of wireless cameras 110 are displayed simultaneously on the screen. It can be done.

본 발명의 디스플레이부(230)는 화면 분할부를 구비할 수 있다. 상기 화면 분할부는 이동식 차량을 기준으로 전면 좌측에 구비된 전면좌측용 무선 카메라의 제1 영상, 전면 우측에 구비된 전면우측용 무선 카메라의 제2 영상, 후면 좌측에 구비된 후면좌측용 무선 카메라의 제3 영상, 후면 우측에 구비된 후면우측용 무선 카메라의 제4 영상을 하나의 화면에 동일한 면적으로 분할된 4개 영역으로 디스플레이 할 수 있다. 또한, 상기 화면 분할부는 화면 크기 조정부를 구비하고, 상기 화면 크기 조정부는 상기 제1 영상 내지 제4 영상의 어느 하나의 영상에 사람이 관찰된 경우, 상기 사람이 관찰된 영상을 사람이 관찰되지 않은 영상보다 크게 확대하여 나타낼 수 있다. 예를 들어, 상기 제1 영상에 사람이 관찰되면, 상기 제1 영상의 크기를 1.5배 내지 2배로 크게하고, 상기 제2 영상 내지 제4 영상의 크기를 0.3배 내지 0.5배로 작게할 수 있다. 또한, 상기 화면 분할부는 상기 화면 위치 조정부를 구비하고, 상기 화면 위치 조정부는 상기 제1 영상 내지 제4 영상의 어느 하나의 영상에 사람이 관찰된 경우, 상기 사람이 관찰된 영상을 화면의 중앙에 위치하게 할 수 있다. 따라서, 운전자는 위험지역의 영상을 수동으로 확대하지 않고도 보다 면밀하게 관찰하면서 운전을 계속할 수 있다. The display unit 230 of the present invention may include a screen splitter. The screen dividing unit includes a first image from a wireless camera for the front left side provided on the front left side of the mobile vehicle, a second image from a wireless camera provided for the front right side provided on the front right side, and a wireless camera provided for the rear left side provided on the rear left side of the mobile vehicle. The third image and the fourth image from the wireless camera for the rear right side can be displayed in four areas divided into equal areas on one screen. In addition, the screen dividing unit includes a screen size adjusting unit, and the screen size adjusting unit, when a person is observed in any one of the first to fourth images, changes the image in which the person is observed to the image in which the person is not observed. It can be displayed by enlarging it larger than the image. For example, when a person is observed in the first image, the size of the first image may be increased by 1.5 to 2 times, and the size of the second to fourth images may be reduced by 0.3 to 0.5 times. In addition, the screen dividing unit includes a screen position adjusting unit, and the screen position adjusting unit adjusts the image in which the person is observed to the center of the screen when a person is observed in any one of the first to fourth images. It can be positioned. Therefore, the driver can continue driving while observing more closely without manually enlarging the image of the dangerous area.

경보부(240)는 인공지능 제어부(220)에 의해 사람이 검출된 경우 경고음으로 경고한다. 객체 검출부(222)에서 인공지능에 의해 영상 데이터 중에서 사람이 검출되었으면, 객체 검출부(222)의 검출 신호 전송부는 사람 검출 신호를 생성하여 경고 신호 생성부(224)로 전송한다. 경고 신호 생성부(224)는 경고음 제어 신호를 생성하여 경보부(240)에 전송한다. 경보부(240)는 경고음 제어 신호를 전송받고 경고음을 통해 사용자에게 사람이 감지되었음을 알린다. 본 발명의 본체부(200)는 내측 스피커를 더욱 포함하며, 경보부(240)는 상기 내측 스피커에 경고 신호를 전송할 수 있다. 사람이 감지된 경우 경보음 또는 경고 음성으로 복수의 무선 카메라부(100)가 설치된 전방 또는 후방에 사람이 감지되었음을 이동 차량의 운전자에게 알릴 수 있다.The alarm unit 240 warns with a warning sound when a person is detected by the artificial intelligence control unit 220. If a person is detected in the image data by artificial intelligence in the object detection unit 222, the detection signal transmission unit of the object detection unit 222 generates a person detection signal and transmits it to the warning signal generation unit 224. The warning signal generating unit 224 generates a warning sound control signal and transmits it to the warning unit 240. The alarm unit 240 receives a warning sound control signal and notifies the user through a warning sound that a person has been detected. The main body 200 of the present invention further includes an inner speaker, and the alarm unit 240 can transmit a warning signal to the inner speaker. When a person is detected, an alarm or warning sound may be used to inform the driver of the mobile vehicle that a person has been detected in the front or rear of the wireless camera unit 100 where the plurality of wireless camera units 100 are installed.

한편, 도 8(a) 및 (b)에 나타난 것처럼, 이동식 차량(500)의 복수의 무선 카메라부(100)의 측면에 복수의 외측 스피커를 구비할 수 있다. 상기 외측 스피커는 이동식 차량을 기준으로 전면 좌측(Ⅰ)에 구비된 전면좌측용 스피커(240A), 전면 우측(Ⅱ)에 구비된 전면우측용 스피커(240B), 후면 좌측(Ⅲ)에 구비된 후면좌측용 스피커(240C), 후면 우측(Ⅳ)에 구비된 후면우측용 스피커(240D)를 포함하여, 이동식 차량의 전후 및 좌우에서 경고 방송을 할 수 있다. 경보부(240)는 본체부에 구비된 내측 스피커(240C) 및 사람(300)이 촬영된 무선 카메라부(100A)에 근접한 외측 스피커(240A)에만 선택적으로 경고 신호를 송신하여 보다 효율적으로 경고를 할 수 있다. Meanwhile, as shown in FIGS. 8(a) and 8(b), a plurality of external speakers may be provided on the sides of the plurality of wireless camera units 100 of the mobile vehicle 500. The external speakers are the front left speaker (240A) provided on the front left (Ⅰ), the front right speaker (240B) provided on the front right (Ⅱ), and the rear speaker (240B) provided on the rear left (Ⅲ), based on the mobile vehicle. Including the left speaker (240C) and the rear right speaker (240D) provided on the rear right side (IV), warning broadcasts can be made from the front, rear, and left and right sides of the mobile vehicle. The warning unit 240 can warn more efficiently by selectively transmitting a warning signal only to the inner speaker 240C provided in the main body and the outer speaker 240A close to the wireless camera unit 100A where the person 300 is photographed. You can.

상기 경보부(240)는 사람이 검출된 특정 무선 카메라부의 영상으로부터 본체부(200)에 부착된 내측 스피커 및 상기 특정 무선 카메라부에 설치된 외측 스피커에만 경고 신호를 송신하는 위치 특정부를 포함할 수 있다. 상기 위치 특정부는 내부 위치 특정부 및 외부 위치 특정부를 구비할 수 있다. 본 발명에서는 복수의 무선 카메라부(100)가 설치되기 때문에 디스플레이부(230)는 다중으로 화면이 분할되게 된다. 일반적으로 4개에서 6개의 복수의 무선 카메라부(100)가 설치될 수 있고, 특정 복수의 무선 카메라부(100)에 의해 사람이 검출된 경우 사용자는 어떤 위치에 설치된 복수의 무선 카메라부(100)인지 인식하지 못할 수 있다. 본 발명에서는 내부 위치 특정부를 구비하여 본체 스피커를 통해 사람이 검출된 복수의 무선 카메라부(100) 중의 어느 무선 카메라부에 사람이 촬용되었는지의 위치를 알려주어 이동식 차량의 운전자에게 무선 카메라의 특정 위치를 선택적으로 경고 방송을 하고, 외부 위치 특정부를 구비하여 이동식 차량의 외부에 위치한 사람에게 특정 외측 스피커를 선택하여 경고 방송을 할 수 있다. The alarm unit 240 may include a location specification unit that transmits a warning signal only to the inner speaker attached to the main body 200 and the outer speaker installed in the specific wireless camera unit from the image of the specific wireless camera unit in which the person is detected. The location specification unit may include an internal location specification unit and an external location specification unit. In the present invention, since a plurality of wireless camera units 100 are installed, the display unit 230 is divided into multiple screens. In general, four to six wireless camera units 100 may be installed, and when a person is detected by a specific plurality of wireless camera units 100, the user may use the plurality of wireless camera units 100 installed at a certain location. ) may not be recognized. In the present invention, an internal location specification unit is provided to inform the driver of a mobile vehicle of the specific location of the wireless camera by informing the driver of the mobile vehicle of the location of the person in the wireless camera unit 100 among the plurality of wireless camera units 100 in which the person was detected through the main body speaker. A warning broadcast is selectively made, and an external location specification unit is provided so that a warning broadcast can be made to a person located outside the mobile vehicle by selecting a specific external speaker.

한편, 도 8(c)에 나타난 것처럼, 외부 위치 특정부는 이동식 차량을 기준으로 사람이 위치하는 방향에 따라 사람에 대한 이동식 차량의 경고 방향을 전방 우측에 차량이 있음, 전방 좌측에 차량이 있음, 후방 우측에 차량이 있음, 후방 좌측에 차량이 있음의 경고를 선택적으로 방송할 수 있다. 인공지능 제어부에서 수신된 영상 데이터를 분석하여 이동식 차량에 대하여 사람이 향하는 방향을 검출하며, 상기 검출된 방향에 따라 스피커에서 경고 방송을 진행할 수 있다. 예를 들어, 이동식 차량의 전방을 북쪽 방향, 이동식 차량의 우측 방향을 동쪽 방향, 이동식 차량의 좌측 방향을 서쪽 방향, 이동식 차량의 후방을 남쪽 방향으로 정의하고, 이동식 차량은 북쪽을 바라보고 이동식 차량의 전방 좌측에 사람이 있을 때, 사람이 북쪽을 바라보고 있는 경우(①)에 전면좌측용 스피커는 "후방 우측에 차량이 있음"의 경고 방송을 하고, 사람이 동쪽을 바라보고 있는 경우(②)에 전면좌측용 스피커는 "전방 우측에 차량이 있음"의 경고 방송을 하고, 사람이 서쪽(③)을 바라보고 있는 경우에 전면좌측용 스피커는 "후방 좌측에 차량이 있음"의 경고 방송을 하고, 사람이 남쪽을 바라보고 있는 경우(④)에 전면좌측용 스피커는 "전방 좌측에 차량이 있음"의 경고 방송을 하여, 사람의 방향에 따라 이동식 차량의 위치를 인공지능이 분석하여 알려주게 되어 사람이 효과적으로 대피를 할 수 있게 된다. Meanwhile, as shown in Figure 8 (c), the external location specification unit provides warning directions of the mobile vehicle to the person according to the direction in which the person is located relative to the mobile vehicle, such as: There is a vehicle on the right side in front, There is a vehicle on the left side in front, Warnings that there is a vehicle on the right side of the rear or that there is a vehicle on the left side of the rear can be selectively broadcast. The artificial intelligence control unit analyzes the received video data to detect the direction in which the person is heading with respect to the mobile vehicle, and a warning broadcast can be broadcast from the speaker according to the detected direction. For example, the front of the mobile vehicle is defined as north, the right side of the mobile vehicle is defined as east, the left side of the mobile vehicle is defined as west, and the rear of the mobile vehicle is defined as south, with the mobile vehicle facing north and the mobile vehicle facing north. When there is a person on the front left of the car and the person is facing north (①), the front left speaker broadcasts a warning that “there is a vehicle on the rear right”, and when the person is facing east (②) ), the front left speaker broadcasts a warning message saying "There is a vehicle on the right front," and when a person is facing west (③), the front left speaker broadcasts a warning message saying "There is a vehicle on the rear left side." And, if the person is facing south (④), the front left speaker broadcasts a warning that “there is a vehicle on the left front,” and artificial intelligence analyzes and informs the location of the mobile vehicle according to the person’s direction. This allows people to evacuate effectively.

위치 특정부에는 각각의 복수의 무선 카메라부(100)가 설치된 위치에 대한 방송 내용이 저장되어 있다. 객체 검출부(222)에서 인공지능에 의해 영상 데이터 중에서 사람이 검출되었으면, 객체 검출부(222)의 검출 신호 전송부는 사람이 검출된 복수의 무선 카메라부(100)의 정보와 사람 검출 신호를 생성하여 경고 신호 생성부(224)로 전송한다. 경고 신호 생성부(224)에서는 경고음 제어 신호와 복수의 무선 카메라부(100)의 정보를 경보부(240)의 위치 특정부로 전송하고 위치 특정부는 사람이 검출된 특정 복수의 무선 카메라부(100)의 위치와 관련된 저장된 방송 내용을 재생하여 사용자에게 알릴 수 있다. The location specification unit stores broadcast content about the location where each of the plurality of wireless camera units 100 is installed. If a person is detected in the image data by artificial intelligence in the object detection unit 222, the detection signal transmission unit of the object detection unit 222 generates information on the plurality of wireless camera units 100 in which the person was detected and a person detection signal to warn the user. It is transmitted to the signal generator 224. The warning signal generator 224 transmits the warning sound control signal and the information of the plurality of wireless camera units 100 to the location specification unit of the alarm unit 240, and the location specification unit detects a specific person in the plurality of wireless camera units 100. Stored broadcast content related to the location can be played to inform the user.

본체부(200)는 사용자의 요청에 의해 검출 대상을 사람에서 사람의 신체 부위, 이동 차량, 화재로 검출 목표를 변경할 수 있는 검출 대상 변경부를 포함한다. 사용자는 검출 대상 변경부를 통해 검출 목표를 변경할 수 있는데, 본체부(200)에 구비된 입력장치를 통해 디스플레이부(230)의 설정 화면에서 검출 대상 리스트를 확인하고, 검출 대상 리스트 중에서 원하는 검출 대상을 선택할 수 있다. 예를 들어, 검출 대상 리스트는 인공지능이 검출할 수 있는 대상으로 사람, 사람의 손, 사람의 신체 부위, 자동차, 화재 등일 수 있다. 검출 대상 리스트에 포함된 검출 대상은 인공지능 제어부(220)의 데이터 학습부(221)에서 이미 학습된 검출 대상과 일치해야 하고, 검출 대상 변경부가 검출 대상을 변경하면 객체 검출부(222)는 변경된 검출 대상에 따라 객체를 검출한다.The main body 200 includes a detection target changer that can change the detection target from a person to a human body part, a moving vehicle, or a fire at the user's request. The user can change the detection target through the detection target change unit. Check the detection target list on the settings screen of the display unit 230 through the input device provided in the main body 200 and select the desired detection target from the detection target list. You can choose. For example, the detection target list can be objects that can be detected by artificial intelligence and include people, human hands, human body parts, cars, fire, etc. The detection target included in the detection target list must match the detection target already learned by the data learning unit 221 of the artificial intelligence control unit 220, and when the detection target change unit changes the detection target, the object detection unit 222 detects the changed object. Detect objects according to the target.

이하에서는 본 발명의 일 실시예에 의한 인공지능에 의한 무선형 객체 인식 시스템(10)을 이용한 객체 인식 방법에 대해 도면을 참조하여 설명한다. 도 6은 본 발명의 일 실시예에 의한 인공지능에 의한 무선형 객체 인식 시스템(10)을 이용한 객체 인식 방법의 순서도이다. 도 6를 참조하면, 본 발명의 일 실시예에 의한 인공지능에 의한 무선형 객체 인식 시스템(10)을 이용한 객체 인식 방법은 하기 4 단계를 포함하여 구성될 수 있다.Hereinafter, an object recognition method using the artificial intelligence wireless object recognition system 10 according to an embodiment of the present invention will be described with reference to the drawings. Figure 6 is a flowchart of an object recognition method using a wireless object recognition system 10 based on artificial intelligence according to an embodiment of the present invention. Referring to FIG. 6, an object recognition method using the artificial intelligence wireless object recognition system 10 according to an embodiment of the present invention may be configured to include the following four steps.

제1 단계(S10) : 복수의 무선 카메라부(100) 및 본체부(200)가 설치되는 단계First step (S10): Step in which a plurality of wireless camera units 100 and main body units 200 are installed.

제2 단계(S20) : 복수의 무선 카메라부(100)에 의해 촬영된 영상 데이터가 무선 통신으로 본체부(200)에 전송되는 단계Second step (S20): A step in which image data captured by a plurality of wireless camera units 100 is transmitted to the main body unit 200 through wireless communication.

제3 단계(S30) : 본체부(200)의 인공지능 제어부(220)에서 수신된 영상 데이터가 분석되어 사람이 검출되는 단계Third step (S30): A step in which image data received from the artificial intelligence control unit 220 of the main body 200 is analyzed and a person is detected.

제4 단계(S40) : 사람이 검출된 경우 디스플레이부(230)에 사람이 특정 색상으로 표시되고, 동시에 경보부(240)를 통해 경고음으로 알리는 단계Fourth step (S40): When a person is detected, the person is displayed in a specific color on the display unit 230 and simultaneously notified with a warning sound through the alarm unit 240.

제1 단계(S10)는 인공지능에 의한 무선형 객체 인식 시스템(10)을 객체 인식이 필요한 곳에 설치하는 단계이다. 본 발명의 인공지능에 의한 무선형 객체 인식 시스템(10)은 산업 현장의 지게차, 이동식 차량 등에 설치되는데, 지게차, 이동식 차량의 전면, 후면에 복수의 무선 카메라부(100)를 설치하고 지게차, 이동식 차량의 계기판 근처에는 본체부(200)를 설치한다. 본 발명은 복수의 무선 카메라부(100)와 본체부(200)가 RF 통신으로 연결되기 때문에 따로 연장선을 길게 설치하는 번거로움이 없는 장점이 있다.The first step (S10) is a step of installing the wireless object recognition system 10 based on artificial intelligence in a place where object recognition is required. The wireless object recognition system 10 based on artificial intelligence of the present invention is installed on forklifts and mobile vehicles at industrial sites. A plurality of wireless camera units 100 are installed on the front and rear of the forklifts and mobile vehicles, and The main body 200 is installed near the instrument panel of the vehicle. The present invention has the advantage of eliminating the inconvenience of installing long separate extension cables because the plurality of wireless camera units 100 and the main body unit 200 are connected through RF communication.

제2 단계(S20)는 복수의 무선 카메라부(100)와 본체부(200)가 설치된 후, 복수의 무선 카메라부(100)가 작동해서 촬영된 영상 데이터가 무선 통신을 통해 본체부(200)로 전송되는 단계이다. 복수의 무선 카메라부(100)는 지게차, 이동식 차량의 전면 또는 후면에 설치되어 영상 촬영을 시작하고 촬영된 영상 데이터는 RF 통신에 의해 본체부(200)에 전송된다. 복수의 무선 카메라부(100)는 송신부(120)를 구비하고 본체부(200)는 수신부(210)를 구비하여 RF 모듈을 통해 영상 데이터는 본체부(200)로 전송된다.In the second step (S20), after the plurality of wireless camera units 100 and the main body unit 200 are installed, the plurality of wireless camera units 100 operate and the captured image data is transmitted to the main body unit 200 through wireless communication. This is the stage where it is transferred to . A plurality of wireless camera units 100 are installed on the front or rear of a forklift or mobile vehicle to start capturing images, and the captured image data is transmitted to the main body 200 through RF communication. The plurality of wireless camera units 100 are equipped with a transmitter 120, and the main body 200 is equipped with a reception unit 210, so that image data is transmitted to the main body 200 through an RF module.

제3 단계(S30)는 본체부(200)의 인공지능 제어부(220)에서 수신된 영상 데이터를 분석하여 사람을 검출하는 단계이다. 수신부(210)를 통해 수신된 영상 데이터는 데이터 학습부(221)에서 학습된 내용에 의해 객체 검출부(222)를 통해 사람을 인식하여 검출하게 된다. The third step (S30) is a step of detecting a person by analyzing image data received from the artificial intelligence control unit 220 of the main body 200. Image data received through the receiver 210 is detected by recognizing a person through the object detection unit 222 based on content learned in the data learning unit 221.

제4 단계(S40)는 객체 검출부(222)에 의해 사람이 검출된 경우 디스플레이부(230)에 검출된 사람을 특정 색상으로 표시하고, 동시에 경보부(240)를 통해 경고음으로 알리는 단계이다. 객체 검출부(222)에서 사람이 검출된 경우 검출 신호 전송부는 객체 색상 지시부(223)에 사람 검출 신호를 생성하여 전송한다. 사람 검출 신호를 수신한 객체 색상 지시부(223)는 디스플레이부(230)에 색상 제어 신호를 생성하여 전송한다. 디스플레이부(230)에는 특정 색상으로 사람이 표시되고 사용자는 사람을 다른 물체와 구분할 수 있다. 또한, 객체 검출부(222)에서 사람이 검출된 경우 검출 신호 전송부는 경고 신호 생성부(224)에 사람 검출 신호를 생성하여 전송한다. 사람 검출 신호를 수신한 경고 신호 생성부(224)는 경고음 제어 신호를 생성하여 경보부(240)에 전송한다. 경보부(240)는 디스플레이부(230)에 검출된 사람이 특정 색상으로 표시되는 것과 동시에 경보음을 울려 사용자에게 사람이 검출되었음을 경고한다. 복수의 무선 카메라부(100)에서 전송된 영상 데이터에서 사람이 검출되지 않으면 디스플레이부(230)는 특정 색상으로 더 이상 표시하지 않고 경보부(240)는 경보음의 재생을 종료한다.The fourth step (S40) is a step where, when a person is detected by the object detection unit 222, the detected person is displayed on the display unit 230 in a specific color and simultaneously notified with a warning sound through the alarm unit 240. When a person is detected in the object detection unit 222, the detection signal transmission unit generates and transmits a person detection signal to the object color indicator unit 223. The object color indicating unit 223 that receives the person detection signal generates and transmits a color control signal to the display unit 230. People are displayed in a specific color on the display unit 230, and the user can distinguish people from other objects. Additionally, when a person is detected in the object detection unit 222, the detection signal transmission unit generates and transmits a person detection signal to the warning signal generation unit 224. The warning signal generation unit 224, which receives the person detection signal, generates a warning sound control signal and transmits it to the warning unit 240. The alarm unit 240 displays the detected person in a specific color on the display unit 230 and sounds an alarm at the same time to warn the user that the person has been detected. If a person is not detected in the image data transmitted from the plurality of wireless camera units 100, the display unit 230 no longer displays in a specific color and the alarm unit 240 ends playing the alarm sound.

본 발명은 상기 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 제조될 수 있으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.The present invention is not limited to the above-mentioned embodiments, but can be manufactured in various different forms, and those skilled in the art may manufacture the present invention in other specific forms without changing the technical idea or essential features of the present invention. You will understand that it can be done. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

10 : 인공지능에 의한 무선형 객체 인식 시스템
100 : 무선 카메라부
110 : 카메라
120 : 송신부
200 : 본체부
210 : 수신부
220 : 인공지능 제어부
221 : 데이터 학습부
222 : 객체 검출부
223 : 객체 색상 지시부
224 : 경고 신호 생성부
230 : 디스플레이부
240 : 경보부
10: Wireless object recognition system using artificial intelligence
100: wireless camera unit
110: camera
120: Transmitting unit
200: main body
210: receiving unit
220: Artificial intelligence control unit
221: Data learning department
222: object detection unit
223: Object color indicator
224: Warning signal generation unit
230: display unit
240: Alarm unit

Claims (7)

사람의 인식이 필요한 곳에 설치되어 실시간으로 촬영하고 촬영된 영상 데이터를 무선 통신으로 전송하는 무선 카메라부; 및 상기 무선 카메라부에서 전송된 영상 데이터를 수신하고, 인공지능에 의해 상기 영상 데이터를 분석하여 사람을 검출하는 본체부;를 포함하며,
상기 본체부는, 상기 무선 카메라로부터 전송된 영상 데이터를 수신하는 수신부, 상기 수신부에서 수신된 영상 데이터를 인공지능에 의해 분석하여 사람을 검출하는 인공지능 제어부, 상기 인공지능 제어부에서 분석된 영상 데이터가 디스플레이되며, 상기 인공지능 제어부에 의해 사람이 검출된 경우 특정 색상으로 사람이 표시되어 디스플레이되는 디스플레이부 및 상기 인공지능 제어부에 의해 사람이 검출된 경우 경고음으로 경고하는 경보부를 포함하며,
상기 인공지능 제어부는, 인공지능이 사람을 인식할 수 있도록 데이터를 학습시키는 데이터 학습부, 상기 데이터 학습부에서 학습된 내용을 기반으로 상기 수신부에서 수신된 영상 데이터에서 인공지능이 사람을 검출하는 객체 검출부, 상기 객체 검출부가 상기 영상 데이터에서 사람을 검출한 경우 상기 디스플레이부에 상기 사람을 특정 색상으로 표시하도록 상기 디스플레이부에 색상 제어 신호를 생성하여 전송하는 객체 색상 지시부 및 상기 객체 검출부가 상기 영상 데이터에서 사람을 검출한 경우 상기 경보부에 경고음 제어 신호를 생성하여 전송하는 경고 신호 생성부를 포함하며,
상기 무선 카메라부는 촬영된 영상 데이터를 무선 통신으로 상기 본체부에 전송하는 송신부을 구비하며, 상기 송신부에서 전송된 영상 데이터를 본체부에서 R/F 통신 송수신 모듈을 사용하는 수신부에서 수신하며, 상기 수신부의 주파수 대역은 1GHz 내지 4GHz 이며,
상기 사람의 인식이 필요한 곳에 설치된 무선 카메라부는 이동식 차량을 기준으로 전면 좌측에 구비된 전면좌측용 무선 카메라, 전면 우측에 구비된 전면우측용 무선 카메라, 후면 좌측에 구비된 후면좌측용 무선 카메라, 후면 우측에 구비된 후면우측용 무선 카메라를 포함하여 이동식 차량의 전후 및 좌우의 영상을 촬영하며,
상기 디스플레이부는 상기 전면좌측용 무선 카메라의 제1 영상, 상기 전면우측용 무선 카메라의 제2 영상, 상기 후면좌측용 무선 카메라의 제3 영상, 상기 후면우측용 무선 카메라의 제4 영상을 하나의 화면에 다중으로 분할하여 디스플레이하며,
상기 본체부는 사용자의 요청에 의해 검출 대상을 사람에서 사람의 신체 부위, 이동 차량, 화재로 검출 목표를 변경하거나 추가할 수 있는 검출 대상 변경부를 더 포함하며,
상기 객체 색상 지시부는 사람 구분 색상 지시부를 구비하고, 상기 사람 구분 색상 지시부는 상기 데이터 학습부에 기저장된 사람과 기저장되지 않은 사람을 서로 다른 색으로 구분하여 상기 디스플레이부에 나타내며, 촬영된 영상에 상기 기저장된 사람이 나타나면 상기 기저장된 사람의 외곽선에 푸른색의 점선으로 처리된 영상을 나타내고, 촬영된 영상에 기저장되지 않은 사람이 나타나면 상기 기저장되지 않은 사람의 외곽선에 붉은색의 점선으로 처리된 영상을 나타내며,
상기 경고 신호 생성부는 사람 구분 경고음 생성부를 구비하고, 상기 사람 구분 경고음 생성부는 상기 데이터 학습부에 기저장된 사람과 기저장되지 않은 사람를 구분하여 경보음을 다르게 생성하며,
상기 디스플레이부는 화면 분할부를 구비하며, 상기 화면 분할부는 화면 크기 조정부를 구비하고, 상기 화면 크기 조정부는 상기 제1 영상 내지 제4 영상의 어느 하나의 영상에 사람이 관찰된 경우, 상기 사람이 관찰된 영상을 사람이 관찰되지 않은 영상보다 크게 확대하여 나타내며, 또한, 상기 화면 분할부는 화면 위치 조정부를 구비하고, 상기 화면 위치 조정부는 상기 제1 영상 내지 제4 영상의 어느 하나의 영상에 사람이 관찰된 경우, 상기 사람이 관찰된 영상은 화면의 중앙에 위치하며,
상기 본체부는 내측 스피커를 더욱 포함하며, 상기 이동식 차량의 복수의 무선 카메라부의 측면에 복수의 외측 스피커를 구비하며, 상기 복수의 외측 스피커는 이동식 차량을 기준으로 전면 좌측에 구비된 전면좌측용 스피커, 전면 우측에 구비된 전면우측용 스피커, 후면 좌측에 구비된 후면좌측용 스피커, 및 후면 우측에 구비된 후면우측용 스피커를 포함하며,
상기 경보부는 사람이 검출된 특정 무선 카메라부의 영상으로부터 상기 본체부에 부착된 상기 내측 스피커 및 상기 특정 무선 카메라부에 설치된 외측 스피커에만 경고 신호를 송신하는 위치 특정부를 포함하며, 상기 위치 특정부는 내부 위치 특정부 및 외부 위치 특정부를 구비하며, 상기 내부 위치 특정부는 복수의 무선 카메라부 중의 어느 무선 카메라부에 사람이 촬영되었는지의 위치를 이동식 차량의 운전자에게 무선 카메라의 특정 위치를 알리는 경고 방송을 하고,
상기 외부 위치 특정부는 상기 인공지능 제어부에서 수신된 영상 데이터를 분석하여 상기 이동식 차량에 대하여 사람이 향하는 방향을 검출하여 상기 이동식 차량을 기준으로 사람이 위치하는 방향에 따라 사람에 대한 이동식 차량의 경고 방향을 전방 우측에 차량이 있음, 전방 좌측에 차량이 있음, 후방 우측에 차량이 있음, 및 후방 좌측에 차량이 있음의 어느 하나의 경고를 방송하는 인공지능에 의한 무선형 객체 인식 시스템을 이용한 객체 인식 방법이며,
상기 무선 카메라부 및 본체부가 설치되는 제1 단계; 상기 무선 카메라부에 의해 촬영된 영상 데이터가 무선 통신으로 상기 본체부에 전송되는 제2 단계; 상기 본체부의 인공지능 제어부에서 수신된 영상 데이터가 분석되어 사람이 검출되는 제3 단계; 및 사람이 검출된 경우 상기 디스플레이부에 상기 사람이 특정 색상으로 표시되고, 동시에 상기 경보부를 통해 경고음으로 알리는 제4 단계;를 포함하는 인공지능에 의한 무선형 객체 인식 시스템을 이용한 객체 인식 방법.
A wireless camera unit installed in a place where human recognition is required to capture images in real time and transmit the captured image data through wireless communication; And a main body unit that receives image data transmitted from the wireless camera unit and detects a person by analyzing the image data using artificial intelligence,
The main body includes a receiver that receives image data transmitted from the wireless camera, an artificial intelligence control unit that analyzes the image data received from the receiver using artificial intelligence to detect a person, and displays the image data analyzed by the artificial intelligence control unit. It includes a display unit that displays a person in a specific color when a person is detected by the artificial intelligence control unit, and an alarm unit that warns with a warning sound when a person is detected by the artificial intelligence control unit,
The artificial intelligence control unit is a data learning unit that learns data so that artificial intelligence can recognize people, and an object that artificial intelligence detects people from the image data received from the receiving unit based on the content learned in the data learning unit. A detection unit, an object color indicating unit for generating and transmitting a color control signal to the display unit to display the person in a specific color on the display unit when the object detection unit detects a person in the image data, and the object detection unit generating the image data When a person is detected, it includes a warning signal generator that generates and transmits a warning sound control signal to the alarm unit,
The wireless camera unit includes a transmitter that transmits captured image data to the main body through wireless communication, and the image data transmitted from the transmitter is received by a receiver that uses an R/F communication transmission/reception module in the main body, and the receiver unit The frequency band is 1GHz to 4GHz,
The wireless camera unit installed in the place where human recognition is required includes a wireless camera for the front left side of the mobile vehicle, a wireless camera for the front right side provided on the front right side, a wireless camera for the rear left side provided on the rear left side, and a rear wireless camera provided for the front left side of the mobile vehicle. It captures images from the front, back, and left and right sides of the mobile vehicle, including the wireless camera for the rear right side, which is installed on the right side.
The display unit displays the first image from the wireless camera for the front left, the second image from the wireless camera for the front right, the third image from the wireless camera for the rear left, and the fourth image from the wireless camera for the rear right on one screen. It is divided into multiple parts and displayed,
The main body further includes a detection target change unit that can change or add a detection target from a person to a human body part, a moving vehicle, or a fire at the user's request,
The object color indicator includes a person classification color indicator, and the person classification color indicator divides people pre-stored in the data learning unit and people not pre-stored in the data learning unit into different colors and displays them on the display unit. When the pre-saved person appears, the outline of the pre-saved person is displayed with a blue dotted line, and when a non-pre-saved person appears in the captured image, the outline of the non-pre-saved person is shown with a red dotted line. represents an image that has been
The warning signal generator includes a person-discriminating warning sound generating unit, and the person-discriminating warning sound generating unit generates different warning sounds by distinguishing between people pre-stored in the data learning unit and people not pre-stored,
The display unit includes a screen splitter, and the screen splitter includes a screen size adjuster, and the screen size adjuster controls the screen size adjuster to detect the person when a person is observed in any one of the first to fourth images. The displayed image is enlarged and displayed larger than the image in which no person is observed, and the screen division unit includes a screen position adjustment unit, and the screen position adjustment unit allows a person to observe any one of the first to fourth images. In this case, the image in which the person is observed is located in the center of the screen,
The main body further includes an internal speaker, and is provided with a plurality of external speakers on the sides of the plurality of wireless camera units of the mobile vehicle, wherein the plurality of external speakers include a front left speaker provided on the front left side of the mobile vehicle, It includes a front right speaker provided on the front right, a rear left speaker provided on the rear left, and a rear right speaker provided on the rear right,
The warning unit includes a location specification unit that transmits a warning signal only to the inner speaker attached to the main body and the outer speaker installed in the specific wireless camera unit from the image of the specific wireless camera unit in which the person is detected, and the location specification unit determines the internal location. It has a specification unit and an external location specification unit, wherein the internal location specification unit broadcasts a warning to inform the driver of the mobile vehicle of the specific location of the wireless camera as to which wireless camera unit among the plurality of wireless camera units has captured the person,
The external location specification unit analyzes the image data received from the artificial intelligence control unit, detects the direction in which the person is facing with respect to the mobile vehicle, and warns the direction of the mobile vehicle to the person according to the direction in which the person is located with respect to the mobile vehicle. Object recognition using a wireless object recognition system based on artificial intelligence that broadcasts a warning that there is a vehicle on the front right, a vehicle on the front left, a vehicle on the rear right, and a vehicle on the rear left. It is a method,
A first step of installing the wireless camera unit and the main body unit; A second step in which image data captured by the wireless camera unit is transmitted to the main body unit through wireless communication; A third step in which image data received from the artificial intelligence control unit of the main body is analyzed and a person is detected; and a fourth step where, when a person is detected, the person is displayed in a specific color on the display unit and simultaneously notified with a warning sound through the alarm unit.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020230058615A 2023-05-04 2023-05-04 Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same KR102593769B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230058615A KR102593769B1 (en) 2023-05-04 2023-05-04 Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230058615A KR102593769B1 (en) 2023-05-04 2023-05-04 Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same

Publications (1)

Publication Number Publication Date
KR102593769B1 true KR102593769B1 (en) 2023-10-25

Family

ID=88515461

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230058615A KR102593769B1 (en) 2023-05-04 2023-05-04 Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same

Country Status (1)

Country Link
KR (1) KR102593769B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101418872B1 (en) 2012-11-09 2014-07-21 한국과학기술연구원 Wireless recognizing apparatus for location of dynamic object in real-time, and thereof method
KR101854461B1 (en) 2016-10-12 2018-05-03 전자부품연구원 Camera system and method for recognizing object thereof
KR20210066207A (en) 2019-11-28 2021-06-07 엘지전자 주식회사 Artificial intelligence apparatus and method for recognizing object
KR20220021020A (en) * 2016-06-27 2022-02-21 모빌아이 비젼 테크놀로지스 엘티디. controlling host vehicle based on detected spacing between stationary vehicles
KR102390813B1 (en) 2022-03-03 2022-04-26 주식회사 제일엔지니어링종합건축사사무소 Apparatus and method for information collection and intelligent signal control using object recognition camera
KR20220133810A (en) * 2021-03-25 2022-10-05 그라츠퍼 테크놀로지스 에이피에스 Utility Vehicle and Corresponding Apparatus, Method and Computer Program for a Utility Vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101418872B1 (en) 2012-11-09 2014-07-21 한국과학기술연구원 Wireless recognizing apparatus for location of dynamic object in real-time, and thereof method
KR20220021020A (en) * 2016-06-27 2022-02-21 모빌아이 비젼 테크놀로지스 엘티디. controlling host vehicle based on detected spacing between stationary vehicles
KR101854461B1 (en) 2016-10-12 2018-05-03 전자부품연구원 Camera system and method for recognizing object thereof
KR20210066207A (en) 2019-11-28 2021-06-07 엘지전자 주식회사 Artificial intelligence apparatus and method for recognizing object
KR20220133810A (en) * 2021-03-25 2022-10-05 그라츠퍼 테크놀로지스 에이피에스 Utility Vehicle and Corresponding Apparatus, Method and Computer Program for a Utility Vehicle
KR102390813B1 (en) 2022-03-03 2022-04-26 주식회사 제일엔지니어링종합건축사사무소 Apparatus and method for information collection and intelligent signal control using object recognition camera

Similar Documents

Publication Publication Date Title
KR101778624B1 (en) Surround camera system for autonomous driving
US6377191B1 (en) System for assisting traffic safety of vehicles
EP3239945A1 (en) Vehicle safety system
US7301465B2 (en) Drowsy driving alarm system
US9607514B2 (en) Drive assist device
US20180334099A1 (en) Vehicle environment imaging systems and methods
US20080137910A1 (en) Locating method for locating a predetermined spot on a road and a locating apparatus using the method
KR101655839B1 (en) Parking management system using fisheye lens camera and method thereof
GB2550472B (en) Adaptive display for low visibility
US9134132B2 (en) Vehicle navigation and method for inducing normal black box position in navigation system
WO2005089218A2 (en) Colorblind vehicle driving aid
KR20180131789A (en) System and method for providing forward traffic information during stop
EP3309711A1 (en) Vehicle alert apparatus and operating method thereof
JPH08223566A (en) Surrounding state recognition device for vehicle
CN104412312B (en) Communication equipment and communication means for vehicle
KR101259159B1 (en) Vehicle warning apparatus by recognizing traffic light and method thereof
JP2011100409A (en) In-vehicle electronic apparatus and program
US10261171B2 (en) Combined display of radar signal direction and strength
KR102593769B1 (en) Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same
KR20160128656A (en) System for Providing Traffic Accident Information
CN110647892A (en) Violation alarm prompting method, terminal and computer readable storage medium
JP2003058978A (en) Vehicle monitoring system
US8831878B2 (en) Ground location of work truck
JP2010212920A (en) Visible light communication device and method
US10951811B2 (en) Control device, control method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant