KR102467446B1 - Ai based collision recognition method and device - Google Patents

Ai based collision recognition method and device Download PDF

Info

Publication number
KR102467446B1
KR102467446B1 KR1020200101546A KR20200101546A KR102467446B1 KR 102467446 B1 KR102467446 B1 KR 102467446B1 KR 1020200101546 A KR1020200101546 A KR 1020200101546A KR 20200101546 A KR20200101546 A KR 20200101546A KR 102467446 B1 KR102467446 B1 KR 102467446B1
Authority
KR
South Korea
Prior art keywords
surrounding
collision
motion
artificial intelligence
movement
Prior art date
Application number
KR1020200101546A
Other languages
Korean (ko)
Other versions
KR20220021125A (en
Inventor
조용범
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020200101546A priority Critical patent/KR102467446B1/en
Publication of KR20220021125A publication Critical patent/KR20220021125A/en
Application granted granted Critical
Publication of KR102467446B1 publication Critical patent/KR102467446B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225

Abstract

인공지능 기반 객체 충돌 인지 방법에 관한 것이며, 인공지능 기반 객체 충돌 인지 방법은, 입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한3D 객체를 탐지하는 단계, 탐지된 상기 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 상기 주변 물체의 움직임을 예측하는 단계, 탐지된 상기 3D 객체를 이용하여 상기 주변 물체의 이동 속도를 계산하고, 계산된 상기 이동 속도에 기반하여 기준 물체와 상기 주변 물체 간의 충돌 시간을 산출하는 단계, 상기 주변 물체의 특성, 예측된 움직임 및 이동 속도 중 적어도 어느 하나의 정보를 고려하여 상기 주변 물체의 특성에 대응하는 충돌 한계점(threshold)에 도달했는지 여부를 판단하는 단계 및 상기 충돌 한계점(threshold)에 도달했다고 판단된 경우, 상기 동작 예측 모델에서 사용된 키-포인트에 기반하여 상기 주변 물체의 움직임을 재 예측하는 단계를 포함할 수 있다. It relates to an artificial intelligence-based object collision recognition method, which includes the steps of detecting a 3D object for a surrounding object by applying an input image to an artificial intelligence-based 3D object detection model, the detected surrounding object Predicting the movement of the surrounding object by applying an artificial intelligence-based motion prediction model, calculating the movement speed of the surrounding object using the detected 3D object, and based on the calculated movement speed, determining the movement speed of the reference object and the surrounding object. Calculating a collision time between objects, determining whether a collision threshold corresponding to the characteristics of the surrounding objects has been reached in consideration of at least one information of the characteristics of the surrounding objects, the predicted movement, and the moving speed and re-predicting the motion of the surrounding object based on the key-point used in the motion prediction model when it is determined that the collision threshold has been reached.

Description

인공지능 기반 충돌 인지 방법 및 장치{AI BASED COLLISION RECOGNITION METHOD AND DEVICE}Artificial intelligence based collision recognition method and device {AI BASED COLLISION RECOGNITION METHOD AND DEVICE}

본원은 인공지능 기반 충돌 인지 장치 및 방법에 관한 것이다.The present application relates to an artificial intelligence-based collision recognition apparatus and method.

최근 2D 물체인식기술은 충분히 발달하여 상용화되어 있지만 조금 더 높은 정확도와 다양한 응용분야로 확대하기 위해 3D 물체인식기술이 개발되고 있는 중이다. Recently, 2D object recognition technology has been sufficiently developed and commercialized, but 3D object recognition technology is being developed to expand to a little higher accuracy and various application fields.

지금 차량에서 이용되고 있는 3D 물체인식 기술은 레이다와 라이다를 사용하고 있으나 이는 카메라로 처리하는 것에 비해 비교적 높은 가격대가 요구된다. 또한, 날씨의 영향을 많이 받아 정확도가 떨어질 수 있다는 문제점이 있다. 3D object recognition technology currently used in vehicles uses radar and lidar, but this requires a relatively high price compared to processing with cameras. In addition, there is a problem that the accuracy may be reduced due to the influence of the weather.

또한, 교통사고가 가장 많이 일어나는 1위의 장소는 사거리이다. 이는 코너에서 물체가 언제 등장하고 돌발상황이 발생할지 예측할 수 없으므로 높은 사고율을 보인다. 현재는 센서 감지 교차로사고 예방시스템을 시범 설치하고 있지만 단순한 센서를 사용하고 있어 정확도가 떨어지며 오작동할 확률도 높다.In addition, the number one place where traffic accidents occur the most is the intersection. This shows a high accident rate because it is impossible to predict when an object will appear in a corner and an unexpected situation will occur. Currently, a sensor detection intersection accident prevention system is being installed on a pilot basis, but since it uses a simple sensor, its accuracy is low and the probability of malfunction is high.

본원의 배경이 되는 기술은 한국등록특허공보 제10-2101986호에 개시되어 있다.The background technology of the present application is disclosed in Korean Registered Patent Publication No. 10-2101986.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 2D 물체인식에서 발전하여 인공지능을 기반으로 물체를 3D로 인식하여 물체의 정확함 범위를 추출하여 물체의 충돌을 인지하고 방지할 수 있는 인공지능 기반 객체 충돌 인지 장치 및 방법을 제공하려는 것을 목적으로 한다.The present invention is intended to solve the problems of the prior art described above, and artificial intelligence that can recognize and prevent collisions of objects by developing from 2D object recognition and recognizing objects in 3D based on artificial intelligence to extract the accuracy range of the object An object of the present invention is to provide an apparatus and method for recognizing object collision based on the object.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 인공지능 기반 3D 물체 탐지 방법을 적용하여 충돌 상황을 실시간으로 탐지하고, 충돌 상황이 감지되는 경우 운전자 및 보행자 등의 사용자 단말에 해당 상황을 즉각적으로 알릴 수 있는 인공지능 기반 객체 충돌 인지 장치 및 방법을 제공하려는 것을 목적으로 한다.The present invention is to solve the above-mentioned problems of the prior art, by applying an artificial intelligence-based 3D object detection method to detect a collision situation in real time, and when a collision situation is detected, the situation is immediately transmitted to user terminals such as drivers and pedestrians. An object of the present invention is to provide an artificial intelligence-based object collision recognition device and method that can be informed by

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the embodiments of the present application is not limited to the technical problems described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 방법은, 입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한3D 객체를 탐지하는 단계, 탐지된 상기 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 상기 주변 물체의 움직임을 예측하는 단계, 탐지된 상기 3D 객체를 이용하여 상기 주변 물체의 이동 속도를 계산하고, 계산된 상기 이동 속도에 기반하여 기준 물체와 상기 주변 물체 간의 충돌 시간을 산출하는 단계, 상기 주변 물체의 특성, 예측된 움직임 및 이동 속도 중 적어도 어느 하나의 정보를 고려하여 상기 주변 물체의 특성에 대응하는 충돌 한계점(threshold)에 도달했는지 여부를 판단하는 단계 및 상기 충돌 한계점(threshold)에 도달했다고 판단된 경우, 상기 동작 예측 모델에서 사용된 키-포인트에 기반하여 상기 주변 물체의 움직임을 재 예측하는 단계를 포함할 수 있다. As a technical means for achieving the above technical problem, an artificial intelligence-based object collision recognition method according to an embodiment of the present invention applies an input image to an artificial intelligence-based 3D object detection model to detect a 3D object for a surrounding object. Step, predicting the motion of the surrounding object by applying the detected surrounding object to an artificial intelligence-based motion prediction model, calculating the moving speed of the surrounding object using the detected 3D object, and the calculated moving speed Calculating a collision time between a reference object and the surrounding object based on, a collision threshold corresponding to the characteristic of the surrounding object in consideration of at least one information of the characteristic of the surrounding object, the predicted movement, and the moving speed. ), and if it is determined that the collision threshold has been reached, re-predicting the motion of the surrounding object based on the key-point used in the motion prediction model. have.

또한, 인공지능 기반 객체 충돌 인지 방법은, 상기 재예측된 상기 주변 물체의 움직임에 기반하여 상기 기준 물체와 상기 주변 물체 간의 충돌이 발생될 것으로 판별된 경우 알림 정보를 제공하는 단계를 더 포함할 수 있다. The object collision recognition method based on artificial intelligence may further include providing notification information when it is determined that a collision between the reference object and the surrounding object will occur based on the re-predicted motion of the surrounding object. have.

또한, 상기 주변 물체의 움직임을 재예측하는 단계는, 상기 키-포인트를 이용하여 상기 주변 물체의 특징점을 추출하고, 상기 특징점의 이동에 기반하여, 상기 주변 물체의 움직임을 예측할 수 있다. In the re-predicting the motion of the surrounding object, feature points of the surrounding object may be extracted using the key-point, and the motion of the surrounding object may be predicted based on the movement of the feature point.

또한, 상기 3D 객체를 탐지하는 단계는, 3D object detection 기반의 심층신경망 훈련 모델인 상기 3D 객체 검출 모델에 상기 입력 영상을 적용하여 상기 입력 영상에 포함된 적어도 어느 하나의 상기 주변 물체에 대응하는 3D 객체를 탐지할 수 있다. In addition, the detecting of the 3D object may include applying the input image to the 3D object detection model, which is a deep neural network training model based on 3D object detection, to obtain a 3D image corresponding to at least one of the surrounding objects included in the input image. object can be detected.

또한, 상기 주변 물체의 움직임을 예측하는 단계는, pose-estimation 기반의 심층신경망 훈련 모델인 상기 동작 예측 모델로부터 상기 입력 영상에 포함된 상기 주변 물체의 다음 동작을 추정할 수 있다. In the step of predicting the motion of the surrounding object, the next motion of the surrounding object included in the input image may be estimated from the motion prediction model, which is a pose-estimation-based deep neural network training model.

또한, 상기 충돌 시간을 산출하는 단계는, 이전 프레임의 3D 객체 탐지 결과에 포함된 상기 3D 객체의 위치 정보 및 현재 프레임의 3D 객체 탐지 결과에 포함된 상기 3D 객체의 위치 정보에 기반하여 3D 객체의 이동 속도를 산출할 수 있다.In addition, the calculating of the collision time may include determining the location of the 3D object based on the location information of the 3D object included in the 3D object detection result of the previous frame and the location information of the 3D object included in the 3D object detection result of the current frame. Movement speed can be calculated.

본원의 일 실시예에 따르면, 인공지능 기반 객체 충돌 인지 장치는, 입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한3D 객체를 탐지하는 3D 객체 탐지부, 탐지된 상기 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 상기 주변 물체의 움직임을 예측하는 예측부, 탐지된 상기 3D 객체를 이용하여 상기 주변 물체의 이동 속도를 계산하고, 계산된 상기 이동 속도에 기반하여 기준 물체와 상기 주변 물체 간의 충돌 시간을 산출하는 산출부 및 상기 주변 물체의 특성, 예측된 움직임 및 이동 속도 중 적어도 어느 하나의 정보에 기초하여 상기 주변 물체의 특성에 대응하는 충돌 한계점(threshold)에 도달했는지 여부를 판단하는 판단부를 포함하되, 상기 예측부는, 기 판단부에서 충돌 한계점(threshold)에 도달했다고 판단된 경우, 상기 동작 예측 모델에서 사용된 키-포인트에 기반하여 상기 주변 물체의 움직임을 재예측할 수 있다. According to an embodiment of the present invention, an artificial intelligence-based object collision recognition apparatus includes a 3D object detection unit that detects a 3D object of a surrounding object by applying an input image to an artificial intelligence-based 3D object detection model, and detects the detected surrounding object. A prediction unit for predicting the motion of the surrounding object by applying an artificial intelligence-based motion prediction model, calculating the movement speed of the surrounding object using the detected 3D object, and based on the calculated movement speed, the reference object and the Whether a collision threshold corresponding to the characteristics of the surrounding objects has been reached based on at least one information of a calculation unit for calculating the collision time between the surrounding objects and the characteristics of the surrounding objects, the predicted movement, and the moving speed. A determination unit for determining, wherein the prediction unit may re-predict the motion of the surrounding object based on a key-point used in the motion prediction model when the determination unit determines that a collision threshold has been reached. .

또한, 인공지능 기반 객체 충돌 인지 장치는, 상기 재예측된 상기 주변 물체의 움직임에 기반하여 상기 기준 물체와 상기 주변 물체 간의 충돌이 발생될 것으로 판별된 경우 알림 정보를 제공하는 알림 제공부를 더 포함할 수 있다. In addition, the artificial intelligence-based object collision recognition apparatus may further include a notification providing unit providing notification information when it is determined that a collision between the reference object and the surrounding object will occur based on the re-predicted motion of the surrounding object. can

본원의 일 실시예에 따르면, 인공지능 기반 충돌 인지 시스템은, 소정의 감시 대상 공간을 촬영하여 입력 영상을 생성하는 카메라 모듈 및 상기 입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한 3D 객체를 탐지하고, 탐지된 상기 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 주변 물체의 움직임을 예측하고, 기준 물체와 상기 주변 물체 간의 충돌 시간을 산출하고, 상기 주변 물체의 특성에 대응하는 충돌 한계점 도달 여부 판단 결과에 기반하여 상기 주변 물체의 움직임을 재예측하는 충돌 인지 장치를 포함하되, 상기 충돌 인지 장치는, 상기 카메라 모듈에 의해 촬영된 입력 영상을 수신하는 영상 수신부, 입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한3D 객체를 탐지하는 3D 객체 탐지부, 탐지된 상기 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 상기 주변 물체의 움직임을 예측하는 예측부, 탐지된 상기 3D 객체를 이용하여 상기 주변 물체의 이동 속도를 계산하고, 계산된 상기 이동 속도에 기반하여 기준 물체와 상기 주변 물체 간의 충돌 시간을 산출하는 산출부 및 상기 주변 물체의 특성, 예측된 움직임 및 이동 속도 중 적어도 어느 하나의 정보에 기초하여 상기 주변 물체의 특성에 대응하는 충돌 한계점(threshold)에 도달했는지 여부를 판단하는 판단부를 포함하고, 상기 예측부는, 상기 판단부에서 충돌 한계점(threshold)에 도달했다고 판단된 경우, 상기 동작 예측 모델에서 사용된 키-포인트에 기반하여 상기 주변 물체의 움직임을 재예측할 수 있다. According to an embodiment of the present invention, an artificial intelligence-based collision recognition system generates an input image by photographing a predetermined surveillance target space, and applies the input image to an artificial intelligence-based 3D object detection model to obtain information about surrounding objects. Detecting a 3D object, predicting the motion of a surrounding object by applying the detected surrounding object to an artificial intelligence-based motion prediction model, calculating a collision time between a reference object and the surrounding object, and corresponding to the characteristics of the surrounding object A collision recognition device for re-predicting the motion of the surrounding object based on a result of determining whether a collision threshold has been reached, wherein the collision recognition device includes: an image receiving unit for receiving an input image captured by the camera module; A 3D object detection unit for detecting a 3D object of a surrounding object by applying an intelligence-based 3D object detection model, a prediction unit for predicting the motion of the surrounding object by applying the detected surrounding object to an artificial intelligence-based motion prediction model, detection A calculation unit for calculating a moving speed of the surrounding object using the 3D object and calculating a collision time between a reference object and the surrounding object based on the calculated moving speed, and characteristics of the surrounding object, predicted motion, and and a determination unit for determining whether a collision threshold corresponding to a characteristic of the surrounding object has been reached based on at least one piece of information among movement speeds, wherein the estimation unit determines whether the collision threshold is reached in the determination unit. When it is determined that the motion has been reached, the motion of the surrounding object may be re-predicted based on the key-point used in the motion prediction model.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as intended to limit the present disclosure. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 자율주행 분야에서 운전자가 주행하고 있을 때 주위에 있는 물체가 위치 및 방향(X, Y, Z)을 기반으로 3D로 인식됨으로써, 객체가 나타나거나 거리가 가까워졌을 경우보다 빠르게 정확하게 경고를 주어 충돌을 방지할 수 있다. According to the above-described problem solving means of the present application, when a driver is driving in the field of autonomous driving, surrounding objects are recognized as 3D based on the position and direction (X, Y, Z), so that the object appears or the distance is close A collision can be prevented by giving a warning faster and more accurately than in the case of a loss.

전술한 본원의 과제 해결 수단에 의하면, 로봇을 사용하는 분야, 영상처리 분야, 교통 분야 등 광범위한 분야에 적용 가능하며, 인공지능 기반 3D 물체 탐지 기법을 적용함으로써 보다 높은 정확도로 일을 수행할 수 있다. According to the above-mentioned problem solving means of the present application, it can be applied to a wide range of fields such as the field of using robots, the field of image processing, the field of transportation, etc., and can perform work with higher accuracy by applying artificial intelligence-based 3D object detection technique .

전술한 본원의 과제 해결 수단에 의하면, 일반적인 교통상황에서뿐만 아니라 생활도로에서 불법 주차된 차량이 갑자기 나오는 상황, 좁은 주차장에서 발생할 수 있는 돌발상황, 공장에서의 기계차 운전 등의 분야에 사용하여 사고율을 낮출 수 있다. According to the above-described problem solving means of the present application, it is used not only in general traffic situations but also in areas such as situations in which illegally parked vehicles suddenly appear on living roads, unexpected situations that may occur in narrow parking lots, and driving mechanical vehicles in factories to reduce accident rates. can be lowered

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the effects described above, and other effects may exist.

도 1은 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 시스템의 개략적인 구성도이다.
도 2는 본원의 다른 일 실시예에 따른 인공지능 기반 객체 충돌 인지 시스템의 개략적인 구성도이다.
도 3은 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 장치의 3D 물체인식 적용 모습을 개략적으로 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 장치의 인공지능 기반 동작 예측 모델에 적용하여 주변 물체 중 사람의 움직임을 예측하는 것을 설명하기 위한 도면이다.
도 5는 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 장치의 개략적인 블록도이다.
도 6은 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 방법에 대한 동작 흐름도이다.
1 is a schematic configuration diagram of an artificial intelligence-based object collision recognition system according to an embodiment of the present invention.
2 is a schematic configuration diagram of an object collision recognition system based on artificial intelligence according to another embodiment of the present invention.
3 is a diagram schematically showing an application of 3D object recognition of an artificial intelligence-based object collision recognition apparatus according to an embodiment of the present disclosure.
4 is a diagram for explaining the prediction of a motion of a person among surrounding objects by applying an artificial intelligence-based motion prediction model of an apparatus for recognizing object collision based on artificial intelligence according to an embodiment of the present disclosure.
5 is a schematic block diagram of an object collision recognition apparatus based on artificial intelligence according to an embodiment of the present disclosure.
6 is an operation flowchart of an object collision recognition method based on artificial intelligence according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail so that those skilled in the art can easily practice with reference to the accompanying drawings. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. And in order to clearly describe the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout the present specification, when a part is said to be “connected” to another part, it is not only “directly connected”, but also “electrically connected” or “indirectly connected” with another element in between. "Including cases where

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the present specification, when a member is referred to as being “on,” “above,” “on top of,” “below,” “below,” or “below” another member, this means that a member is located in relation to another member. This includes not only the case of contact but also the case of another member between the two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the present specification, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated.

도 1은 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 시스템의 개략적인 구성도이고, 도 2는 본원의 다른 일 실시예에 따른 인공지능 기반 객체 충돌 인지 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of an object collision recognition system based on artificial intelligence according to an embodiment of the present invention, and FIG. 2 is a schematic configuration diagram of an object collision recognition system based on artificial intelligence according to another embodiment of the present disclosure.

도 1 및 도 2를 참조하면, 인공지능 기반 객체 충돌 인지 시스템(1)은 충돌 인지 장치(10), 카메라 모듈(20) 및 사용자 단말(30)을 포함할 수 있다. 충돌 인지 장치(10), 카메라 모듈(20) 및 사용자 단말(30)은 네트워크를 통해 연동될 수 있다. Referring to FIGS. 1 and 2 , the AI-based object collision recognition system 1 may include a collision recognition device 10 , a camera module 20 and a user terminal 30 . The collision perception device 10, the camera module 20, and the user terminal 30 may interwork through a network.

본원의 일 실시예에 따르면, 인공지능 기반 객체 충돌 인지 시스템(1)은 AI 기반 3D물체 탐지방법을 사용하여, 충돌 발생을 탐지 및 발생 가능성을 인지할 수 있다. 또한, 인공지능 기반 객체 충돌 인지 시스템(1)은 3D 물체인식은 2D 물체 인식에 비해 물체의 정확한 범위를 추출할 수 있다. 인공지능 기반 객체 충돌 인지 시스템(1)은 이러한 3D 물체인식 기술의 특징을 이용하여 물체와 물체의 정확한 거리, 가속도를 통해 충돌 인지 또한 key-point 추출기술을 통해 각 key-point 상대위치 변화를 한번 더 분석하여 보다 정확한 물체간의 충돌 방지를 예측할 수 있다. According to an embodiment of the present application, the artificial intelligence-based object collision recognition system 1 may detect collision occurrence and recognize the possibility of occurrence using an AI-based 3D object detection method. In addition, the artificial intelligence-based object collision recognition system 1 can extract an accurate range of an object in 3D object recognition compared to 2D object recognition. The artificial intelligence-based object collision recognition system (1) uses the characteristics of 3D object recognition technology to recognize collisions through accurate distance and acceleration between objects, and also to detect changes in the relative position of each key-point once through key-point extraction technology. Further analysis can predict collision avoidance between objects more accurately.

본원의 일 실시예에 따르면, 충돌 인지 장치(10)는 카메라 모듈(20)로부터 제공받은 입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한 3D 객체를 탐지할 수 있다. 달리 말해, 충돌 인지 장치(10)는 입력 영상에 포함된 주변 물체를 검출하기 위해 인공지능 기반 3D 객체 검출 모델을 통해 주변 물체에 대한 3D 객체를 탐지할 수 있다. 입력 영상은 실시간으로 입력되는 비디오 시퀀스를 포함할 수 있다. 충돌 인지 장치(10)는 바운딩 박스(bounding box) 또는 임의의 형태(컨투어)로 표시되는 객체 영역을 이용하여 3D 객체 정보를 탐지(추출)할 수 있다. 일예로, 주변 물체는 기준 물체의 소정으로부터 떨어진 영역에 위치하고, 기준 물체와 충돌할 수 있는 물체일 수 있다.According to an embodiment of the present disclosure, the collision perception apparatus 10 may detect a 3D object of a surrounding object by applying an input image provided from the camera module 20 to an artificial intelligence-based 3D object detection model. In other words, the collision perception apparatus 10 may detect a 3D object of the surrounding object through an artificial intelligence-based 3D object detection model in order to detect the surrounding object included in the input image. The input image may include a video sequence input in real time. The collision perception apparatus 10 may detect (extract) 3D object information using a bounding box or an object area displayed in an arbitrary shape (contour). For example, the surrounding object may be an object that is located in a region away from a predetermined reference object and may collide with the reference object.

도 1에 도시된 카메라 모듈(20)은 자동차(2)에 구비된 차량용 블랙박스일 수 있다. 또한, 카메라 모듈(20)은 자동차(2)의 루프(roof, 지붕)에 구비된 촬영 장치일 수 있다. 충돌 인지 장치(10)는 차량용 블랙박스 또는 촬영 장치로부터 촬영된 입력 영상을 제공받아 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한 3D 객체를 탐지할 수 있다. 일예로, 입력 영상은 현재 주행중인 자동차(2)의 전방, 후방, 좌측, 우측 영역이 촬영된 영상일 수 있다. 또한, 충돌 인지 장치(10)는 도로 및 인도에 구비된 CCTV 촬영 장치로부터 현재 주행중인 자동차(2)를 중심으로 촬영된 입력 영상을 제공받을 수 있다. 일예로, 입력 영상은 현재 주행중인 자동차(2)를 중심으로 소정의 감시 대상 공간을 촬영한 영상일 수 있다. 한편, 주변 물체는 현재 주행 중인 차량의 전방, 후방, 좌측, 우측에 위치하고 있는 차량, 자전거, 오토바이, 보행자, 동물 등을 포함할 수 있다.The camera module 20 shown in FIG. 1 may be a vehicle black box provided in the vehicle 2 . Also, the camera module 20 may be a photographing device provided on a roof of the vehicle 2 . The collision perception device 10 may receive an input image captured from a vehicle black box or a photographing device and apply it to an artificial intelligence-based 3D object detection model to detect a 3D object for a surrounding object. For example, the input image may be an image of the front, rear, left, and right regions of the vehicle 2 currently driving. In addition, the collision perception device 10 may receive an input image centered on the currently running vehicle 2 from a CCTV recording device installed on a road or sidewalk. As an example, the input image may be an image obtained by capturing a predetermined space to be monitored centered on the currently running vehicle 2 . Meanwhile, the surrounding object may include a vehicle, a bicycle, a motorcycle, a pedestrian, an animal, and the like located in front, rear, left, or right of the currently driving vehicle.

도 2에 도시된 카메라 모듈(20)은 로봇을 사용하여 작업이 수행되는 공간(예를 들어, 공장)에 구비된 CCTV 촬영 장치일 수 있다. 충돌 인지 장치(10)는 CCTV 촬영 장치로부터 촬영된 입력 영상을 제공받아 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한 3D 객체를 탐지할 수 있다. 일예로, 입력 영상은 기준 물체(예를 들어, 로봇)를 중심으로 소정의 감시 대상 공간을 촬영한 영상일 수 있다. 또한, 주변 물체는 로봇의 전방, 후방, 좌측, 우측에 위치하고 있는 작업자, 무인 로봇, 이동 로봇 등을 포함할 수 있다.The camera module 20 shown in FIG. 2 may be a CCTV recording device provided in a space (eg, a factory) where work is performed using a robot. The collision perception device 10 may detect a 3D object of a surrounding object by receiving an input image captured from a CCTV camera and applying it to an artificial intelligence-based 3D object detection model. As an example, the input image may be an image obtained by capturing a predetermined surveillance target space centered on a reference object (eg, a robot). In addition, the surrounding objects may include workers, unmanned robots, mobile robots, and the like located in front, rear, left, and right sides of the robot.

도 1 및 도 2에 도시된 인공지능 기반 충돌 인지 시스템에서 카메라 모듈(20)로부터 제공받은 입력 영상으로부터 충돌 상황을 인지하는 과정은 실질적으로 유사하게 수행되므로, 이하에서는, 설명의 편의를 위하여 도 1에 도시된 카메라 모듈(20)인 자동차(2)에 구비된 차량용 블랙박스 또는 자동차(2)의 루프에 구비된 촬영 장치로부터 수집된 입력 영상을 기반으로 충돌 상황을 인지하는 과정에 대해 설명하도록 한다.Since the process of recognizing a collision situation from the input image provided from the camera module 20 in the artificial intelligence-based collision perception system shown in FIGS. 1 and 2 is performed substantially similarly, hereinafter, for convenience of description, FIG. A process of recognizing a collision situation based on an input image collected from a vehicle black box provided in the car 2, which is the camera module 20 shown in, or a photographing device installed on the roof of the car 2, will be described. .

도 3은 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 장치의 3D 물체인식 적용 모습을 개략적으로 나타낸 도면이다.3 is a diagram schematically showing an application of 3D object recognition of an artificial intelligence-based object collision recognition apparatus according to an embodiment of the present disclosure.

본원의 일 실시예에 따르면, 충돌 인지 장치(10)는 3D object detection 기법이 적용된 심층신경망 훈련을 통해 구축된 3D 객체 검출 모델을 이용하여 주변 물체에 대한 3D 객체를 탐지할 수 있다. 3D object detection 기법은 영상에서 사람, 차량 등과 같이 특정한 물체를 검출하는 알고리즘이다. 예시적으로, 충돌 인지 장치(10)는 입력 영상에 포함된 복수의 프레임별로 물체(객체)를 검출하여 객체 정보를 추출할 수 있다. 또한, 충돌 인지 장치(10)는 입력 영상에 포함된 하나 이상의 물체(객체)를 검출하여 객체 정보를 추출할 수 있다. 예시적으로, 충돌 인지 장치(10)는 바운딩 박스(bounding box) 또는 임의의 형태(컨투어)로 표시되는 물체(객체) 영역을 이용하여 물체(객체) 정보를 추출할 수 있다. 또한, 충돌 인지 장치(10)는 복수의 입력 영상을 3D 객체 검출 모델에 입력하여 주변 물체에 대한 3D 객체를 탐지할 수 있다. 충돌 인지 장치(10)는 객체를 인식하고, 해당 객체에 바운딩 박스 또는 임의의 형태로 객체 영역을 표시할 수 있다.According to an embodiment of the present disclosure, the collision perception apparatus 10 may detect a 3D object of a surrounding object using a 3D object detection model built through deep neural network training to which a 3D object detection technique is applied. The 3D object detection technique is an algorithm that detects a specific object such as a person or a vehicle in an image. Illustratively, the collision perception apparatus 10 may extract object information by detecting an object for each of a plurality of frames included in the input image. Also, the collision perception apparatus 10 may extract object information by detecting one or more objects (objects) included in the input image. For example, the collision perception apparatus 10 may extract object (object) information using an object (object) area displayed in a bounding box or an arbitrary shape (contour). Also, the collision perception apparatus 10 may detect a 3D object with respect to a surrounding object by inputting a plurality of input images to a 3D object detection model. The collision perception apparatus 10 may recognize an object and display an object area in a bounding box or an arbitrary shape on the object.

도 3을 참조하면, 충돌 인지 장치(10)는 탐지된 주변 물체에 대하여 바운딩 박스(bounding box)의 형태로 주변 물체를 추출할 수 있다. 바운딩 박스는 객체의 경계를 직육면체 또는 정육면체 형상으로 3차원 정의한 것일 수 있다. 한편, 임의의 형태(컨투어)는 기 알려져 있거나 향후 개발될 다양한 기법에 의해 객체에 대응하는 형태로 설정될 수 있다. Referring to FIG. 3 , the collision detection apparatus 10 may extract a surrounding object in the form of a bounding box with respect to the detected surrounding object. The bounding box may be a 3D definition of the boundary of an object in the shape of a rectangular parallelepiped or regular hexahedron. Meanwhile, an arbitrary shape (contour) may be set as a shape corresponding to an object by various techniques that are already known or will be developed in the future.

충돌 인지 장치(10)는 주변 물체(예를 들어, 자동차, 보행자, 자전거, 오토바이 등)에 대한 3D 객체를 바운딩 박스 형태로 표시할 수 있다. 예를 들어, 충돌 인지 장치(10)는 도 3에 도시된 바와 같이 하나의 영상(비디오) 프레임에서 제1주변 물체(a), 제2주변 물체(b), 제3주변 물체(c), 제4 주변 물체(d) 각각에 대해 바운딩 박스 형태로 객체 영역을 구분하여 표시할 수 있다. 또한, 충돌 인지 장치(10)는 미리 구분된 주변 물체에 대해 바운딩 박스의 표시 색을 달리할 수 있다. 예를 들어, 주변 물체가 제1주변 물체(a), 제2주변 물체(b), 제3주변 물체(c)와 같이 차량인 경우 제1색(예를 들어, 노란색)의 바운딩 박스를 이용하여 객체를 표시할 수 있다. 반면, 주변 물체가 제4 주변 물체(d)와 같이 사람(보행자)인 경우 제2색(예를 들어, 녹색)의 바운딩 박스를 이용하여 객체를 표시할 수 있다.The collision perception apparatus 10 may display 3D objects for surrounding objects (eg, cars, pedestrians, bicycles, motorcycles, etc.) in the form of a bounding box. For example, as shown in FIG. 3 , the collision perception apparatus 10 detects a first surrounding object (a), a second surrounding object (b), a third surrounding object (c), and a second surrounding object (c) in one image (video) frame. For each of the fourth surrounding objects d, the object area may be divided and displayed in the form of a bounding box. Also, the collision perception apparatus 10 may change the display color of the bounding box for the pre-classified surrounding objects. For example, if the surrounding object is a vehicle such as the first surrounding object (a), the second surrounding object (b), and the third surrounding object (c), a bounding box of a first color (eg, yellow) is used. to display the object. On the other hand, if the surrounding object is a person (pedestrian) like the fourth surrounding object d, the object may be displayed using a bounding box of a second color (eg, green).

또한, 충돌 인지 장치(10)는 입력 영상에 포함된 매 프레임별로 객체를 검출하여 3D 객체 정보를 추출할 수 있다. 여기서 객체는 주변 물체에 해당하는 것으로서 사람, 자동차, 오토바이, 자전거 등을 포함할 수 있다. 충돌 인지 장치(10)는 하나의 비디오 프레임 내에 포함된 복수의 객체 위치 및 크기를 계산할 수 있다. 또한, 충돌 인지 장치(10)는 입력 영상에서 영상(비디오) 프레임별 속성(예를 들어, 객체의 종류, 위치, 방향, 속도 등)을 3D 객체 정보(3D 객체 탐지 결과)로 추출할 수 있다. Also, the collision perception apparatus 10 may extract 3D object information by detecting an object for each frame included in the input image. Here, the object corresponds to a surrounding object and may include a person, a car, a motorcycle, a bicycle, and the like. The collision perception apparatus 10 may calculate the positions and sizes of a plurality of objects included in one video frame. In addition, the collision perception apparatus 10 may extract attributes (eg, object type, position, direction, speed, etc.) of each image (video) frame from the input image as 3D object information (3D object detection result). .

본원의 일 실시예에 따르면, 충돌 인지 장치(10)는 탐지된 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 주변 물체의 움직임을 예측할 수 있다. 충돌 인지 장치(10)는 pose-estimation 기반의 심층신경망 훈련 모델인 동작 예측 모델에 입력 영상을 적용하여 주변 물체의 다음 동작을 추정할 수 있다. 달리 말해, 충돌 인지 장치(10)는 탐지된 물체에 pose-estimation 기법을 적용하여 심층신경망 훈련을 실시하여 다음 동작을 예측할 수 있다. 예를 들어, 충돌 인지 장치(10)는 탐지된 제4 주변 물체(d, 보행자)를 인공지능 기반 동작 예측 모델에 적용하여 다음 동작을 추정할 수 있다. 추정된 다음 동작은 움직이는 방향, 속도 등을 포함할 수 있다. According to an embodiment of the present disclosure, the collision perception apparatus 10 may predict the movement of the surrounding object by applying the detected surrounding object to an artificial intelligence-based motion prediction model. The collision perception apparatus 10 may estimate the next motion of a nearby object by applying an input image to a motion prediction model, which is a pose-estimation-based deep neural network training model. In other words, the collision perception apparatus 10 may predict the next motion by performing deep neural network training by applying the pose-estimation technique to the detected object. For example, the collision perception apparatus 10 may estimate the next motion by applying the detected fourth surrounding object d (pedestrian) to an artificial intelligence-based motion prediction model. The estimated next motion may include moving direction, speed, and the like.

자세 추정(pose-estimation)은 신체의 주요 연결 부위(관절)를 Key-point 검출하고 이들을 연결해 pose를 detecting 하는 방식이다. 본원에서는 주변 물체의 움직임을 예측하기 위해 영상에서 객체를 검출(Detection)하고, 바운딩 박스(Bounding Box) 내부에서 추정하는 Top-down 방식이 적용될 수 있다. Posture estimation (pose-estimation) is a method of detecting the pose by detecting key-points of the main connection parts (joints) of the body and connecting them. In the present application, a top-down method of detecting an object in an image and estimating it inside a bounding box may be applied to predict the motion of a surrounding object.

본원의 다른 일 실시예에 따르면, 충돌 인지 장치(10)는 이전 프레임의 3D 객체 탐지 결과에 포함된 3D 객체의 특성 및 현재 프레임의 3D 객체 탐지 결과에 포함된 3D 객체의 특성 정보에 기반하여 해당 3D 객체가 동일한 객체인지를 판단하고, 해당 객체(물체)의 움직임을 예측할 수 있다. 달리 말해, 충돌 인지 장치(10)는 이전 프레임에 포함된 제1주변 물체(a)와 현재 프레임에 포함된 제1주변 물체(a)가 동일한 제1주변 물체(a)인지를 판단하고, 제1주변 물체(a)가 현재에도 이전과 동일한 방향으로 움직이고 있는지, 동일한 속도로 주행중인지와 관련된 주변 물체의 움직임을 예측할 수 있다.According to another embodiment of the present invention, the collision recognition apparatus 10 determines the corresponding 3D object based on the characteristic information of the 3D object included in the 3D object detection result of the previous frame and the 3D object characteristic information included in the 3D object detection result of the current frame. It is possible to determine whether the 3D objects are the same object, and to predict the movement of the corresponding object (object). In other words, the collision perception apparatus 10 determines whether the first surrounding object a included in the previous frame and the first surrounding object a included in the current frame are the same first surrounding object a, and 1 It is possible to predict the movement of the surrounding object (a) related to whether it is currently moving in the same direction as before or traveling at the same speed.

본원의 일 실시예에 따르면, 충돌 인지 장치(10)는 탐지된 3D 객체를 이용하여 주변 물체의 이동 속도를 계산할 수 있다. 또한, 충돌 인지 장치(10)는 이전 프레임의 3D 객체 탐지 결과에 포함된 3D 객체의 위치 정보 및 현재 프레임의 3D 객체 탐지 결과에 포함된 3D 객체의 위치 정보에 기반하여 3D 객체의 이동 속도를 산출할 수 있다. 충돌 인지 장치(10)는 이전 프레임의 3D 객체의 위치 정보와 현재 프레임의 3D 객체의 위치 정보 변화에 기반하여 3D 객체의 이동 속도를 산출할 수 있다. According to an embodiment of the present disclosure, the collision perception apparatus 10 may calculate a movement speed of a surrounding object using the detected 3D object. In addition, the collision recognition apparatus 10 calculates the moving speed of the 3D object based on the location information of the 3D object included in the 3D object detection result of the previous frame and the location information of the 3D object included in the 3D object detection result of the current frame can do. The collision perception apparatus 10 may calculate the moving speed of the 3D object based on the change in the location information of the 3D object in the previous frame and the location information of the 3D object in the current frame.

예시적으로, 충돌 인지 장치(10)는 탐지된 3D 객체 정보를 기초로, 객체마다 출현 시간 구간 및 출현 시간 구간 내 프레임별 속성을 포함하는 하나 이상의 객체 트랙 정보를 추출할 수 있다. 이때, 출현 시간 구간은 출현 시점과 체류 시간을 더한 구간일 수 있다. 객체 트랙 정보는 시작 프레임 번호, 끝 프레임 번호, 트랙 내 프레임별 객체 영역 표시 정보를 포함할 수 있다. 객체 영역 표시 정보의 기준은 왼쪽 상단 꼭짓점 또는 무게 중심을 포함할 수 있다. 예시적으로, 충돌 인지 장치(10)는 검출된 객체에 대해서 추적이 이루어지며, 추적된 객체와 연계하여 객체 트랙 정보를 저장할 수 있다. 달리 말해, 충돌 인지 장치(10)는 검출된 객체의 출현 시간, 비디오 프레임 내 체류 시간, 체류 시간 내 비디오 프레임별 속성(예를 들어, 위치, 이동 속도, 색상, 텍스처 등)을 객체 트랙 정보로 저장(기록)할 수 있다. 또한, 충돌 인지 장치(10)는 검출된 각 객체의 위치와 크기 및 픽셀 데이터를 활용하여 추적이 이루어진 객체의 ID, 이동 속도, 이동 방향을 계산할 수 있으나, 이에 한정되는 것은 아니다. For example, based on the detected 3D object information, the collision perception apparatus 10 may extract one or more pieces of object track information including an appearance time interval for each object and a frame-by-frame attribute within the appearance time interval. In this case, the appearance time section may be a section obtained by adding the appearance time and the stay time. The object track information may include a start frame number, an end frame number, and object region display information for each frame within a track. A criterion for object area display information may include a top left vertex or a center of gravity. For example, the collision perception apparatus 10 may track the detected object and store object track information in association with the tracked object. In other words, the collision perception device 10 converts the appearance time of the detected object, the dwell time within the video frame, and the attributes (eg, position, movement speed, color, texture, etc.) of each video frame within the stay time into object track information. can be stored (recorded). In addition, the collision perception apparatus 10 may calculate the ID, movement speed, and movement direction of the tracked object using the position, size, and pixel data of each detected object, but is not limited thereto.

또한, 충돌 인지 장치(10)는 계산된 이동 속도에 기반하여 기준 물체와 주변 물체 간의 충돌 시간을 산출할 수 있다. 충돌 인지 장치(10)는 계산된 주변 물체의 현재 이동 속도에 기반하여 기준 물체와 주변 물체 간의 충돌 시간을 산출할 수 있다. 또한, 충돌 인지 장치(10)는 기준 물체의 현재 이동 속도를 획득할 수 있다. 충돌 인지 장치(10)는 기준 물체의 이동 속도 및 주변 물체의 이동 속도를 고려하여 기준 물체와 주변 물체간의 충돌이 발생할 시간을 산출할 수 있다. Also, the collision detection apparatus 10 may calculate a collision time between the reference object and the surrounding object based on the calculated movement speed. The collision perception apparatus 10 may calculate a collision time between the reference object and the surrounding object based on the calculated current moving speed of the surrounding object. Also, the collision perception apparatus 10 may acquire the current moving speed of the reference object. The collision detection apparatus 10 may calculate a time when a collision occurs between the reference object and the surrounding objects in consideration of the moving speed of the reference object and the moving speed of the surrounding objects.

본원의 일 실시예에 따르면, 충돌 인지 장치(10)는 주변 물체의 특성, 예측된 움직임 및 이동 속도 중 적어도 어느 하나의 정보에 기초하여 주변 물체의 특성에 대응하는 충돌 한계점(threshold)에 도달했는지 여부를 판단할 수 있다. 충돌 인지 장치(10)는 복수개의 주변 물체가 탐지되는 경우 각각의 주변 물체의 특성에 대응하는 충돌 한계점 도달 여부를 판단할 수 있다. 예를 들어, 충돌 인지 장치(10)는 제1주변 물체(a), 제2주변 물체(b), 제3주변 물체(c) 및 제4주변 물체(d) 각각에 대한 충돌 한계점 도달 여부를 판단할 수 있다.According to an embodiment of the present invention, the collision perception apparatus 10 determines whether a collision threshold corresponding to the characteristics of the surrounding objects has been reached based on at least one information of the characteristics of the surrounding objects, the predicted movement, and the moving speed. can determine whether When a plurality of surrounding objects are detected, the collision perception apparatus 10 may determine whether a collision threshold corresponding to a characteristic of each surrounding object has been reached. For example, the collision perception apparatus 10 determines whether a collision threshold has been reached for each of the first surrounding object (a), the second surrounding object (b), the third surrounding object (c), and the fourth surrounding object (d). can judge

주변 물체의 특성은 물체의 종류, 이동 방향, 기준 물체와의 거리 등을 포함할 수 있다. 예측된 움직임은 pose-estimation 기반의 심층신경망 훈련 모델인 동작 예측 모델에 입력 영상을 적용하여 추정된 것일 수 있다. 또한, 이동 속도는 이전 프레임의 3D 객체의 위치 정보와 현재 프레임의 3D 객체의 위치 정보 변화에 기반하여 산출된 정보일 수 있다. 충돌 한계점은 주변 물체의 특성에 대응하여 각각이 다르게 설정될 수 있다. 예를 들어, 주변 물체가 차일 경우 제1충돌 한계점으로 설정될 수 있다. 또한, 보행자일 경우, 제2충돌 한계점으로 설정될 수 있다. 또한, 자전거(자전거 운전자)일 경우, 제3충돌 한계점으로 설정될 수 있다. The characteristics of the surrounding object may include a type of object, a direction of movement, a distance from a reference object, and the like. The predicted motion may be estimated by applying an input image to a motion prediction model, which is a deep neural network training model based on pose-estimation. Also, the movement speed may be information calculated based on a change in location information of the 3D object in the previous frame and location information of the 3D object in the current frame. Collision thresholds may be set differently in response to the characteristics of surrounding objects. For example, when a nearby object is a car, it may be set as the first collision threshold. In addition, in the case of a pedestrian, it may be set as the second collision threshold. Also, in the case of a bicycle (bicyclist), it may be set as a third collision threshold.

일예로, 충돌 인지 장치(10)는 기준 물체와 복수의 주변 물체 간의 충돌 시간을 5분이라고 산출할 수 있다. 이때, 제1주변 물체(자동차)에 대한 제1충돌 한계점은 예를 들어, 4분 30초일 수 있다. 또한, 제2주변 물체(보행자)에 대한 제2충돌 한계점은 예를 들어, 2분 30초일 수 있다. 또한, 제3주변 물체(자전거)에 대한 제3충돌 한계점은 예를 들어, 3분 30초일 수 있다. For example, the collision perception apparatus 10 may calculate a collision time between a reference object and a plurality of surrounding objects as 5 minutes. In this case, the first collision threshold for the first surrounding object (car) may be, for example, 4 minutes and 30 seconds. Also, the second collision threshold for the second surrounding object (pedestrian) may be, for example, 2 minutes and 30 seconds. Also, the third collision threshold for the third surrounding object (bicycle) may be, for example, 3 minutes and 30 seconds.

다른 일예로, 충돌 인지 장치(10)는 기준 물체의 현재 속도 및 방향과 주변 물체의 현재 속도 및 방향을 고려하여 현재 이동 속도를 유지할 경우 충돌 예측 지점을 설정하고, 상기 충돌 예측 지점을 기준으로 주변 물체 각각의 특성에 맞는 충돌 한계점을 설정할 수 있다. 예를 들어, 제1주변 물체가 자동차인 경우, 제1충돌 한계점으로 설정될 수 있다. 또한, 제2주변 물체가 보행자일 경우, 제2충돌 한계점으로 설정될 수 있다. 또한, 제3주변 물체가 자전거(자전거 운전자)일 경우, 제3충돌 한계점으로 설정될 수 있다. As another example, the collision perception apparatus 10 sets a collision prediction point when the current moving speed is maintained in consideration of the current speed and direction of the reference object and the current speed and direction of the surrounding objects, and sets the collision prediction point based on the collision prediction point. It is possible to set a collision threshold suitable for each object's characteristics. For example, when the first surrounding object is a car, it may be set as the first collision threshold. Also, when the second surrounding object is a pedestrian, it may be set as the second collision threshold. In addition, when the third surrounding object is a bicycle (cyclist), it may be set as a third collision threshold.

본원의 일 실시예에 따르면, 충돌 인지 장치(10)는 충돌 한계점에 도달했다고 판단된 경우, 동작 예측 모델에서 사용된 키-포인트에 기반하여 주변 물체의 움직임을 재예측할 수 있다. 충돌 인지 장치(10)는 복수의 주변 물체 각각에 대응하여 판단된 충돌 한계점 도달 여부에 기반하여, 동작 예측 모델에서 사용된 키-포인트에 기반하여 복수의 주변 물체의 움직임을 재예측할 수 있다. 달리 말해, 충돌 인지 장치(10)는 주변 물체가 충돌 한계점에 도달했음에도 불구하고 지속적으로 움직이는지 여부를 파악하기 위해, 동작 예측 모델에서 사용된 키-포인트에 기반하여 주변 물체의 움직임을 재예측할 수 있다. According to an embodiment of the present disclosure, when it is determined that the collision threshold has been reached, the collision perception apparatus 10 may re-predict the motion of the surrounding object based on the key-point used in the motion prediction model. The collision perception apparatus 10 may re-predict the motions of a plurality of surrounding objects based on key-points used in the motion prediction model, based on whether or not the collision threshold determined in correspondence with each of the plurality of surrounding objects has reached. In other words, the collision perception device 10 may re-predict the motion of the surrounding object based on the key-point used in the motion prediction model in order to determine whether the surrounding object continues to move despite reaching the collision threshold. have.

예를 들어, 충돌 인지 장치(10)는 제1주변 물체(a) 내지 제4주변 물체(b)에 대한 충돌 한계점 도달 여부의 판단 결과 중 제1주변 물체(a)가 충돌 한계점에 도달하였다고 판단된 경우, 동작 예측 모델에서 사용된 키-포인트에 기반하여 제1주변 물체(a)의 움직임을 재예측할 수 있다. For example, the collision perception apparatus 10 determines that the first surrounding object (a) has reached the collision threshold among the results of determining whether the collision threshold has been reached for the first to fourth surrounding objects (a) to (b). In this case, the motion of the first surrounding object a may be re-predicted based on the key-point used in the motion prediction model.

도 4는 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 장치의 인공지능 기반 동작 예측 모델에 적용하여 주변 물체 중 사람(보행자)의 움직임을 예측하는 것을 설명하기 위한 도면이다.4 is a diagram for explaining the prediction of motion of a person (pedestrian) among surrounding objects by applying an artificial intelligence-based motion prediction model of an apparatus for recognizing object collision based on artificial intelligence according to an embodiment of the present disclosure.

도 4를 참조하면, 하나의 주변 물체(예를 들어, 사람)에 대하여 복수의 키-포인트가 검출될 수 있으며, 충돌 인지 장치(10)는 식별된 (예를 들어, 사람)에 신체 중 주요 관절 위치에 대응되는 기 설정된 수만큼의 키-포인트를 검출할 수 있다. 본원의 일 실시예에 따르면, 충돌 인지 장치(10)는 검출된 키-포인트 각각의 좌표값을 계산할 수 있다. 예를 들어, 입력 영상의 매 프레임의 가로축 및 세로축을 기준으로 하는 2차원 좌표값이 검출된 키-포인트 각각에 대하여 계산될 수 있다. 일예로, 주요 키-포인트는 Head, Neck, Shoulder, Elbow, Wrist, Hip, Knee, Ankle 등을 포함할 수 있다. Referring to FIG. 4 , a plurality of key-points may be detected for one surrounding object (eg, a person), and the collision perception device 10 determines the key of the body to be identified (eg, a person). A preset number of key-points corresponding to joint positions may be detected. According to one embodiment of the present application, the collision perception device 10 Coordinate values of each detected key-point may be calculated. For example, 2D coordinate values based on the horizontal axis and the vertical axis of each frame of the input image may be calculated for each detected key-point. For example, the main key-points may include Head, Neck, Shoulder, Elbow, Wrist, Hip, Knee, Ankle, and the like.

본원의 일 실시예에 따르면, 주변 물체(예를 들어, 사람) 각각에 대해 검출되는 키-포인트의 수가 많을수록 해당 주변 물체의 행위나 동작을 정확하게 측정할 수 있으나, 충돌 상황 발생시 이에 대한 즉각적인 조치가 이루어져야 함을 고려하면, 충돌 상황에 대한 인식을 위한 연산은 빠른 속도로 수행되어야 한다. 따라서, 주변 물체(예를 들어, 사람) 각각에 대한 신체의 모든 위치를 고려하는 것이 아니라 본원에서는 충돌 감지를 위한 연산 속도를 고려하여 검출되는 키-포인트의 수가 24개 이하의 범위에 속하도록 할 수 있다. 다만, 이에만 한정되는 것은 아니며, 주변 물체(예를 들어, 사람)의 신체가 CCTV 영상 내에서 소정의 물체, 지형지물 등에 의해 일부 가려지는 경우 이를 고려하여 해당 주변 물체(예를 들어, 사람)에 대하여는 더 적은 수의 키-포인트만이 검출될 수 있다.According to an embodiment of the present invention, as the number of key-points detected for each of the surrounding objects (eg, people) increases, the action or motion of the surrounding objects can be accurately measured, but immediate action is required when a collision situation occurs. Considering that it must be done, the calculation for recognizing the collision situation must be performed at a high speed. Therefore, instead of considering all positions of the body for each of the surrounding objects (eg, people), the number of key-points to be detected falls within the range of 24 or less in consideration of the calculation speed for collision detection in the present application. can However, it is not limited thereto, and if the body of a surrounding object (eg, person) is partially covered by a predetermined object or feature in the CCTV image, considering this, the surrounding object (eg, person) For , only a smaller number of key-points can be detected.

특히, 본원의 일 실시예에 따르면, 충돌 인지 장치(10)는 학습 이미지로부터 소정의 관절의 위치를 추출한 제1 피처 및 추출된 관절이 어느 주변 물체(예를 들어, 사람)에 대한 것인지를 나타내는 제2피처를 획득하고, 제1피처 및 제2피처를 기 확보된 인간 자세 데이터와 비교하여 제1피처 및 상기 제2피처를 최적화하는 피드-포워드 네트워크에 기초하여 생성되는 딥러닝 기반의 키-포인트 추출 알고리즘을 기초로 하여 키-포인트를 검출하도록 구현될 수 있다. 본원의 일 실시예에 따르면, 제1피처는 Confidence Maps일 수 있고, 제2피처는 Affinity Field일 수 있다. In particular, according to an embodiment of the present application, the collision perception device 10 A first feature obtained by extracting the position of a predetermined joint from the learning image and a second feature indicating which peripheral object (eg, a person) the extracted joint corresponds to are obtained, and the first feature and the second feature are previously secured. It can be implemented to detect a key-point based on a deep learning-based key-point extraction algorithm generated based on a feed-forward network that optimizes the first feature and the second feature by comparing the obtained human posture data. . According to an embodiment of the present application, the first feature may be Confidence Maps, and the second feature may be Affinity Field.

일예로, 딥러닝 기반의 키-포인트 추출 알고리즘은 입력 컬러 이미지(예를 들어, 학습 이미지)에서 주변 물체(예를 들어, 사람)의 신체 부위 각각에 대한 2차원 Confidence maps(제1 피처)를 예측할 수 있다. 딥러닝 기반의 키-포인트 추출 알고리즘 생성을 위한 학습 초반에는 제1피처가 유의미하지 않게 추출될 수 있으나, 이를 피드-포워드 네트워크(Feed-Forward Network)에 기초하여 기 확보된 인간 자세 데이터와의 비교를 통해 최적화하게 되면, 점차 주변 물체(예를 들어, 사람)의 관절 위치에 근접한 키-포인트를 추출하게 된다. 제2 피처인 Affinity filed는 추출된 관절 위치가 누구의 관절 위치인지를 나타내는 특성(벡터 필드 세트)을 반영한 것으로, 딥러닝 기반의 키-포인트 추출 알고리즘은 새로이 인가되는 입력 이미지로부터 제1피처와 제2피처를 추출하고, 이를 조합하여 복수의 키-포인트를 포함하는 Human Skeleton을 추출할 수 있다. 특히, 주변 물체(예를 들어, 사람)의 신체를 이루는 각 부분을 조합하여 Human Skeleton을 생성하는 경우, Greedy Relaxation을 통해 각 부분이 어느 주변 물체(예를 들어, 사람)의 것인지를 판단할 수 있다.As an example, a deep learning-based key-point extraction algorithm obtains 2-dimensional confidence maps (first features) for each body part of a surrounding object (eg, a person) in an input color image (eg, a training image). Predictable. Although the first feature may be extracted insignificantly at the beginning of learning for generating a key-point extraction algorithm based on deep learning, comparison with human posture data previously obtained based on a feed-forward network When optimized through , key-points close to the joint positions of surrounding objects (eg, people) are gradually extracted. The second feature, Affinity field, reflects the characteristics (vector field set) indicating whose joint position the extracted joint position belongs to. A human skeleton including a plurality of key-points can be extracted by extracting 2 features and combining them. In particular, when a Human Skeleton is created by combining each part of the body of a surrounding object (eg, a person), it is possible to determine which surrounding object (eg, a person) each part belongs to through Greedy Relaxation. have.

본원의 일 실시예에 따르면, 충돌 인지 장치(10)는 재예측된 주변 물체의 움직임에 기반하여 기준 물체와 주변 물체 간의 충돌이 발생될 것으로 판별된 경우 알림 정보를 제공할 수 있다. 예를 들어, 충돌 인지 장치(10)는 기준 물체와 주변 물체 간의 충돌이 발생될 것으로 판별된 경우 자동차(2)에 구비된 내비게이션, HUD(Head-Up Display) 또는 운전자의 스마트폰 등의 단말기와 스크린 및/또는 음향기기를 통해 알림 정보를 제공할 수 있다. 또한, 충돌 인지 장치(10)는 보행자가 소지하고 있는 휴대 단말, 자전거 운전자 또는 오토바이 운전자가 소지하고 있는 휴대 단말로 알림 정보를 제공할 수 있다. According to an embodiment of the present disclosure, the collision perception apparatus 10 may provide notification information when it is determined that a collision between a reference object and a nearby object will occur based on the re-predicted movement of the surrounding object. For example, when it is determined that a collision between a reference object and a surrounding object will occur, the collision recognition device 10 detects a navigation device provided in the vehicle 2, a head-up display (HUD), or a terminal such as a driver's smartphone and the like. Notification information may be provided through a screen and/or a sound device. In addition, the collision detection device 10 may provide notification information to a portable terminal possessed by a pedestrian or a portable terminal possessed by a cyclist or motorcyclist.

본원의 일 실시예에 따르면, 카메라 모듈(20)은 소정의 감시 대상 공간을 촬영하여 입력 영상을 생성할 수 있다. 일예로, 도 1을 참조하면 카메라 모듈(20)은 자동차(2)에 구비될 수 있다. 자동차(2)에 구비된 카메라 모듈(20)은 차량용 블랙박스일 수 있다. 차량용 블랙박스(자동차용 영상 사고기록장치·Event Data Recorder·EDR)는 충돌 전후의 사고를 기록해 사고 정황 파악에 필요한 정보를 제공할 수 있다. 차량용 블랙박스는 현재 주행 중인 자동차(2)의 전방, 후방, 좌측, 우측을 촬영한 입력 영상을 생성할 수 있다. According to one embodiment of the present application, the camera module 20 may generate an input image by capturing a predetermined space to be monitored. For example, referring to FIG. 1 , the camera module 20 may be provided in the vehicle 2 . The camera module 20 provided in the vehicle 2 may be a vehicle black box. A vehicle black box (vehicle video accident recorder, Event Data Recorder, EDR) can record accidents before and after a collision to provide information necessary to understand the circumstances of the accident. The black box for a vehicle may generate input images obtained by photographing the front, rear, left, and right sides of the currently driving vehicle 2 .

다른 일예로, 도 2를 참조하면, 카메라 모듈(20)은 CCTV촬영 장치일 수 있다. 카메라 모듈(20)은 로봇을 사용하여 작업이 수행되는 공간에 구비될 수 있다. 로봇은 산업용 로봇으로, 무인 운반차(AGV: Automated Guided Vehicle)일 수 있다. 카메라 모듈(20)을 이용하여 로봇이 작업을 수행하고 있는 상황을 촬영하고, 충돌 인지 장치(10)를 통해 로봇(기준 물체)과 주변 물체(예를 들어, 작업자, 무인 운반차 등) 간의 충돌 발생 여부를 판단하고 알림 정보를 제공함으로써 사고율을 낮출 수 있다. As another example, referring to FIG. 2 , the camera module 20 may be a CCTV recording device. The camera module 20 may be provided in a space where work is performed using a robot. The robot is an industrial robot and may be an automated guided vehicle (AGV). A situation in which the robot is performing a task is photographed using the camera module 20, and a collision between the robot (reference object) and a surrounding object (eg, a worker, an unmanned transport vehicle, etc.) through the collision recognition device 10 The accident rate can be reduced by determining whether it has occurred and providing notification information.

도 1 및 도 2에는 충돌 인지 장치(10)와 카메라 모듈(20)이 별도로 구비된 것으로 도시하였으나, 충돌 인지 시스템(1)은 충돌 인지 장치(10)가 자체적으로 카메라 모듈을 구비하여 촬영된 영상으로부터 충돌 상황을 인지하고 충돌 상황이 감지되면 알림 신호를 사용자 단말(30)에 생성 및 전송할 수 있다. 1 and 2 show that the collision perception device 10 and the camera module 20 are provided separately, but in the collision perception system 1, the collision perception device 10 itself has a camera module to capture images. A collision situation may be recognized from and when a collision situation is detected, a notification signal may be generated and transmitted to the user terminal 30 .

본원의 다른 일 실시예에 따르면, 충돌 인지 장치(10)는 복수의 카메라 모듈(20)로부터 입력 영상을 제공받을 수 있다. 충돌 인지 장치(10)는 복수의 CCTV 촬영 장치로부터 수신한 입력 영상에서 하나의 기준 물체를 식별하여 기준 물체와 주변 물체 간의 충돌을 인지할 수 있다. 또한, 충돌 인지 장치(10)는 차량용 블랙박스 및 기준 물체의 주변 영역을 촬영한 CCTV 촬영 장치로부터 수신한 입력 영상을 이용하여 기준 물체와 주변 물체 간의 충돌을 인지할 수 있다.According to another embodiment of the present application, the collision perception device 10 may receive input images from a plurality of camera modules 20 . The collision detection device 10 may recognize a collision between the reference object and a neighboring object by identifying one reference object in input images received from a plurality of CCTV photographing devices. In addition, the collision detection apparatus 10 may recognize a collision between the reference object and the surrounding objects by using an input image received from a vehicle black box and a CCTV photographing device that captures the surrounding area of the reference object.

본원의 일 실시예에 따르면, 사용자 단말(30)은 충돌 인지 장치(10)로부터 알림 정보를 제공받을 수 있다. 사용자 단말(30)은 차량에 탑재된 내비게이션(32) 또는 보행자, 자전거 운전자, 오토바이 운전자가 소지하고 있는 휴대 단말(31)일 수 있다. 일예로, 알림 정보는, 충돌이 발생할 것으로 예측되는 경우 제공되는 정보로서 경보음, 경고음, 사이렌 등의 음향을 방사하여 충돌이 발생할 수 있으니 물체의 운행(움직임)을 정지하도록 유도할 수 있다. 또한, 도 2에 도시된 사용자 단말(30)은 로봇을 사용하여 작업을 수행하는 공간을 관리하는 관리자의 단말일 수 있다. According to an embodiment of the present disclosure, the user terminal 30 may receive notification information from the collision perception device 10 . The user terminal 30 may be a navigation device 32 mounted in a vehicle or a portable terminal 31 possessed by a pedestrian, cyclist, or motorcycle driver. For example, the notification information is information provided when a collision is predicted to occur, and sounds such as a warning sound, a warning sound, or a siren may be emitted to induce an object to stop driving (moving) since a collision may occur. In addition, the user terminal 30 shown in FIG. 2 may be a terminal of a manager who manages a space where work is performed using a robot.

본원의 일 실시예에 따르면, 충돌 인지 장치(10)는 사용자 단말(30)로 충돌 알림 제공 메뉴를 제공할 수 있다. 예를 들어, 충돌 인지 장치(10)가 제공하는 어플리케이션 프로그램을 사용자 단말(30)이 다운로드하여 설치하고, 설치된 어플리케이션을 통해 충돌 알림 제공 메뉴가 제공될 수 있다.According to an embodiment of the present disclosure, the collision perception apparatus 10 may provide a collision notification providing menu to the user terminal 30 . For example, the user terminal 30 downloads and installs an application program provided by the collision perception device 10, and a collision notification providing menu may be provided through the installed application.

충돌 인지 장치(10)는 사용자 단말(30)과 데이터, 콘텐츠, 각종 통신 신호를 네트워크를 통해 송수신하고, 데이터 저장 및 처리의 기능을 가지는 모든 종류의 서버, 단말, 또는 디바이스를 포함할 수 있다.The collision recognition apparatus 10 may include all kinds of servers, terminals, or devices that transmit and receive data, content, and various communication signals with the user terminal 30 through a network, and have functions of storing and processing data.

사용자 단말(30)은 네트워크를 통해 충돌 인지 장치(10)와 연동되는 디바이스로서, 예를 들면, 스마트폰(Smartphone), 스마트패드(Smart Pad), 태블릿 PC, 웨어러블 디바이스 등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 유/무선 통신 장치를 포함할 수 있다. 본원에서의 사용자 단말(30)은 자동차 운전자, 보행자, 자전거 운전자, 오토바이 운전자가 소지하고 있는 휴대 단말(31) 및 자동차(2)에 탑재된 내비게이션(32)을 포함할 수 있다. The user terminal 30 is a device that interworks with the collision recognition device 10 through a network, and is, for example, a personal communication system (PCS) with a smartphone, a smart pad, a tablet PC, a wearable device, and the like. , GSM (Global System for Mobile communication), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, It may include all types of wired/wireless communication devices such as W-Code Division Multiple Access (W-CDMA) and Wireless Broadband Internet (Wibro) terminals. The user terminal 30 in the present application may include a portable terminal 31 possessed by a car driver, a pedestrian, a cyclist, and a motorcycle driver, and a navigation device 32 mounted in the vehicle 2 .

충돌 인지 장치(10), 카메라 모듈(20) 및 사용자 단말(30) 상호간은 네트워크(40)를 통해 연결될 수 있으며, 네트워크(40)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The collision perception device 10, the camera module 20, and the user terminal 30 may be connected to each other through the network 40, and the network 40 allows information exchange between terminals and nodes such as servers. It means a possible connection structure, and examples of such networks include a 3rd Generation Partnership Project (3GPP) network, a Long Term Evolution (LTE) network, a 5G network, a World Interoperability for Microwave Access (WIMAX) network, the Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), wifi network, Bluetooth network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) networks, etc. are included, but are not limited thereto.

도 5는 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 장치의 개략적인 블록도이다.5 is a schematic block diagram of an object collision recognition apparatus based on artificial intelligence according to an embodiment of the present disclosure.

도 5를 참조하면 충돌 인지 장치(10)는 영상 수신부(11), 3D 객체 탐지부(12), 예측부(13), 산출부(14), 판단부(15) 및 알림 제공부(16)를 포함할 수 있다. 다만, 충돌 인지 장치(10)의 구성이 이에 한정되는 것은 아니다. 예를 들어, 충돌 인지 장치(10)는 영상 수신부(11)에서 수신된 입력 영상을 저장하기 위한 저장부(미도시)를 더 포함할 수 있다.Referring to FIG. 5 , the collision recognition device 10 includes an image receiving unit 11, a 3D object detection unit 12, a prediction unit 13, a calculation unit 14, a determination unit 15, and a notification providing unit 16. can include However, the configuration of the collision perception device 10 is not limited thereto. For example, the collision perception apparatus 10 may further include a storage unit (not shown) for storing the input image received by the image receiving unit 11 .

본원의 일 실시예에 따르면, 영상 수신부(11)는 카메라 모듈(20 의해 촬영된 입력 영상을 수신할 수 있다. 달리 말해, 영상 수신부(11)는 소정의 감시 대상 공간을 촬영하여 생성된 입력 영상을 카메라 모듈(20)부터 수신할 수 있다. 또한, 영상 수신부(11)는 기준 물체의 주변 환경을 촬영한 입력 영상을 수신할 수 있다. 영상 수신부(11)는 실시간으로 입력되는 입력 영상을 수신할 수 있다. According to an embodiment of the present application, the image receiving unit 11 may receive an input image captured by the camera module 20. In other words, the image receiving unit 11 captures a predetermined surveillance target space and generates an input image. may be received from the camera module 20. In addition, the image receiver 11 may receive an input image obtained by photographing the surrounding environment of the reference object. The image receiver 11 receives the input image input in real time. can do.

본원의 일 실시예에 따르면, 3D 객체 탐지부(12)는 입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한 3D 객체를 탐지할 수 있다. 또한, 3D 객체 탐지부(12)는 3D object detection 기반의 심층신경망 훈련 모델인 3D 객체 검출 모델에 입력 영상을 적용하여 입력 영상에 포함된 적어도 어느 하나의 주변 물체에 대응하는 3D 객체를 탐지할 수 있다. 3D 객체 탐지부(12)는 입력 영상에 포함된 복수의 프레임별로 하나 이상의 주변 물체에 대한 3D 객체를 탐지할 수 있다. 또한, 3D 객체 탐지부(12)는 하나의 프레임에 포함된 복수의 주변 물체에 대한 복수의 3D 객체를 탐지할 수 있다. 3D 객체 탐지부(12)는 바운딩 박스(bounding box) 또는 임의의 형태(컨투어)로 표시되는 객체 영역을 이용하여 주변 물체에 대한 3D 객체를 탐지(추출)할 수 있다. 바운딩 박스는 객체의 경계를 직육면체 또는 정육면체 형상으로 3차원 정의한 것일 수 있다. 한편, 임의의 형태(컨투어)는 기 알려져 있거나 향후 개발될 다양한 기법에 의해 객체에 대응하는 형태로 설정될 수 있다. 이때, 객체는 사람(보행자), 자동차, 오토바이, 자전거 등을 포함할 수 있다. According to an embodiment of the present application, the 3D object detection unit 12 may detect a 3D object of a surrounding object by applying the input image to an artificial intelligence-based 3D object detection model. In addition, the 3D object detection unit 12 can detect a 3D object corresponding to at least one surrounding object included in the input image by applying the input image to a 3D object detection model, which is a deep neural network training model based on 3D object detection. have. The 3D object detector 12 may detect a 3D object for one or more surrounding objects for each of a plurality of frames included in the input image. Also, the 3D object detection unit 12 may detect a plurality of 3D objects for a plurality of surrounding objects included in one frame. The 3D object detection unit 12 may detect (extract) a 3D object of a surrounding object using a bounding box or an object area displayed in an arbitrary shape (contour). The bounding box may be a 3D definition of the boundary of an object in the shape of a rectangular parallelepiped or regular hexahedron. Meanwhile, an arbitrary shape (contour) may be set as a shape corresponding to an object by various techniques that are already known or will be developed in the future. In this case, the object may include a person (pedestrian), a car, a motorcycle, a bicycle, and the like.

본원의 일 실시예에 따르면, 예측부(13)는 탐지된 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 주변 물체의 움직임을 예측할 수 있다. 또한, 예측부(13)는 pose-estimation 기반의 심층신경망 훈련 모델인 동작 예측 모델로부터 입력 영상에 포함된 주변 물체의 다음 동작을 추정(예측)할 수 있다. According to an embodiment of the present disclosure, the prediction unit 13 may predict the motion of the surrounding object by applying the detected surrounding object to an artificial intelligence-based motion prediction model. In addition, the prediction unit 13 may estimate (predict) the next motion of a nearby object included in an input image from a motion prediction model, which is a pose-estimation-based deep neural network training model.

본원의 일 실시예에 따르면, 산출부(14)는 탐지된 3D 객체를 이용하여 주변 물체의 이동 속도를 계산하고, 계산된 이동 속도에 기반하여 기준 물체와 주변 물체 간의 충돌 시간을 산출할 수 있다. 또한, 산출부(14)는 이전 프레임의 3D 객체 탐지 결과에 포함된 3D 객체의 위치 정보 및 현재 프레임의 3D 객체 탐지 결과에 포함된 3D 객체의 위치 정보에 기반하여 3D 객체의 이동 속도를 산출할 수 있다. According to an embodiment of the present disclosure, the calculation unit 14 may calculate the moving speed of the surrounding object using the detected 3D object, and calculate the collision time between the reference object and the surrounding object based on the calculated moving speed. . In addition, the calculation unit 14 calculates the moving speed of the 3D object based on the location information of the 3D object included in the 3D object detection result of the previous frame and the location information of the 3D object included in the 3D object detection result of the current frame. can

본원의 일 실시예에 따르면, 판단부(15)는 주변 물체의 특성, 예측된 움직임 및 이동 속도 중 적어도 어느 하나의 정보에 기초하여 주변 물체의 특성에 대응하는 충돌 한계점(threshold)에 도달했는지 여부를 판단할 수 있다. 예시적으로, 충돌 한계점(threshold)은 충돌할 시간, 거리, 가능성 중 적어도 어느 하나를 포함할 수 있다. 충돌 한계점(threshold)은 주변 물체의 특성에 따라 달리 적용될 수 있다. According to an embodiment of the present invention, the determination unit 15 determines whether a collision threshold corresponding to the characteristics of the surrounding objects has been reached based on at least one information of the characteristics of the surrounding objects, the predicted movement, and the moving speed. can judge Exemplarily, the collision threshold may include at least one of time, distance, and possibility of collision. A collision threshold may be differently applied according to the characteristics of surrounding objects.

한편, 예측부(13)는 판단부(15)에서 충돌 한계점(threshold)에 도달했다고 판단된 경우, 동작 예측 모델에서 사용된 키-포인트에 기반하여 주변 물체의 움직임을 재예측할 수 있다. Meanwhile, when the determination unit 15 determines that the collision threshold has been reached, the prediction unit 13 may re-predict the motion of the surrounding object based on the key-point used in the motion prediction model.

본원의 일 실시예에 따르면, 알림 제공부(16)는 재예측된 주변 물체의 움직임에 기반하여 기준 물체와 주변 물체 간의 충돌이 발생될 것으로 판별된 경우 알림 정보를 제공할 수 있다. 알림 제공부(16)는 기준 물체 및 주변 물체와 연계된 사용자 단말(30)로 알림 정보를 제공할 수 있다. 알림 제공부(16)는 자동차(2)에 구비된 내비게이션 또는 운전자의 스마트폰 등의 단말기와 스크린 및/또는 음향기기를 통해 알림 정보를 제공할 수 있다. 또한, 알림 제공부(16)는 주변 물체 예를 들어, 보행자, 자전거 운전자, 오토바이 운전자, 자동차 운전자의 스마트폰 등의 단말기와 스크린 및/또는 음향기기를 통해 알림 정보를 제공할 수 있다.According to an embodiment of the present disclosure, the notification providing unit 16 may provide notification information when it is determined that a collision between the reference object and the surrounding object will occur based on the re-predicted movement of the surrounding object. The notification providing unit 16 may provide notification information to the user terminal 30 associated with the reference object and surrounding objects. The notification providing unit 16 may provide notification information through a navigation device provided in the vehicle 2 or a terminal such as a driver's smart phone, a screen, and/or a sound device. In addition, the notification providing unit 16 may provide notification information through a peripheral object, for example, a smartphone of a pedestrian, a cyclist, a motorcycle driver, or a car driver, and a screen and/or a sound device.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, based on the details described above, the operation flow of the present application will be briefly reviewed.

도 6은 본원의 일 실시예에 따른 인공지능 기반 객체 충돌 인지 방법에 대한 동작 흐름도이다.6 is an operation flowchart of an object collision recognition method based on artificial intelligence according to an embodiment of the present invention.

도 6에 도시된 인공지능 기반 객체 충돌 인지 방법은 앞서 설명된 충돌 인지 장치(10)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 충돌 인지 장치(10)에 대하여 설명된 내용은 인공지능 기반 객체 충돌 인지 방법에 대한 설명에도 동일하게 적용될 수 있다.The artificial intelligence-based object collision recognition method shown in FIG. 6 may be performed by the collision recognition apparatus 10 described above. Therefore, even if omitted below, the description of the collision recognition apparatus 10 can be equally applied to the description of the artificial intelligence-based object collision recognition method.

단계 S601에서 충돌 인지 장치(10)는 입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한 3D 객체를 탐지할 수 있다. In step S601, the collision perception apparatus 10 may detect a 3D object of a surrounding object by applying the input image to an artificial intelligence-based 3D object detection model.

단계 S602에서 충돌 인지 장치(10)는 탐지된 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 주변 물체의 움직임을 예측할 수 있다. In step S602, the collision perception apparatus 10 may predict the motion of the surrounding object by applying the detected surrounding object to an artificial intelligence-based motion prediction model.

단계 S603에서 충돌 인지 장치(10)는 탐지된 3D 객체를 이용하여 주변 물체의 이동 속도를 계산하고, 계산된 이동 속도에 기반하여 기준 물체와 주변 물체 간의 충돌 시간을 산출할 수 있다. In step S603, the collision perception apparatus 10 may calculate the moving speed of the surrounding object using the detected 3D object, and calculate the collision time between the reference object and the surrounding object based on the calculated moving speed.

단계 S604에서 충돌 인지 장치(10)는 주변 물체의 특성, 예측된 움직임 및 이동 속도 중 적어도 어느 하나의 정보를 고려하여 주변 물체의 특성에 대응하는 충돌 한계점(threshold)에 도달했는지 여부를 판단할 수 있다. In step S604, the collision perception apparatus 10 may determine whether a collision threshold corresponding to the characteristics of the surrounding objects has been reached in consideration of at least one information among the characteristics of the surrounding objects, the predicted movement, and the moving speed. have.

단계 S605에서 충돌 인지 장치(10)는 충돌 한계점(threshold)에 도달했다고 판단된 경우, 동작 예측 모델에서 사용된 키-포인트에 기반하여 주변 물체의 움직임을 재예측할 수 있다. In step S605, when it is determined that the collision threshold has been reached, the collision perception apparatus 10 may re-predict the motion of the surrounding object based on the key-point used in the motion prediction model.

상술한 설명에서, 단계 S601 내지 S605는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the foregoing description, steps S601 to S605 may be further divided into additional steps or combined into fewer steps, depending on an embodiment of the present invention. Also, some steps may be omitted if necessary, and the order of steps may be changed.

본원의 일 실시 예에 따른 인공지능 기반 객체 충돌 인지 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The object collision recognition method based on artificial intelligence according to an embodiment of the present disclosure may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be those specially designed and configured for the present invention or those known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to act as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 인공지능 기반 객체 충돌 인지 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the artificial intelligence-based object collision recognition method described above may be implemented in the form of a computer program or application stored in a recording medium and executed by a computer.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustrative purposes, and those skilled in the art will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present application.

1: 충돌 인지 시스템
10: 충돌 인지 장치
11: 영상 수신부 12: 3D 객체 탐지부
13: 예측부 14: 산출부
15: 판단부 16: 알림 제공부
20: 카메라 모듈
30: 사용자 단말
40: 네트워크
1: Collision Recognition System
10: Collision Recognition Device
11: image receiving unit 12: 3D object detection unit
13: prediction unit 14: calculation unit
15: determination unit 16: notification providing unit
20: camera module
30: user terminal
40: network

Claims (10)

인공지능 기반 객체 충돌 인지 방법에 있어서,
입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한3D 객체를 탐지하는 단계;
탐지된 상기 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 상기 주변 물체의 움직임을 예측하는 단계;
탐지된 상기 3D 객체를 이용하여 상기 주변 물체의 이동 속도를 계산하고, 계산된 상기 이동 속도에 기반하여 기준 물체와 상기 주변 물체 간의 충돌 시간을 산출하는 단계;
상기 주변 물체의 특성, 예측된 움직임 및 이동 속도 중 적어도 어느 하나의 정보를 고려하여 충돌 한계점(threshold)에 도달했는지 여부를 판단하는 단계; 및
상기 충돌 한계점(threshold)에 도달했다고 판단된 경우, 상기 동작 예측 모델에서 사용된 키-포인트에 기반하여 상기 주변 물체의 움직임을 재 예측하는 단계,
를 포함하되,
상기 판단하는 단계는,
상기 기준 물체의 현재 속도 및 방향과 상기 주변 물체의 현재 속도 및 방향을 고려하여 상기 기준 물체와 상기 주변 물체가 현재 속도를 유지할 경우의 충돌 예측 지점을 설정하고, 상기 충돌 예측 지점을 기준으로 상기 주변 물체 각각의 특성에 대응하는 상기 충돌 한계점을 설정하고,
상기 주변 물체의 움직임을 재 예측하는 단계는,
상기 키-포인트를 이용하여 상기 주변 물체의 특징점을 추출하고, 상기 특징점의 이동에 기반하여 상기 주변 물체의 움직임을 재 예측하는 것이되, 상기 키-포인트는 충돌 감지를 위한 연산 속도를 고려하여 상기 주변 물체에 따라 미리 설정된 개수 이내로 검출되는 것인, 충돌 인지 방법.
In the object collision recognition method based on artificial intelligence,
Detecting a 3D object for a surrounding object by applying the input image to an artificial intelligence-based 3D object detection model;
predicting motion of the surrounding object by applying the detected surrounding object to an artificial intelligence-based motion prediction model;
calculating a moving speed of the surrounding object using the detected 3D object, and calculating a collision time between a reference object and the surrounding object based on the calculated moving speed;
determining whether a collision threshold has been reached in consideration of at least one information of the characteristics of the surrounding object, the predicted motion, and the moving speed; and
If it is determined that the collision threshold has been reached, re-predicting the motion of the surrounding object based on a key-point used in the motion prediction model;
Including,
The determining step is
In consideration of the current speed and direction of the reference object and the current speed and direction of the surrounding objects, a collision prediction point is set when the reference object and the surrounding objects maintain their current speeds, and the collision prediction point is used as a reference to the surrounding objects. Setting the collision threshold corresponding to the characteristics of each object,
The step of re-predicting the movement of the surrounding object,
The feature points of the surrounding objects are extracted using the key-points, and the movement of the surrounding objects is re-predicted based on the movement of the feature points. A method for recognizing a collision that is detected within a preset number according to surrounding objects.
제1항에 있어서,
상기 재 예측된 상기 주변 물체의 움직임에 기반하여 상기 기준 물체와 상기 주변 물체 간의 충돌이 발생될 것으로 판별된 경우 알림 정보를 제공하는 단계,
를 더 포함하는, 충돌 인지 방법.
According to claim 1,
Providing notification information when it is determined that a collision between the reference object and the surrounding object will occur based on the re-predicted motion of the surrounding object;
Further comprising a collision recognition method.
삭제delete 제1항에 있어서,
상기 3D 객체를 탐지하는 단계는,
3D object detection 기반의 심층신경망 훈련 모델인 상기 3D 객체 검출 모델에 상기 입력 영상을 적용하여 상기 입력 영상에 포함된 적어도 어느 하나의 상기 주변 물체에 대응하는 3D 객체를 탐지하는 것인, 충돌 인지 방법.
According to claim 1,
The step of detecting the 3D object,
Detecting a 3D object corresponding to at least one of the surrounding objects included in the input image by applying the input image to the 3D object detection model, which is a deep neural network training model based on 3D object detection.
제1항에 있어서,
상기 주변 물체의 움직임을 예측하는 단계는,
pose-estimation 기반의 심층신경망 훈련 모델인 상기 동작 예측 모델로부터 상기 입력 영상에 포함된 상기 주변 물체의 다음 동작을 추정하는 것인, 충돌 인지 방법.
According to claim 1,
Predicting the movement of the surrounding object,
and estimating the next motion of the surrounding object included in the input image from the motion prediction model, which is a pose-estimation-based deep neural network training model.
제1항에 있어서,
상기 충돌 시간을 산출하는 단계는,
이전 프레임의 3D 객체 탐지 결과에 포함된 상기 3D 객체의 위치 정보 및 현재 프레임의 3D 객체 탐지 결과에 포함된 상기 3D 객체의 위치 정보에 기반하여 3D 객체의 이동 속도를 산출하는 것인, 충돌 인지 방법.
According to claim 1,
Calculating the collision time,
Calculating a movement speed of the 3D object based on the location information of the 3D object included in the 3D object detection result of the previous frame and the location information of the 3D object included in the 3D object detection result of the current frame. .
인공지능 기반 객체 충돌 인지 장치에 있어서,
입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한3D 객체를 탐지하는 3D 객체 탐지부;
탐지된 상기 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 상기 주변 물체의 움직임을 예측하는 예측부;
탐지된 상기 3D 객체를 이용하여 상기 주변 물체의 이동 속도를 계산하고, 계산된 상기 이동 속도에 기반하여 기준 물체와 상기 주변 물체 간의 충돌 시간을 산출하는 산출부; 및
상기 주변 물체의 특성, 예측된 움직임 및 이동 속도 중 적어도 어느 하나의 정보에 기초하여 상기 주변 물체의 특성에 대응하는 충돌 한계점(threshold)에 도달했는지 여부를 판단하는 판단부,
를 포함하되,
상기 예측부는,
상기 판단부에서 충돌 한계점(threshold)에 도달했다고 판단된 경우, 상기 동작 예측 모델에서 사용된 키-포인트에 기반하여 상기 주변 물체의 움직임을 재 예측하고,
상기 판단부는,
상기 기준 물체의 현재 속도 및 방향과 상기 주변 물체의 현재 속도 및 방향을 고려하여 상기 기준 물체와 상기 주변 물체가 현재 속도를 유지할 경우의 충돌 예측 지점을 설정하고, 상기 충돌 예측 지점을 기준으로 상기 주변 물체 각각의 특성에 대응하는 상기 충돌 한계점을 설정하고,
상기 예측부는,
상기 키-포인트를 이용하여 상기 주변 물체의 특징점을 추출하고, 상기 특징점의 이동에 기반하여 상기 주변 물체의 움직임을 재 예측하는 것이되, 상기 키-포인트는 충돌 감지를 위한 연산 속도를 고려하여 상기 주변 물체에 따라 미리 설정된 개수 이내로 검출되는 것인, 충돌 인지 장치.
In the artificial intelligence-based object collision recognition device,
a 3D object detection unit for detecting a 3D object of a surrounding object by applying the input image to an artificial intelligence-based 3D object detection model;
a predictor for predicting motion of the surrounding object by applying the detected surrounding object to an artificial intelligence-based motion prediction model;
a calculation unit that calculates a movement speed of the surrounding object using the detected 3D object, and calculates a collision time between a reference object and the surrounding object based on the calculated movement speed; and
a determination unit for determining whether a collision threshold corresponding to a characteristic of the surrounding object has been reached based on at least one information of a characteristic of the surrounding object, a predicted movement, and a moving speed;
Including,
The prediction unit,
When the determination unit determines that a collision threshold has been reached, the movement of the surrounding object is re-predicted based on the key-point used in the motion prediction model;
The judge,
In consideration of the current speed and direction of the reference object and the current speed and direction of the surrounding objects, a collision prediction point is set when the reference object and the surrounding objects maintain their current speeds, and the collision prediction point is used as a reference to the surrounding objects. Setting the collision threshold corresponding to the characteristics of each object,
The prediction unit,
The feature points of the surrounding objects are extracted using the key-points, and the movement of the surrounding objects is re-predicted based on the movement of the feature points. A collision-aware device that detects within a preset number according to surrounding objects.
제7항에 있어서,
상기 재 예측된 상기 주변 물체의 움직임에 기반하여 상기 기준 물체와 상기 주변 물체 간의 충돌이 발생될 것으로 판별된 경우 알림 정보를 제공하는 알림 제공부,
를 더 포함하는, 충돌 인지 장치.
According to claim 7,
a notification providing unit providing notification information when it is determined that a collision between the reference object and the surrounding object will occur based on the re-predicted movement of the surrounding object;
Further comprising a collision recognition device.
인공지능 기반 충돌 인지 시스템에 있어서,
소정의 감시 대상 공간을 촬영하여 입력 영상을 생성하는 카메라 모듈; 및
상기 입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한 3D 객체를 탐지하고, 탐지된 상기 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 주변 물체의 움직임을 예측하고, 기준 물체와 상기 주변 물체 간의 충돌 시간을 산출하고, 상기 주변 물체의 특성에 대응하는 충돌 한계점 도달 여부 판단 결과에 기반하여 상기 주변 물체의 움직임을 재 예측하는 충돌 인지 장치,
를 포함하되,
상기 충돌 인지 장치는,
상기 카메라 모듈에 의해 촬영된 입력 영상을 수신하는 영상 수신부;
입력 영상을 인공지능 기반 3D 객체 검출 모델에 적용하여 주변 물체에 대한3D 객체를 탐지하는 3D 객체 탐지부;
탐지된 상기 주변 물체를 인공지능 기반 동작 예측 모델에 적용하여 상기 주변 물체의 움직임을 예측하는 예측부;
탐지된 상기 3D 객체를 이용하여 상기 주변 물체의 이동 속도를 계산하고, 계산된 상기 이동 속도에 기반하여 기준 물체와 상기 주변 물체 간의 충돌 시간을 산출하는 산출부; 및
상기 주변 물체의 특성, 예측된 움직임 및 이동 속도 중 적어도 어느 하나의 정보에 기초하여 충돌 한계점(threshold)에 도달했는지 여부를 판단하는 판단부,
를 포함하고,
상기 예측부는,
상기 판단부에서 충돌 한계점(threshold)에 도달했다고 판단된 경우, 상기 동작 예측 모델에서 사용된 키-포인트에 기반하여 상기 주변 물체의 움직임을 재 예측하고,
상기 판단부는,
상기 기준 물체의 현재 속도 및 방향과 상기 주변 물체의 현재 속도 및 방향을 고려하여 상기 기준 물체와 상기 주변 물체가 현재 속도를 유지할 경우의 충돌 예측 지점을 설정하고, 상기 충돌 예측 지점을 기준으로 상기 주변 물체 각각의 특성에 대응하는 상기 충돌 한계점을 설정하고,
상기 예측부는,
상기 키-포인트를 이용하여 상기 주변 물체의 특징점을 추출하고, 상기 특징점의 이동에 기반하여 상기 주변 물체의 움직임을 재 예측하는 것이되, 상기 키-포인트는 충돌 감지를 위한 연산 속도를 고려하여 상기 주변 물체에 따라 미리 설정된 개수 이내로 검출되는 것인, 충돌 인지 시스템.
In the artificial intelligence-based collision recognition system,
a camera module generating an input image by photographing a predetermined space to be monitored; and
The input image is applied to an artificial intelligence-based 3D object detection model to detect a 3D object for a surrounding object, the detected surrounding object is applied to an artificial intelligence-based motion prediction model to predict the motion of the surrounding object, and the motion of the surrounding object is predicted. A collision perception device that calculates a collision time between the surrounding objects and re-predicts the motion of the surrounding objects based on a result of determining whether a collision threshold corresponding to the characteristics of the surrounding objects has been reached;
Including,
The collision recognition device,
an image receiving unit for receiving an input image captured by the camera module;
a 3D object detection unit for detecting a 3D object of a surrounding object by applying the input image to an artificial intelligence-based 3D object detection model;
a predictor for predicting motion of the surrounding object by applying the detected surrounding object to an artificial intelligence-based motion prediction model;
a calculation unit that calculates a movement speed of the surrounding object using the detected 3D object, and calculates a collision time between a reference object and the surrounding object based on the calculated movement speed; and
a determination unit for determining whether a collision threshold has been reached based on at least one information of the characteristics of the surrounding object, the predicted motion, and the moving speed;
including,
The prediction unit,
When the determination unit determines that a collision threshold has been reached, the movement of the surrounding object is re-predicted based on the key-point used in the motion prediction model;
The judge,
In consideration of the current speed and direction of the reference object and the current speed and direction of the surrounding objects, a collision prediction point is set when the reference object and the surrounding objects maintain current speeds, and the collision prediction point is used as a reference. Setting the collision threshold corresponding to the characteristics of each object,
The prediction unit,
The feature points of the surrounding objects are extracted using the key-points, and the movement of the surrounding objects is re-predicted based on the movement of the feature points. A collision recognition system that detects within a preset number according to surrounding objects.
제1항, 제2항, 제4항 내지 제6항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium recording a program for executing the method of any one of claims 1, 2, and 4 to 6 in a computer.
KR1020200101546A 2020-08-13 2020-08-13 Ai based collision recognition method and device KR102467446B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200101546A KR102467446B1 (en) 2020-08-13 2020-08-13 Ai based collision recognition method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200101546A KR102467446B1 (en) 2020-08-13 2020-08-13 Ai based collision recognition method and device

Publications (2)

Publication Number Publication Date
KR20220021125A KR20220021125A (en) 2022-02-22
KR102467446B1 true KR102467446B1 (en) 2022-11-14

Family

ID=80494028

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200101546A KR102467446B1 (en) 2020-08-13 2020-08-13 Ai based collision recognition method and device

Country Status (1)

Country Link
KR (1) KR102467446B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102597896B1 (en) * 2023-05-16 2023-11-03 주식회사 싸인텔레콤 Vehicle Center Point Prediction Method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089336A (en) * 2018-01-22 2019-07-31 숭실대학교산학협력단 Speed Measurement Device and Method of Object in Video, Recording Medium for Performing the Method
KR20200017917A (en) * 2018-08-10 2020-02-19 현대자동차주식회사 Vehicle and method for controlling thereof

Also Published As

Publication number Publication date
KR20220021125A (en) 2022-02-22

Similar Documents

Publication Publication Date Title
JP2022520968A (en) Estimating object attributes using visual image data
JP2020042808A (en) System and method for egocentric vision-based future vehicle localization
US20200211395A1 (en) Method and Device for Operating a Driver Assistance System, and Driver Assistance System and Motor Vehicle
Gandhi et al. Pedestrian protection systems: Issues, survey, and challenges
WO2019116958A1 (en) Onboard environment recognition device
Schulz et al. Pedestrian intention recognition using latent-dynamic conditional random fields
Schulz et al. A controlled interactive multiple model filter for combined pedestrian intention recognition and path prediction
Jebamikyous et al. Autonomous vehicles perception (avp) using deep learning: Modeling, assessment, and challenges
JP5938569B2 (en) Advanced driver support system considering azimuth information and operation method thereof
JP2020052695A (en) Object detection apparatus, object detection method, and computer program for object detection
US20220242453A1 (en) Detection System for Predicting Information on Pedestrian
US20230222671A1 (en) System for predicting near future location of object
Lim et al. Real-time forward collision warning system using nested Kalman filter for monocular camera
Gies et al. Environment perception framework fusing multi-object tracking, dynamic occupancy grid maps and digital maps
CN115083088A (en) Railway perimeter intrusion early warning method
KR102467446B1 (en) Ai based collision recognition method and device
Borges et al. Integrating off-board cameras and vehicle on-board localization for pedestrian safety
US20220189038A1 (en) Object tracking apparatus, control method, and program
KR20220073472A (en) Cross section integrated information providing system and method based on V2X
Dunna et al. A Deep Learning based system for fast detection of obstacles using rear-view camera under parking scenarios
Zhao et al. A laser-scanner-based approach toward driving safety and traffic data collection
Pan et al. Vision-based Vehicle Forward Collision Warning System Using Optical Flow Algorithm.
US20230319397A1 (en) Information processing apparatus, information processing method, and program
KR102328910B1 (en) Apparatus for collecting data based on raspberry pi, integrated management server for building emergency vehicle dynamic guidance system using the same and method for operating it
US20220165066A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant