KR20220048959A - Moving body collision avoidance device, collision avoidance method and electronic device - Google Patents
Moving body collision avoidance device, collision avoidance method and electronic device Download PDFInfo
- Publication number
- KR20220048959A KR20220048959A KR1020210135321A KR20210135321A KR20220048959A KR 20220048959 A KR20220048959 A KR 20220048959A KR 1020210135321 A KR1020210135321 A KR 1020210135321A KR 20210135321 A KR20210135321 A KR 20210135321A KR 20220048959 A KR20220048959 A KR 20220048959A
- Authority
- KR
- South Korea
- Prior art keywords
- collision
- moving object
- relative distance
- driving image
- calculating
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62L—BRAKES SPECIALLY ADAPTED FOR CYCLES
- B62L3/00—Brake-actuating mechanisms; Arrangements thereof
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62J—CYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
- B62J3/00—Acoustic signal devices; Arrangement of such devices on cycles
- B62J3/10—Electrical devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62K—CYCLES; CYCLE FRAMES; CYCLE STEERING DEVICES; RIDER-OPERATED TERMINAL CONTROLS SPECIALLY ADAPTED FOR CYCLES; CYCLE AXLE SUSPENSIONS; CYCLE SIDE-CARS, FORECARS, OR THE LIKE
- B62K3/00—Bicycles
- B62K3/002—Bicycles without a seat, i.e. the rider operating the vehicle in a standing position, e.g. non-motorized scooters; non-motorized scooters with skis or runners
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 이동체의 추돌 사고를 줄이기 위한 이동체 추돌 방지 장치, 추돌 방지 방법 및 전자 장치에 관한 것이다.The present invention relates to an apparatus for preventing collision with a moving object, a method for preventing collision with a moving object, and an electronic device for reducing collision accidents of a moving object.
자동차, 오토바이 등과 같은 이동체는 주행 과정에서 다양한 환경에 직면할 수 있기에, 이동체의 추돌 사고를 줄이기 위한 방안은 과거부터 현재까지 활발하게 논의되고 있다.Since moving objects such as automobiles and motorcycles may face various environments in the course of driving, measures to reduce collision accidents of moving objects have been actively discussed from the past to the present.
또한, 최근에는 친환경적일 뿐만 아니라 주차와 중단거리 주행에서 강점을 가지는 전동 킥보드, 전기 자전거, 나인봇-전동휠 등과 같은 퍼스널 모빌리티(personal mobility : 이하, PM)가 미래 교통 수단으로 주목받고 있다.In addition, recently, personal mobility (hereinafter, PM) such as electric kickboards, electric bicycles, and ninebot-electric wheels, which are not only eco-friendly but also have strengths in parking and short-distance driving, are attracting attention as a means of transportation in the future.
이러한 퍼스널 모빌리티의 이용율이 높아지면서 퍼스널 모빌리티의 안전에 대한 문제가 대두되고 있다.As the usage rate of such personal mobility increases, the problem of personal mobility safety is emerging.
특히, 퍼스널 모빌리티는 도로나 인도로 주행하기에 자동차, 오토바이 및 사람 등과 추돌 사고에 노출될 가능성이 매우 높다.In particular, personal mobility is highly likely to be exposed to collisions with cars, motorcycles, and people because it is driven on a road or sidewalk.
이와 같이, 다양한 이동체의 사용자의 안전을 위해, 이동체의 추돌 사고를 줄이기 위한 방안이 요구되고 있다. As described above, for the safety of users of various moving objects, a method for reducing collision accidents of moving objects is required.
본 발명의 목적은 이동체의 주행 영상을 기초로 추돌 가능성이 있는 경우 추돌 주의 안내를 제공하거나 이동체가 제동되도록 제어할 수 있는 이동체 추돌 방지 장치, 추돌 방지 방법 및 전자 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide an apparatus for preventing collision with a moving object, a method for preventing collision, and an electronic device capable of providing a collision warning guidance or controlling a moving object to be braked when there is a possibility of a collision based on a driving image of a moving object.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 이동체 추돌 방지 장치의 추돌 방지 방법은 상기 이동체의 주행 영상을 획득하는 단계, 신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 단계, 상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하는 단계, 상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 단계 및 상기 산출된 추돌소요시간을 기초로 상기 이동체의 동작을 제어하는 단계를 포함한다.A collision avoidance method of an apparatus for preventing collision with a moving object according to an embodiment of the present invention for achieving the above object includes acquiring a driving image of the moving object, and recognizing an object in the acquired driving image using a neural network model , calculating the relative distance between the moving object and the object based on the recognized object, calculating the required collision time between the object and the moving object based on the calculated relative distance, and calculating the calculated required collision time and controlling the operation of the moving object based on the base.
그리고, 상기 신경망 모델은 상기 주행 영상 내 오브젝트를 인식하여 상기 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스(bounding box) 및 상기 바운딩박스 내 오브젝트를 분류(classification)하여 출력할 수 있다.In addition, the neural network model may recognize an object in the driving image, classify and output a bounding box indicating an object region in the driving image and an object in the bounding box.
또한, 상기 주행 영상 내 인식된 오브젝트의 위치 변화를 트래킹(tracking)하여 상기 오브젝트의 이동을 추적하는 단계를 더 포함할 수 있다.The method may further include tracking the movement of the object by tracking a change in the position of the object recognized in the driving image.
그리고, 상기 오브젝트가 인식된 주행 영상을 정규화(normalization)하는 단계를 더 포함할 수 있다.The method may further include normalizing a driving image in which the object is recognized.
또한, 상기 주행 영상 내 인식된 오브젝트의 위치 상태를 판단하는 단계 및 상기 오브젝트의 타입에 따른 상기 위치 상태를 기초로 주행 영상 내 인식된 오브젝트 중 트래킹 대상이 되는 오브젝트를 결정하는 단계를 더 포함할 수 있다.The method may further include determining a position state of an object recognized in the driving image and determining an object to be tracked among objects recognized in the driving image based on the position state according to the type of the object. there is.
그리고, 상기 상대 거리를 산출하는 단계는 상기 바운딩박스를 기초로 상기 주행 영상 내 가상의 수평선을 생성할 수 있다.In addition, the calculating of the relative distance may generate a virtual horizontal line in the driving image based on the bounding box.
또한, 상기 상대 거리를 산출하는 단계는 상기 생성된 가상의 수평선과 상기 바운딩박스의 바닥면 수직 좌표를 기초로 상기 예상 상대 거리를 산출할 수 있다.In addition, the calculating of the relative distance may include calculating the expected relative distance based on the generated virtual horizontal line and a vertical coordinate of a bottom surface of the bounding box.
그리고, 상기 상대 거리를 산출하는 단계는 상기 바운딩박스의 수직 높이와 상기 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출할 수 있다.In addition, the calculating of the relative distance may include calculating the expected relative distance based on the vertical height of the bounding box and the actual height of the object.
또한, 상기 상대 거리를 산출하는 단계는 상기 산출된 예상 상대 거리를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리를 산출할 수 있다.In addition, the calculating of the relative distance may include calculating the relative distance through prediction and update by applying the calculated expected relative distance to a Kalman filter.
그리고, 상기 추돌소요시간을 산출하는 단계는 상기 이동체의 속도를 고려하여 상기 추돌소요시간을 산출할 수 있다.In the calculating of the required collision time, the required collision time may be calculated in consideration of the speed of the moving object.
또한, 상기 동작을 제어하는 단계는 상기 오브젝트와 추돌 가능성이 있는 경우, 추돌 주의 안내를 제공하거나 상기 이동체가 제동되도록 제어할 수 있다.In addition, when there is a possibility of colliding with the object, the controlling of the operation may provide a collision warning guidance or control the moving object to be braked.
한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 이동체 추돌 방지 장치은 상기 이동체의 주행 영상을 획득하는 영상 획득부, 신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 오브젝트 인식부, 상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하고, 상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 산출부 및 상기 산출된 추돌소요시간을 기초로 상기 이동체의 동작을 제어하는 제어부를 포함한다.On the other hand, the apparatus for preventing collision with a moving object according to an embodiment of the present invention for achieving the above object is an image acquisition unit that acquires a driving image of the moving object, and object recognition for recognizing an object in the acquired driving image using a neural network model a calculator for calculating a relative distance between the moving object and the object based on the recognized object, and calculating a required collision time between the object and the moving object based on the calculated relative distance; and the calculated required collision time and a control unit for controlling the operation of the moving object based on the .
그리고, 상기 신경망 모델은 상기 주행 영상 내 오브젝트를 인식하여 상기 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스(bounding box) 및 상기 바운딩박스 내 오브젝트를 분류(classification)하여 출력할 수 있다.In addition, the neural network model may recognize an object in the driving image, classify and output a bounding box indicating an object region in the driving image and an object in the bounding box.
또한, 상기 주행 영상 내 인식된 오브젝트의 위치 변화를 트래킹(tracking)하여 상기 오브젝트의 이동을 추적하는 오브젝트 트래킹부를 더 포함할 수 있다.The apparatus may further include an object tracking unit configured to track the movement of the object by tracking a change in the position of the object recognized in the driving image.
그리고, 상기 주행 영상 내 인식된 오브젝트의 위치 상태를 판단하는 위치 상태 판단부 및 상기 오브젝트의 타입에 따른 상기 위치 상태를 기초로 상기 이동체와 추돌 가능성이 낮은 오브젝트는 트래킹 대상에서 제외하는 트래킹 결정부를 더 포함할 수 있다.In addition, a position state determination unit for determining the position state of the object recognized in the driving image, and a tracking determining unit for excluding from the tracking target an object with a low probability of colliding with the moving object based on the position state according to the type of the object may include
또한, 상기 산출부는 상기 바운딩박스를 기초로 상기 주행 영상 내 가상의 수평선을 생성할 수 있다.Also, the calculator may generate a virtual horizontal line in the driving image based on the bounding box.
그리고, 상기 산출부는 상기 생성된 가상의 수평선과 상기 바운딩박스의 바닥면 수직 좌표를 기초로 상기 예상 상대 거리를 산출할 수 있다.In addition, the calculator may calculate the expected relative distance based on the generated virtual horizontal line and the vertical coordinates of the bottom surface of the bounding box.
또한, 상기 산출부는 상기 바운딩박스의 수직 높이와 상기 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출할 수 있다.Also, the calculator may calculate an expected relative distance based on a vertical height of the bounding box and an actual height of the object.
그리고, 상기 상대 거리를 산출하는 단계는 상기 산출된 예상 상대 거리를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리를 산출할 수 있다.In addition, the calculating of the relative distance may include calculating the relative distance through prediction and update by applying the calculated expected relative distance to a Kalman filter.
또한, 상기 산출부는 상기 이동체의 속도를 고려하여 상기 추돌소요시간을 산출할 수 있다.In addition, the calculator may calculate the required time required for the collision in consideration of the speed of the moving object.
한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 이동체용 전자 장치는 이동체의 주행 영상을 촬영하는 촬영부, 상기 촬영부에서 촬영된 주행 영상을 획득하는 영상 획득부, 신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 인식부, 상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하고, 상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 산출부 및 상기 산출된 추돌소요시간을 기초로 상기 이동체의 주행 안내를 위한 정보를 출력하는 출력부를 포함한다.On the other hand, the electronic device for a moving object according to an embodiment of the present invention for achieving the above object includes a photographing unit that captures a driving image of a moving object, an image acquisition unit that acquires a driving image captured by the photographing unit, and a neural network model. A recognition unit that recognizes an object in the obtained driving image using and an output unit for outputting information for guiding the traveling of the moving object based on a calculation unit for calculating a time and the calculated required collision time.
또한, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 프로그램에는 상술한 추돌 방지 방법을 실행하기 위한 프로그램 코드가 기록될 수 있다. In addition, a program code for executing the above-described collision avoidance method may be recorded in a program according to an embodiment of the present invention for achieving the above object.
본 발명에 따르면, 주행 영상에서 추돌 가능성을 판단하고, 추돌 가능성이 높은 경우, 추돌 주의 안내를 제공하거나 이동체가 제동되도록 제어할 수 있다.According to the present invention, it is possible to determine the possibility of a collision in the driving image, and when the probability of a collision is high, to provide a collision warning guidance or to control a moving object to be braked.
또한, 본 발명은 이벤트 정보를 통해 이동체의 분실, 파손, 추돌 사고 등에 대한 원인을 규명할 수 있다.In addition, the present invention can identify the cause of the loss, damage, collision accident, etc. of the moving object through the event information.
도 1은 본 발명의 일 실시예에 따른 이동체의 추돌 방지 장치를 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 신경망 모델의 구조를 나타낸 예시도이다.
도 3 내지 도 6은 본 발명의 일 실시예에 따른 이동체의 주행 영상을 나타내 예시도이다.
도 7은 본 발명의 일 실시예에 따른 퍼스널 모빌리티의 촬영 환경을 나타낸 예시도이다.
도 8은 본 발명의 일 실시예에 따른 칼만 필터를 나타낸 예시도이다.
도 9는 본 발명의 일 실시예에 따른 이동체 기준의 좌표계를 나타낸 예시도이다.
도 10은 본 발명의 일 실시예에 따른 추돌 방지 방법을 나타낸 흐름도이다.
도 11은 본 발명의 일 실시예에 따른 이동체 관리 시스템을 나타낸 예시도이다.
도 12는 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도이다.
도 13은 본 발명의 일 실시예에 따른 이동체의 모니터링 방법을 나타낸 타이밍도이다.
도 14는 본 발명의 일 실시 예에 따른 자율 주행 시스템을 나타내는 블록도 이다.
도 15는 본 발명의 일 실시 예에 따른 자율 주행 차량의 구성을 나타내는 블록도 이다.1 is a block diagram illustrating an apparatus for preventing collision of a moving object according to an embodiment of the present invention.
2 is an exemplary diagram illustrating the structure of a neural network model according to an embodiment of the present invention.
3 to 6 are exemplary views illustrating driving images of a moving object according to an embodiment of the present invention.
7 is an exemplary diagram illustrating a photographing environment of personal mobility according to an embodiment of the present invention.
8 is an exemplary diagram illustrating a Kalman filter according to an embodiment of the present invention.
9 is an exemplary diagram illustrating a coordinate system based on a moving object according to an embodiment of the present invention.
10 is a flowchart illustrating a collision avoidance method according to an embodiment of the present invention.
11 is an exemplary diagram illustrating a moving object management system according to an embodiment of the present invention.
12 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
13 is a timing diagram illustrating a method for monitoring a moving object according to an embodiment of the present invention.
14 is a block diagram illustrating an autonomous driving system according to an embodiment of the present invention.
15 is a block diagram illustrating the configuration of an autonomous driving vehicle according to an embodiment of the present invention.
이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시 되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art can devise various devices that, although not explicitly described or shown herein, embody the principles of the invention and are included in the spirit and scope of the invention. In addition, it should be understood that all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of understanding the inventive concept and are not limited to the specifically enumerated embodiments and states as such. .
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above-described objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the invention pertains will be able to easily practice the technical idea of the invention. .
또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.In addition, in the description of the invention, if it is determined that a detailed description of a known technology related to the invention may unnecessarily obscure the gist of the invention, the detailed description thereof will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 이동체의 추돌 방지 장치를 나타내는 블록도이다.1 is a block diagram illustrating an apparatus for preventing collision of a moving object according to an embodiment of the present invention.
도 1을 참조하면, 이동체(200)의 추돌 방지 장치(10)는 영상 획득부(11), 오브젝트 인식부(12), 위치 상태 판단부(13), 트래킹 결정부(14), 오브젝트 트래킹부(15), 정규화 처리부(16), 산출부(17) 및 제어부(18)를 포함할 수 있다. 이동체(10)는 이동체(200)의 촬영 장치나 별도의 촬영 장치에서 촬영된 주행 영상을 기초로 이동체의 추돌을 방지하기 위한 여러 안내나 제어를 제공할 수 있다. Referring to FIG. 1 , the
여기서, 이동체는 이동 가능하고 안내가 필요한 객체로, 일 예로, 사람, 강아지, 차량, 오토바이, 자전거, 퍼스널 모빌리티 등일 수 있다. 이하에서는 설명의 편의를 위하여 이동체가 퍼스널 모빌리티로 구현된 경우를 예로, 추돌 방지 장치(10)를 구성하는 각각의 구성 모듈에 대해서 보다 상세하게 설명하기로 한다.Here, the moving object is a movable object and requires guidance, and may be, for example, a person, a dog, a vehicle, a motorcycle, a bicycle, personal mobility, and the like. Hereinafter, for convenience of description, each component module constituting the
영상 획득부(11)는 이동체의 자체 촬영 장치나 별도의 촬영 장치에서 촬영된 주행 영상을 획득할 수 있다. 일 예로, 영상 획득부(11)는 이동체의 주행 중에 이동체에 설치된 촬영 장치에서 촬영된 주행 영상을 실시간으로 획득할 수 있다. 다른 예로, 영상 획득부(11)는 이동체주행 중에 이동체사용자가 구비한 촬영 장치(예를 들어, 착용자의 헬멧에 설치된 촬영 장치, 착용자가 손으로 들고 있는 촬영 장치 등)에서 촬영된 주행 영상을 실시간으로 획득할 수 있다.The
여기서, 획득된 주행 영상에는 이동체의 주행 환경에 따라 인도 또는 차도 내 보행자, 오토바이, 차량, 방해물 등의 다양한 오브젝트들이 포함될 수 있다.Here, the acquired driving image may include various objects such as pedestrians, motorcycles, vehicles, and obstacles in the sidewalk or road according to the driving environment of the moving object.
오브젝트 인식부(12)는 신경망 모델을 기초로 획득된 주행 영상 내 오브젝트들을 인식할 수 있다.The
구체적으로, 오브젝트 인식부(12)는 획득된 주행 영상을 프레임(frame) 단위로 신경망 모델에 입력하고, 주행 영상 내 오브젝트 영역을 나타내는 바운딩 박스(bounding box) 및 바운딩 박스 내 오브젝트의 타입 정보가 포함된 주행 영상을 획득할 수 있다. 여기서, 신경망 모델은, 일 예로, CNN 네트워크를 기반으로 하는 객체 인식 모델로 SSD(Single shot multibox detector) 알고리즘이 이용될 수 있다. 이와 관련하여 도 2 및 도 3을 참조하여 설명한다.Specifically, the
도 2는 본 발명의 일 실시예에 따른 신경망 모델의 구조를 나타낸 예시도이다. 도 3은 본 발명의 일 실시예에 따른 주행 영상을 나타낸 예시도이다.2 is an exemplary diagram illustrating the structure of a neural network model according to an embodiment of the present invention. 3 is an exemplary view showing a driving image according to an embodiment of the present invention.
도 2를 참조하면, 신경망 모델은 입력된 주행 영상에 기 학습된 VGG-16 모델의 conv5_3까지 통과하며 베이스 특징(base feature)을 추출하고, 추출된 특징맵을 컨벌루션(Convolution)을 하며 다음 층(layer)로 전달하며 1x1 크기의 특징맵까지 컨벌루션 할 수 있다. 그리고, 각 층에서 추출된 특징맵들을 탐색기 및 분류기(Detector & Classifier)를 이용하여 특징맵 내 오브젝트 탐지(Object Detection)를 수행하여 각 특징맵 내 오브젝트에 대응되는 바운딩 박스 좌표 정보 및 오브젝트를 분류한 타입 정보가 포함된 특징맵을 출력한다.2, the neural network model passes through the input driving image to conv5_3 of the pre-trained VGG-16 model, extracts the base feature, and convolves the extracted feature map to the next layer ( layer) and convolution is possible up to a 1x1 size feature map. Then, by performing object detection in the feature map using the Detector & Classifier for the feature maps extracted from each layer, the bounding box coordinate information corresponding to the object in each feature map and the object are classified. Outputs a feature map including type information.
그 후, 특징맵들에 비-최대 억제(Non-maximum Suppression, MNS)를 적용하여 하나의 탐지 결과가 포함된 주행 영상을 최종 출력할 수 있다.Thereafter, a driving image including one detection result may be finally output by applying non-maximum suppression (MNS) to the feature maps.
예를 들어, 도 3을 참조하면, 도 3의 (a)와 같은 주행 영상 중 하나의 프레임이 신경망에 입력되면, 신경망은 도 3의 (b)와 같이 주행 영상 내 오브젝트에 각각 대응되는 바운딩박스(31a, 32a, 33a, 34a) 및 오브젝트를 분류한 타입 정보(31b, 32b, 33b, 34b)가 포함된 주행 영상을 출력할 수 있다. 여기서, 바운딩 박스에는 바운딩 박스의 좌표 정보가 포함된다.For example, referring to FIG. 3 , when one frame of the driving image as shown in (a) of FIG. 3 is input to the neural network, the neural network generates a bounding box corresponding to an object in the driving image as shown in FIG. 3 (b). (31a, 32a, 33a, 34a) and object classification type information (31b, 32b, 33b, 34b) including the driving image may be output. Here, the bounding box includes coordinate information of the bounding box.
즉, 신경망 모델은 주행 영상 내 오브젝트를 인식하여 주행 영상 내 오브젝트 영역을 나타내는 바운딩 박스(bounding box) 및 해당 바운딩 박스 내 오브젝트를 타입별로 분류(classification)하여 출력할 수 있다.That is, the neural network model may recognize an object in the driving image and classify and output a bounding box indicating an object region in the driving image and an object in the corresponding bounding box by type.
한편, 도 3의 바운딩 박스 및 바운딩 박스 내 오브젝트의 타입 정보는 하나의 예시이며, 필요에 따라 다르게 표현될 수 있다. 또한, 상술한 신경망 모델은 하나의 예시이며, SSD 알고리즘 이외에도 RefineDet, YOLO 등의 여러 알고리즘이 이용될 수 있다.Meanwhile, the type information of the bounding box and the object in the bounding box of FIG. 3 is an example, and may be expressed differently as needed. In addition, the above-described neural network model is an example, and in addition to the SSD algorithm, various algorithms such as RefineDet and YOLO may be used.
다시, 도 1로 돌아와서, 위치 상태 판단부(13)는 주행 영상 내 인식된 오브젝트의 위치 상태를 판단할 수 있다. 이때, 위치 상태 판단부(13)는 주행 영상 내 인식된 오브젝트들의 바운딩 박스 위치를 기초로 해당 오브젝트의 위치 상태를 판단할 수 있다. 여기서, 오브젝트의 위치 상태는 해당 오브젝트가 위치한 곳이 어디인지 나타내며, 예를 들어, 위치 상태에는 해당 인식된 오브젝트가 인도에 위치한 상태, 도로에 위치한 상태, 고가도로에 위치한 상태, 건물 난간에 위치한 상태 등이 포함할 수 있다.Again, returning to FIG. 1 , the position
구체적으로, 위치 상태 판단부(13)는 주행 영상 내 가상의 수평선을 기준으로 인식된 오브젝트들의 바운딩 박스의 위치를 비교하여 해당 오브젝트의 위치 상태를 판단할 수 있다.Specifically, the position
예를 들어, 위치 상태 판단부(13)는 인식된 오브젝트의 바운딩 박스가 주행 영상 내 가상의 수평선의 중심을 기준으로 어느정도 좌측 또는 우측에 위치하는지, 인식된 오브젝트의 바운딩 박스가 주행 영상 내 가상의 수평선 위 또는 아래에 위치하는지 또는 주행 영상 내 가상의 수평선 위에 위치한 비율 등을 기준으로 해당 오브젝트의 위치 상태를 판단할 수 있다.For example, the position
또한, 위치 상태 판단부(13)는 주행 영상 내 인식된 오브젝트 중 인접한 다른 오브젝트와 인식된 오브젝트들의 바운딩 박스의 상대적인 위치 차이를 기준으로 해당 오브젝트의 위치 상태를 판단할 수 있다.Also, the position
트래킹 결정부(14)는 오브젝트의 타입에 따른 위치 상태를 기초로 트래킹 대상 결정할 수 있다.The tracking
구체적으로, 트래킹 결정부(14)는 인식된 오브젝트의 타입에 따른 해당 오브젝트의 위치 상태를 기초로 이동체와 추돌 가능성을 판단하고, 이동체와 추돌 가능성이 낮은 오브젝트는 트래킹(tracking) 대상에서 제외할 수 있으며, 추돌 가능성이 높은 오브젝트는 트래킹 대상으로 결정할 수 있다. 이때, 트래킹 결정부(14)는 이동체의 현재 주행 위치를 고려하여 추돌 가능성을 판단할 수 있다.Specifically, the
예를 들어, 이동체의 타입이 퍼스널 모빌리티인 경우, 트래킹 결정부(14)는 주행 영상 내 인식된 오브젝트 중 도로에 위치한 차량을 추돌 가능성이 낮다고 판단하고, 해당 오브젝트를 트래킹 대상에서 제외할 수 있다.For example, when the type of moving object is personal mobility, the tracking
다른 예로, 이동체의 타입이 차량인 경우, 트래킹 결정부(14)는 주행 영상 내 인식된 오브젝트 중 도보에 위치한 사람은 추돌 가능성이 낮다고 판단하고, 해당 오브젝트를 트래킹 대상에서 제외할 수 있다.또한, 트래킹 결정부(14)는 인식된 오브젝트의 타입에 따른 해당 오브젝트의 위치 상태를 기초로 해당 오브젝트가 오인식 되었다고 판단되는 경우, 해당 오브젝트를 트래킹 대상에서 제외할 수 있다.As another example, when the type of the moving object is a vehicle, the tracking
예를 들어, 대형 전광판이나 포스터의 오브젝트를 인식한 경우, 트래킹 결정부(14)는 해당 오브젝트를 트래킹 대상에서 제외할 수 있다.For example, when an object of a large electric signboard or poster is recognized, the
즉, 트래킹 결정부(14)는 주행 영상 내 인식된 오브젝트들 중 유의미한 오브젝트를 판단하고, 해당 오브젝트만을 트래킹 대상으로 결정할 수 있다.That is, the tracking
이를 통해, 추돌 방지 장치(10)는 한정된 리소스 자원을 보다 효율적으로 이용할 수 있다.Through this, the
오브젝트 트래킹부(15)는 주행 영상 내 인식된 오브젝트의 바운딩 박스 위치 변화를 트래킹(tracking)하여 해당 오브젝트의 이동 경로, 이동 속도 및 이동 방향을 추적할 수 있다.The
구체적으로, 오브젝트 트래킹부(15)는 주행 영상의 이전 프레임과 현재 프레임을 비교하여 인식된 오브젝트의 바운딩 박스 위치 변화를 트래킹하고, 오브젝트의 바운딩 박스의 위치 변화를 기초로 오브젝트의 이동 경로 및 이동 방향을 추적할 수 있다. 이때, 오브젝트 갱신부(15)는 여러 종류의 오브젝트 트래킹 알고리즘(object tracking algorithm)이 이용될 수 있다. Specifically, the
예를 들어, 오브젝트 트래킹부(15)는 센트로이드 트래킹 알고리즘(Centroid Tracking Algorithm)을 이용하여 오브젝트의 바운딩박스의 위치를 추적할 수 있다. 이와 관련하여 도 4를 참조하여 설명한다. For example, the
도 4를 참조하면, 오브젝트 트래킹부(15)는 주행 영상의 이전 프레임(a)에 인식된 오브젝트의 바운딩 박스 중심 좌표(41a, 42a, 43a, 44a, 45a : x, y)와 현재 프레임(b)에 인식된 오브젝트의 바운딩 박스 중심 좌표(41b, 43b, 44b, 45b)를 각각 산출하고, 이전 프레임(a)과 현재 프레임(b) 내 바운딩 박스 중심 좌표 간의 유클리드 거리 계산하여 해당 바운딩 박스를 트래킹할 수 있다. 이때, 오브젝트 트래킹부(15)는 인식된 오브젝트들은 최단거리로 이동한다는 것을 가정하여 오브젝트의 바운딩 박스를 트래킹하며, 각 오브젝트의 바운딩 박스에는 오브젝트를 식별하기 위한 traking ID(또는 unique ID)가 할당할 수 있다.Referring to FIG. 4 , the
또한, 오브젝트 트래킹부(15)는 이전 프레임에 없던 오브젝트가 현재 프레임에 인식된 경우에는 새로운 오브젝트에 traking ID를 할당하며, 이전 프레임에 있던 오브젝트가 현재 프레임에 인식되지 않는 경우에는 해당 오브젝트의 traking ID를 삭제할 수 있다.In addition, the
그리고, 오브젝트 트래킹부(15)는 오브젝트의 바운딩 박스를 트래킹한 후, 주행영상의 이전 프레임(a)과 현재 프레임(b) 오브젝트의 중심 좌표의 위치 변화량을 기초로 오브젝트의 이동 경로 및 이동 방향을 산출할 수 있다. 이때, 이동체의 이동 속도 및 이동 방향을 고려할 수 있다.And, after tracking the bounding box of the object, the
즉, 오브젝트 트래킹부(15)는 트래킹 대상 오브젝트를 트래킹하여 주행 영상 내 오브젝트를 이동을 추적할 수 있으며, 해당 오브젝트의 이동 경로, 이동 속도 및 이동 방향을 판단할 수 있다.That is, the
정규화 처리부(16)는 오브젝트의 바운드박스가 포함된 주행 영상을 정규화(normalization)할 수 있다.The
구체적으로, 정규화 처리부(16)는 저역 필터(Low Pass Filter)를 이용하여 주행 영상을 정규화할 수 있다. 예를 들어, 정규화 처리부(16)는 도 5(a)와 같은 주행 영상을 도 5(b)와 같은 주행 영상으로 정규화할 수 있다. 이때, 주행 영상 내 오브젝트의 바운드박스는 정규화를 통해 오브젝트의 위치를 보다 정확하게 표시할 수 있다.Specifically, the
산출부(17)는 인식된 오브젝트를 기초로 이동체와 오브젝트 간의 상대 거리를 산출할 수 있다.The
우선, 산출부(17)는 주행 영상 내 인식된 오브젝트의 바운딩박스를 기초로 주행 영상 내 가상의 수평선을 생성할 수 있다. First, the
구체적으로, 산출부(17)는 아래의 수학식 1을 이용하여 주행 영상 내 가상 수평선을 산출할 수 있다Specifically, the
수학식 1에서 는 가상 수평선의 픽셀 수직 좌표 , 은 주행 영상 내 인식된 바운딩 박스 개수, 는 i 번째 인식된 바운딩 박스의 바닥면 픽셀 수직 좌표, 는 주행 영상을 촬영한 카메라의 실제 설치된 높이, 는 i 번째 인식된 바운딩 박스의 픽셀 너비, 는 오브젝트의 실제 평균 너비, 는 오브젝트의 실제 평균 너비 오프셋, 는 전체 바운딩박스 바닥면의 평균 픽셀 수직 좌표, 는 인식된 오브젝트의 평균 너비를 의미한다. 여기서, 인식된 오브젝트의 평균 너비는 오브젝트의 바운딩 박스 평균 너비를 의미한다.in
이와 관련하여 도 6을 참조하면, 산출부(17)는 주행 영상 내 복수의 바운딩박스의 평균 수직 좌표와 주행 영상을 촬영한 카메라의 실제 높이, 오브젝트의 실제 평균 너비 및 인식된 오브젝트의 평균 너비를 기초로 주행 영상 내 가상의 수평선()을 생성할 수 있다. In this regard, referring to FIG. 6 , the
또한, 은 주행 영상에서 인식된 오브젝트의 바운딩 박스 각각의 너비(, , , )의 평균을 의미하며, 는 인식된 오브젝트의 바운딩박스 각각의 바닥면 높이(, , , )의 평균을 의미한다. 이때, 좌표는 픽셀단위일 수 있다.In addition, is the width of each bounding box of the object recognized in the driving image ( , , , ) means the average of is the height of the bottom of each bounding box of the recognized object ( , , , ) means the average of In this case, the coordinates may be in units of pixels.
그리고, 산출부(17)는 생성된 가상의 수평선과 바운딩 박스의 바닥면 수직 좌표를 기초로 해당 오브젝트와 이동체의 예상 상대 거리를 산출할 수 있다.In addition, the
구체적으로, 산출부(17)는 아래의 수학식 2를 이용하여 오브젝트와 이동체의 예상 상대 거리를 산출할 수 있다.Specifically, the
수학식 2에서 는 오브젝트와 이동체의 예상 상대 거리, 는 카메라의 초점 거리, 는 주행 영상을 촬영한 카메라의 실제 설치된 높이, 는 가상 수평선, 는 인식된 바운딩박스의 바닥면 픽셀 수직 좌표를 의미할 수 있다. 이와 관련하여 도 7의 (a)를 참조하여 하나의 예시를 설명한다.in
도 7의 (a)는 퍼스널 모빌리티의 촬영 환경의 예시이며, (71)은 해당 촬영 환경에서 촬영된 주행 영상의 예시이다.7A is an example of a photographing environment of personal mobility, and reference numeral 71 is an example of a driving image captured in the corresponding photographing environment.
도 7의 (a)를 참조하면, 산출부(17)는 퍼스널 모빌리티에 장착된 카메라의 실제 설치된 높이()와 초점거리(), 주행 영상(71) 내 인식된 보행자의 바운딩 박스(72) 바닥면의 높이(), 산출된 가상 수평선의 수직 좌표()를 이용하여 인식된 보행자와 퍼스널 모빌리티 사이의 예상 상대 거리()를 산출할 수 있다.Referring to (a) of FIG. 7 , the
한편, 가상의 수평선을 산출할 수 없는 경우, 산출부(17)는 인식된 오브젝트의 바운딩박스 수직 좌표와 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출할 수도 있다. 여기서, 가상의 수평선을 산출할 수 없는 경우에는 카메라의 실제 설치된 높이를 판단할 수 없거나 인식된 오브젝트 바운딩박스의 바닥면 픽셀 수직 좌표를 판단할 수 없는 경우 등이 포함될 수 있다.Meanwhile, when the virtual horizontal line cannot be calculated, the
구체적으로, 산출부(17)는 아래의 수학식 3을 이용하여 오브젝트와 이동체의 예상 상대 거리를 산출할 수 있다.Specifically, the
수학식 3에서 는 오브젝트와 이동체의 예상 상대 거리, 는 카메라의 초점 거리, 는 오브젝트의 실제 평균 높이, 는 오브젝트의 바운딩박스 높이를 의미할 수 있다. 이와 관련하여 도 7의 (b)를 참조하여 하나의 예시를 설명한다.in
도 7의 (b)는 퍼스널 모빌리티의 촬영 환경의 예시이며, (73)은 해당 촬영 환경에서 촬영된 주행 영상의 예시이다.7 (b) is an example of a photographing environment of personal mobility, and (73) is an example of a driving image captured in the corresponding photographing environment.
도 7의 (a)를 참조하면, 산출부(17)는 퍼스널 모빌리티에 장착된 카메라의 초점거리(), 주행 영상(73) 내 인식된 보행자의 바운딩박스(74) 높이() 및 인식된 보행자의 실제 평균 신장()을 이용하여 인식된 보행자와 퍼스널 모빌리티 사이의 예상 상대 거리()를 산출할 수 있다.Referring to FIG. 7A , the
한편, 도 7에서는 퍼스널 모빌리티를 예로 설명하였으나, 산출 과정은 차량 등에 다른 이동체에도 동일하게 적용될 수 있다. Meanwhile, although personal mobility has been described as an example in FIG. 7 , the calculation process may be equally applied to other moving objects such as a vehicle.
또한, 산출부(17)는 산출된 예상 상대 거리에 칼만필터를 적용하여 상대 거리를 산출할 수 있다. 이와 관련하여 도 8을 참조하여 설명한다.Also, the
도 8을 참조하면, 산출부(17)는 산출된 예상 상대 거리()를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리()를 산출할 수 있다. 여기서 상대 거리()는 예상 상대 거리()를 기초로 인식된 오브젝트와 이동체 사이의 거리를 보다 정확하게 산출한 값을 의미한다.Referring to FIG. 8 , the
도 8에서 상태 변수()는 [; ; ]로 정의되며, 는 또는 기초로 산출된 예상 상대 거리, 는 이동체의 속도, 는 이동체의 가속도를 의미한다.In Fig. 8, the state variable ( )Is [ ; ; ] is defined as is the estimated relative distance calculated on the basis of is the speed of the moving object, is the acceleration of the moving object.
또한, 시스템 모델은 상태 전이 행렬, 측정값 전이 행렬, 시스템 잡음, 측정값 잡음으로 구성될 수 있으며, 시스템 모델은 아래 수학식 4와 같이 정의될 수 있다.In addition, the system model may be composed of a state transition matrix, a measurement value transition matrix, system noise, and measurement value noise, and the system model may be defined as in
는 상태 전이 행렬, 는 측정값 전이 행렬, 는 시스템 잡음, 는 측정값 잡음을 의미한다.is the state transition matrix, is the measured value transition matrix, is the system noise, and is the measured value noise.
즉, 산출부(17)는 칼만필터를 이용하여 예상 상대 거리()의 오차를 줄인 상대 거리()를 산출할 수 있다. That is, the
한편, 상술한 상대 거리(는 이동체의 진행 방향인 종방향의 거리(Longitudinal Distance)를 의미하며 이와 관련하여 도 9를 참조하여 설명한다.On the other hand, the above-mentioned relative distance ( denotes a longitudinal distance, which is the moving direction of the moving body, and will be described with reference to FIG. 9 in this regard.
도 9는 본 발명의 일 실시예에 따른 이동체 기준의 좌표계를 나타낸 예시도이다.9 is an exemplary diagram illustrating a coordinate system based on a moving object according to an embodiment of the present invention.
도 9의 (a)는 이동체 기준의 좌표계를 3차원 뷰(3D View)로 나타내고 도 9의 (b)는 이동체 기준의 좌표계를 탑뷰(Top View)로 나타낸 것으로, 이동체 기준의 좌표계는 이동체의 현재 위치가 기준점()이고 이동체의 진행 방향(종방향)이 X축되며, 이동체의 측면 방향이 Y축이 되는 좌표계이다.Fig. 9(a) shows the moving object-based coordinate system as a 3D view, and Fig. 9(b) shows the moving-object-based coordinate system as a top view. The position is the reference point ( ), the moving direction (longitudinal direction) of the moving object is the X-axis, and the lateral direction of the moving object is the Y-axis.
즉, 상대 거리()는 이동체 기준의 좌표계에서 오브젝트와 이동체 사이의 X축 방향의 거리를 의미할 수 있다.That is, the relative distance ( ) may mean a distance in the X-axis direction between the object and the moving body in the moving body-based coordinate system.
또한, 산출부(17)는 아래의 수학식 5를 이용하여 측면 거리()를 산출할 수 있다.In addition, the
수학식 5에서 는 오브젝트와 이동체 사이의 Y축 방향의 거리, x는 오브젝트의 바운딩 박스 픽셀 수평 좌표, 는 이동체 기준의 좌표계에서 오브젝트와 이동체 사이의 X축 방향의 거리, 는 카메라의 초점 거리를 의미할 수 있다.in Equation 5 is the distance in the Y-axis direction between the object and the moving object, x is the horizontal coordinate of the object's bounding box pixel, is the distance in the X-axis direction between the object and the moving body in the coordinate system of the moving body, may mean a focal length of the camera.
또한, 산출부(17)는 산출된 측면 거리()를 기초로 추돌 대상 여부를 판단할 수 있다. In addition, the
구체적으로, 산출부(17)는 산출된 측면 거리와 안전 여유 거리(safety margin distance, )를 비교하여 추돌 대상 여부를 판단할 수 있다. 여기서, 안전 여유 거리는 퍼스널 모빌리 기준의 좌표계에서 Y축 방향의 소정 거리로써, 이동체가 진행 방향으로 이동할 때, 이동체와 오브젝트가 서로 추돌하지 않을 최소한의 Y축 방향의 거리를 의미할 수 있다. 이와 관련하여 도 9의 (b)를 참조하여 설명한다.Specifically, the
도 9의 (b)를 참조하면, 산출부(17)는 오브젝트(91, 93) 각각에 대해 각각의 측면 거리(, )를 산출하고, 산출된 측면 거리(, )와 안전 여유 거리()를 비교하고, 산출된 측면 거리가 안전 거리보다 작은 오브젝트(91)는 이동체의 추돌 대상으로 판단하고, 측면 거리가 안전 거리보다 큰 오브젝트(93)은 추돌 비대상으로 판단할 수 있다. Referring to (b) of FIG. 9 , the
또한, 산출부(17)는 이동체의 종류, 주행 속도, 주행 장소 및 이동체가 퍼스널 모빌리티인 경우 사용자의 신체조건(키, 몸무게, 어깨 넓이, 양팔 간격 등) 중 적어도 하나 이상을 기초로 안전 여유 거리를 가변적으로 결정하여 이용할 수 있다.In addition, the
예를 들어, 퍼스널 모빌리티의 주행 속도가 빠르거나, 오브젝트의 이동변화 또는 이동속도가 빠른 장소에서 주행 중인 경우, 산출부(17)는 안전 여유 거리를 보다 넓게 결정할 수 있다.For example, when the traveling speed of personal mobility is high, or when the vehicle is traveling in a place where the movement change or movement speed of an object is high, the
또한, 추돌 대상이 정해진 경우, 산출부(17)는 해당 오브젝트의 산출된 상대 거리()를 기초로 인식된 오브젝트와 이동체 간의 추돌까지 소요되는 시간인 추돌소요시간을 산출할 수 있다. In addition, when the collision target is determined, the
구체적으로, 산출부(17)는 아래의 수학식 6을 이용하여 이동체(200)와 인식된 오브젝트 간의 추돌소요시간을 산출할 수 있다.Specifically, the
수학식 6에서 T는 추돌소요시간, D는 이동체(200)와 인식된 오브젝트 간의 상대거리, V는 이동체의 속도를 의미한다. In Equation 6, T is the collision time required, D is the relative distance between the moving
즉, 산출부(17)는 이동체의 속도를 고려하여 인식된 오브젝트와의 추돌소요시간을 산출할 수 있다.That is, the
한편, 산출부(17)는 산출 조건에 따라 상대 거리 산출 방식을 결정하고, 결정된 상대 거리 산출 방식을 이용하여 상대 거리를 산출할 수 있다. 여기서, 상대 거리 산출 방식은 상술한 가상 수평선을 이용하는 방식(수학식 2)과 바운딩박스 크기를 이용하는 방식(수학식 3)이며, 산출 조건에는 가상 수평선 산출 가능 유무, 인식된 오브젝트의 크기 정도(바운딩박스의 크기 정도), 주행 중 경사 변화 정도, 인식된 오브젝트 수 중 적어도 하나 이상이 포함될 수 있다.Meanwhile, the
예를 들어, 산출부(17)는 주행 중 경사 변화가 소정 기준을 넘으며, 인식된 오브젝트가 하나인 산출 조건인 경우, 산출부(17)는 바운딩박스 크기를 이용하는 방식으로 상대 거리를 산출할 수 있다.For example, the
즉, 산출부(17)는 산출 조건에 따라 상대 거리 산출 방식을 결정하고, 결정된 산출 방식으로 인식된 오브젝트를 기초로 이동체와 오브젝트 간의 상대 거리를 산출하고, 산출된 상대 거리를 기초로 오브젝트와 이동체 간의 추돌소요시간을 산출할 수 있다.That is, the
제어부(18)는 오브젝트와 추돌 가능성을 판단하고, 이동체의 추돌 방지를 위한 여러 제어 명령을 제공할 수 있다.The
구체적으로, 제어부(18)는 산출된 추돌소요시간을 기초로 인식된 오브젝트와 추돌 가능성을 판단할 수 있다. 이때, 제어부(18)는 추돌 요소를 고려하여 추돌 가능성을 판단할 수 있다. 여기서, 추돌 요소에는 이동체의 브레이크 성능, 이동체의 주행 환경(포장도로, 인도, 비포장도로 주행 등), 이동체를 이용하는 사용자의 몸무게 및 주변 환경(보행자가 많은 지역, 감속 요구 지역 등) 등이 추돌 가능성에 영향을 주는 여러 요소들이 포함될 수 있다.Specifically, the
또한, 제어부(18)는 추돌 가능성이 있다고 판단되는 경우, 추돌 주의 안내를 제공하거나 이동체가 제동되도록 제어할 수 있다. Also, when it is determined that there is a possibility of a collision, the
예를 들어, 산출된 추돌소요시간을 기초로 상기 오브젝트와 추돌 가능성이 있다고 판단된 경우, 제어부(18)는 퍼스널 모빌리티의 동작을 제어하는 제어 명령을 생성하여 퍼스널 모빌리티로 제공할 수 있다.For example, if it is determined that there is a possibility of a collision with the object based on the calculated required collision time, the
이어서, 도 10을 참조하여 추돌 방지 장치(10)의 이동체의 추돌 방지 방법에 대해서 설명한다.Next, with reference to FIG. 10, the collision prevention method of the moving object of the
도 10은 본 발명의 일 실시예에 따른 추돌 방지 방법을 나타낸 흐름도이다.10 is a flowchart illustrating a collision avoidance method according to an embodiment of the present invention.
도 10을 참조하면, 이동체(200) 자체 카메라 또는 외부 카메라 장치로부터 촬영된 이동체(200)의 주행 영상을 획득할 수 있다(S10).Referring to FIG. 10 , a driving image of the moving
또한, 추돌 방지 장치(10)는 신경망 모델을 이용하여 획득된 주행 영상 내 오브젝트를 인식할 수 있다(S20). 여기서, 신경망 모델은 상기 주행 영상 내 오브젝트를 인식하여 상기 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스(bounding box) 및 상기 바운딩박스 내 오브젝트를 분류(classification)하여 출력할 수 있다.Also, the
구체적으로, 오브젝트를 인식하는 단계(S20)는 획득된 주행 영상을 프레임 단위로 신경망 모델에 입력하고, 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스와 바운딩박스 내 오브젝트의 타입 정보가 포함된 주행 영상을 획득하여 주행 영상 내 오브젝트를 인식할 수 있다.Specifically, the step of recognizing the object (S20) is to input the acquired driving image to the neural network model in frame units, and to obtain a driving image including a bounding box indicating an object region in the driving image and type information of an object in the bounding box. Thus, an object in the driving image can be recognized.
그리고, 주행 영상 내 인식된 오브젝트의 위치 상태를 판단할 수 있다(S30).Then, it is possible to determine the state of the position of the object recognized in the driving image (S30).
구체적으로, 위치 상태를 판단하는 단계(S30)는 주행 영상 내 인식된 오브젝트들의 바운딩박스 위치를 기초로 해당 오브젝트의 위치 상태를 판단할 수 있다.Specifically, in the step of determining the position state ( S30 ), the position state of the object may be determined based on the positions of the bounding boxes of the objects recognized in the driving image.
그리고, 오브젝트의 타입에 따른 위치 상태를 기초로 트래킹 대상 결정할 수 있다(S40). And, it is possible to determine the tracking target based on the location state according to the type of object (S40).
구체적으로, 트래킹 대상 결정 단계(S40)는 인식된 오브젝트의 타입에 따른 해당 오브젝트의 위치 상태를 기초로 인식된 오브젝트가 오인식 되었는지 판단하거나 이동체와 추돌 가능성을 판단하여 트래킹 대상 결정할 수 있다.Specifically, the tracking target determination step (S40) may determine whether the recognized object is misrecognized based on the positional state of the corresponding object according to the type of the recognized object or by determining the possibility of colliding with a moving object to determine the tracking target.
예를 들어, 트래킹 대상 결정 단계(S40)는 인식된 오브젝트의 타입에 따른 해당 오브젝트의 위치 상태를 기초로 이동체와 추돌 가능성을 판단하고, 이동체와 추돌 가능성이 낮은 오브젝트는 트래킹(tracking) 대상에서 제외(S40 : N)하며, 다시 오브젝트 인식 단계(S20)를 재 수행 수 있다.For example, the tracking target determination step S40 determines the possibility of collision with the moving object based on the positional state of the corresponding object according to the recognized object type, and excludes the moving object and the low probability of collision with the tracking target (S40: N), the object recognition step (S20) may be re-performed.
또한, 트래킹 대상 결정 단계(S40)는 이동체와 추돌 가능성이 높은 오브젝트는 트래킹 대상으로 결정할 수 있다(S40 : Y).In addition, in the tracking target determination step (S40), an object with a high probability of colliding with a moving object may be determined as a tracking target (S40: Y).
그리고, 트래킹 대상으로 결정된 주행 영상 내 오브젝트의 위치 변화를 트래킹(tracking)하여 오브젝트의 이동을 추적할 수 있다(S50).In addition, the movement of the object may be tracked by tracking a change in the position of the object in the driving image determined as the tracking target ( S50 ).
구체적으로, 추돌 방지 장치(10)는 주행 영상의 이전 프레임과 현재 프레임을 비교하여 인식된 오브젝트의 바운딩박스 위치 변화를 트래킹하고, 오브젝트의 바운딩박스의 위치 변화를 기초로 오브젝트의 이동 경로 및 이동 방향을 추적할 수 있다.Specifically, the
그리고, 인식된 오브젝트를 포함하는 주행 영상을 정규화(normalization)할 수 있다(S60). Then, the driving image including the recognized object may be normalized (S60).
그리고, 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출할 수 있다(S70).Then, a relative distance between the moving object and the object may be calculated based on the recognized object (S70).
구체적으로, 상대 거리를 산출하는 단계(S70)는 인식된 오브젝트들의 바운딩박스를 기초로 주행 영상 내 가상의 수평선을 생성하고, 생성된 가상의 수평선과 인식된 오브젝트의 바운딩박스의 바닥면 수직 좌표를 기초로 예상 상대 거리를 산출할 수 있다.Specifically, the step of calculating the relative distance (S70) is to generate a virtual horizontal line in the driving image based on the bounding boxes of the recognized objects, and calculate the generated virtual horizontal line and the vertical coordinates of the bottom surface of the bounding box of the recognized object. Based on this, the expected relative distance can be calculated.
또한, 가상의 수평선을 생성할 수 없는 경우, 상대 거리를 산출하는 단계(S70)는 인식된 오브젝트의 바운딩박스의 수직 높이와 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출할 수 있다.In addition, when the virtual horizontal line cannot be generated, the step of calculating the relative distance ( S70 ) may calculate the expected relative distance based on the vertical height of the recognized object's bounding box and the actual height of the object.
그리고, 상대 거리를 산출하는 단계(S70)는 산출된 예상 상대 거리를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리를 산출할 수 있다.In the step of calculating the relative distance ( S70 ), the relative distance may be calculated through prediction and update by applying the calculated expected relative distance to the Kalman filter.
그리고, 측면 거리를 산출하고 산출된 측면 거리를 기초로 추돌 대상 여부를 판단하고, 추돌 대상이 존재하는 경우, 해당 추돌 대상 오브젝트의 산출된 상대 거리를 기초로 오브젝트와 이동체 간의 추돌소요시간을 산출할 수 있다(S80). 구체적으로, 추돌소요시간을 산출하는 단계(S80)는 이동체의 속도를 고려하여 추돌소요시간을 산출할 수 있다.Then, calculate the side distance, determine whether a collision target is based on the calculated side distance, and if there is a collision target, calculate the required collision time between the object and the moving body based on the calculated relative distance of the collision target object It can be (S80). Specifically, in calculating the required collision time ( S80 ), the required collision time may be calculated in consideration of the speed of the moving object.
그리고, 산출된 추돌소요시간을 기초로 이동체의 동작을 제어할 수 있다(S90). 구체적으로, 제어하는 단계(S90)는 오브젝트와 추돌 가능성이 있는 경우, 추돌 주의 안내를 제공하거나 이동체가 제동되도록 제어할 수 있다.Then, it is possible to control the operation of the moving object based on the calculated required collision time (S90). Specifically, in the controlling step ( S90 ), when there is a possibility of colliding with an object, a collision warning guide may be provided or a moving object may be controlled to be braked.
한편, 상술한 추돌 방지 장치(10)는 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 구현될 수 있다. 일 예로, 하드웨어적인 구현에 의하면, ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(micro-processors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Meanwhile, the above-described
도 11은 본 발명의 일 실시예에 따른 이동체 관리 시스템(1000)을 나타낸 예시도이다.11 is an exemplary diagram illustrating a moving
도 11을 참조하면, 이동체 관리 시스템은 전자 장치(100), 이동체(200), 모니터링 서버(300) 및 유관 기관(400)으로 구성될 수 있다. Referring to FIG. 11 , the moving object management system may include an
전자 장치(100)는 상술한 추돌 방지 장치(10)의 기능을 하나의 구성으로 포함하며, 이동체의 사용자에게 주행 관련 안내들을 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 블랙 박스, dash cam 또는 video recorder 등과 같은 다양한 장치로 구현될 수 있고, 이동체(200)에 구비될 수 있다.The
이동체(200)는 한명의 사용자가 이용하는 비공유 이동체와 다수의 사용자가 함께 이용하는 공유 이동체를 모두 포함할 수 있으며 이하에서는 공유 이동체를 기준으로 설명한다. 여기서, 공유 이동체는 사용자 단말기 내 설치된 사용자 어플리케이션을 통해 대여, 반납 및 대여비 결제될 수 있다.The
모니터링 서버(300)는 이동체(200)를 지속적으로 모니터링할 수 있다. The
구체적으로, 모니터링 서버(300)는 사용자 어플리케이션을 통해 해당 이동체(200)의 대여, 반납 및 대여비 결제를 모니터링할 수 있으며, 사용자 정보를 전자 장치(100)로 전달할 수 있다. 여기서, 사용자 정보에는 이동체 (200)를 대여한 사용자에 대한 정보로써, 이동체(200)의 대여비 결제 여부 및 사용자의 얼굴 정보 등이 포함될 수 있다Specifically, the
또한, 모니터링 서버(300)는 전자 장치(100)로부터 이벤트 정보를 수신하고, 관리자(310)는 이벤트 정보를 기초로 해당 이동체(200)나 전자 장치(300)로 전자 장치(100)나 이동체(200)의 동작을 제어하는 관리자 명령을 전송하거나 유관 기관에 연락할 수 있다. In addition, the
즉, 모니터링 서버(300)는 이벤트 정보를 기초로 사용자에게 발생한 이벤트 상황에 대응할 수 있다.That is, the
유관 기관(400)는 이벤트 상황에 관련된 기관으로써, 이벤트의 타입에 따라 경찰서, 의료기관, 구조기관 등이 될 수 있다.The
이하에서는 이동체 관리 시스템(1000)의 전자 장치(100)의 구성에 대해서 설명한다.Hereinafter, the configuration of the
도 12는 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도이다.12 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
도 12를 참조하면, 전자 장치(100)는 촬영부(110), 추돌 예상부(120), 출력부(130), 입력부(140), 센싱부(150), 통신부(160), 이벤트 감지부(170), 저장부(180) 및 제어부(190)를 포함할 수 있다.12 , the
촬영부(110)는 이동체의 주변을 촬영하는 기능을 수행할 수 있다.The photographing
구체적으로, 촬영부(110)는 전방을 촬영하여 이동체의 주행 영상이나 주차 영상을 얻을 수 있다. 또한, 촬영부(110)는 이동체의 사용자를 촬영하여 사용자 영상을 얻을 수도 있다.Specifically, the photographing
추돌 예상부(120)는 상술한 추돌 방지 장치(10)의 기능들을 수행할 수 있다.The
구체적으로, 추돌 예상부(120)는 상술한 추돌 방지 장치(10)의 영상 획득부(11), 오브젝트 인식부(12), 위치 상태 판단부(13), 트래킹 결정부(14), 오브젝트 갱신부(15), 정규화 처리부(16) 및 산출부(17)의 각 기능을 수행할 수 있다.Specifically, the
즉, 추돌 예상부(120)는 촬영부(110)에서 촬영된 주행 영상을 획득하여 오브젝트를 인식하고, 인식된 오브젝트와의 상대 거리를 산출하며, 산출된 상대 거리를 기초로 추돌소요시간을 산출할 수 있다.That is, the
출력부(130)는 전자 장치(100)의 여러 데이터를 사용자에게 영상 및/또는 음성으로 출력하는 장치이다.The
예를 들어, 출력부(130)는 추돌소요시간을 기초로 이동체(200)의 주행 안내를 위한 정보를 출력할 수 있다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(132)의 전부 또는 일부를 포함할 수 있다.For example, the
디스플레이부(131)는 사용자에게 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. The
구체적으로, 디스플레이부(131)는 주행 안내 정보, 주행 속도, 주행 영상, 탑승 시간, 결제 시간, 남은 대여 시간 등을 출력할 수 있다. Specifically, the
예를 들어, 추돌 가능성이 있다고 판단된 경우, 디스플레이부(131)에는 추돌을 경고하는 안내 정보가 출력될 수 있다.For example, when it is determined that there is a possibility of a collision, guide information warning of a collision may be output on the
오디오 출력부(132)는 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 여기서, 오디오 출력부(132)는 전자 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다.The
구체적으로 오디오 출력부(132)는 주행 안내 정보, 주행 속도, 주행 영상 남은 대여 시간 등을 출력할 수 있다.Specifically, the
입력부(140)는 전자 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 여기서, 입력부(140)는 사용자 입력부(141)와 마이크부(142)의 전부 또는 일부를 포함할 수 있다.The
사용자 입력부(141)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력부(141)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The
마이크부(142)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The
센싱부(150)는 전자 장치(100)의 동작에 필요한 여러 데이터를 센싱하여 획득할 수 있다.The
구체적으로, 센싱부(150)는 전자 장치(100)나 이동체의 충격을 센싱하여 충격 데이터를 획득할 수 있다. 또한, 센싱부(150)는 전자 장치(100)나 이동체의 현재 위치 데이터를 획득할 수 있다.Specifically, the
통신부(150)는 이동체(200), 모니터링 서버(300), 외부 장치 및 유관 기관(400)과 통신하여 여러 데이터를 송수신할 수 있다. 여기서, 외부 장치는 다른 전자 장치나 다른 이동체(200)를 의미할 수 있다.The
구체적으로, 통신부(150)는 이동체의 동작을 제어하기 위한 제어 명령을 이동체로 송신할 수 있다.Specifically, the
또한, 통신부(150)는 모니터링 서버(300)로부터 사용자 정보나 이벤트 정보를 송신하거나 수신할 수 있다. 또한, 통신부(150)는 모니터링 서버(300)로부터 관리자 명령을 수신할 수도 있다.In addition, the
이벤트 감지부(170)는 이동체의 여러 이벤트들의 발생 여부를 감지할 수 있다.The
구체적으로, 이벤트 감지부(170)는 사용자 영상을 기초로 탑승 이벤트의 발생 여부를 감지할 수 있다. 여기서, 탑승 이벤트는 공유 이동체의 사용자가 공유 이동체 탑승 시에 안전 장비를 착용 여부, 선결제 여부, 사용자 본인 여부 등을 나타내는 정보이다.Specifically, the
예를 들어, 이벤트 감지부(170)는 사용자 영상을 영상 처리하여 사용자가 안전 장비(헬멧, 무릎 보호대, 팔꿈치 보호대 등)를 착용 여부를 인식하고, 해당 사용자가 안전 장비를 착용하지 않은 경우에는 탑승 이벤트가 발생하였다고 감지할 수 있다.For example, the
다른 예로, 이벤트 감지부(170)는 사용자 영상을 영상 처리하여 탑승한 사용자의 얼굴을 인식하여 해당 공유 이동체의 등록된 사용자의 얼굴 정보와 비교한 후, 탑승한 사용자의 얼굴과 사용자의 얼굴 정보 다르다고 판단되는 경우에는 탑승 이벤트가 발생하였다고 감지할 수 있다.As another example, the
또한, 이벤트 감지부(170)는 주행 영상, 사용자 입력 및 충격 데이터 중 적어도 하나를 기초로 사고 이벤트의 발생 여부를 감지할 수 있다. 여기서, 사고 이벤트는 공유 이동체의 사용자에게 긴급 상황이 발생 여부에 관한 것으로, 공유 이동체의 사용자가 주행 중 추돌 사고 여부, 슬립 사고 여부, 등을 나타내는 이벤트 정보이다. 여기서, 사용자 입력에는 사용자의 응급 구조 요청 명령이 포함될 수 있다.Also, the
예를 들어, 주행 영상에서 인식된 오브젝트와 추돌하는 경우, 이벤트 감지부(170)는 공유 이동체의 사용자에게 사고 이벤트가 발생하였다고 감지할 수 있다.For example, in the case of colliding with an object recognized in the driving image, the
또한, 이벤트 감지부(170)는 주행 영상 및 현재 위치 데이터 중 적어도 하나를 기초로 주의 이벤트의 발생 여부를 감지할 수 있다. 여기서, 주의 이벤트는 공유 이동체의 사용자에 대해 주의가 필요한 상황의 발생 여부에 관한 것으로, 과속 주행 여부, 비정상 주행 여부(불법 앞지르기, 불법 끼어들기 등) 등을 나타내는 이벤트 정보이다.Also, the
예를 들어, 주행 영상에서 인식된 오브젝트와 인접하게 주행한다고 판단된 경우, 이벤트 감지부(170)는 공유 이동체의 사용자에게 주의 이벤트가 발생하였다고 감지할 수 있다.For example, when it is determined that the vehicle travels adjacent to the object recognized in the driving image, the
다른 예로, 현재 위치 데이터를 기초로 해당 지역의 규정 속도보다 현재 공유 이동체의 속도가 빠르다고 판단된 경우, 이벤트 감지부(170)는 공유 이동체의 사용자에게 주의 이벤트가 발생하였다고 감지할 수 있다.As another example, if it is determined based on the current location data that the speed of the current shared moving object is faster than the prescribed speed of the corresponding area, the
또한, 이벤트 감지부(170)는 사용자 영상 및 현재 위치 데이터 중 적어도 하나를 기초로 하차 이벤트의 발생 여부를 감지할 수 있다. 여기서, 하차 이벤트는 공유 이동체의 사용자가 공유 이동체 하차 시에 안전 장비의 탈착 및 보관 여부, 공유 이동체의 불법 주차 여부 등을 나타내는 이벤트 정보이다.Also, the
예를 들어, 현재 위치 데이터를 기초로 공유 이동체가 불법 주차 구역에 주차된 경우, 이벤트 감지부(170)는 하차 이벤트가 발생하였다고 판단할 수 있다.For example, when the shared mobile is parked in an illegal parking area based on the current location data, the
즉, 이벤트 감지부(170)는 주행 영상, 사용자 영상, 충격 데이터 및 현재 위치 데이터를 기초로 공유 이동체의 사용자에게 탑승 이벤트, 사고 이벤트, 주의 이벤트 및 하차 이벤트 중 적어도 하나의 발생 여부를 감지할 수 있다.That is, the
저장부(160)는 전자 장치(100)의 동작에 필요한 다양한 데이터들을 저장하는 기능을 수행할 수 있다.The
또한, 저장부(160)는 전자 장치(100)의 동작에 의하여 생성된 데이터, 예를 들어 주행 영상, 인식된 오브젝트, 이벤트 정보, 주행 경로 등을 저장할 수 있다. Also, the
이러한 저장부(160)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈 가능한 형태의 저장소자로 구현될 수도 있다.The
제어부(170)는 전자 장치(100)의 전반적인 동작을 제어할 수 있다.The
구체적으로, 이벤트 감지부(170)에서 이벤트 발생이 감지된 경우, 제어부(170)는 이벤트 정보를 생성하고 생성된 이벤트 정보를 모니터링 서버(300)나 유관 기관(400)으로 전로 이벤트 관련 정보가 전송되도록 통신부(150)를 제어할 수 있다.Specifically, when the
여기서, 이벤트 정보에는 발생된 이벤트 타입 정보(탑승 이벤트, 사고 이벤트, 주의 이벤트, 하차 이벤트 등), 이벤트 영상 정보(예를 들어, 이벤트 발생 전후의 주행 영상, 사용자 영상 등), 이벤트 발생 위치 및 시간 정보, 주행 영상 내 오브젝트의 이동 경로, 이동 속도 및 이동 방향 등이 포함될 수 있다.Here, the event information includes generated event type information (boarding event, accident event, attention event, alighting event, etc.), event video information (eg, driving video before and after the event, user video, etc.), event occurrence location and time Information, a movement path of an object in the driving image, a movement speed and a movement direction, etc. may be included.
또한, 제어부(170)는 생성된 이벤트 정보 마다 긴급도를 판단하고, 긴급도에 따라 생성된 이벤트 정보를 모니터링 서버(300)나 유관 기관(400)으로 선택적으로 전송되도록 통신부(150)를 제어할 수 있다. 이때, 제어부(170)는 이벤트 발생에 따른 사용자의 피해 정도에 따라 긴급도를 판단할 수 있으며, 이벤트 타입 정보, 충격 데이터 및 이동체(200)의 속도 중 적어도 하나를 기초로 긴급도를 판단할 수 있다.In addition, the
또한, 제어부(170)는 관리자 명령을 기초로 전자 장치(100)나 이동체(200)의 동작을 제어할 수 있다. 여기서, 관리자 명령에는 이동체의 비상등이 동작하도록 제어하거나 구조 사이렌이 동작하도록 제어하거나 이동체가 제동되도록 제어하는 제어 명령 등이 포함될 수 있다.Also, the
이를 통해, 이동체(200)에서 발생한 사고가 확대되는 것을 방지할 수 있으며 이동체(200)의 사용자의 피해를 최소화할 수 있다.Through this, it is possible to prevent an accident occurring in the moving
한편, 제어부(170)는 상술한 추돌 방지 장치(10)의 제어부(18)의 기능을 모두 수행할 수 있다.Meanwhile, the
이하, 도 13을 참조하여 이동체 관리 시스템(1000)의 이동체 모니터링 방법에 대해 설명한다. Hereinafter, a moving object monitoring method of the moving
도 13은 본 발명의 일 실시예에 따른 이동체 관리 시스템의 이동체 모니터링 방법을 나타낸 타이밍도이다.13 is a timing diagram illustrating a method for monitoring a moving object of a moving object management system according to an embodiment of the present invention.
도 13을 참조하면, 모니터링 서버(300)는 사용자 정보를 전자 장치(100)로 전송할 수 있다(S100). 여기서, 사용자 정보는 사용자 어플리케이션을 통해 입력될 수 있다.Referring to FIG. 13 , the
다음, 전자 장치(100)는 이벤트 발생을 감지하는데 필요한 여러 데이터를 획득할 수 있다(S200). 구체적으로, 전자 장치(100)는 이동체(200)의 전방 영상, 주변 영상, 사용자 영상, 충격 데이터 및 현재 위치 데이터 등을 획득할 수 있다.Next, the
다음, 전자 장치(100)는 획득된 여러 데이터를 기초로 이동체(200)의 사용자에게 이벤트가 발생하였는지 여부를 감지할 수 있다(S300).Next, the
구체적으로, 전자 장치(100)는 주행 영상, 사용자 영상, 충격 데이터 및 현재 위치 데이터를 기초로 공유 이동체의 사용자에게 탑승 이벤트, 사고 이벤트, 주의 이벤트, 하차 이벤트의 발생 여부를 감지할 수 있다.Specifically, the
그리고, 이벤트 발생가 발생된 경우, 전자 장치(100)는 이벤트 정보를 생성(S400)하고, 생성된 이벤트 정보를 모니터링 서버(300)로 전송하거나 발생된 이벤트의 긴급도에 따라 유관 기관(400)으로 전송할 수 있다(S500).And, when an event occurs, the
다음, 모니터링 서버(300)는 수신된 이벤트 정보를 기초로 해당 이동체(200)나 이동체의 사용자를 실시간 모니터링할 수 있다(S600).Next, the
또한, 모니터링 서버(300)는 관리자(310)의 판단에 따라 유관 기관(400)으로 이벤트 정보 및 출동 요청 명령을 전송할 수 있다(S700). 이때, 유관 기관(400)은 이벤트 정보를 기초로 해당 이벤트가 발생된 곳으로 출동할 수 있다.In addition, the
또한, 모니터링 서버(300)는 발생된 이벤트에 대응되는 관리자 명령을 전자 장치(100)로 전송할 수 있다(S800). 예를 들어, 모니터링 서버(300)는 이동체가 제동되도록 제어하는 관리자 명령을 전자 장치(100)로 전송할 수 있다.Also, the
그리고, 전자 장치(100)는 수신된 관리자 명령을 기초로 전자 장치(100)나 이동체(200)의 동작을 제어할 수 있다(S900).Then, the
상술한 이동체 관리 시스템(1000)을 통해, 이동체의 사용자를 실시관 모니터링할 수 있으며, 이동체의 사용자에게 이벤트 발생시, 빠르게 대처할 수 있다.Through the above-described moving
또한, 모니터링 서버(300)는 이벤트 정보를 통해, 이동체의 분실, 파손, 사고 등에 대한 원인을 규명할 수 있다.In addition, the
나아가, 이동체 관리 시스템(1000)을 통해 이동체의 보험사의 협의를 통해 보험할인 유도로 정부시책 부흥하며, 이동체의 녹화 및 추돌 방지 의무화 등을 통해 시장을 선도할 수 있다.Furthermore, through the mobile
한편, 본 발명에 따른 이동체의 추돌 방지 장치(10) 및 전자 장치(100)를 구성하는 모듈의 적어도 하나 이상은 자율 주행을 위한 시스템의 일 모듈로 구현되어 경로 안내 기능을 수행할 수 있다. 이에 대해서는 도 14 내지 15를 참조하여 보다 구체적으로 설명하기로 한다.Meanwhile, at least one of the modules constituting the device for preventing collision of a moving
도 14을 참조하면, 본 실시예에 따른 자율 주행 차량(2000)은 제어 장치(2100), 센싱모듈(2004a, 2004b, 2004c, 2004d), 엔진(2006), 및 사용자 인터페이스(2008)를 포함할 수 있다.Referring to FIG. 14 , the
자율 주행 차량(2000)은 자율 주행 모드 또는 메뉴얼 모드를 구비할 수 있다. 일 예로, 사용자 인터페이스(2008)를 통해 수신된 사용자 입력에 따라 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.The
차량(2000)이 자율 주행 모드로 운행되는 경우 자율 주행 차량(2000)은 제어 장치(2100)의 제어하에 운행될 수 있다. When the
본 실시예에서 제어 장치(2100)는 메모리(2122)와 프로세서(2124)를 포함하는 컨트롤러(2120), 센서(2110), 통신 장치(2130), 오브젝트 검출 장치(2140)를 포함할 수 있다.In this embodiment, the
여기서, 오브젝트 검출 장치(2140)는 상술한 추돌 방지 장치(10)의 전부 또는 일부의 기능을 수행할 수 있다. Here, the
즉, 본 실시 예에서, 오브젝트 검출 장치(2140)는 차량(2000) 외부에 위치하는 오브젝트를 검출하기 위한 장치로, 오브젝트 검출 장치(2140)는 차량(2000) 외부에 위치하는 오브젝트를 검출하고, 검출 결과에 따른 오브젝트 정보를 생성할 수 있다.That is, in the present embodiment, the
오브젝트 정보는 오브젝트의 존재 유무에 대한 정보, 오브젝트의 위치 정보, 차량과 오브젝트와의 거리 정보 및 차량과 오브젝트와의 상대 속도 정보를 포함할 수 있다. The object information may include information on the existence of an object, location information of the object, distance information between the vehicle and the object, and relative speed information between the vehicle and the object.
오브젝트는, 차선, 타 차량, 보행자, 교통 신호, 빛, 도로, 구조물, 과속 방지턱, 지형물, 동물 등을 차량(2000)의 외부에 위치한 다양한 객체를 포함할 수 있다. 여기서, 교통 신호는 교통 신호등, 교통 표지판, 도로 면에 그려진 문양 또는 텍스트를 포함하는 개념일 수 있다. 그리고, 빛은 타 차량에 구비된 램프에서 생성된 빛이거나 가로등에서 생성된 빛이거나 태양광일 수 있다. The object may include various objects positioned outside the
그리고, 구조물은 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 신호등, 다리를 포함할 수 있다. 지형물은, 산, 언덕, 등을 포함할 수 있다.In addition, the structure may be an object located around the road and fixed to the ground. For example, the structure may include a street lamp, a street tree, a building, a power pole, a traffic light, and a bridge. Features may include mountains, hills, and the like.
이러한 오브젝트 검출 장치(2140)는 카메라 모듈을 포함할 수 있다. 컨트롤러(2120)는 카메라 모듈에서 촬영되는 외부 이미지로부터 객체 정보를 추출하고 이에 대한 정보를 컨트롤러(2120)가 처리하도록 할 수 있다.The
또한, 오브젝트 검출 장치(2140)는 외부 환경을 인식하기 위한 이미징 장치들이 더욱 포함할 수 있다. LIDAR 외에 RADAR, GPS 장치, 주행 거리 측정 장치(Odometry) 및 기타 컴퓨터 비전 장치, 초음파 센서, 적외선 센서 들이 이용될 수 있으며, 이들의 장치는 필요에 따라 선택 또는 동시에 동작하여 보다 정밀한 감지가 가능하도록 한다.Also, the
한편, 본 발명의 일 실시 예에 따른 추돌 방지 장치(10)는 인식된 오브젝트의 위치 상태를 판단하고, 오브젝트의 타입에 따른 위치 상태를 기초로 트래킹 대상을 결정할 수 있다. 그리고, 추돌 방지 장치(10)는 트래킹 대상으로 결정된 주행 영상 내 오브젝트의 위치 변화를 트래킹(tracking)하여 오브젝트의 이동을 추적하고, 인식된 오브젝트를 포함하는 주행 영상을 정규화(normalization)하며, 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출할 수 있다. On the other hand, the
그리고, 추돌 방지 장치(10)는 자율 주행 차량(2000)의 제어 장치(2100)와 연계하여 산출된 추돌소요시간을 기초로 이동체의 동작을 제어할 수 있다. In addition, the
일 예로, 자율 주행 차량(2000)과 오브젝트 간의 추돌 가능성이 있는 경우, 자율 주행 차량(2000)은 속도를 낮추거나 또는 정지하도록 브레이크를 제어할 수 있다. 다른 예로, 오브젝트가 이동하는 오브젝트인 경우, 자율 주행 차량(2000)은 오브젝트와 동일 속도로 이동하도록 자율 주행 차량(2000)의 주행 속도를 제어할 수 있다. As an example, if there is a possibility of a collision between the
이러한 본 발명의 일 실시 예에 따른 추돌 방지 장치(10)는 자율 주행 차량(2000)의 제어 장치(2100) 내의 일 모듈로 구성될 수 있다. 즉, 제어 장치(2100)의 메모리(2122)와 프로세서(2124)가 본 발명에 따른 추돌 방지 방법을 소프트웨어적으로 구현하도록 할 수 있다.The
또한, 센서(2110)는 차량 내부/외부 환경을 센싱모듈(2004a, 2004b, 2004c, 2004d)와 연결되어 각종 센싱 정보를 획득할 수 있다. 여기서, 센서(2110)는 자세 센서(예를 들면, 요 센서(yaw sensor), 롤 센서(roll sensor), 피치 센서(pitch sensor), 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서, 등을 포함할 수 있다. Also, the
이에 따라, 센서(2110)는 차량 자세 정보, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the
또한, 센서(2110)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다. In addition, the
이와 같이, 센서(2110)는 센싱 데이터를 기초로 차량 상태 정보를 생성할 수 있다. In this way, the
무선 통신 장치(2130)는 자율 주행 차량(2000) 간의 무선 통신을 구현하기 위해 구성된다. 예를 들어, 사용자의 모바일 폰, 또는 다른 무선 통신 장치(2130), 다른 차량, 중앙 장치(교통 제어 장치), 서버 등과 자율 주행 차량(2000)이 통신할 수 있도록 한다. 무선 통신 장치(2130)는 무선 신호를 접속 무선 프로토콜에 따라 송수신할 수 있다. 무선 통신 프로토콜은 Wi-Fi, Bluetooth, Long-Term Evolution (LTE), Code Division Multiple Access (CDMA), Wideband Code Division Multiple Access (WCDMA), Global Systems for Mobile Communications (GSM)일 수 있으며, 통신 프로토콜은 이에 제한되지 않는다.The
또한 본 실시 예에서 자율 주행 차량(2000)은 무선 통신 장치(2130)를 통해 차량 간 통신을 구현하는 것도 가능하다. 즉, 무선 통신 장치(2130)는 차량 대 차량 간(V2V) 통신(vehicle-to-vehicle communication)으로 도로 상의 다른 차량 및 다른 차량들과 통신을 수행할 수 있다. 자율 주행 차량(2000)은 주행 경고, 교통 정보와 같은 정보를 챠량 간 통신으로 통해 송수신할 수 있으며, 다른 차량에게 정보를 요청하거나 요청을 수신하는 것도 가능하다. 예를 들어, 무선 통신 장치(2130)는 V2V 통신을 단 거리 통신(DSRC, dedicated short-range communication) 장치 또는 C-V2V(Cellular-V2V) 장치로 수행할 수 있다. 또한 차량 간의 통신 외에 차량과 다른 사물(예컨대 보행자가 휴대하는 전자 기기 등) 간의 통신(V2X, Vehicle to Everything communication)도 무선 통신 장치(2130)를 통해 구현할 수 있다.Also, in the present embodiment, the
본 실시 예에서 컨트롤러(2120)는 차량(2000) 내의 각 유닛의 전반적인 동작을 제어하는 유닛으로, 차량의 제조사에 의해 제조 시 구성되거나 또는 제조 후에 자율 주행의 기능 수행을 위해 추가 구성될 수 있다. 또는 제조시 구성된 컨트롤러(2120)의 업그레이드를 통해 지속적인 부가 기능 수행을 위한 구성이 포함될 수 있다. 이러한 컨트롤러(2120)는 ECU(Electronic Control Unit)로 명명될 수도 있다. In this embodiment, the
컨트롤러(2120)는 연결된 센서(2110), 오브젝트 검출 장치(2140), 통신 장치(2130) 등으로부터 각종 데이터를 수집하고, 수집된 데이터를 기반으로 제어 신호를 차량 내 다른 구성들로 포함된 센서(2110), 엔진(2006), 사용자 인터페이스(2008), 통신 장치(2130), 오브젝트 검출 장치(2140)에 전달할 수 있다. 또한, 도시되는 않았으나 차량의 주행과 관련된 가속 장치, 브레이킹 시스템, 조향 장치, 또는 네비게이션 장치에도 제어 신호를 전달할 수 있다.The
본 실시예에서, 컨트롤러(2120)는 엔진(2006)을 제어할 수 있으며 예를 들어 자율 주행 차량(2000)이 주행 중인 도로의 제한 속도를 감지하고 주행 속도가 제한 속도를 초과하지 않도록 엔진(2006)을 제어하거나, 제한 속도를 초과하지 않는 범위 내에서 자율 주행 차량(2000)의 주행 속도를 가속하도록 엔진(2006)을 제어할 수 있다. In the present embodiment, the
또한, 컨트롤러(2120)는 자율 주행 차량(2000)의 주행 중 자율 주행 차량(2000)이 차선에 근접하거나 차선을 이탈하고 있다면, 이러한 차선 근접 및 이탈이 정상 주행 상황에 따른 것인지 또는 그 외의 주행 상황에 따른 것인지 판단하며, 판단 결과에 따라 차량의 주행을 제어하도록 엔진(2006)을 제어할 수 있다. 구체적으로, 자율 주행 차량(2000)은 차량이 주행 중인 차로의 양 측에 형성된 차선을 검출할 수 있다. 이 경우, 컨트롤러(2120)는 자율 주행 차량(2000)이 차선에 근접하거나 차선을 이탈하고 있는지 여부를 판단하고, 만약, 자율 주행 차량(2000)이 차선에 근접하거나 차선을 이탈하고 있다고 판단되면 이러한 주행이 정확한 주행 상황에 따른 것인지 또는 그 외의 주행 상황에 따른 것인지 판단할 수 있다. 여기서, 정상 주행 상황의 예로, 차량의 차로 변경이 필요한 상황일 수 있다. 그리고, 그 외의 주행 상황의 예로, 차량의 차로 변경이 필요하지 않은 상황일 수 있다. 만약, 컨트롤러(2120)는 차량의 차로 변경이 필요하지 않은 상황에서 자율 주행 차량(2000)이 차선에 근접하거나 차선을 이탈하고 있다고 판단되면, 자율 주행 차량(2000)이 차선을 이탈하지 않고 해당 차량에서 정상적으로 주행하도록 자율 주행 차량(2000)의 주행을 제어할 수 있다. In addition, if the
차량의 전방에 다른 차량 또는 방해물이 존재하는 경우에는 주행 차량을 감속하도록 엔진(2006) 또는 브레이킹 시스템을 제어할 수 있으며, 속도 외에도 궤적, 운행 경로, 조향 각을 제어할 수 있다. 또는 컨트롤러(2120)는 차량의 주행 차선, 주행 신호 등 기타 외부 환경의 인식 정보에 따라 필요한 제어 신호를 생성하여 차량의 주행을 제어할 수 있다.When there is another vehicle or an obstacle in front of the vehicle, the
컨트롤러(2120)는 자체적인 제어 신호의 생성 외에 주변 차량 또는 중앙 서버와의 통신을 수행하고 수신된 정보를 통해 주변 장치들을 제어하기 위한 명령을 전송함으로써, 차량의 주행을 제어하는 것도 가능하다.The
또한, 컨트롤러(2120)는 카메라 모듈(2150)의 위치가 변경되거나 화각이 변경될 경우, 본 실시예에 따른 정확한 차량 또는 차선 인식이 어려울 수 있으므로, 이를 방지하기 위해 카메라 모듈(2150)의 캘리브레이션(calibration)을 수행하도록 제어하는 제어 신호를 생성할 수도 있다. 따라서, 본 실시예에서는 컨트롤러(2120)는 카메라 모듈(2150)로 캘리브레이션 제어 신호를 발생시킴으로써, 자율주행차량(2000)의 움직임에 따라 발생되는 진동 또는 충격 등에 의해 카메라 모듈(2150)의 장착 위치가 변경되더라도, 카메라 모듈(2150)의 정상적인 장착 위치, 방향, 화각 등을 지속적으로 유지할 수 있다. 컨트롤러(2120)는 미리 저장된 카메라 모듈(2120)의 최초 장착 위치, 방향, 화각 정보와 자율주행차량(2000)의 주행 중에 측정되는 카메라 모듈(2120)의 최초 장착 위치, 방향, 화각 정보 등이 임계 값 이상으로 달라질 경우, 카메라 모듈(2120)의 캘리브레이션을 수행하도록 제어 신호를 발생할 수 있다.In addition, when the position of the camera module 2150 is changed or the angle of view is changed, the
본 실시 예에서 컨트롤러(2120)는 메모리(2122)와 프로세서(2124)를 포함할 수 있다. 프로세서(2124)는 메모리(2122)에 저장된 소프트웨어를 컨트롤러(2120)의 제어 신호에 따라 실행시킬 수 있다. 구체적으로 컨트롤러(2120)는 본 발명에 따른 차선 검출 방법을 수행하기 위한 데이터 및 명령들은 메모리(2122)에 저장하고, 명령들은 여기에 개시된 하나 이상의 방법들을 구현하기 위해 프로세서(2124)에 의해 실행될 수 있다. In this embodiment, the
이때, 메모리(2122)는 비 휘발성의 프로세서(2124)에서 실행 가능한 기록 매체에 저장될 수 있다. 메모리(2122)는 적절한 내 외부 장치를 통해 소프트웨어와 데이터를 저장할 수 있다. 메모리(2122)는 RAM(random access memory), ROM(read only memory), 하드디스크, 동글과 연결된 메모리(2122) 장치로 구성될 수 있다.In this case, the
메모리(2122)는 운영체제(OS, Operating system), 사용자 어플리케이션, 실행 가능한 명령들을 적어도 저장할 수 있다. 메모리(2122)는 어플리케이션 데이터, 배열 데이터 구조들도 저장할 수 있다.The
프로세서(2124)는 마이크로 프로세서 또는 적절한 전자적 프로세서로 컨트롤러, 마이크로 컨트롤러 또는 스테이트 머신 일 수 있다.
프로세서(2124)는 컴퓨팅 장치들의 조합으로 구현될 수 있으며, 컴퓨팅 장치는 디지털 신호 프로세서, 마이크로프로세서 이거나 이들의 적절한 조합으로 구성될 수 있다.The
한편, 자율 주행 차량(2000)은 상술한 제어 장치(2100)에 대한 사용자의 입력을 위한 사용자 인터페이스(2008)를 더 포함할 수 있다. 사용자 인터페이스(2008)는 적절한 상호작용으로 사용자가 정보를 입력하도록 할 수 있다. 예를 들어 터치스크린, 키패드, 조작 버튼 등으로 구현될 수 있다. 사용자 인터페이스(2008)는 입력 또는 명령을 컨트롤러(2120)에 전송하고, 컨트롤러(2120)는 입력 또는 명령에 대한 응답으로 차량의 제어 동작을 수행할 수 있다.Meanwhile, the
또한, 사용자 인터페이스(2008)는 자율 주행 차량(2000) 외부의 장치로 무선 통신 장치(2130)를 통해 자율 주행 차량(2000)과 통신을 수행하도록 할 수 있다. 예를 들어 사용자 인터페이스(2008)는 모바일 폰, 태블릿, 또는 기타 컴퓨터 장치와 연동 가능하도록 할 수 있다.Also, the
나아가, 본 실시예에서 자율 주행 차량(2000)은 엔진(2006)을 포함하는 것으로 설명하였으나, 다른 타입의 추진 시스템을 포함하는 것도 가능하다. 예를 들어 차량은 전기 에너지로 운행될 수 있으며, 수소 에너지 또는 이들을 조합한 하이브리드 시스템을 통해 운행될 수 있다. 따라서 컨트롤러(2120)는 자율 주행 차량(2000)의 추진 시스템에 따른 추진 메커니즘을 포함하고, 이에 따른 제어 신호를 각 추진 메커니즘의 구성들에 제공할 수 있다.Furthermore, although it has been described that the
이하, 도 15를 참조하여 본 실시예에 따른 본 발명에 따른 제어 장치(2100)의 세부 구성에 대하여 보다 상세히 설명한다. Hereinafter, a detailed configuration of the
제어 장치(2100)는 프로세서(2124)를 포함한다. 프로세서(2124)는 범용 단일 또는 다중 칩 마이크로프로세서, 전용 마이크로프로세서, 마이크로제어기, 프로그램가능 게이트 어레이 등일 수도 있다. 프로세서는 중앙 처리 장치(CPU)로 지칭될 수도 있다. 또한 본 실시예에서 프로세서(2124)는 복수의 프로세서들의 조합으로 사용되는 것도 가능하다.The
제어 장치(2100)는 또한 메모리(2122)를 포함한다. 메모리(2122)는 전자 정보를 저장할 수 있는 임의의 전자 컴포넌트일 수도 있다. 메모리(2122) 역시 단일 메모리 외에 메모리(2122)들의 조합을 포함할 수 있다.The
본 발명에 따른 차선 검출 방법을 수행하기 위한 데이터 및 명령어(2122a)들은 메모리(2122)에 저장될 수도 있다. 프로세서(2124)가 명령어(2122a)들을 실행할 때, 명령어(2122a)들과 명령의 수행에 필요한 데이터(2122b)의 전부 또는 일부가 프로세서(2124)상으로 로딩(2124a, 2124b)될 수도 있다.Data and
제어 장치(2100)는 신호들의 송신 및 수신을 허용하기 위한 송신기(2130a), 수신기(2130b) 또는 트랜시버(2130c)를 포함할 수도 있다. 하나 이상의 안테나(2132a, 2132b)들은 송신기(2130a), 수신기(2130b) 또는 각 트랜시버(2130c)에 전기적으로 연결될 수도 있으며 추가적으로 안테나들을 포함할 수도 있다.The
제어 장치(2100)는 디지털 신호 프로세서(DSP)(2170)를 포함할 수도 있다. DSP(2170)를 통해 디지털 신호를 차량이 빠르게 처리할 수 있도록 할 수 있다.The
제어 장치(2100)는 통신 인터페이스(2180)를 포함할 수도 있다. 통신 인터페이스(2180)는 다른 장치들을 제어 장치(2100)와 연결하기 위한 하나 이상의 포트들 및/또는 통신 모듈 들을 포함할 수도 있다. 통신 인터페이스(2180)는 사용자와 제어 장치(2100)가 상호 작용 할 수 있게 할 수 있다.The
제어 장치(2100)의 다양한 구성들은 함께 하나 이상의 버스(2190)들에 의해 연결될 수도 있고, 버스(2190)들은 전력 버스, 제어 신호 버스, 상태 신호 버스, 데이터 버스 등을 포함할 수도 있다. 프로세서(2124)의 제어에 따라 구성들은 버스(2190)를 통해 상호 정보를 전달하고 목적하는 기능을 수행하도록 할 수 있다.The various components of the
한편, 명세서 및 청구범위에서 "제 1", "제 2", "제 3" 및 "제 4" 등의 용어는, 만약 있는 경우, 유사한 구성요소 사이의 구분을 위해 사용되며, 반드시 그렇지는 않지만 특정 순차 또는 발생 순서를 기술하기 위해 사용된다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 시퀀스로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 마찬가지로, 여기서 방법이 일련의 단계를 포함하는 것으로 기술되는 경우, 여기에 제시된 그러한 단계의 순서는 반드시 그러한 단계가 실행될 수 있는 순서인 것은 아니며, 임의의 기술된 단계는 생략될 수 있고/있거나 여기에 기술되지 않은 임의의 다른 단계가 그 방법에 부가 가능할 것이다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Meanwhile, in the specification and claims, terms such as "first", "second", "third", and "fourth" are used to distinguish between similar elements, if any, and this is not necessarily the case. Used to describe a specific sequence or sequence of occurrences. It will be understood that the terms so used are interchangeable under appropriate circumstances to enable the embodiments of the invention described herein to operate, for example, in sequences other than those shown or described herein. Likewise, where methods are described herein as including a series of steps, the order of those steps presented herein is not necessarily the order in which those steps may be performed, and any described steps may be omitted and/or Any other steps not described may be added to the method. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.
또한 명세서 및 청구범위의 "왼쪽", "오른쪽", "앞", "뒤", "상부", "바닥", "위에", "아래에" 등의 용어는, 설명을 위해 사용되는 것이며, 반드시 불변의 상대적 위치를 기술하기 위한 것은 아니다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 방향으로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 여기서 사용된 용어 "연결된"은 전기적 또는 비 전기적 방식으로 직접 또는 간접적으로 접속되는 것으로 정의된다. 여기서 서로 "인접하는" 것으로 기술된 대상은, 그 문구가 사용되는 문맥에 대해 적절하게, 서로 물리적으로 접촉하거나, 서로 근접하거나, 서로 동일한 일반적 범위 또는 영역에 있는 것일 수 있다. 여기서 "일실시예에서"라는 문구의 존재는 반드시 그런 것은 아니지만 동일한 실시예를 의미한다.Also, terms such as "left", "right", "front", "behind", "top", "bottom", "above", "below" in the specification and claims are used for descriptive purposes, It is not necessarily intended to describe an invariant relative position. It will be understood that the terms so used are interchangeable under appropriate circumstances to enable the embodiments of the invention described herein to operate otherwise than, for example, as shown or described herein. As used herein, the term “connected” is defined as being directly or indirectly connected in an electrical or non-electrical manner. Objects described herein as being "adjacent" to one another may be in physical contact with one another, in proximity to one another, or in the same general scope or area as appropriate for the context in which the phrase is used. The presence of the phrase “in one embodiment” herein refers to the same, but not necessarily, embodiment.
또한 명세서 및 청구범위에서 '연결된다', '연결하는', '체결된다', '체결하는', '결합된다', '결합하는' 등과 이런 표현의 다양한 변형들의 지칭은 다른 구성요소와 직접적으로 연결되거나 다른 구성요소를 통해 간접적으로 연결되는 것을 포함하는 의미로 사용된다. In addition, in the specification and claims, references to 'connected', 'connecting', 'fastened', 'fastening', 'coupled', 'coupled', etc., and various variations of these expressions, refer to other elements directly It is used in the sense of being connected or indirectly connected through other components.
반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로써, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "part" for the components used in this specification are given or mixed in consideration of the ease of writing the specification, and do not have distinct meanings or roles by themselves.
또한 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the terms used herein are for the purpose of describing the embodiments and are not intended to limit the present invention. As used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various components or various steps described in the specification, some of which components or some steps are It should be construed that it may not include, or may further include additional components or steps.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 명세서를 통해 개시된 모든 실시예들과 조건부 예시들은, 본 발명의 기술 분야에서 통상의 지식을 가진 당업자가 독자가 본 발명의 원리와 개념을 이해하도록 돕기 위한 의도로 기술된 것으로, 당업자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.So far, the present invention has been looked at with respect to preferred embodiments thereof. All embodiments and conditional examples disclosed through this specification have been described with the intention of helping those of ordinary skill in the art to understand the principles and concepts of the present invention, and those skilled in the art It will be understood that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention.
그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드 할 수 있다.Meanwhile, the method according to various embodiments of the present invention described above may be implemented as a program and provided to a server or devices. Accordingly, each device can download the program by accessing the server or device in which the program is stored.
또한, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.In addition, the above-described method according to various embodiments of the present invention may be implemented as a program and stored in various non-transitory computer readable media to be provided. The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, and the like, and can be read by a device. Specifically, the above-described various applications or programs may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.
Claims (22)
상기 이동체의 주행 영상을 획득하는 단계;
신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 단계;
상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하는 단계;
상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 단계; 및
상기 산출된 추돌소요시간을 기초로 상기 이동체의 동작을 제어하는 단계를 포함하는 추돌 방지 방법.In the collision prevention method of the moving object collision avoidance device,
acquiring a driving image of the moving object;
recognizing an object in the obtained driving image using a neural network model;
calculating a relative distance between the moving object and the object based on the recognized object;
calculating a required collision time between the object and the moving body based on the calculated relative distance; and
and controlling an operation of the moving object based on the calculated required collision time.
상기 신경망 모델은 상기 주행 영상 내 오브젝트를 인식하여 상기 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스(bounding box) 및 상기 바운딩박스 내 오브젝트를 분류(classification)하여 출력하는 것을 특징으로 하는 추돌 방지 방법.The method of claim 1,
The neural network model recognizes an object in the driving image and classifies and outputs a bounding box indicating an object region in the driving image and an object in the bounding box.
상기 주행 영상 내 인식된 오브젝트의 위치 변화를 트래킹(tracking)하여 상기 오브젝트의 이동을 추적하는 단계;를 더 포함하는 것을 특징으로 하는 추돌 방지 방법.3. The method of claim 2,
The method of claim 1, further comprising: tracking the movement of the object by tracking a change in the position of the object recognized in the driving image.
상기 오브젝트가 인식된 주행 영상을 정규화(normalization)하는 단계를 더 포함하는 것을 특징으로 하는 추돌 방지 방법.4. The method of claim 3,
Collision avoidance method, characterized in that it further comprises the step of normalizing the driving image in which the object is recognized.
상기 주행 영상 내 인식된 오브젝트의 위치 상태를 판단하는 단계; 및
상기 오브젝트의 타입에 따른 상기 위치 상태를 기초로 주행 영상 내 인식된 오브젝트 중 트래킹 대상이 되는 오브젝트를 결정하는 단계;를 더 포함하는 것을 특징으로 하는 추돌 방지 방법.3. The method of claim 2,
determining a position state of an object recognized in the driving image; and
Determining an object to be tracked from among the objects recognized in the driving image based on the positional state according to the type of the object;
상기 상대 거리를 산출하는 단계는 상기 바운딩박스를 기초로 상기 주행 영상 내 가상의 수평선을 생성하는 것을 특징으로 하는 추돌 방지 방법.3. The method of claim 2,
The calculating of the relative distance comprises generating a virtual horizontal line in the driving image based on the bounding box.
상기 상대 거리를 산출하는 단계는 상기 생성된 가상의 수평선과 상기 바운딩박스의 바닥면 수직 좌표를 기초로 상기 예상 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 방법.7. The method of claim 6,
The calculating of the relative distance comprises calculating the expected relative distance based on the generated virtual horizontal line and the vertical coordinates of the bottom surface of the bounding box.
상기 상대 거리를 산출하는 단계는 상기 바운딩박스의 수직 높이와 상기 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 방법.8. The method of claim 7,
The calculating of the relative distance comprises calculating the expected relative distance based on the vertical height of the bounding box and the actual height of the object.
상기 상대 거리를 산출하는 단계는 상기 산출된 예상 상대 거리를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 방법.9. The method of claim 8,
The calculating of the relative distance comprises calculating the relative distance through prediction and update by applying the calculated expected relative distance to a Kalman filter.
상기 추돌소요시간을 산출하는 단계는 상기 이동체의 속도를 고려하여 상기 추돌소요시간을 산출하는 것을 특징으로 하는 추돌 방지 방법.3. The method of claim 2,
In the calculating of the required time for collision, the method for preventing collision, characterized in that calculating the required time for the collision in consideration of the speed of the moving object.
상기 동작을 제어하는 단계는 상기 오브젝트와 추돌 가능성이 있는 경우, 추돌 주의 안내를 제공하거나 상기 이동체가 제동되도록 제어하는 것을 특징으로 하는 추돌 방지 방법.The method of claim 1,
In the controlling of the operation, when there is a possibility of colliding with the object, the collision avoidance method according to claim 1 , wherein a collision warning is provided or the moving object is controlled to be braked.
상기 이동체의 주행 영상을 획득하는 영상 획득부;
신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 오브젝트 인식부;
상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하고, 상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 산출부; 및
상기 산출된 추돌소요시간을 기초로 상기 이동체의 동작을 제어하는 제어부;를 포함하는 추돌 방지 장치.In the moving object collision avoidance device,
an image acquisition unit for acquiring a driving image of the moving object;
an object recognition unit for recognizing an object in the obtained driving image using a neural network model;
a calculation unit calculating a relative distance between the moving object and the object based on the recognized object, and calculating a required collision time between the object and the moving object based on the calculated relative distance; and
Collision avoidance device comprising a; a control unit for controlling the operation of the moving object based on the calculated required collision time.
상기 신경망 모델은 상기 주행 영상 내 오브젝트를 인식하여 상기 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스(bounding box) 및 상기 바운딩박스 내 오브젝트를 분류(classification)하여 출력하는 것을 특징으로 하는 추돌 방지 장치.13. The method of claim 12,
The neural network model recognizes an object in the driving image and classifies and outputs a bounding box indicating an object region in the driving image and an object in the bounding box.
상기 주행 영상 내 인식된 오브젝트의 위치 변화를 트래킹(tracking)하여 상기 오브젝트의 이동을 추적하는 오브젝트 트래킹부;를 더 포함하는 것을 특징으로 하는 추돌 방지 장치.14. The method of claim 13,
The collision avoidance device further comprising: an object tracking unit for tracking the movement of the object by tracking a change in the position of the object recognized in the driving image.
상기 주행 영상 내 인식된 오브젝트의 위치 상태를 판단하는 위치 상태 판단부; 및
상기 오브젝트의 타입에 따른 상기 위치 상태를 기초로 상기 이동체와 추돌 가능성이 낮은 오브젝트는 트래킹 대상에서 제외하는 트래킹 결정부;를 더 포함하는 것을 특징으로 하는 추돌 방지 장치.14. The method of claim 13,
a position state determination unit for determining a position state of an object recognized in the driving image; and
Collision avoidance device further comprising a; a tracking determining unit that excludes the moving object and the object having a low collision probability based on the positional state according to the type of the object from the tracking target.
상기 산출부는 상기 바운딩박스를 기초로 상기 주행 영상 내 가상의 수평선을 생성하는 것을 특징으로 하는 추돌 방지 장치.14. The method of claim 13,
The calculator is configured to generate a virtual horizontal line in the driving image based on the bounding box.
상기 산출부는 상기 생성된 가상의 수평선과 상기 바운딩박스의 바닥면 수직 좌표를 기초로 상기 예상 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 장치.17. The method of claim 16,
The calculator is configured to calculate the expected relative distance based on the generated virtual horizontal line and the vertical coordinates of the bottom surface of the bounding box.
상기 산출부는 상기 바운딩박스의 수직 높이와 상기 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 장치.18. The method of claim 17,
Wherein the calculator calculates the expected relative distance based on the vertical height of the bounding box and the actual height of the object Collision avoidance device, characterized in that.
상기 상대 거리를 산출하는 단계는 상기 산출된 예상 상대 거리를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 장치.19. The method of claim 18,
The calculating of the relative distance comprises calculating the relative distance through prediction and update by applying the calculated expected relative distance to a Kalman filter.
상기 산출부는 상기 이동체의 속도를 고려하여 상기 추돌소요시간을 산출하는 것을 특징으로 하는 추돌 방지 장치.13. The method of claim 12,
The collision avoidance device, characterized in that the calculation unit calculates the required time required for the collision in consideration of the speed of the moving object.
이동체의 주행 영상을 촬영하는 촬영부;
상기 촬영부에서 촬영된 주행 영상을 획득하는 영상 획득부;
신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 인식부;
상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하고, 상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 산출부; 및
상기 산출된 추돌소요시간을 기초로 상기 이동체의 주행 안내를 위한 정보를 출력하는 출력부;를 포함하는 이동체용 전자 장치.A mobile electronic device comprising:
a photographing unit for photographing a moving image of a moving object;
an image acquisition unit for acquiring the driving image photographed by the photographing unit;
a recognition unit for recognizing an object in the obtained driving image using a neural network model;
a calculation unit calculating a relative distance between the moving object and the object based on the recognized object, and calculating a required collision time between the object and the moving object based on the calculated relative distance; and
and an output unit for outputting information for guiding the driving of the moving object based on the calculated required collision time.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/499,141 US20220114815A1 (en) | 2020-10-13 | 2021-10-12 | Moving body collision avoidance device, collision avoidance method and electronic device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20200132140 | 2020-10-13 | ||
KR1020200132140 | 2020-10-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220048959A true KR20220048959A (en) | 2022-04-20 |
Family
ID=81395424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210135321A KR20220048959A (en) | 2020-10-13 | 2021-10-12 | Moving body collision avoidance device, collision avoidance method and electronic device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220048959A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115240471A (en) * | 2022-08-09 | 2022-10-25 | 东揽(南京)智能科技有限公司 | Intelligent factory collision avoidance early warning method and system based on image acquisition |
-
2021
- 2021-10-12 KR KR1020210135321A patent/KR20220048959A/en unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115240471A (en) * | 2022-08-09 | 2022-10-25 | 东揽(南京)智能科技有限公司 | Intelligent factory collision avoidance early warning method and system based on image acquisition |
CN115240471B (en) * | 2022-08-09 | 2024-03-01 | 东揽(南京)智能科技有限公司 | Intelligent factory collision avoidance early warning method and system based on image acquisition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11951975B1 (en) | Handling sensor occlusions for autonomous vehicles | |
US20210122364A1 (en) | Vehicle collision avoidance apparatus and method | |
US20230418299A1 (en) | Controlling autonomous vehicles using safe arrival times | |
CN108089571B (en) | Method and system for predicting vehicle traffic behavior of unmanned vehicles to make driving decisions | |
JP7499256B2 (en) | System and method for classifying driver behavior - Patents.com | |
CN110782657A (en) | Police cruiser using a subsystem of an autonomous vehicle | |
US11763574B2 (en) | Multi-modal, multi-technique vehicle signal detection | |
CN114829224A (en) | Geo-location models for perception, prediction, or planning | |
KR20190106845A (en) | Method and apparatus for passenger recognition and boarding support of autonomous vehicle | |
JP7143857B2 (en) | Information processing device, information processing method, program, and mobile object | |
US20200298874A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20220114815A1 (en) | Moving body collision avoidance device, collision avoidance method and electronic device | |
JP2021091390A (en) | Dynamic and variable learning by determining and using most trustworthy inputs | |
US20210217308A1 (en) | Systems and methods for mitigating a risk of being followed by a vehicle | |
JP6711982B1 (en) | Traffic safety support device, personal digital assistant, and program | |
CN112677967B (en) | Vehicle control device, vehicle control method, and storage medium | |
KR20220048959A (en) | Moving body collision avoidance device, collision avoidance method and electronic device | |
KR20210104184A (en) | Vehicle electronic device and operating method of vehicle electronic device | |
US20240161514A1 (en) | Electronic device and method for vehicle which enhances driving environment related function | |
US20240005631A1 (en) | Method, apparatus, wearable helmet, image capturing apparatus and program for measuring distance based on image | |
US20240161513A1 (en) | Electronic Device and method for Vehicle which Enhances Parking Related Function Based on Artificial Intelligence | |
US20240005632A1 (en) | Method for reconstructing 3d information from 2d image and method and apparatus for measuring distance between vehicles using thereof | |
KR102563339B1 (en) | Apparatus and method for detecting object of vehicle | |
WO2024024471A1 (en) | Information processing device, information processing method, and information processing system | |
US20240157959A1 (en) | Vehicle electronic device and method for providing notification related to parking environment based on image reading |