KR20220048959A - Moving body collision avoidance device, collision avoidance method and electronic device - Google Patents

Moving body collision avoidance device, collision avoidance method and electronic device Download PDF

Info

Publication number
KR20220048959A
KR20220048959A KR1020210135321A KR20210135321A KR20220048959A KR 20220048959 A KR20220048959 A KR 20220048959A KR 1020210135321 A KR1020210135321 A KR 1020210135321A KR 20210135321 A KR20210135321 A KR 20210135321A KR 20220048959 A KR20220048959 A KR 20220048959A
Authority
KR
South Korea
Prior art keywords
collision
moving object
relative distance
driving image
calculating
Prior art date
Application number
KR1020210135321A
Other languages
Korean (ko)
Inventor
고석필
김영용
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to US17/499,141 priority Critical patent/US20220114815A1/en
Publication of KR20220048959A publication Critical patent/KR20220048959A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62LBRAKES SPECIALLY ADAPTED FOR CYCLES
    • B62L3/00Brake-actuating mechanisms; Arrangements thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J3/00Acoustic signal devices; Arrangement of such devices on cycles
    • B62J3/10Electrical devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62KCYCLES; CYCLE FRAMES; CYCLE STEERING DEVICES; RIDER-OPERATED TERMINAL CONTROLS SPECIALLY ADAPTED FOR CYCLES; CYCLE AXLE SUSPENSIONS; CYCLE SIDE-CARS, FORECARS, OR THE LIKE
    • B62K3/00Bicycles
    • B62K3/002Bicycles without a seat, i.e. the rider operating the vehicle in a standing position, e.g. non-motorized scooters; non-motorized scooters with skis or runners

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)

Abstract

A collision avoidance method of a moving object collision avoidance device comprises the steps of: acquiring a driving image of a moving object; recognizing an object in the driving image acquired using a neural network model; calculating a relative distance between the moving object and the object based on the recognized object; calculating a required collision time between the object and the moving object based on the calculated relative distance; and controlling the operation of the moving object based on the calculated required collision time. An object of the present invention is to provide the collision avoidance method of a moving object collision avoidance device that can provide collision warning guidance or control the moving object to be braked when there is a possibility of a collision based on the driving image of the moving object.

Description

이동체 추돌 방지 장치, 추돌 방지 방법 및 전자 장치{Moving body collision avoidance device, collision avoidance method and electronic device}Moving body collision avoidance device, collision avoidance method and electronic device

본 발명은 이동체의 추돌 사고를 줄이기 위한 이동체 추돌 방지 장치, 추돌 방지 방법 및 전자 장치에 관한 것이다.The present invention relates to an apparatus for preventing collision with a moving object, a method for preventing collision with a moving object, and an electronic device for reducing collision accidents of a moving object.

자동차, 오토바이 등과 같은 이동체는 주행 과정에서 다양한 환경에 직면할 수 있기에, 이동체의 추돌 사고를 줄이기 위한 방안은 과거부터 현재까지 활발하게 논의되고 있다.Since moving objects such as automobiles and motorcycles may face various environments in the course of driving, measures to reduce collision accidents of moving objects have been actively discussed from the past to the present.

또한, 최근에는 친환경적일 뿐만 아니라 주차와 중단거리 주행에서 강점을 가지는 전동 킥보드, 전기 자전거, 나인봇-전동휠 등과 같은 퍼스널 모빌리티(personal mobility : 이하, PM)가 미래 교통 수단으로 주목받고 있다.In addition, recently, personal mobility (hereinafter, PM) such as electric kickboards, electric bicycles, and ninebot-electric wheels, which are not only eco-friendly but also have strengths in parking and short-distance driving, are attracting attention as a means of transportation in the future.

이러한 퍼스널 모빌리티의 이용율이 높아지면서 퍼스널 모빌리티의 안전에 대한 문제가 대두되고 있다.As the usage rate of such personal mobility increases, the problem of personal mobility safety is emerging.

특히, 퍼스널 모빌리티는 도로나 인도로 주행하기에 자동차, 오토바이 및 사람 등과 추돌 사고에 노출될 가능성이 매우 높다.In particular, personal mobility is highly likely to be exposed to collisions with cars, motorcycles, and people because it is driven on a road or sidewalk.

이와 같이, 다양한 이동체의 사용자의 안전을 위해, 이동체의 추돌 사고를 줄이기 위한 방안이 요구되고 있다. As described above, for the safety of users of various moving objects, a method for reducing collision accidents of moving objects is required.

본 발명의 목적은 이동체의 주행 영상을 기초로 추돌 가능성이 있는 경우 추돌 주의 안내를 제공하거나 이동체가 제동되도록 제어할 수 있는 이동체 추돌 방지 장치, 추돌 방지 방법 및 전자 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide an apparatus for preventing collision with a moving object, a method for preventing collision, and an electronic device capable of providing a collision warning guidance or controlling a moving object to be braked when there is a possibility of a collision based on a driving image of a moving object.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 이동체 추돌 방지 장치의 추돌 방지 방법은 상기 이동체의 주행 영상을 획득하는 단계, 신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 단계, 상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하는 단계, 상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 단계 및 상기 산출된 추돌소요시간을 기초로 상기 이동체의 동작을 제어하는 단계를 포함한다.A collision avoidance method of an apparatus for preventing collision with a moving object according to an embodiment of the present invention for achieving the above object includes acquiring a driving image of the moving object, and recognizing an object in the acquired driving image using a neural network model , calculating the relative distance between the moving object and the object based on the recognized object, calculating the required collision time between the object and the moving object based on the calculated relative distance, and calculating the calculated required collision time and controlling the operation of the moving object based on the base.

그리고, 상기 신경망 모델은 상기 주행 영상 내 오브젝트를 인식하여 상기 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스(bounding box) 및 상기 바운딩박스 내 오브젝트를 분류(classification)하여 출력할 수 있다.In addition, the neural network model may recognize an object in the driving image, classify and output a bounding box indicating an object region in the driving image and an object in the bounding box.

또한, 상기 주행 영상 내 인식된 오브젝트의 위치 변화를 트래킹(tracking)하여 상기 오브젝트의 이동을 추적하는 단계를 더 포함할 수 있다.The method may further include tracking the movement of the object by tracking a change in the position of the object recognized in the driving image.

그리고, 상기 오브젝트가 인식된 주행 영상을 정규화(normalization)하는 단계를 더 포함할 수 있다.The method may further include normalizing a driving image in which the object is recognized.

또한, 상기 주행 영상 내 인식된 오브젝트의 위치 상태를 판단하는 단계 및 상기 오브젝트의 타입에 따른 상기 위치 상태를 기초로 주행 영상 내 인식된 오브젝트 중 트래킹 대상이 되는 오브젝트를 결정하는 단계를 더 포함할 수 있다.The method may further include determining a position state of an object recognized in the driving image and determining an object to be tracked among objects recognized in the driving image based on the position state according to the type of the object. there is.

그리고, 상기 상대 거리를 산출하는 단계는 상기 바운딩박스를 기초로 상기 주행 영상 내 가상의 수평선을 생성할 수 있다.In addition, the calculating of the relative distance may generate a virtual horizontal line in the driving image based on the bounding box.

또한, 상기 상대 거리를 산출하는 단계는 상기 생성된 가상의 수평선과 상기 바운딩박스의 바닥면 수직 좌표를 기초로 상기 예상 상대 거리를 산출할 수 있다.In addition, the calculating of the relative distance may include calculating the expected relative distance based on the generated virtual horizontal line and a vertical coordinate of a bottom surface of the bounding box.

그리고, 상기 상대 거리를 산출하는 단계는 상기 바운딩박스의 수직 높이와 상기 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출할 수 있다.In addition, the calculating of the relative distance may include calculating the expected relative distance based on the vertical height of the bounding box and the actual height of the object.

또한, 상기 상대 거리를 산출하는 단계는 상기 산출된 예상 상대 거리를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리를 산출할 수 있다.In addition, the calculating of the relative distance may include calculating the relative distance through prediction and update by applying the calculated expected relative distance to a Kalman filter.

그리고, 상기 추돌소요시간을 산출하는 단계는 상기 이동체의 속도를 고려하여 상기 추돌소요시간을 산출할 수 있다.In the calculating of the required collision time, the required collision time may be calculated in consideration of the speed of the moving object.

또한, 상기 동작을 제어하는 단계는 상기 오브젝트와 추돌 가능성이 있는 경우, 추돌 주의 안내를 제공하거나 상기 이동체가 제동되도록 제어할 수 있다.In addition, when there is a possibility of colliding with the object, the controlling of the operation may provide a collision warning guidance or control the moving object to be braked.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 이동체 추돌 방지 장치은 상기 이동체의 주행 영상을 획득하는 영상 획득부, 신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 오브젝트 인식부, 상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하고, 상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 산출부 및 상기 산출된 추돌소요시간을 기초로 상기 이동체의 동작을 제어하는 제어부를 포함한다.On the other hand, the apparatus for preventing collision with a moving object according to an embodiment of the present invention for achieving the above object is an image acquisition unit that acquires a driving image of the moving object, and object recognition for recognizing an object in the acquired driving image using a neural network model a calculator for calculating a relative distance between the moving object and the object based on the recognized object, and calculating a required collision time between the object and the moving object based on the calculated relative distance; and the calculated required collision time and a control unit for controlling the operation of the moving object based on the .

그리고, 상기 신경망 모델은 상기 주행 영상 내 오브젝트를 인식하여 상기 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스(bounding box) 및 상기 바운딩박스 내 오브젝트를 분류(classification)하여 출력할 수 있다.In addition, the neural network model may recognize an object in the driving image, classify and output a bounding box indicating an object region in the driving image and an object in the bounding box.

또한, 상기 주행 영상 내 인식된 오브젝트의 위치 변화를 트래킹(tracking)하여 상기 오브젝트의 이동을 추적하는 오브젝트 트래킹부를 더 포함할 수 있다.The apparatus may further include an object tracking unit configured to track the movement of the object by tracking a change in the position of the object recognized in the driving image.

그리고, 상기 주행 영상 내 인식된 오브젝트의 위치 상태를 판단하는 위치 상태 판단부 및 상기 오브젝트의 타입에 따른 상기 위치 상태를 기초로 상기 이동체와 추돌 가능성이 낮은 오브젝트는 트래킹 대상에서 제외하는 트래킹 결정부를 더 포함할 수 있다.In addition, a position state determination unit for determining the position state of the object recognized in the driving image, and a tracking determining unit for excluding from the tracking target an object with a low probability of colliding with the moving object based on the position state according to the type of the object may include

또한, 상기 산출부는 상기 바운딩박스를 기초로 상기 주행 영상 내 가상의 수평선을 생성할 수 있다.Also, the calculator may generate a virtual horizontal line in the driving image based on the bounding box.

그리고, 상기 산출부는 상기 생성된 가상의 수평선과 상기 바운딩박스의 바닥면 수직 좌표를 기초로 상기 예상 상대 거리를 산출할 수 있다.In addition, the calculator may calculate the expected relative distance based on the generated virtual horizontal line and the vertical coordinates of the bottom surface of the bounding box.

또한, 상기 산출부는 상기 바운딩박스의 수직 높이와 상기 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출할 수 있다.Also, the calculator may calculate an expected relative distance based on a vertical height of the bounding box and an actual height of the object.

그리고, 상기 상대 거리를 산출하는 단계는 상기 산출된 예상 상대 거리를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리를 산출할 수 있다.In addition, the calculating of the relative distance may include calculating the relative distance through prediction and update by applying the calculated expected relative distance to a Kalman filter.

또한, 상기 산출부는 상기 이동체의 속도를 고려하여 상기 추돌소요시간을 산출할 수 있다.In addition, the calculator may calculate the required time required for the collision in consideration of the speed of the moving object.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 이동체용 전자 장치는 이동체의 주행 영상을 촬영하는 촬영부, 상기 촬영부에서 촬영된 주행 영상을 획득하는 영상 획득부, 신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 인식부, 상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하고, 상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 산출부 및 상기 산출된 추돌소요시간을 기초로 상기 이동체의 주행 안내를 위한 정보를 출력하는 출력부를 포함한다.On the other hand, the electronic device for a moving object according to an embodiment of the present invention for achieving the above object includes a photographing unit that captures a driving image of a moving object, an image acquisition unit that acquires a driving image captured by the photographing unit, and a neural network model. A recognition unit that recognizes an object in the obtained driving image using and an output unit for outputting information for guiding the traveling of the moving object based on a calculation unit for calculating a time and the calculated required collision time.

또한, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 프로그램에는 상술한 추돌 방지 방법을 실행하기 위한 프로그램 코드가 기록될 수 있다. In addition, a program code for executing the above-described collision avoidance method may be recorded in a program according to an embodiment of the present invention for achieving the above object.

본 발명에 따르면, 주행 영상에서 추돌 가능성을 판단하고, 추돌 가능성이 높은 경우, 추돌 주의 안내를 제공하거나 이동체가 제동되도록 제어할 수 있다.According to the present invention, it is possible to determine the possibility of a collision in the driving image, and when the probability of a collision is high, to provide a collision warning guidance or to control a moving object to be braked.

또한, 본 발명은 이벤트 정보를 통해 이동체의 분실, 파손, 추돌 사고 등에 대한 원인을 규명할 수 있다.In addition, the present invention can identify the cause of the loss, damage, collision accident, etc. of the moving object through the event information.

도 1은 본 발명의 일 실시예에 따른 이동체의 추돌 방지 장치를 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 신경망 모델의 구조를 나타낸 예시도이다.
도 3 내지 도 6은 본 발명의 일 실시예에 따른 이동체의 주행 영상을 나타내 예시도이다.
도 7은 본 발명의 일 실시예에 따른 퍼스널 모빌리티의 촬영 환경을 나타낸 예시도이다.
도 8은 본 발명의 일 실시예에 따른 칼만 필터를 나타낸 예시도이다.
도 9는 본 발명의 일 실시예에 따른 이동체 기준의 좌표계를 나타낸 예시도이다.
도 10은 본 발명의 일 실시예에 따른 추돌 방지 방법을 나타낸 흐름도이다.
도 11은 본 발명의 일 실시예에 따른 이동체 관리 시스템을 나타낸 예시도이다.
도 12는 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도이다.
도 13은 본 발명의 일 실시예에 따른 이동체의 모니터링 방법을 나타낸 타이밍도이다.
도 14는 본 발명의 일 실시 예에 따른 자율 주행 시스템을 나타내는 블록도 이다.
도 15는 본 발명의 일 실시 예에 따른 자율 주행 차량의 구성을 나타내는 블록도 이다.
1 is a block diagram illustrating an apparatus for preventing collision of a moving object according to an embodiment of the present invention.
2 is an exemplary diagram illustrating the structure of a neural network model according to an embodiment of the present invention.
3 to 6 are exemplary views illustrating driving images of a moving object according to an embodiment of the present invention.
7 is an exemplary diagram illustrating a photographing environment of personal mobility according to an embodiment of the present invention.
8 is an exemplary diagram illustrating a Kalman filter according to an embodiment of the present invention.
9 is an exemplary diagram illustrating a coordinate system based on a moving object according to an embodiment of the present invention.
10 is a flowchart illustrating a collision avoidance method according to an embodiment of the present invention.
11 is an exemplary diagram illustrating a moving object management system according to an embodiment of the present invention.
12 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
13 is a timing diagram illustrating a method for monitoring a moving object according to an embodiment of the present invention.
14 is a block diagram illustrating an autonomous driving system according to an embodiment of the present invention.
15 is a block diagram illustrating the configuration of an autonomous driving vehicle according to an embodiment of the present invention.

이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시 되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art can devise various devices that, although not explicitly described or shown herein, embody the principles of the invention and are included in the spirit and scope of the invention. In addition, it should be understood that all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of understanding the inventive concept and are not limited to the specifically enumerated embodiments and states as such. .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above-described objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the invention pertains will be able to easily practice the technical idea of the invention. .

또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.In addition, in the description of the invention, if it is determined that a detailed description of a known technology related to the invention may unnecessarily obscure the gist of the invention, the detailed description thereof will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 이동체의 추돌 방지 장치를 나타내는 블록도이다.1 is a block diagram illustrating an apparatus for preventing collision of a moving object according to an embodiment of the present invention.

도 1을 참조하면, 이동체(200)의 추돌 방지 장치(10)는 영상 획득부(11), 오브젝트 인식부(12), 위치 상태 판단부(13), 트래킹 결정부(14), 오브젝트 트래킹부(15), 정규화 처리부(16), 산출부(17) 및 제어부(18)를 포함할 수 있다. 이동체(10)는 이동체(200)의 촬영 장치나 별도의 촬영 장치에서 촬영된 주행 영상을 기초로 이동체의 추돌을 방지하기 위한 여러 안내나 제어를 제공할 수 있다. Referring to FIG. 1 , the apparatus 10 for preventing collision of a moving object 200 includes an image acquisition unit 11 , an object recognition unit 12 , a position state determination unit 13 , a tracking determination unit 14 , and an object tracking unit (15), a normalization processing unit 16, a calculation unit 17, and a control unit 18 may be included. The moving object 10 may provide various guidance or control for preventing the moving object from collided based on a driving image captured by the photographing device of the moving object 200 or a separate photographing apparatus.

여기서, 이동체는 이동 가능하고 안내가 필요한 객체로, 일 예로, 사람, 강아지, 차량, 오토바이, 자전거, 퍼스널 모빌리티 등일 수 있다. 이하에서는 설명의 편의를 위하여 이동체가 퍼스널 모빌리티로 구현된 경우를 예로, 추돌 방지 장치(10)를 구성하는 각각의 구성 모듈에 대해서 보다 상세하게 설명하기로 한다.Here, the moving object is a movable object and requires guidance, and may be, for example, a person, a dog, a vehicle, a motorcycle, a bicycle, personal mobility, and the like. Hereinafter, for convenience of description, each component module constituting the collision avoidance apparatus 10 will be described in more detail by taking the case in which the moving object is implemented as personal mobility as an example.

영상 획득부(11)는 이동체의 자체 촬영 장치나 별도의 촬영 장치에서 촬영된 주행 영상을 획득할 수 있다. 일 예로, 영상 획득부(11)는 이동체의 주행 중에 이동체에 설치된 촬영 장치에서 촬영된 주행 영상을 실시간으로 획득할 수 있다. 다른 예로, 영상 획득부(11)는 이동체주행 중에 이동체사용자가 구비한 촬영 장치(예를 들어, 착용자의 헬멧에 설치된 촬영 장치, 착용자가 손으로 들고 있는 촬영 장치 등)에서 촬영된 주행 영상을 실시간으로 획득할 수 있다.The image acquisition unit 11 may acquire a driving image captured by a self-photographing apparatus of the moving object or a separate photographing apparatus. For example, the image acquisition unit 11 may acquire a driving image captured by a photographing device installed on the moving object in real time while the moving object is traveling. As another example, the image acquisition unit 11 may record a driving image captured by a photographing device (eg, a photographing device installed on the wearer's helmet, a photographing device held by the wearer's hand, etc.) can be obtained with

여기서, 획득된 주행 영상에는 이동체의 주행 환경에 따라 인도 또는 차도 내 보행자, 오토바이, 차량, 방해물 등의 다양한 오브젝트들이 포함될 수 있다.Here, the acquired driving image may include various objects such as pedestrians, motorcycles, vehicles, and obstacles in the sidewalk or road according to the driving environment of the moving object.

오브젝트 인식부(12)는 신경망 모델을 기초로 획득된 주행 영상 내 오브젝트들을 인식할 수 있다.The object recognizer 12 may recognize objects in the driving image obtained based on the neural network model.

구체적으로, 오브젝트 인식부(12)는 획득된 주행 영상을 프레임(frame) 단위로 신경망 모델에 입력하고, 주행 영상 내 오브젝트 영역을 나타내는 바운딩 박스(bounding box) 및 바운딩 박스 내 오브젝트의 타입 정보가 포함된 주행 영상을 획득할 수 있다. 여기서, 신경망 모델은, 일 예로, CNN 네트워크를 기반으로 하는 객체 인식 모델로 SSD(Single shot multibox detector) 알고리즘이 이용될 수 있다. 이와 관련하여 도 2 및 도 3을 참조하여 설명한다.Specifically, the object recognition unit 12 inputs the acquired driving image to the neural network model in units of frames, and includes a bounding box indicating an object area in the driving image and type information of the object in the bounding box. A driving video can be acquired. Here, the neural network model may be, for example, a single shot multibox detector (SSD) algorithm as an object recognition model based on a CNN network. In this regard, it will be described with reference to FIGS. 2 and 3 .

도 2는 본 발명의 일 실시예에 따른 신경망 모델의 구조를 나타낸 예시도이다. 도 3은 본 발명의 일 실시예에 따른 주행 영상을 나타낸 예시도이다.2 is an exemplary diagram illustrating the structure of a neural network model according to an embodiment of the present invention. 3 is an exemplary view showing a driving image according to an embodiment of the present invention.

도 2를 참조하면, 신경망 모델은 입력된 주행 영상에 기 학습된 VGG-16 모델의 conv5_3까지 통과하며 베이스 특징(base feature)을 추출하고, 추출된 특징맵을 컨벌루션(Convolution)을 하며 다음 층(layer)로 전달하며 1x1 크기의 특징맵까지 컨벌루션 할 수 있다. 그리고, 각 층에서 추출된 특징맵들을 탐색기 및 분류기(Detector & Classifier)를 이용하여 특징맵 내 오브젝트 탐지(Object Detection)를 수행하여 각 특징맵 내 오브젝트에 대응되는 바운딩 박스 좌표 정보 및 오브젝트를 분류한 타입 정보가 포함된 특징맵을 출력한다.2, the neural network model passes through the input driving image to conv5_3 of the pre-trained VGG-16 model, extracts the base feature, and convolves the extracted feature map to the next layer ( layer) and convolution is possible up to a 1x1 size feature map. Then, by performing object detection in the feature map using the Detector & Classifier for the feature maps extracted from each layer, the bounding box coordinate information corresponding to the object in each feature map and the object are classified. Outputs a feature map including type information.

그 후, 특징맵들에 비-최대 억제(Non-maximum Suppression, MNS)를 적용하여 하나의 탐지 결과가 포함된 주행 영상을 최종 출력할 수 있다.Thereafter, a driving image including one detection result may be finally output by applying non-maximum suppression (MNS) to the feature maps.

예를 들어, 도 3을 참조하면, 도 3의 (a)와 같은 주행 영상 중 하나의 프레임이 신경망에 입력되면, 신경망은 도 3의 (b)와 같이 주행 영상 내 오브젝트에 각각 대응되는 바운딩박스(31a, 32a, 33a, 34a) 및 오브젝트를 분류한 타입 정보(31b, 32b, 33b, 34b)가 포함된 주행 영상을 출력할 수 있다. 여기서, 바운딩 박스에는 바운딩 박스의 좌표 정보가 포함된다.For example, referring to FIG. 3 , when one frame of the driving image as shown in (a) of FIG. 3 is input to the neural network, the neural network generates a bounding box corresponding to an object in the driving image as shown in FIG. 3 (b). (31a, 32a, 33a, 34a) and object classification type information (31b, 32b, 33b, 34b) including the driving image may be output. Here, the bounding box includes coordinate information of the bounding box.

즉, 신경망 모델은 주행 영상 내 오브젝트를 인식하여 주행 영상 내 오브젝트 영역을 나타내는 바운딩 박스(bounding box) 및 해당 바운딩 박스 내 오브젝트를 타입별로 분류(classification)하여 출력할 수 있다.That is, the neural network model may recognize an object in the driving image and classify and output a bounding box indicating an object region in the driving image and an object in the corresponding bounding box by type.

한편, 도 3의 바운딩 박스 및 바운딩 박스 내 오브젝트의 타입 정보는 하나의 예시이며, 필요에 따라 다르게 표현될 수 있다. 또한, 상술한 신경망 모델은 하나의 예시이며, SSD 알고리즘 이외에도 RefineDet, YOLO 등의 여러 알고리즘이 이용될 수 있다.Meanwhile, the type information of the bounding box and the object in the bounding box of FIG. 3 is an example, and may be expressed differently as needed. In addition, the above-described neural network model is an example, and in addition to the SSD algorithm, various algorithms such as RefineDet and YOLO may be used.

다시, 도 1로 돌아와서, 위치 상태 판단부(13)는 주행 영상 내 인식된 오브젝트의 위치 상태를 판단할 수 있다. 이때, 위치 상태 판단부(13)는 주행 영상 내 인식된 오브젝트들의 바운딩 박스 위치를 기초로 해당 오브젝트의 위치 상태를 판단할 수 있다. 여기서, 오브젝트의 위치 상태는 해당 오브젝트가 위치한 곳이 어디인지 나타내며, 예를 들어, 위치 상태에는 해당 인식된 오브젝트가 인도에 위치한 상태, 도로에 위치한 상태, 고가도로에 위치한 상태, 건물 난간에 위치한 상태 등이 포함할 수 있다.Again, returning to FIG. 1 , the position state determination unit 13 may determine the position state of the object recognized in the driving image. In this case, the position state determination unit 13 may determine the position state of the object based on the bounding box positions of the objects recognized in the driving image. Here, the position state of the object indicates where the object is located, and for example, the position state includes a state in which the recognized object is located on a sidewalk, a state located on a road, a state located on an overpass, a state located on a building railing, etc. This may include

구체적으로, 위치 상태 판단부(13)는 주행 영상 내 가상의 수평선을 기준으로 인식된 오브젝트들의 바운딩 박스의 위치를 비교하여 해당 오브젝트의 위치 상태를 판단할 수 있다.Specifically, the position state determination unit 13 may determine the position state of the object by comparing the positions of the bounding boxes of the recognized objects with respect to the virtual horizontal line in the driving image.

예를 들어, 위치 상태 판단부(13)는 인식된 오브젝트의 바운딩 박스가 주행 영상 내 가상의 수평선의 중심을 기준으로 어느정도 좌측 또는 우측에 위치하는지, 인식된 오브젝트의 바운딩 박스가 주행 영상 내 가상의 수평선 위 또는 아래에 위치하는지 또는 주행 영상 내 가상의 수평선 위에 위치한 비율 등을 기준으로 해당 오브젝트의 위치 상태를 판단할 수 있다.For example, the position state determination unit 13 determines to what extent the bounding box of the recognized object is located to the left or right with respect to the center of the virtual horizontal line in the driving image, and the bounding box of the recognized object is the virtual The positional state of the corresponding object may be determined based on whether it is located above or below the horizontal line or the ratio of being located above the virtual horizontal line in the driving image.

또한, 위치 상태 판단부(13)는 주행 영상 내 인식된 오브젝트 중 인접한 다른 오브젝트와 인식된 오브젝트들의 바운딩 박스의 상대적인 위치 차이를 기준으로 해당 오브젝트의 위치 상태를 판단할 수 있다.Also, the position state determination unit 13 may determine the position state of the corresponding object based on the relative position difference between the bounding boxes of the recognized objects and other adjacent objects among the recognized objects in the driving image.

트래킹 결정부(14)는 오브젝트의 타입에 따른 위치 상태를 기초로 트래킹 대상 결정할 수 있다.The tracking determiner 14 may determine a tracking target based on a location state according to the type of object.

구체적으로, 트래킹 결정부(14)는 인식된 오브젝트의 타입에 따른 해당 오브젝트의 위치 상태를 기초로 이동체와 추돌 가능성을 판단하고, 이동체와 추돌 가능성이 낮은 오브젝트는 트래킹(tracking) 대상에서 제외할 수 있으며, 추돌 가능성이 높은 오브젝트는 트래킹 대상으로 결정할 수 있다. 이때, 트래킹 결정부(14)는 이동체의 현재 주행 위치를 고려하여 추돌 가능성을 판단할 수 있다.Specifically, the tracking determining unit 14 determines the possibility of colliding with the moving object based on the positional state of the corresponding object according to the type of the recognized object, and the moving object and the object with a low probability of colliding may be excluded from tracking. And, an object with a high probability of colliding can be determined as a tracking target. In this case, the tracking determining unit 14 may determine the possibility of a collision in consideration of the current driving position of the moving object.

예를 들어, 이동체의 타입이 퍼스널 모빌리티인 경우, 트래킹 결정부(14)는 주행 영상 내 인식된 오브젝트 중 도로에 위치한 차량을 추돌 가능성이 낮다고 판단하고, 해당 오브젝트를 트래킹 대상에서 제외할 수 있다.For example, when the type of moving object is personal mobility, the tracking determiner 14 determines that the probability of colliding with a vehicle located on a road among the objects recognized in the driving image is low, and may exclude the object from tracking.

다른 예로, 이동체의 타입이 차량인 경우, 트래킹 결정부(14)는 주행 영상 내 인식된 오브젝트 중 도보에 위치한 사람은 추돌 가능성이 낮다고 판단하고, 해당 오브젝트를 트래킹 대상에서 제외할 수 있다.또한, 트래킹 결정부(14)는 인식된 오브젝트의 타입에 따른 해당 오브젝트의 위치 상태를 기초로 해당 오브젝트가 오인식 되었다고 판단되는 경우, 해당 오브젝트를 트래킹 대상에서 제외할 수 있다.As another example, when the type of the moving object is a vehicle, the tracking determiner 14 determines that a person located on foot among the objects recognized in the driving image has a low probability of collide and excludes the object from tracking. When it is determined that the corresponding object is misrecognized based on the positional state of the corresponding object according to the type of the recognized object, the tracking determining unit 14 may exclude the corresponding object from the tracking target.

예를 들어, 대형 전광판이나 포스터의 오브젝트를 인식한 경우, 트래킹 결정부(14)는 해당 오브젝트를 트래킹 대상에서 제외할 수 있다.For example, when an object of a large electric signboard or poster is recognized, the tracking determining unit 14 may exclude the corresponding object from tracking.

즉, 트래킹 결정부(14)는 주행 영상 내 인식된 오브젝트들 중 유의미한 오브젝트를 판단하고, 해당 오브젝트만을 트래킹 대상으로 결정할 수 있다.That is, the tracking determiner 14 may determine a meaningful object among the objects recognized in the driving image, and determine only the corresponding object as a tracking target.

이를 통해, 추돌 방지 장치(10)는 한정된 리소스 자원을 보다 효율적으로 이용할 수 있다.Through this, the collision avoidance apparatus 10 may use the limited resource resources more efficiently.

오브젝트 트래킹부(15)는 주행 영상 내 인식된 오브젝트의 바운딩 박스 위치 변화를 트래킹(tracking)하여 해당 오브젝트의 이동 경로, 이동 속도 및 이동 방향을 추적할 수 있다.The object tracking unit 15 may track a movement path, movement speed, and movement direction of the object by tracking a change in the position of the bounding box of the object recognized in the driving image.

구체적으로, 오브젝트 트래킹부(15)는 주행 영상의 이전 프레임과 현재 프레임을 비교하여 인식된 오브젝트의 바운딩 박스 위치 변화를 트래킹하고, 오브젝트의 바운딩 박스의 위치 변화를 기초로 오브젝트의 이동 경로 및 이동 방향을 추적할 수 있다. 이때, 오브젝트 갱신부(15)는 여러 종류의 오브젝트 트래킹 알고리즘(object tracking algorithm)이 이용될 수 있다. Specifically, the object tracking unit 15 tracks a change in the position of a bounding box of an object recognized by comparing the previous frame and the current frame of the driving image, and the movement path and movement direction of the object based on the change in the position of the object's bounding box. can be tracked. In this case, the object updater 15 may use various types of object tracking algorithms.

예를 들어, 오브젝트 트래킹부(15)는 센트로이드 트래킹 알고리즘(Centroid Tracking Algorithm)을 이용하여 오브젝트의 바운딩박스의 위치를 추적할 수 있다. 이와 관련하여 도 4를 참조하여 설명한다. For example, the object tracking unit 15 may track the position of the bounding box of the object using a centroid tracking algorithm (Centroid Tracking Algorithm). In this regard, it will be described with reference to FIG.

도 4를 참조하면, 오브젝트 트래킹부(15)는 주행 영상의 이전 프레임(a)에 인식된 오브젝트의 바운딩 박스 중심 좌표(41a, 42a, 43a, 44a, 45a : x, y)와 현재 프레임(b)에 인식된 오브젝트의 바운딩 박스 중심 좌표(41b, 43b, 44b, 45b)를 각각 산출하고, 이전 프레임(a)과 현재 프레임(b) 내 바운딩 박스 중심 좌표 간의 유클리드 거리 계산하여 해당 바운딩 박스를 트래킹할 수 있다. 이때, 오브젝트 트래킹부(15)는 인식된 오브젝트들은 최단거리로 이동한다는 것을 가정하여 오브젝트의 바운딩 박스를 트래킹하며, 각 오브젝트의 바운딩 박스에는 오브젝트를 식별하기 위한 traking ID(또는 unique ID)가 할당할 수 있다.Referring to FIG. 4 , the object tracking unit 15 includes the center coordinates (41a, 42a, 43a, 44a, 45a: x, y) of the object recognized in the previous frame (a) of the driving image and the current frame (b). ) calculates the center coordinates of the bounding box (41b, 43b, 44b, 45b) of the recognized object, respectively, and tracks the bounding box by calculating the Euclidean distance between the center coordinates of the bounding box in the previous frame (a) and the current frame (b) can do. At this time, the object tracking unit 15 tracks the bounding box of the object assuming that the recognized objects move to the shortest distance, and a tracking ID (or unique ID) for identifying the object is assigned to the bounding box of each object. can

또한, 오브젝트 트래킹부(15)는 이전 프레임에 없던 오브젝트가 현재 프레임에 인식된 경우에는 새로운 오브젝트에 traking ID를 할당하며, 이전 프레임에 있던 오브젝트가 현재 프레임에 인식되지 않는 경우에는 해당 오브젝트의 traking ID를 삭제할 수 있다.In addition, the object tracking unit 15 assigns a tracking ID to a new object when an object that was not in the previous frame is recognized in the current frame, and when the object in the previous frame is not recognized in the current frame, the tracking ID of the object can be deleted.

그리고, 오브젝트 트래킹부(15)는 오브젝트의 바운딩 박스를 트래킹한 후, 주행영상의 이전 프레임(a)과 현재 프레임(b) 오브젝트의 중심 좌표의 위치 변화량을 기초로 오브젝트의 이동 경로 및 이동 방향을 산출할 수 있다. 이때, 이동체의 이동 속도 및 이동 방향을 고려할 수 있다.And, after tracking the bounding box of the object, the object tracking unit 15 tracks the moving path and the moving direction of the object based on the amount of change in the position of the center coordinates of the previous frame (a) and the current frame (b) of the driving image. can be calculated. In this case, the moving speed and the moving direction of the movable body may be considered.

즉, 오브젝트 트래킹부(15)는 트래킹 대상 오브젝트를 트래킹하여 주행 영상 내 오브젝트를 이동을 추적할 수 있으며, 해당 오브젝트의 이동 경로, 이동 속도 및 이동 방향을 판단할 수 있다.That is, the object tracking unit 15 may track the tracking target object to track the movement of the object in the driving image, and may determine the movement path, movement speed, and movement direction of the object.

정규화 처리부(16)는 오브젝트의 바운드박스가 포함된 주행 영상을 정규화(normalization)할 수 있다.The normalization processing unit 16 may normalize the driving image including the bound box of the object.

구체적으로, 정규화 처리부(16)는 저역 필터(Low Pass Filter)를 이용하여 주행 영상을 정규화할 수 있다. 예를 들어, 정규화 처리부(16)는 도 5(a)와 같은 주행 영상을 도 5(b)와 같은 주행 영상으로 정규화할 수 있다. 이때, 주행 영상 내 오브젝트의 바운드박스는 정규화를 통해 오브젝트의 위치를 보다 정확하게 표시할 수 있다.Specifically, the normalization processing unit 16 may normalize the driving image by using a low pass filter. For example, the normalization processing unit 16 may normalize the driving image as shown in FIG. 5( a ) into the driving image as shown in FIG. 5( b ). In this case, the bound box of the object in the driving image may more accurately display the position of the object through normalization.

산출부(17)는 인식된 오브젝트를 기초로 이동체와 오브젝트 간의 상대 거리를 산출할 수 있다.The calculator 17 may calculate a relative distance between the moving object and the object based on the recognized object.

우선, 산출부(17)는 주행 영상 내 인식된 오브젝트의 바운딩박스를 기초로 주행 영상 내 가상의 수평선을 생성할 수 있다. First, the calculator 17 may generate a virtual horizontal line in the driving image based on the bounding box of the object recognized in the driving image.

구체적으로, 산출부(17)는 아래의 수학식 1을 이용하여 주행 영상 내 가상 수평선을 산출할 수 있다Specifically, the calculator 17 may calculate a virtual horizontal line in the driving image by using Equation 1 below.

Figure pat00001
Figure pat00001

수학식 1에서

Figure pat00002
는 가상 수평선의 픽셀 수직 좌표 ,
Figure pat00003
은 주행 영상 내 인식된 바운딩 박스 개수,
Figure pat00004
는 i 번째 인식된 바운딩 박스의 바닥면 픽셀 수직 좌표,
Figure pat00005
는 주행 영상을 촬영한 카메라의 실제 설치된 높이,
Figure pat00006
는 i 번째 인식된 바운딩 박스의 픽셀 너비,
Figure pat00007
는 오브젝트의 실제 평균 너비,
Figure pat00008
는 오브젝트의 실제 평균 너비 오프셋,
Figure pat00009
는 전체 바운딩박스 바닥면의 평균 픽셀 수직 좌표,
Figure pat00010
는 인식된 오브젝트의 평균 너비를 의미한다. 여기서, 인식된 오브젝트의 평균 너비는 오브젝트의 바운딩 박스 평균 너비를 의미한다.in Equation 1
Figure pat00002
is the pixel vertical coordinate of the imaginary horizontal line,
Figure pat00003
is the number of bounding boxes recognized in the driving video,
Figure pat00004
is the bottom pixel vertical coordinate of the i-th recognized bounding box,
Figure pat00005
is the actual installed height of the camera that recorded the driving video,
Figure pat00006
is the pixel width of the i-th recognized bounding box,
Figure pat00007
is the actual average width of the object,
Figure pat00008
is the actual average width offset of the object,
Figure pat00009
is the average pixel vertical coordinate of the bottom of the entire bounding box,
Figure pat00010
is the average width of the recognized object. Here, the average width of the recognized object means the average width of the bounding box of the object.

이와 관련하여 도 6을 참조하면, 산출부(17)는 주행 영상 내 복수의 바운딩박스의 평균 수직 좌표와 주행 영상을 촬영한 카메라의 실제 높이, 오브젝트의 실제 평균 너비 및 인식된 오브젝트의 평균 너비를 기초로 주행 영상 내 가상의 수평선(

Figure pat00011
)을 생성할 수 있다. In this regard, referring to FIG. 6 , the calculator 17 calculates the average vertical coordinates of a plurality of bounding boxes in the driving image, the actual height of the camera photographing the driving image, the actual average width of the object, and the average width of the recognized object. A virtual horizontal line in the driving image (
Figure pat00011
) can be created.

또한,

Figure pat00012
은 주행 영상에서 인식된 오브젝트의 바운딩 박스 각각의 너비(
Figure pat00013
,
Figure pat00014
,
Figure pat00015
,
Figure pat00016
)의 평균을 의미하며,
Figure pat00017
는 인식된 오브젝트의 바운딩박스 각각의 바닥면 높이(
Figure pat00018
,
Figure pat00019
,
Figure pat00020
,
Figure pat00021
)의 평균을 의미한다. 이때, 좌표는 픽셀단위일 수 있다.In addition,
Figure pat00012
is the width of each bounding box of the object recognized in the driving image (
Figure pat00013
,
Figure pat00014
,
Figure pat00015
,
Figure pat00016
) means the average of
Figure pat00017
is the height of the bottom of each bounding box of the recognized object (
Figure pat00018
,
Figure pat00019
,
Figure pat00020
,
Figure pat00021
) means the average of In this case, the coordinates may be in units of pixels.

그리고, 산출부(17)는 생성된 가상의 수평선과 바운딩 박스의 바닥면 수직 좌표를 기초로 해당 오브젝트와 이동체의 예상 상대 거리를 산출할 수 있다.In addition, the calculator 17 may calculate an expected relative distance between the corresponding object and the moving body based on the generated virtual horizontal line and the vertical coordinates of the bottom surface of the bounding box.

구체적으로, 산출부(17)는 아래의 수학식 2를 이용하여 오브젝트와 이동체의 예상 상대 거리를 산출할 수 있다.Specifically, the calculator 17 may calculate the expected relative distance between the object and the moving body using Equation 2 below.

Figure pat00022
Figure pat00022

수학식 2에서

Figure pat00023
는 오브젝트와 이동체의 예상 상대 거리,
Figure pat00024
는 카메라의 초점 거리,
Figure pat00025
는 주행 영상을 촬영한 카메라의 실제 설치된 높이,
Figure pat00026
는 가상 수평선,
Figure pat00027
는 인식된 바운딩박스의 바닥면 픽셀 수직 좌표를 의미할 수 있다. 이와 관련하여 도 7의 (a)를 참조하여 하나의 예시를 설명한다.in Equation 2
Figure pat00023
is the expected relative distance between the object and the moving object,
Figure pat00024
is the focal length of the camera,
Figure pat00025
is the actual installed height of the camera that recorded the driving video,
Figure pat00026
is the virtual horizon,
Figure pat00027
may mean vertical coordinates of pixels of the bottom surface of the recognized bounding box. In this regard, one example will be described with reference to FIG. 7A.

도 7의 (a)는 퍼스널 모빌리티의 촬영 환경의 예시이며, (71)은 해당 촬영 환경에서 촬영된 주행 영상의 예시이다.7A is an example of a photographing environment of personal mobility, and reference numeral 71 is an example of a driving image captured in the corresponding photographing environment.

도 7의 (a)를 참조하면, 산출부(17)는 퍼스널 모빌리티에 장착된 카메라의 실제 설치된 높이(

Figure pat00028
)와 초점거리(
Figure pat00029
), 주행 영상(71) 내 인식된 보행자의 바운딩 박스(72) 바닥면의 높이(
Figure pat00030
), 산출된 가상 수평선의 수직 좌표(
Figure pat00031
)를 이용하여 인식된 보행자와 퍼스널 모빌리티 사이의 예상 상대 거리(
Figure pat00032
)를 산출할 수 있다.Referring to (a) of FIG. 7 , the calculator 17 calculates the actual installed height (
Figure pat00028
) and focal length (
Figure pat00029
), the height of the bottom of the bounding box 72 of the pedestrian recognized in the driving image 71 (
Figure pat00030
), the vertical coordinate of the calculated virtual horizontal line (
Figure pat00031
), the estimated relative distance between the recognized pedestrian and personal mobility (
Figure pat00032
) can be calculated.

한편, 가상의 수평선을 산출할 수 없는 경우, 산출부(17)는 인식된 오브젝트의 바운딩박스 수직 좌표와 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출할 수도 있다. 여기서, 가상의 수평선을 산출할 수 없는 경우에는 카메라의 실제 설치된 높이를 판단할 수 없거나 인식된 오브젝트 바운딩박스의 바닥면 픽셀 수직 좌표를 판단할 수 없는 경우 등이 포함될 수 있다.Meanwhile, when the virtual horizontal line cannot be calculated, the calculator 17 may calculate the expected relative distance based on the vertical coordinate of the bounding box of the recognized object and the actual height of the object. Here, when the virtual horizontal line cannot be calculated, the case where the actual installed height of the camera cannot be determined or the pixel vertical coordinates of the bottom surface of the recognized object bounding box cannot be determined may be included.

구체적으로, 산출부(17)는 아래의 수학식 3을 이용하여 오브젝트와 이동체의 예상 상대 거리를 산출할 수 있다.Specifically, the calculator 17 may calculate the expected relative distance between the object and the moving body using Equation 3 below.

Figure pat00033
Figure pat00033

수학식 3에서

Figure pat00034
는 오브젝트와 이동체의 예상 상대 거리,
Figure pat00035
는 카메라의 초점 거리,
Figure pat00036
는 오브젝트의 실제 평균 높이,
Figure pat00037
는 오브젝트의 바운딩박스 높이를 의미할 수 있다. 이와 관련하여 도 7의 (b)를 참조하여 하나의 예시를 설명한다.in Equation 3
Figure pat00034
is the expected relative distance between the object and the moving object,
Figure pat00035
is the focal length of the camera,
Figure pat00036
is the actual average height of the object,
Figure pat00037
may mean the height of the object's bounding box. In this regard, one example will be described with reference to FIG. 7B.

도 7의 (b)는 퍼스널 모빌리티의 촬영 환경의 예시이며, (73)은 해당 촬영 환경에서 촬영된 주행 영상의 예시이다.7 (b) is an example of a photographing environment of personal mobility, and (73) is an example of a driving image captured in the corresponding photographing environment.

도 7의 (a)를 참조하면, 산출부(17)는 퍼스널 모빌리티에 장착된 카메라의 초점거리(

Figure pat00038
), 주행 영상(73) 내 인식된 보행자의 바운딩박스(74) 높이(
Figure pat00039
) 및 인식된 보행자의 실제 평균 신장(
Figure pat00040
)을 이용하여 인식된 보행자와 퍼스널 모빌리티 사이의 예상 상대 거리(
Figure pat00041
)를 산출할 수 있다.Referring to FIG. 7A , the calculator 17 calculates the focal length (
Figure pat00038
), the height of the pedestrian's bounding box 74 recognized in the driving image 73 (
Figure pat00039
) and the actual average height of the perceived pedestrian (
Figure pat00040
), the estimated relative distance between the recognized pedestrian and personal mobility (
Figure pat00041
) can be calculated.

한편, 도 7에서는 퍼스널 모빌리티를 예로 설명하였으나, 산출 과정은 차량 등에 다른 이동체에도 동일하게 적용될 수 있다. Meanwhile, although personal mobility has been described as an example in FIG. 7 , the calculation process may be equally applied to other moving objects such as a vehicle.

또한, 산출부(17)는 산출된 예상 상대 거리에 칼만필터를 적용하여 상대 거리를 산출할 수 있다. 이와 관련하여 도 8을 참조하여 설명한다.Also, the calculator 17 may calculate the relative distance by applying the Kalman filter to the calculated expected relative distance. In this regard, it will be described with reference to FIG. 8 .

도 8을 참조하면, 산출부(17)는 산출된 예상 상대 거리(

Figure pat00042
)를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리(
Figure pat00043
)를 산출할 수 있다. 여기서 상대 거리(
Figure pat00044
)는 예상 상대 거리(
Figure pat00045
)를 기초로 인식된 오브젝트와 이동체 사이의 거리를 보다 정확하게 산출한 값을 의미한다.Referring to FIG. 8 , the calculator 17 calculates the calculated expected relative distance (
Figure pat00042
) to the Kalman filter to predict and update the relative distance (
Figure pat00043
) can be calculated. where the relative distance (
Figure pat00044
) is the expected relative distance (
Figure pat00045
) means a value obtained by more accurately calculating the distance between the recognized object and the moving object.

도 8에서 상태 변수(

Figure pat00046
)는 [
Figure pat00047
;
Figure pat00048
;
Figure pat00049
]로 정의되며,
Figure pat00050
는 또는 기초로 산출된 예상 상대 거리,
Figure pat00051
는 이동체의 속도,
Figure pat00052
는 이동체의 가속도를 의미한다.In Fig. 8, the state variable (
Figure pat00046
)Is [
Figure pat00047
;
Figure pat00048
;
Figure pat00049
] is defined as
Figure pat00050
is the estimated relative distance calculated on the basis of
Figure pat00051
is the speed of the moving object,
Figure pat00052
is the acceleration of the moving object.

또한, 시스템 모델은 상태 전이 행렬, 측정값 전이 행렬, 시스템 잡음, 측정값 잡음으로 구성될 수 있으며, 시스템 모델은 아래 수학식 4와 같이 정의될 수 있다.In addition, the system model may be composed of a state transition matrix, a measurement value transition matrix, system noise, and measurement value noise, and the system model may be defined as in Equation 4 below.

Figure pat00053
Figure pat00053

는 상태 전이 행렬, 는 측정값 전이 행렬, 는 시스템 잡음, 는 측정값 잡음을 의미한다.is the state transition matrix, is the measured value transition matrix, is the system noise, and is the measured value noise.

즉, 산출부(17)는 칼만필터를 이용하여 예상 상대 거리(

Figure pat00054
)의 오차를 줄인 상대 거리(
Figure pat00055
)를 산출할 수 있다. That is, the calculator 17 uses the Kalman filter to calculate the expected relative distance (
Figure pat00054
) of the relative distance (
Figure pat00055
) can be calculated.

한편, 상술한 상대 거리(

Figure pat00056
는 이동체의 진행 방향인 종방향의 거리(Longitudinal Distance)를 의미하며 이와 관련하여 도 9를 참조하여 설명한다.On the other hand, the above-mentioned relative distance (
Figure pat00056
denotes a longitudinal distance, which is the moving direction of the moving body, and will be described with reference to FIG. 9 in this regard.

도 9는 본 발명의 일 실시예에 따른 이동체 기준의 좌표계를 나타낸 예시도이다.9 is an exemplary diagram illustrating a coordinate system based on a moving object according to an embodiment of the present invention.

도 9의 (a)는 이동체 기준의 좌표계를 3차원 뷰(3D View)로 나타내고 도 9의 (b)는 이동체 기준의 좌표계를 탑뷰(Top View)로 나타낸 것으로, 이동체 기준의 좌표계는 이동체의 현재 위치가 기준점(

Figure pat00057
)이고 이동체의 진행 방향(종방향)이 X축되며, 이동체의 측면 방향이 Y축이 되는 좌표계이다.Fig. 9(a) shows the moving object-based coordinate system as a 3D view, and Fig. 9(b) shows the moving-object-based coordinate system as a top view. The position is the reference point (
Figure pat00057
), the moving direction (longitudinal direction) of the moving object is the X-axis, and the lateral direction of the moving object is the Y-axis.

즉, 상대 거리(

Figure pat00058
)는 이동체 기준의 좌표계에서 오브젝트와 이동체 사이의 X축 방향의 거리를 의미할 수 있다.That is, the relative distance (
Figure pat00058
) may mean a distance in the X-axis direction between the object and the moving body in the moving body-based coordinate system.

또한, 산출부(17)는 아래의 수학식 5를 이용하여 측면 거리(

Figure pat00059
)를 산출할 수 있다.In addition, the calculation unit 17 uses the following Equation 5 to calculate the lateral distance (
Figure pat00059
) can be calculated.

Figure pat00060
Figure pat00060

수학식 5에서

Figure pat00061
는 오브젝트와 이동체 사이의 Y축 방향의 거리, x는 오브젝트의 바운딩 박스 픽셀 수평 좌표,
Figure pat00062
는 이동체 기준의 좌표계에서 오브젝트와 이동체 사이의 X축 방향의 거리,
Figure pat00063
는 카메라의 초점 거리를 의미할 수 있다.in Equation 5
Figure pat00061
is the distance in the Y-axis direction between the object and the moving object, x is the horizontal coordinate of the object's bounding box pixel,
Figure pat00062
is the distance in the X-axis direction between the object and the moving body in the coordinate system of the moving body,
Figure pat00063
may mean a focal length of the camera.

또한, 산출부(17)는 산출된 측면 거리(

Figure pat00064
)를 기초로 추돌 대상 여부를 판단할 수 있다. In addition, the calculation unit 17 calculates the side distance (
Figure pat00064
) can be used to determine whether a collision target exists.

구체적으로, 산출부(17)는 산출된 측면 거리와 안전 여유 거리(safety margin distance,

Figure pat00065
)를 비교하여 추돌 대상 여부를 판단할 수 있다. 여기서, 안전 여유 거리는 퍼스널 모빌리 기준의 좌표계에서 Y축 방향의 소정 거리로써, 이동체가 진행 방향으로 이동할 때, 이동체와 오브젝트가 서로 추돌하지 않을 최소한의 Y축 방향의 거리를 의미할 수 있다. 이와 관련하여 도 9의 (b)를 참조하여 설명한다.Specifically, the calculation unit 17 calculates the side distance and the safety margin distance,
Figure pat00065
) can be compared to determine whether a collision target exists. Here, the safety clearance distance is a predetermined distance in the Y-axis direction in the coordinate system based on personal mobility, and may mean the minimum distance in the Y-axis direction at which the movable body and the object do not collide with each other when the movable object moves in the traveling direction. In this regard, it will be described with reference to FIG. 9(b).

도 9의 (b)를 참조하면, 산출부(17)는 오브젝트(91, 93) 각각에 대해 각각의 측면 거리(

Figure pat00066
,
Figure pat00067
)를 산출하고, 산출된 측면 거리(
Figure pat00068
,
Figure pat00069
)와 안전 여유 거리(
Figure pat00070
)를 비교하고, 산출된 측면 거리가 안전 거리보다 작은 오브젝트(91)는 이동체의 추돌 대상으로 판단하고, 측면 거리가 안전 거리보다 큰 오브젝트(93)은 추돌 비대상으로 판단할 수 있다. Referring to (b) of FIG. 9 , the calculator 17 calculates the respective lateral distances (
Figure pat00066
,
Figure pat00067
) is calculated, and the calculated lateral distance (
Figure pat00068
,
Figure pat00069
) and the safety clearance (
Figure pat00070
), an object 91 having a calculated side distance smaller than the safety distance may be determined as a collision target of the moving object, and an object 93 having a side distance greater than the safety distance may be determined as non-collision target.

또한, 산출부(17)는 이동체의 종류, 주행 속도, 주행 장소 및 이동체가 퍼스널 모빌리티인 경우 사용자의 신체조건(키, 몸무게, 어깨 넓이, 양팔 간격 등) 중 적어도 하나 이상을 기초로 안전 여유 거리를 가변적으로 결정하여 이용할 수 있다.In addition, the calculation unit 17 calculates the safety margin based on at least one of the type of the moving object, the traveling speed, the driving location, and the user's physical condition (height, weight, shoulder width, arm spacing, etc.) when the moving object is personal mobility. can be variably determined and used.

예를 들어, 퍼스널 모빌리티의 주행 속도가 빠르거나, 오브젝트의 이동변화 또는 이동속도가 빠른 장소에서 주행 중인 경우, 산출부(17)는 안전 여유 거리를 보다 넓게 결정할 수 있다.For example, when the traveling speed of personal mobility is high, or when the vehicle is traveling in a place where the movement change or movement speed of an object is high, the calculator 17 may determine a wider safety margin distance.

또한, 추돌 대상이 정해진 경우, 산출부(17)는 해당 오브젝트의 산출된 상대 거리(

Figure pat00071
)를 기초로 인식된 오브젝트와 이동체 간의 추돌까지 소요되는 시간인 추돌소요시간을 산출할 수 있다. In addition, when the collision target is determined, the calculation unit 17 calculates the calculated relative distance (
Figure pat00071
), it is possible to calculate the required collision time, which is the time required to collide between the recognized object and the moving object.

구체적으로, 산출부(17)는 아래의 수학식 6을 이용하여 이동체(200)와 인식된 오브젝트 간의 추돌소요시간을 산출할 수 있다.Specifically, the calculator 17 may calculate the required collision time between the moving object 200 and the recognized object using Equation 6 below.

Figure pat00072
Figure pat00072

수학식 6에서 T는 추돌소요시간, D는 이동체(200)와 인식된 오브젝트 간의 상대거리, V는 이동체의 속도를 의미한다. In Equation 6, T is the collision time required, D is the relative distance between the moving object 200 and the recognized object, and V is the speed of the moving object.

즉, 산출부(17)는 이동체의 속도를 고려하여 인식된 오브젝트와의 추돌소요시간을 산출할 수 있다.That is, the calculator 17 may calculate the required time required to collide with the recognized object in consideration of the speed of the moving object.

한편, 산출부(17)는 산출 조건에 따라 상대 거리 산출 방식을 결정하고, 결정된 상대 거리 산출 방식을 이용하여 상대 거리를 산출할 수 있다. 여기서, 상대 거리 산출 방식은 상술한 가상 수평선을 이용하는 방식(수학식 2)과 바운딩박스 크기를 이용하는 방식(수학식 3)이며, 산출 조건에는 가상 수평선 산출 가능 유무, 인식된 오브젝트의 크기 정도(바운딩박스의 크기 정도), 주행 중 경사 변화 정도, 인식된 오브젝트 수 중 적어도 하나 이상이 포함될 수 있다.Meanwhile, the calculator 17 may determine a relative distance calculation method according to a calculation condition, and calculate the relative distance using the determined relative distance calculation method. Here, the relative distance calculation method is a method using the above-described virtual horizontal line (Equation 2) and a method using the bounding box size (Equation 3). At least one of the size of the box), the degree of inclination change while driving, and the number of recognized objects may be included.

예를 들어, 산출부(17)는 주행 중 경사 변화가 소정 기준을 넘으며, 인식된 오브젝트가 하나인 산출 조건인 경우, 산출부(17)는 바운딩박스 크기를 이용하는 방식으로 상대 거리를 산출할 수 있다.For example, the calculator 17 calculates the relative distance by using the bounding box size when the change in inclination during driving exceeds a predetermined criterion and the calculation condition is that there is one recognized object. can

즉, 산출부(17)는 산출 조건에 따라 상대 거리 산출 방식을 결정하고, 결정된 산출 방식으로 인식된 오브젝트를 기초로 이동체와 오브젝트 간의 상대 거리를 산출하고, 산출된 상대 거리를 기초로 오브젝트와 이동체 간의 추돌소요시간을 산출할 수 있다.That is, the calculator 17 determines the relative distance calculation method according to the calculation conditions, calculates the relative distance between the moving object and the object based on the object recognized by the determined calculation method, and based on the calculated relative distance, the object and the moving object It is possible to calculate the time required for a collision between the two.

제어부(18)는 오브젝트와 추돌 가능성을 판단하고, 이동체의 추돌 방지를 위한 여러 제어 명령을 제공할 수 있다.The controller 18 may determine the possibility of colliding with an object and provide various control commands for preventing the moving object from colliding.

구체적으로, 제어부(18)는 산출된 추돌소요시간을 기초로 인식된 오브젝트와 추돌 가능성을 판단할 수 있다. 이때, 제어부(18)는 추돌 요소를 고려하여 추돌 가능성을 판단할 수 있다. 여기서, 추돌 요소에는 이동체의 브레이크 성능, 이동체의 주행 환경(포장도로, 인도, 비포장도로 주행 등), 이동체를 이용하는 사용자의 몸무게 및 주변 환경(보행자가 많은 지역, 감속 요구 지역 등) 등이 추돌 가능성에 영향을 주는 여러 요소들이 포함될 수 있다.Specifically, the control unit 18 may determine the possibility of collision with the recognized object based on the calculated required collision time. In this case, the control unit 18 may determine the possibility of collision in consideration of the collision factor. Here, the collision factors include the brake performance of the moving object, the driving environment of the moving object (paved road, sidewalk, unpaved road driving, etc.), the weight of the user using the moving object, and the surrounding environment (the area with many pedestrians, the area requiring deceleration, etc.) There may be several factors that influence the

또한, 제어부(18)는 추돌 가능성이 있다고 판단되는 경우, 추돌 주의 안내를 제공하거나 이동체가 제동되도록 제어할 수 있다. Also, when it is determined that there is a possibility of a collision, the control unit 18 may provide a collision warning guidance or control the moving object to be braked.

예를 들어, 산출된 추돌소요시간을 기초로 상기 오브젝트와 추돌 가능성이 있다고 판단된 경우, 제어부(18)는 퍼스널 모빌리티의 동작을 제어하는 제어 명령을 생성하여 퍼스널 모빌리티로 제공할 수 있다.For example, if it is determined that there is a possibility of a collision with the object based on the calculated required collision time, the controller 18 may generate a control command for controlling the operation of the personal mobility and provide it as the personal mobility.

이어서, 도 10을 참조하여 추돌 방지 장치(10)의 이동체의 추돌 방지 방법에 대해서 설명한다.Next, with reference to FIG. 10, the collision prevention method of the moving object of the collision avoidance apparatus 10 is demonstrated.

도 10은 본 발명의 일 실시예에 따른 추돌 방지 방법을 나타낸 흐름도이다.10 is a flowchart illustrating a collision avoidance method according to an embodiment of the present invention.

도 10을 참조하면, 이동체(200) 자체 카메라 또는 외부 카메라 장치로부터 촬영된 이동체(200)의 주행 영상을 획득할 수 있다(S10).Referring to FIG. 10 , a driving image of the moving object 200 photographed from its own camera or an external camera device may be acquired ( S10 ).

또한, 추돌 방지 장치(10)는 신경망 모델을 이용하여 획득된 주행 영상 내 오브젝트를 인식할 수 있다(S20). 여기서, 신경망 모델은 상기 주행 영상 내 오브젝트를 인식하여 상기 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스(bounding box) 및 상기 바운딩박스 내 오브젝트를 분류(classification)하여 출력할 수 있다.Also, the collision avoidance apparatus 10 may recognize an object in the driving image obtained using the neural network model (S20). Here, the neural network model may recognize an object in the driving image and classify and output a bounding box indicating an object region in the driving image and an object in the bounding box.

구체적으로, 오브젝트를 인식하는 단계(S20)는 획득된 주행 영상을 프레임 단위로 신경망 모델에 입력하고, 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스와 바운딩박스 내 오브젝트의 타입 정보가 포함된 주행 영상을 획득하여 주행 영상 내 오브젝트를 인식할 수 있다.Specifically, the step of recognizing the object (S20) is to input the acquired driving image to the neural network model in frame units, and to obtain a driving image including a bounding box indicating an object region in the driving image and type information of an object in the bounding box. Thus, an object in the driving image can be recognized.

그리고, 주행 영상 내 인식된 오브젝트의 위치 상태를 판단할 수 있다(S30).Then, it is possible to determine the state of the position of the object recognized in the driving image (S30).

구체적으로, 위치 상태를 판단하는 단계(S30)는 주행 영상 내 인식된 오브젝트들의 바운딩박스 위치를 기초로 해당 오브젝트의 위치 상태를 판단할 수 있다.Specifically, in the step of determining the position state ( S30 ), the position state of the object may be determined based on the positions of the bounding boxes of the objects recognized in the driving image.

그리고, 오브젝트의 타입에 따른 위치 상태를 기초로 트래킹 대상 결정할 수 있다(S40). And, it is possible to determine the tracking target based on the location state according to the type of object (S40).

구체적으로, 트래킹 대상 결정 단계(S40)는 인식된 오브젝트의 타입에 따른 해당 오브젝트의 위치 상태를 기초로 인식된 오브젝트가 오인식 되었는지 판단하거나 이동체와 추돌 가능성을 판단하여 트래킹 대상 결정할 수 있다.Specifically, the tracking target determination step (S40) may determine whether the recognized object is misrecognized based on the positional state of the corresponding object according to the type of the recognized object or by determining the possibility of colliding with a moving object to determine the tracking target.

예를 들어, 트래킹 대상 결정 단계(S40)는 인식된 오브젝트의 타입에 따른 해당 오브젝트의 위치 상태를 기초로 이동체와 추돌 가능성을 판단하고, 이동체와 추돌 가능성이 낮은 오브젝트는 트래킹(tracking) 대상에서 제외(S40 : N)하며, 다시 오브젝트 인식 단계(S20)를 재 수행 수 있다.For example, the tracking target determination step S40 determines the possibility of collision with the moving object based on the positional state of the corresponding object according to the recognized object type, and excludes the moving object and the low probability of collision with the tracking target (S40: N), the object recognition step (S20) may be re-performed.

또한, 트래킹 대상 결정 단계(S40)는 이동체와 추돌 가능성이 높은 오브젝트는 트래킹 대상으로 결정할 수 있다(S40 : Y).In addition, in the tracking target determination step (S40), an object with a high probability of colliding with a moving object may be determined as a tracking target (S40: Y).

그리고, 트래킹 대상으로 결정된 주행 영상 내 오브젝트의 위치 변화를 트래킹(tracking)하여 오브젝트의 이동을 추적할 수 있다(S50).In addition, the movement of the object may be tracked by tracking a change in the position of the object in the driving image determined as the tracking target ( S50 ).

구체적으로, 추돌 방지 장치(10)는 주행 영상의 이전 프레임과 현재 프레임을 비교하여 인식된 오브젝트의 바운딩박스 위치 변화를 트래킹하고, 오브젝트의 바운딩박스의 위치 변화를 기초로 오브젝트의 이동 경로 및 이동 방향을 추적할 수 있다.Specifically, the collision avoidance apparatus 10 tracks a change in the position of the recognized object's bounding box by comparing the previous frame and the current frame of the driving image, and the movement path and movement direction of the object based on the change in the position of the object's bounding box. can be tracked.

그리고, 인식된 오브젝트를 포함하는 주행 영상을 정규화(normalization)할 수 있다(S60). Then, the driving image including the recognized object may be normalized (S60).

그리고, 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출할 수 있다(S70).Then, a relative distance between the moving object and the object may be calculated based on the recognized object (S70).

구체적으로, 상대 거리를 산출하는 단계(S70)는 인식된 오브젝트들의 바운딩박스를 기초로 주행 영상 내 가상의 수평선을 생성하고, 생성된 가상의 수평선과 인식된 오브젝트의 바운딩박스의 바닥면 수직 좌표를 기초로 예상 상대 거리를 산출할 수 있다.Specifically, the step of calculating the relative distance (S70) is to generate a virtual horizontal line in the driving image based on the bounding boxes of the recognized objects, and calculate the generated virtual horizontal line and the vertical coordinates of the bottom surface of the bounding box of the recognized object. Based on this, the expected relative distance can be calculated.

또한, 가상의 수평선을 생성할 수 없는 경우, 상대 거리를 산출하는 단계(S70)는 인식된 오브젝트의 바운딩박스의 수직 높이와 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출할 수 있다.In addition, when the virtual horizontal line cannot be generated, the step of calculating the relative distance ( S70 ) may calculate the expected relative distance based on the vertical height of the recognized object's bounding box and the actual height of the object.

그리고, 상대 거리를 산출하는 단계(S70)는 산출된 예상 상대 거리를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리를 산출할 수 있다.In the step of calculating the relative distance ( S70 ), the relative distance may be calculated through prediction and update by applying the calculated expected relative distance to the Kalman filter.

그리고, 측면 거리를 산출하고 산출된 측면 거리를 기초로 추돌 대상 여부를 판단하고, 추돌 대상이 존재하는 경우, 해당 추돌 대상 오브젝트의 산출된 상대 거리를 기초로 오브젝트와 이동체 간의 추돌소요시간을 산출할 수 있다(S80). 구체적으로, 추돌소요시간을 산출하는 단계(S80)는 이동체의 속도를 고려하여 추돌소요시간을 산출할 수 있다.Then, calculate the side distance, determine whether a collision target is based on the calculated side distance, and if there is a collision target, calculate the required collision time between the object and the moving body based on the calculated relative distance of the collision target object It can be (S80). Specifically, in calculating the required collision time ( S80 ), the required collision time may be calculated in consideration of the speed of the moving object.

그리고, 산출된 추돌소요시간을 기초로 이동체의 동작을 제어할 수 있다(S90). 구체적으로, 제어하는 단계(S90)는 오브젝트와 추돌 가능성이 있는 경우, 추돌 주의 안내를 제공하거나 이동체가 제동되도록 제어할 수 있다.Then, it is possible to control the operation of the moving object based on the calculated required collision time (S90). Specifically, in the controlling step ( S90 ), when there is a possibility of colliding with an object, a collision warning guide may be provided or a moving object may be controlled to be braked.

한편, 상술한 추돌 방지 장치(10)는 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 구현될 수 있다. 일 예로, 하드웨어적인 구현에 의하면, ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(micro-processors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Meanwhile, the above-described collision avoidance apparatus 10 may be implemented using software, hardware, or a combination thereof. For example, according to the hardware implementation, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), processors (processors) ), controllers, micro-controllers, micro-processors, and other electrical units for performing other functions may be implemented using at least one.

도 11은 본 발명의 일 실시예에 따른 이동체 관리 시스템(1000)을 나타낸 예시도이다.11 is an exemplary diagram illustrating a moving object management system 1000 according to an embodiment of the present invention.

도 11을 참조하면, 이동체 관리 시스템은 전자 장치(100), 이동체(200), 모니터링 서버(300) 및 유관 기관(400)으로 구성될 수 있다. Referring to FIG. 11 , the moving object management system may include an electronic device 100 , a moving object 200 , a monitoring server 300 , and a related organization 400 .

전자 장치(100)는 상술한 추돌 방지 장치(10)의 기능을 하나의 구성으로 포함하며, 이동체의 사용자에게 주행 관련 안내들을 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 블랙 박스, dash cam 또는 video recorder 등과 같은 다양한 장치로 구현될 수 있고, 이동체(200)에 구비될 수 있다.The electronic device 100 includes the function of the above-described collision avoidance device 10 as one component, and is a smart phone, tablet computer, notebook computer, and personal digital assistant (PDA) capable of providing driving-related guidance to a user of a moving object. ), a portable multimedia player (PMP), smart glasses, project glasses, navigation, black box, dash cam or video recorder, etc., may be implemented in various devices, and may be provided in the mobile body 200 .

이동체(200)는 한명의 사용자가 이용하는 비공유 이동체와 다수의 사용자가 함께 이용하는 공유 이동체를 모두 포함할 수 있으며 이하에서는 공유 이동체를 기준으로 설명한다. 여기서, 공유 이동체는 사용자 단말기 내 설치된 사용자 어플리케이션을 통해 대여, 반납 및 대여비 결제될 수 있다.The mobile device 200 may include both a non-shared mobile device used by one user and a shared mobile device used by a plurality of users. Hereinafter, the shared mobile device will be described. Here, the shared mobile may be rented, returned, and paid for rental through a user application installed in the user terminal.

모니터링 서버(300)는 이동체(200)를 지속적으로 모니터링할 수 있다. The monitoring server 300 may continuously monitor the moving object 200 .

구체적으로, 모니터링 서버(300)는 사용자 어플리케이션을 통해 해당 이동체(200)의 대여, 반납 및 대여비 결제를 모니터링할 수 있으며, 사용자 정보를 전자 장치(100)로 전달할 수 있다. 여기서, 사용자 정보에는 이동체 (200)를 대여한 사용자에 대한 정보로써, 이동체(200)의 대여비 결제 여부 및 사용자의 얼굴 정보 등이 포함될 수 있다Specifically, the monitoring server 300 may monitor the rental, return, and rental fee payment of the moving object 200 through the user application, and may transmit user information to the electronic device 100 . Here, the user information is information about the user who has rented the moving object 200, and may include whether or not the rental fee of the moving object 200 is paid and the user's face information.

또한, 모니터링 서버(300)는 전자 장치(100)로부터 이벤트 정보를 수신하고, 관리자(310)는 이벤트 정보를 기초로 해당 이동체(200)나 전자 장치(300)로 전자 장치(100)나 이동체(200)의 동작을 제어하는 관리자 명령을 전송하거나 유관 기관에 연락할 수 있다. In addition, the monitoring server 300 receives event information from the electronic device 100 , and the manager 310 sends the electronic device 100 or the mobile device 300 to the corresponding mobile device 200 or electronic device 300 based on the event information. 200) may transmit an administrator command to control the operation or contact the relevant authority.

즉, 모니터링 서버(300)는 이벤트 정보를 기초로 사용자에게 발생한 이벤트 상황에 대응할 수 있다.That is, the monitoring server 300 may respond to an event situation occurring to the user based on the event information.

유관 기관(400)는 이벤트 상황에 관련된 기관으로써, 이벤트의 타입에 따라 경찰서, 의료기관, 구조기관 등이 될 수 있다.The related organization 400 is an organization related to the event situation, and may be a police station, a medical institution, a rescue organization, etc. depending on the type of event.

이하에서는 이동체 관리 시스템(1000)의 전자 장치(100)의 구성에 대해서 설명한다.Hereinafter, the configuration of the electronic device 100 of the moving object management system 1000 will be described.

도 12는 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도이다.12 is a block diagram illustrating an electronic device according to an embodiment of the present invention.

도 12를 참조하면, 전자 장치(100)는 촬영부(110), 추돌 예상부(120), 출력부(130), 입력부(140), 센싱부(150), 통신부(160), 이벤트 감지부(170), 저장부(180) 및 제어부(190)를 포함할 수 있다.12 , the electronic device 100 includes a photographing unit 110 , a collision prediction unit 120 , an output unit 130 , an input unit 140 , a sensing unit 150 , a communication unit 160 , and an event sensing unit. 170 , a storage unit 180 , and a control unit 190 may be included.

촬영부(110)는 이동체의 주변을 촬영하는 기능을 수행할 수 있다.The photographing unit 110 may perform a function of photographing the periphery of the moving object.

구체적으로, 촬영부(110)는 전방을 촬영하여 이동체의 주행 영상이나 주차 영상을 얻을 수 있다. 또한, 촬영부(110)는 이동체의 사용자를 촬영하여 사용자 영상을 얻을 수도 있다.Specifically, the photographing unit 110 may obtain a driving image or a parking image of the moving object by photographing the front. Also, the photographing unit 110 may obtain an image of the user by photographing the user of the moving object.

추돌 예상부(120)는 상술한 추돌 방지 장치(10)의 기능들을 수행할 수 있다.The collision prediction unit 120 may perform the functions of the above-described collision avoidance apparatus 10 .

구체적으로, 추돌 예상부(120)는 상술한 추돌 방지 장치(10)의 영상 획득부(11), 오브젝트 인식부(12), 위치 상태 판단부(13), 트래킹 결정부(14), 오브젝트 갱신부(15), 정규화 처리부(16) 및 산출부(17)의 각 기능을 수행할 수 있다.Specifically, the collision prediction unit 120 includes the image acquisition unit 11, the object recognition unit 12, the position state determination unit 13, the tracking determination unit 14, and the object update unit of the above-described collision avoidance device 10. Each function of the unit 15 , the normalization processing unit 16 , and the calculation unit 17 may be performed.

즉, 추돌 예상부(120)는 촬영부(110)에서 촬영된 주행 영상을 획득하여 오브젝트를 인식하고, 인식된 오브젝트와의 상대 거리를 산출하며, 산출된 상대 거리를 기초로 추돌소요시간을 산출할 수 있다.That is, the collision prediction unit 120 acquires the driving image captured by the photographing unit 110 to recognize the object, calculates the relative distance to the recognized object, and calculates the required collision time based on the calculated relative distance can do.

출력부(130)는 전자 장치(100)의 여러 데이터를 사용자에게 영상 및/또는 음성으로 출력하는 장치이다.The output unit 130 is a device for outputting various data of the electronic device 100 to the user as images and/or audio.

예를 들어, 출력부(130)는 추돌소요시간을 기초로 이동체(200)의 주행 안내를 위한 정보를 출력할 수 있다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(132)의 전부 또는 일부를 포함할 수 있다.For example, the output unit 130 may output information for guiding the driving of the moving object 200 based on the required collision time. Here, the output unit 130 may include all or part of the display unit 131 and the audio output unit 132 .

디스플레이부(131)는 사용자에게 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. The display unit 131 is a device that outputs data that can be visually recognized by a user.

구체적으로, 디스플레이부(131)는 주행 안내 정보, 주행 속도, 주행 영상, 탑승 시간, 결제 시간, 남은 대여 시간 등을 출력할 수 있다. Specifically, the display unit 131 may output driving guidance information, driving speed, driving image, boarding time, payment time, remaining rental time, and the like.

예를 들어, 추돌 가능성이 있다고 판단된 경우, 디스플레이부(131)에는 추돌을 경고하는 안내 정보가 출력될 수 있다.For example, when it is determined that there is a possibility of a collision, guide information warning of a collision may be output on the display unit 131 .

오디오 출력부(132)는 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 여기서, 오디오 출력부(132)는 전자 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다.The audio output unit 132 is a device for outputting data that can be recognized aurally. Here, the audio output unit 132 may be implemented as a speaker expressing sound of data to be notified to the user of the electronic device 100 .

구체적으로 오디오 출력부(132)는 주행 안내 정보, 주행 속도, 주행 영상 남은 대여 시간 등을 출력할 수 있다.Specifically, the audio output unit 132 may output driving guidance information, driving speed, remaining rental time of driving image, and the like.

입력부(140)는 전자 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 여기서, 입력부(140)는 사용자 입력부(141)와 마이크부(142)의 전부 또는 일부를 포함할 수 있다.The input unit 140 functions to convert a physical input from the outside of the electronic device 100 into a specific electrical signal. Here, the input unit 140 may include all or part of the user input unit 141 and the microphone unit 142 .

사용자 입력부(141)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력부(141)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The user input unit 141 may receive a user input such as a touch or a push operation. Here, the user input unit 141 may be implemented using at least one of various button shapes, a touch sensor for receiving a touch input, and a proximity sensor for receiving an approaching motion.

마이크부(142)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The microphone unit 142 may receive a user's voice and a sound generated inside or outside the vehicle.

센싱부(150)는 전자 장치(100)의 동작에 필요한 여러 데이터를 센싱하여 획득할 수 있다.The sensing unit 150 may sense and acquire various data necessary for the operation of the electronic device 100 .

구체적으로, 센싱부(150)는 전자 장치(100)나 이동체의 충격을 센싱하여 충격 데이터를 획득할 수 있다. 또한, 센싱부(150)는 전자 장치(100)나 이동체의 현재 위치 데이터를 획득할 수 있다.Specifically, the sensing unit 150 may acquire impact data by sensing an impact of the electronic device 100 or a moving object. Also, the sensing unit 150 may acquire current location data of the electronic device 100 or a moving object.

통신부(150)는 이동체(200), 모니터링 서버(300), 외부 장치 및 유관 기관(400)과 통신하여 여러 데이터를 송수신할 수 있다. 여기서, 외부 장치는 다른 전자 장치나 다른 이동체(200)를 의미할 수 있다.The communication unit 150 may transmit/receive various data by communicating with the mobile body 200 , the monitoring server 300 , an external device, and a related organization 400 . Here, the external device may mean another electronic device or another movable body 200 .

구체적으로, 통신부(150)는 이동체의 동작을 제어하기 위한 제어 명령을 이동체로 송신할 수 있다.Specifically, the communication unit 150 may transmit a control command for controlling the operation of the moving object to the moving object.

또한, 통신부(150)는 모니터링 서버(300)로부터 사용자 정보나 이벤트 정보를 송신하거나 수신할 수 있다. 또한, 통신부(150)는 모니터링 서버(300)로부터 관리자 명령을 수신할 수도 있다.In addition, the communication unit 150 may transmit or receive user information or event information from the monitoring server 300 . Also, the communication unit 150 may receive a manager command from the monitoring server 300 .

이벤트 감지부(170)는 이동체의 여러 이벤트들의 발생 여부를 감지할 수 있다.The event detection unit 170 may detect whether various events of the moving object have occurred.

구체적으로, 이벤트 감지부(170)는 사용자 영상을 기초로 탑승 이벤트의 발생 여부를 감지할 수 있다. 여기서, 탑승 이벤트는 공유 이동체의 사용자가 공유 이동체 탑승 시에 안전 장비를 착용 여부, 선결제 여부, 사용자 본인 여부 등을 나타내는 정보이다.Specifically, the event detecting unit 170 may detect whether a boarding event has occurred based on the user image. Here, the boarding event is information indicating whether the user of the shared mobile device wears safety equipment when boarding the shared mobile device, whether or not to make a prepayment, and whether the user himself or herself.

예를 들어, 이벤트 감지부(170)는 사용자 영상을 영상 처리하여 사용자가 안전 장비(헬멧, 무릎 보호대, 팔꿈치 보호대 등)를 착용 여부를 인식하고, 해당 사용자가 안전 장비를 착용하지 않은 경우에는 탑승 이벤트가 발생하였다고 감지할 수 있다.For example, the event detection unit 170 image-processes the user image to recognize whether the user wears safety equipment (helmet, knee protector, elbow protector, etc.), and when the user does not wear safety equipment, boarding It can be detected that an event has occurred.

다른 예로, 이벤트 감지부(170)는 사용자 영상을 영상 처리하여 탑승한 사용자의 얼굴을 인식하여 해당 공유 이동체의 등록된 사용자의 얼굴 정보와 비교한 후, 탑승한 사용자의 얼굴과 사용자의 얼굴 정보 다르다고 판단되는 경우에는 탑승 이벤트가 발생하였다고 감지할 수 있다.As another example, the event detection unit 170 image-processes the user image to recognize the face of the riding user, compares it with the face information of the registered user of the shared moving object, and says that the face information of the riding user is different from the face information of the user. If it is determined, it may be detected that a boarding event has occurred.

또한, 이벤트 감지부(170)는 주행 영상, 사용자 입력 및 충격 데이터 중 적어도 하나를 기초로 사고 이벤트의 발생 여부를 감지할 수 있다. 여기서, 사고 이벤트는 공유 이동체의 사용자에게 긴급 상황이 발생 여부에 관한 것으로, 공유 이동체의 사용자가 주행 중 추돌 사고 여부, 슬립 사고 여부, 등을 나타내는 이벤트 정보이다. 여기서, 사용자 입력에는 사용자의 응급 구조 요청 명령이 포함될 수 있다.Also, the event detection unit 170 may detect whether an accident event occurs based on at least one of a driving image, a user input, and impact data. Here, the accident event relates to whether or not an emergency situation occurs to the user of the shared mobile object, and is event information indicating whether the user of the shared mobile object has a collision accident while driving, a slip accident, and the like. Here, the user input may include a user's emergency rescue request command.

예를 들어, 주행 영상에서 인식된 오브젝트와 추돌하는 경우, 이벤트 감지부(170)는 공유 이동체의 사용자에게 사고 이벤트가 발생하였다고 감지할 수 있다.For example, in the case of colliding with an object recognized in the driving image, the event detecting unit 170 may detect that an accident event has occurred in the user of the shared moving object.

또한, 이벤트 감지부(170)는 주행 영상 및 현재 위치 데이터 중 적어도 하나를 기초로 주의 이벤트의 발생 여부를 감지할 수 있다. 여기서, 주의 이벤트는 공유 이동체의 사용자에 대해 주의가 필요한 상황의 발생 여부에 관한 것으로, 과속 주행 여부, 비정상 주행 여부(불법 앞지르기, 불법 끼어들기 등) 등을 나타내는 이벤트 정보이다.Also, the event detecting unit 170 may detect whether an attention event occurs based on at least one of a driving image and current location data. Here, the caution event relates to whether or not a situation requiring attention to the user of the shared moving object occurs, and is event information indicating whether the user is driving at a speed or abnormal driving (illegal overtaking, illegal interruption, etc.).

예를 들어, 주행 영상에서 인식된 오브젝트와 인접하게 주행한다고 판단된 경우, 이벤트 감지부(170)는 공유 이동체의 사용자에게 주의 이벤트가 발생하였다고 감지할 수 있다.For example, when it is determined that the vehicle travels adjacent to the object recognized in the driving image, the event detection unit 170 may detect that an attention event has occurred in the user of the shared moving object.

다른 예로, 현재 위치 데이터를 기초로 해당 지역의 규정 속도보다 현재 공유 이동체의 속도가 빠르다고 판단된 경우, 이벤트 감지부(170)는 공유 이동체의 사용자에게 주의 이벤트가 발생하였다고 감지할 수 있다.As another example, if it is determined based on the current location data that the speed of the current shared moving object is faster than the prescribed speed of the corresponding area, the event detecting unit 170 may detect that a caution event has occurred to the user of the shared mobile.

또한, 이벤트 감지부(170)는 사용자 영상 및 현재 위치 데이터 중 적어도 하나를 기초로 하차 이벤트의 발생 여부를 감지할 수 있다. 여기서, 하차 이벤트는 공유 이동체의 사용자가 공유 이동체 하차 시에 안전 장비의 탈착 및 보관 여부, 공유 이동체의 불법 주차 여부 등을 나타내는 이벤트 정보이다.Also, the event detecting unit 170 may detect whether an alighting event occurs based on at least one of a user image and current location data. Here, the getting off event is event information indicating whether the user of the shared mobile device is dismounting and storing safety equipment when the user of the shared mobile device gets off the shared mobile device, and whether the shared mobile device is illegally parked.

예를 들어, 현재 위치 데이터를 기초로 공유 이동체가 불법 주차 구역에 주차된 경우, 이벤트 감지부(170)는 하차 이벤트가 발생하였다고 판단할 수 있다.For example, when the shared mobile is parked in an illegal parking area based on the current location data, the event detection unit 170 may determine that an alighting event has occurred.

즉, 이벤트 감지부(170)는 주행 영상, 사용자 영상, 충격 데이터 및 현재 위치 데이터를 기초로 공유 이동체의 사용자에게 탑승 이벤트, 사고 이벤트, 주의 이벤트 및 하차 이벤트 중 적어도 하나의 발생 여부를 감지할 수 있다.That is, the event detection unit 170 may detect whether at least one of a boarding event, an accident event, a caution event, and an alighting event occurs to the user of the shared moving object based on the driving image, the user image, the impact data, and the current location data. there is.

저장부(160)는 전자 장치(100)의 동작에 필요한 다양한 데이터들을 저장하는 기능을 수행할 수 있다.The storage unit 160 may perform a function of storing various data necessary for the operation of the electronic device 100 .

또한, 저장부(160)는 전자 장치(100)의 동작에 의하여 생성된 데이터, 예를 들어 주행 영상, 인식된 오브젝트, 이벤트 정보, 주행 경로 등을 저장할 수 있다. Also, the storage 160 may store data generated by the operation of the electronic device 100 , for example, a driving image, a recognized object, event information, a driving route, and the like.

이러한 저장부(160)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈 가능한 형태의 저장소자로 구현될 수도 있다.The storage unit 160 includes random access memory (RAM), flash memory, read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), registers, hard disk, removable disk, and memory. It may be implemented as a storage device in a built-in type such as a card or a Universal Subscriber Identity Module (USIM), as well as a storage device in a removable type such as a USB memory.

제어부(170)는 전자 장치(100)의 전반적인 동작을 제어할 수 있다.The controller 170 may control the overall operation of the electronic device 100 .

구체적으로, 이벤트 감지부(170)에서 이벤트 발생이 감지된 경우, 제어부(170)는 이벤트 정보를 생성하고 생성된 이벤트 정보를 모니터링 서버(300)나 유관 기관(400)으로 전로 이벤트 관련 정보가 전송되도록 통신부(150)를 제어할 수 있다.Specifically, when the event detection unit 170 detects the occurrence of an event, the control unit 170 generates event information and transmits the generated event information to the monitoring server 300 or a related organization 400 related to the conversion event. It is possible to control the communication unit 150 as possible.

여기서, 이벤트 정보에는 발생된 이벤트 타입 정보(탑승 이벤트, 사고 이벤트, 주의 이벤트, 하차 이벤트 등), 이벤트 영상 정보(예를 들어, 이벤트 발생 전후의 주행 영상, 사용자 영상 등), 이벤트 발생 위치 및 시간 정보, 주행 영상 내 오브젝트의 이동 경로, 이동 속도 및 이동 방향 등이 포함될 수 있다.Here, the event information includes generated event type information (boarding event, accident event, attention event, alighting event, etc.), event video information (eg, driving video before and after the event, user video, etc.), event occurrence location and time Information, a movement path of an object in the driving image, a movement speed and a movement direction, etc. may be included.

또한, 제어부(170)는 생성된 이벤트 정보 마다 긴급도를 판단하고, 긴급도에 따라 생성된 이벤트 정보를 모니터링 서버(300)나 유관 기관(400)으로 선택적으로 전송되도록 통신부(150)를 제어할 수 있다. 이때, 제어부(170)는 이벤트 발생에 따른 사용자의 피해 정도에 따라 긴급도를 판단할 수 있으며, 이벤트 타입 정보, 충격 데이터 및 이동체(200)의 속도 중 적어도 하나를 기초로 긴급도를 판단할 수 있다.In addition, the control unit 170 determines the urgency for each generated event information, and controls the communication unit 150 to selectively transmit the event information generated according to the urgency to the monitoring server 300 or a related organization 400 . can In this case, the controller 170 may determine the degree of urgency according to the degree of damage to the user according to the occurrence of the event, and may determine the degree of urgency based on at least one of event type information, impact data, and the speed of the moving object 200 . there is.

또한, 제어부(170)는 관리자 명령을 기초로 전자 장치(100)나 이동체(200)의 동작을 제어할 수 있다. 여기서, 관리자 명령에는 이동체의 비상등이 동작하도록 제어하거나 구조 사이렌이 동작하도록 제어하거나 이동체가 제동되도록 제어하는 제어 명령 등이 포함될 수 있다.Also, the controller 170 may control the operation of the electronic device 100 or the moving object 200 based on a manager command. Here, the manager command may include a control command for controlling the emergency light of the moving object to operate, for controlling the rescue siren to operate, or for controlling the moving object to be braked.

이를 통해, 이동체(200)에서 발생한 사고가 확대되는 것을 방지할 수 있으며 이동체(200)의 사용자의 피해를 최소화할 수 있다.Through this, it is possible to prevent an accident occurring in the moving object 200 from escalating and to minimize damage to the user of the moving object 200 .

한편, 제어부(170)는 상술한 추돌 방지 장치(10)의 제어부(18)의 기능을 모두 수행할 수 있다.Meanwhile, the control unit 170 may perform all functions of the control unit 18 of the above-described collision avoidance device 10 .

이하, 도 13을 참조하여 이동체 관리 시스템(1000)의 이동체 모니터링 방법에 대해 설명한다. Hereinafter, a moving object monitoring method of the moving object management system 1000 will be described with reference to FIG. 13 .

도 13은 본 발명의 일 실시예에 따른 이동체 관리 시스템의 이동체 모니터링 방법을 나타낸 타이밍도이다.13 is a timing diagram illustrating a method for monitoring a moving object of a moving object management system according to an embodiment of the present invention.

도 13을 참조하면, 모니터링 서버(300)는 사용자 정보를 전자 장치(100)로 전송할 수 있다(S100). 여기서, 사용자 정보는 사용자 어플리케이션을 통해 입력될 수 있다.Referring to FIG. 13 , the monitoring server 300 may transmit user information to the electronic device 100 ( S100 ). Here, user information may be input through a user application.

다음, 전자 장치(100)는 이벤트 발생을 감지하는데 필요한 여러 데이터를 획득할 수 있다(S200). 구체적으로, 전자 장치(100)는 이동체(200)의 전방 영상, 주변 영상, 사용자 영상, 충격 데이터 및 현재 위치 데이터 등을 획득할 수 있다.Next, the electronic device 100 may acquire various data necessary to detect the occurrence of an event (S200). Specifically, the electronic device 100 may acquire a front image, a surrounding image, a user image, impact data, and current location data of the moving object 200 .

다음, 전자 장치(100)는 획득된 여러 데이터를 기초로 이동체(200)의 사용자에게 이벤트가 발생하였는지 여부를 감지할 수 있다(S300).Next, the electronic device 100 may detect whether an event has occurred to the user of the moving object 200 based on the acquired data (S300).

구체적으로, 전자 장치(100)는 주행 영상, 사용자 영상, 충격 데이터 및 현재 위치 데이터를 기초로 공유 이동체의 사용자에게 탑승 이벤트, 사고 이벤트, 주의 이벤트, 하차 이벤트의 발생 여부를 감지할 수 있다.Specifically, the electronic device 100 may detect whether a boarding event, an accident event, a caution event, or an alighting event occurs to the user of the shared moving object based on the driving image, the user image, the impact data, and the current location data.

그리고, 이벤트 발생가 발생된 경우, 전자 장치(100)는 이벤트 정보를 생성(S400)하고, 생성된 이벤트 정보를 모니터링 서버(300)로 전송하거나 발생된 이벤트의 긴급도에 따라 유관 기관(400)으로 전송할 수 있다(S500).And, when an event occurs, the electronic device 100 generates event information ( S400 ), and transmits the generated event information to the monitoring server 300 , or to a related organization 400 according to the urgency of the generated event. It can be transmitted (S500).

다음, 모니터링 서버(300)는 수신된 이벤트 정보를 기초로 해당 이동체(200)나 이동체의 사용자를 실시간 모니터링할 수 있다(S600).Next, the monitoring server 300 may monitor the corresponding moving object 200 or the user of the moving object in real time based on the received event information (S600).

또한, 모니터링 서버(300)는 관리자(310)의 판단에 따라 유관 기관(400)으로 이벤트 정보 및 출동 요청 명령을 전송할 수 있다(S700). 이때, 유관 기관(400)은 이벤트 정보를 기초로 해당 이벤트가 발생된 곳으로 출동할 수 있다.In addition, the monitoring server 300 may transmit event information and a dispatch request command to the related organization 400 according to the determination of the manager 310 (S700). In this case, the related organization 400 may be dispatched to the place where the corresponding event occurred based on the event information.

또한, 모니터링 서버(300)는 발생된 이벤트에 대응되는 관리자 명령을 전자 장치(100)로 전송할 수 있다(S800). 예를 들어, 모니터링 서버(300)는 이동체가 제동되도록 제어하는 관리자 명령을 전자 장치(100)로 전송할 수 있다.Also, the monitoring server 300 may transmit a manager command corresponding to the generated event to the electronic device 100 (S800). For example, the monitoring server 300 may transmit a manager command for controlling the moving object to be braked to the electronic device 100 .

그리고, 전자 장치(100)는 수신된 관리자 명령을 기초로 전자 장치(100)나 이동체(200)의 동작을 제어할 수 있다(S900).Then, the electronic device 100 may control the operation of the electronic device 100 or the moving object 200 based on the received manager command (S900).

상술한 이동체 관리 시스템(1000)을 통해, 이동체의 사용자를 실시관 모니터링할 수 있으며, 이동체의 사용자에게 이벤트 발생시, 빠르게 대처할 수 있다.Through the above-described moving object management system 1000 , the user of the moving object can be monitored in real time, and when an event occurs to the user of the moving object, it can be quickly dealt with.

또한, 모니터링 서버(300)는 이벤트 정보를 통해, 이동체의 분실, 파손, 사고 등에 대한 원인을 규명할 수 있다.In addition, the monitoring server 300 may identify the cause of the loss, damage, accident, etc. of the moving object through the event information.

나아가, 이동체 관리 시스템(1000)을 통해 이동체의 보험사의 협의를 통해 보험할인 유도로 정부시책 부흥하며, 이동체의 녹화 및 추돌 방지 의무화 등을 통해 시장을 선도할 수 있다.Furthermore, through the mobile body management system 1000, the government policy can be revitalized by inducing insurance discount through consultation with the insurance company of the mobile body, and it is possible to lead the market through the greening of the moving object and mandatory collision prevention.

한편, 본 발명에 따른 이동체의 추돌 방지 장치(10) 및 전자 장치(100)를 구성하는 모듈의 적어도 하나 이상은 자율 주행을 위한 시스템의 일 모듈로 구현되어 경로 안내 기능을 수행할 수 있다. 이에 대해서는 도 14 내지 15를 참조하여 보다 구체적으로 설명하기로 한다.Meanwhile, at least one of the modules constituting the device for preventing collision of a moving object 10 and the electronic device 100 according to the present invention may be implemented as one module of a system for autonomous driving to perform a route guidance function. This will be described in more detail with reference to FIGS. 14 to 15 .

도 14을 참조하면, 본 실시예에 따른 자율 주행 차량(2000)은 제어 장치(2100), 센싱모듈(2004a, 2004b, 2004c, 2004d), 엔진(2006), 및 사용자 인터페이스(2008)를 포함할 수 있다.Referring to FIG. 14 , the autonomous driving vehicle 2000 according to the present embodiment may include a control device 2100 , sensing modules 2004a , 2004b , 2004c , 2004d , an engine 2006 , and a user interface 2008 . can

자율 주행 차량(2000)은 자율 주행 모드 또는 메뉴얼 모드를 구비할 수 있다. 일 예로, 사용자 인터페이스(2008)를 통해 수신된 사용자 입력에 따라 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.The autonomous driving vehicle 2000 may have an autonomous driving mode or a manual mode. For example, according to a user input received through the user interface 2008 , the manual mode may be switched to the autonomous driving mode, or the autonomous driving mode may be switched to the manual mode.

차량(2000)이 자율 주행 모드로 운행되는 경우 자율 주행 차량(2000)은 제어 장치(2100)의 제어하에 운행될 수 있다. When the vehicle 2000 is operated in the autonomous driving mode, the autonomous driving vehicle 2000 may be operated under the control of the control device 2100 .

본 실시예에서 제어 장치(2100)는 메모리(2122)와 프로세서(2124)를 포함하는 컨트롤러(2120), 센서(2110), 통신 장치(2130), 오브젝트 검출 장치(2140)를 포함할 수 있다.In this embodiment, the control device 2100 may include a controller 2120 including a memory 2122 and a processor 2124 , a sensor 2110 , a communication device 2130 , and an object detection device 2140 .

여기서, 오브젝트 검출 장치(2140)는 상술한 추돌 방지 장치(10)의 전부 또는 일부의 기능을 수행할 수 있다. Here, the object detection apparatus 2140 may perform all or some functions of the above-described collision avoidance apparatus 10 .

즉, 본 실시 예에서, 오브젝트 검출 장치(2140)는 차량(2000) 외부에 위치하는 오브젝트를 검출하기 위한 장치로, 오브젝트 검출 장치(2140)는 차량(2000) 외부에 위치하는 오브젝트를 검출하고, 검출 결과에 따른 오브젝트 정보를 생성할 수 있다.That is, in the present embodiment, the object detection apparatus 2140 is a device for detecting an object located outside the vehicle 2000, and the object detection apparatus 2140 detects an object located outside the vehicle 2000, Object information may be generated according to the detection result.

오브젝트 정보는 오브젝트의 존재 유무에 대한 정보, 오브젝트의 위치 정보, 차량과 오브젝트와의 거리 정보 및 차량과 오브젝트와의 상대 속도 정보를 포함할 수 있다. The object information may include information on the existence of an object, location information of the object, distance information between the vehicle and the object, and relative speed information between the vehicle and the object.

오브젝트는, 차선, 타 차량, 보행자, 교통 신호, 빛, 도로, 구조물, 과속 방지턱, 지형물, 동물 등을 차량(2000)의 외부에 위치한 다양한 객체를 포함할 수 있다. 여기서, 교통 신호는 교통 신호등, 교통 표지판, 도로 면에 그려진 문양 또는 텍스트를 포함하는 개념일 수 있다. 그리고, 빛은 타 차량에 구비된 램프에서 생성된 빛이거나 가로등에서 생성된 빛이거나 태양광일 수 있다. The object may include various objects positioned outside the vehicle 2000 , such as a lane, another vehicle, pedestrian, traffic signal, light, road, structure, speed bump, terrain, and animal. Here, the traffic signal may be a concept including a traffic light, a traffic sign, a pattern or text drawn on a road surface. In addition, the light may be light generated from a lamp provided in another vehicle, light generated from a street lamp, or sunlight.

그리고, 구조물은 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 신호등, 다리를 포함할 수 있다. 지형물은, 산, 언덕, 등을 포함할 수 있다.In addition, the structure may be an object located around the road and fixed to the ground. For example, the structure may include a street lamp, a street tree, a building, a power pole, a traffic light, and a bridge. Features may include mountains, hills, and the like.

이러한 오브젝트 검출 장치(2140)는 카메라 모듈을 포함할 수 있다. 컨트롤러(2120)는 카메라 모듈에서 촬영되는 외부 이미지로부터 객체 정보를 추출하고 이에 대한 정보를 컨트롤러(2120)가 처리하도록 할 수 있다.The object detection apparatus 2140 may include a camera module. The controller 2120 may extract object information from an external image captured by the camera module and allow the controller 2120 to process the information.

또한, 오브젝트 검출 장치(2140)는 외부 환경을 인식하기 위한 이미징 장치들이 더욱 포함할 수 있다. LIDAR 외에 RADAR, GPS 장치, 주행 거리 측정 장치(Odometry) 및 기타 컴퓨터 비전 장치, 초음파 센서, 적외선 센서 들이 이용될 수 있으며, 이들의 장치는 필요에 따라 선택 또는 동시에 동작하여 보다 정밀한 감지가 가능하도록 한다.Also, the object detection apparatus 2140 may further include imaging apparatuses for recognizing an external environment. In addition to LIDAR, RADAR, GPS, Odometry and other computer vision devices, ultrasonic sensors, and infrared sensors can be used, and these devices can be selected or operated simultaneously as needed to enable more precise detection .

한편, 본 발명의 일 실시 예에 따른 추돌 방지 장치(10)는 인식된 오브젝트의 위치 상태를 판단하고, 오브젝트의 타입에 따른 위치 상태를 기초로 트래킹 대상을 결정할 수 있다. 그리고, 추돌 방지 장치(10)는 트래킹 대상으로 결정된 주행 영상 내 오브젝트의 위치 변화를 트래킹(tracking)하여 오브젝트의 이동을 추적하고, 인식된 오브젝트를 포함하는 주행 영상을 정규화(normalization)하며, 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출할 수 있다. On the other hand, the collision avoidance apparatus 10 according to an embodiment of the present invention may determine the position state of the recognized object, and determine a tracking target based on the position state according to the type of object. Then, the collision avoidance apparatus 10 tracks the movement of the object by tracking the change in the position of the object in the driving image determined as the tracking target, normalizes the driving image including the recognized object, and A relative distance between the moving object and the object may be calculated based on the object.

그리고, 추돌 방지 장치(10)는 자율 주행 차량(2000)의 제어 장치(2100)와 연계하여 산출된 추돌소요시간을 기초로 이동체의 동작을 제어할 수 있다. In addition, the collision avoidance apparatus 10 may control the operation of the moving object based on the calculated required collision time in connection with the control apparatus 2100 of the autonomous driving vehicle 2000 .

일 예로, 자율 주행 차량(2000)과 오브젝트 간의 추돌 가능성이 있는 경우, 자율 주행 차량(2000)은 속도를 낮추거나 또는 정지하도록 브레이크를 제어할 수 있다. 다른 예로, 오브젝트가 이동하는 오브젝트인 경우, 자율 주행 차량(2000)은 오브젝트와 동일 속도로 이동하도록 자율 주행 차량(2000)의 주행 속도를 제어할 수 있다. As an example, if there is a possibility of a collision between the autonomous vehicle 2000 and an object, the autonomous vehicle 2000 may control a brake to slow down or stop the vehicle. As another example, when the object is a moving object, the autonomous driving vehicle 2000 may control the driving speed of the autonomous driving vehicle 2000 to move at the same speed as the object.

이러한 본 발명의 일 실시 예에 따른 추돌 방지 장치(10)는 자율 주행 차량(2000)의 제어 장치(2100) 내의 일 모듈로 구성될 수 있다. 즉, 제어 장치(2100)의 메모리(2122)와 프로세서(2124)가 본 발명에 따른 추돌 방지 방법을 소프트웨어적으로 구현하도록 할 수 있다.The collision avoidance apparatus 10 according to an embodiment of the present invention may be configured as one module in the control apparatus 2100 of the autonomous vehicle 2000 . That is, the memory 2122 and the processor 2124 of the control device 2100 may implement the collision avoidance method according to the present invention in software.

또한, 센서(2110)는 차량 내부/외부 환경을 센싱모듈(2004a, 2004b, 2004c, 2004d)와 연결되어 각종 센싱 정보를 획득할 수 있다. 여기서, 센서(2110)는 자세 센서(예를 들면, 요 센서(yaw sensor), 롤 센서(roll sensor), 피치 센서(pitch sensor), 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서, 등을 포함할 수 있다. Also, the sensor 2110 may be connected to the sensing modules 2004a, 2004b, 2004c, and 2004d for the internal/external environment of the vehicle to acquire various types of sensing information. Here, the sensor 2110 is an attitude sensor (eg, a yaw sensor, a roll sensor, a pitch sensor, a collision sensor, a wheel sensor, a speed sensor, and a tilt sensor). , weight sensor, heading sensor, gyro sensor, position module, vehicle forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior It may include a temperature sensor, an in-vehicle humidity sensor, an ultrasonic sensor, an illuminance sensor, an accelerator pedal position sensor, a brake pedal position sensor, and the like.

이에 따라, 센서(2110)는 차량 자세 정보, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the sensor 2110 includes vehicle posture information, vehicle collision information, vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle inclination information, vehicle forward/reverse information, Sensing signals for battery information, fuel information, tire information, vehicle lamp information, vehicle interior temperature information, vehicle interior humidity information, steering wheel rotation angle, exterior illumination, accelerator pedal pressure, and brake pedal pressure can be obtained

또한, 센서(2110)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다. In addition, the sensor 2110 includes, in addition, an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position. It may further include a sensor (TPS), a TDC sensor, a crank angle sensor (CAS), and the like.

이와 같이, 센서(2110)는 센싱 데이터를 기초로 차량 상태 정보를 생성할 수 있다. In this way, the sensor 2110 may generate vehicle state information based on the sensed data.

무선 통신 장치(2130)는 자율 주행 차량(2000) 간의 무선 통신을 구현하기 위해 구성된다. 예를 들어, 사용자의 모바일 폰, 또는 다른 무선 통신 장치(2130), 다른 차량, 중앙 장치(교통 제어 장치), 서버 등과 자율 주행 차량(2000)이 통신할 수 있도록 한다. 무선 통신 장치(2130)는 무선 신호를 접속 무선 프로토콜에 따라 송수신할 수 있다. 무선 통신 프로토콜은 Wi-Fi, Bluetooth, Long-Term Evolution (LTE), Code Division Multiple Access (CDMA), Wideband Code Division Multiple Access (WCDMA), Global Systems for Mobile Communications (GSM)일 수 있으며, 통신 프로토콜은 이에 제한되지 않는다.The wireless communication device 2130 is configured to implement wireless communication between the autonomous vehicles 2000 . For example, it enables the autonomous vehicle 2000 to communicate with a user's mobile phone, another wireless communication device 2130 , another vehicle, a central device (traffic control device), a server, and the like. The wireless communication device 2130 may transmit/receive a wireless signal according to an access wireless protocol. The wireless communication protocol can be Wi-Fi, Bluetooth, Long-Term Evolution (LTE), Code Division Multiple Access (CDMA), Wideband Code Division Multiple Access (WCDMA), Global Systems for Mobile Communications (GSM), and the communication protocol is It is not limited thereto.

또한 본 실시 예에서 자율 주행 차량(2000)은 무선 통신 장치(2130)를 통해 차량 간 통신을 구현하는 것도 가능하다. 즉, 무선 통신 장치(2130)는 차량 대 차량 간(V2V) 통신(vehicle-to-vehicle communication)으로 도로 상의 다른 차량 및 다른 차량들과 통신을 수행할 수 있다. 자율 주행 차량(2000)은 주행 경고, 교통 정보와 같은 정보를 챠량 간 통신으로 통해 송수신할 수 있으며, 다른 차량에게 정보를 요청하거나 요청을 수신하는 것도 가능하다. 예를 들어, 무선 통신 장치(2130)는 V2V 통신을 단 거리 통신(DSRC, dedicated short-range communication) 장치 또는 C-V2V(Cellular-V2V) 장치로 수행할 수 있다. 또한 차량 간의 통신 외에 차량과 다른 사물(예컨대 보행자가 휴대하는 전자 기기 등) 간의 통신(V2X, Vehicle to Everything communication)도 무선 통신 장치(2130)를 통해 구현할 수 있다.Also, in the present embodiment, the autonomous vehicle 2000 may implement inter-vehicle communication through the wireless communication device 2130 . That is, the wireless communication device 2130 may communicate with other vehicles and other vehicles on the road through vehicle-to-vehicle communication (V2V). The autonomous vehicle 2000 may transmit/receive information such as a driving warning and traffic information through vehicle-to-vehicle communication, and may request or receive a request for information from another vehicle. For example, the wireless communication device 2130 may perform V2V communication as a dedicated short-range communication (DSRC) device or a cellular-V2V (C-V2V) device. In addition to communication between vehicles, communication (V2X, Vehicle to Everything communication) between a vehicle and another object (eg, an electronic device carried by a pedestrian) may also be implemented through the wireless communication device 2130 .

본 실시 예에서 컨트롤러(2120)는 차량(2000) 내의 각 유닛의 전반적인 동작을 제어하는 유닛으로, 차량의 제조사에 의해 제조 시 구성되거나 또는 제조 후에 자율 주행의 기능 수행을 위해 추가 구성될 수 있다. 또는 제조시 구성된 컨트롤러(2120)의 업그레이드를 통해 지속적인 부가 기능 수행을 위한 구성이 포함될 수 있다. 이러한 컨트롤러(2120)는 ECU(Electronic Control Unit)로 명명될 수도 있다. In this embodiment, the controller 2120 is a unit that controls the overall operation of each unit in the vehicle 2000 , and may be configured by the manufacturer of the vehicle during manufacturing or may be additionally configured to perform the function of autonomous driving after manufacturing. Alternatively, a configuration for continuously performing additional functions through an upgrade of the controller 2120 configured during manufacturing may be included. Such a controller 2120 may be referred to as an Electronic Control Unit (ECU).

컨트롤러(2120)는 연결된 센서(2110), 오브젝트 검출 장치(2140), 통신 장치(2130) 등으로부터 각종 데이터를 수집하고, 수집된 데이터를 기반으로 제어 신호를 차량 내 다른 구성들로 포함된 센서(2110), 엔진(2006), 사용자 인터페이스(2008), 통신 장치(2130), 오브젝트 검출 장치(2140)에 전달할 수 있다. 또한, 도시되는 않았으나 차량의 주행과 관련된 가속 장치, 브레이킹 시스템, 조향 장치, 또는 네비게이션 장치에도 제어 신호를 전달할 수 있다.The controller 2120 collects various data from the connected sensor 2110, the object detection device 2140, the communication device 2130, etc., and sends a control signal based on the collected data to the sensor ( 2110 ), the engine 2006 , the user interface 2008 , the communication device 2130 , and the object detection device 2140 . Also, although not shown, the control signal may be transmitted to an acceleration device, a braking system, a steering device, or a navigation device related to driving of a vehicle.

본 실시예에서, 컨트롤러(2120)는 엔진(2006)을 제어할 수 있으며 예를 들어 자율 주행 차량(2000)이 주행 중인 도로의 제한 속도를 감지하고 주행 속도가 제한 속도를 초과하지 않도록 엔진(2006)을 제어하거나, 제한 속도를 초과하지 않는 범위 내에서 자율 주행 차량(2000)의 주행 속도를 가속하도록 엔진(2006)을 제어할 수 있다. In the present embodiment, the controller 2120 may control the engine 2006, for example, to detect the speed limit of the road on which the autonomous vehicle 2000 is traveling and to prevent the driving speed from exceeding the speed limit. ) or the engine 2006 to accelerate the driving speed of the autonomous vehicle 2000 within a range that does not exceed the speed limit.

또한, 컨트롤러(2120)는 자율 주행 차량(2000)의 주행 중 자율 주행 차량(2000)이 차선에 근접하거나 차선을 이탈하고 있다면, 이러한 차선 근접 및 이탈이 정상 주행 상황에 따른 것인지 또는 그 외의 주행 상황에 따른 것인지 판단하며, 판단 결과에 따라 차량의 주행을 제어하도록 엔진(2006)을 제어할 수 있다. 구체적으로, 자율 주행 차량(2000)은 차량이 주행 중인 차로의 양 측에 형성된 차선을 검출할 수 있다. 이 경우, 컨트롤러(2120)는 자율 주행 차량(2000)이 차선에 근접하거나 차선을 이탈하고 있는지 여부를 판단하고, 만약, 자율 주행 차량(2000)이 차선에 근접하거나 차선을 이탈하고 있다고 판단되면 이러한 주행이 정확한 주행 상황에 따른 것인지 또는 그 외의 주행 상황에 따른 것인지 판단할 수 있다. 여기서, 정상 주행 상황의 예로, 차량의 차로 변경이 필요한 상황일 수 있다. 그리고, 그 외의 주행 상황의 예로, 차량의 차로 변경이 필요하지 않은 상황일 수 있다. 만약, 컨트롤러(2120)는 차량의 차로 변경이 필요하지 않은 상황에서 자율 주행 차량(2000)이 차선에 근접하거나 차선을 이탈하고 있다고 판단되면, 자율 주행 차량(2000)이 차선을 이탈하지 않고 해당 차량에서 정상적으로 주행하도록 자율 주행 차량(2000)의 주행을 제어할 수 있다. In addition, if the autonomous driving vehicle 2000 approaches or departs from the lane while the autonomous driving vehicle 2000 is driving, the controller 2120 determines whether such lane proximity and departure is according to a normal driving situation or other driving conditions. The engine 2006 may be determined to determine whether or not the vehicle is driven according to the determination result, and the engine 2006 may be controlled to control the driving of the vehicle. Specifically, the autonomous vehicle 2000 may detect lanes formed on both sides of a lane in which the vehicle is traveling. In this case, the controller 2120 determines whether the autonomous driving vehicle 2000 approaches or departs from the lane, and if it is determined that the autonomous driving vehicle 2000 approaches or departs from the lane, such It may be determined whether the driving is according to an accurate driving situation or other driving situations. Here, as an example of a normal driving situation, it may be a situation in which a vehicle lane change is required. And, as an example of other driving conditions, it may be a situation in which a lane change of the vehicle is not required. If the controller 2120 determines that the autonomous driving vehicle 2000 is approaching or departing from the lane in a situation in which a vehicle lane change is not required, the autonomous driving vehicle 2000 does not deviate from the lane and the corresponding vehicle may control the driving of the autonomous driving vehicle 2000 to drive normally.

차량의 전방에 다른 차량 또는 방해물이 존재하는 경우에는 주행 차량을 감속하도록 엔진(2006) 또는 브레이킹 시스템을 제어할 수 있으며, 속도 외에도 궤적, 운행 경로, 조향 각을 제어할 수 있다. 또는 컨트롤러(2120)는 차량의 주행 차선, 주행 신호 등 기타 외부 환경의 인식 정보에 따라 필요한 제어 신호를 생성하여 차량의 주행을 제어할 수 있다.When there is another vehicle or an obstacle in front of the vehicle, the engine 2006 or the braking system may be controlled to decelerate the driving vehicle, and in addition to the speed, the trajectory, the driving path, and the steering angle may be controlled. Alternatively, the controller 2120 may control the driving of the vehicle by generating a necessary control signal according to recognition information of other external environments, such as a driving lane of the vehicle, a driving signal, and the like.

컨트롤러(2120)는 자체적인 제어 신호의 생성 외에 주변 차량 또는 중앙 서버와의 통신을 수행하고 수신된 정보를 통해 주변 장치들을 제어하기 위한 명령을 전송함으로써, 차량의 주행을 제어하는 것도 가능하다.The controller 2120 may control the driving of the vehicle by performing communication with a surrounding vehicle or a central server in addition to generating its own control signal and transmitting a command for controlling the surrounding devices through the received information.

또한, 컨트롤러(2120)는 카메라 모듈(2150)의 위치가 변경되거나 화각이 변경될 경우, 본 실시예에 따른 정확한 차량 또는 차선 인식이 어려울 수 있으므로, 이를 방지하기 위해 카메라 모듈(2150)의 캘리브레이션(calibration)을 수행하도록 제어하는 제어 신호를 생성할 수도 있다. 따라서, 본 실시예에서는 컨트롤러(2120)는 카메라 모듈(2150)로 캘리브레이션 제어 신호를 발생시킴으로써, 자율주행차량(2000)의 움직임에 따라 발생되는 진동 또는 충격 등에 의해 카메라 모듈(2150)의 장착 위치가 변경되더라도, 카메라 모듈(2150)의 정상적인 장착 위치, 방향, 화각 등을 지속적으로 유지할 수 있다. 컨트롤러(2120)는 미리 저장된 카메라 모듈(2120)의 최초 장착 위치, 방향, 화각 정보와 자율주행차량(2000)의 주행 중에 측정되는 카메라 모듈(2120)의 최초 장착 위치, 방향, 화각 정보 등이 임계 값 이상으로 달라질 경우, 카메라 모듈(2120)의 캘리브레이션을 수행하도록 제어 신호를 발생할 수 있다.In addition, when the position of the camera module 2150 is changed or the angle of view is changed, the controller 2120 may have difficulty in accurate vehicle or lane recognition according to the present embodiment. In order to prevent this, calibration of the camera module 2150 ( Calibration) may be generated to control a control signal to be performed. Accordingly, in the present embodiment, the controller 2120 generates a calibration control signal to the camera module 2150 so that the mounting position of the camera module 2150 is determined by vibration or shock generated according to the movement of the autonomous vehicle 2000 . Even if it is changed, the normal mounting position, direction, angle of view, etc. of the camera module 2150 may be continuously maintained. In the controller 2120, the initial mounting position, direction, and angle of view information of the camera module 2120 stored in advance and the initial mounting position, direction, and angle of view information of the camera module 2120 measured while the autonomous vehicle 2000 is driving are critical. When the value is different than the value, a control signal may be generated to perform calibration of the camera module 2120 .

본 실시 예에서 컨트롤러(2120)는 메모리(2122)와 프로세서(2124)를 포함할 수 있다. 프로세서(2124)는 메모리(2122)에 저장된 소프트웨어를 컨트롤러(2120)의 제어 신호에 따라 실행시킬 수 있다. 구체적으로 컨트롤러(2120)는 본 발명에 따른 차선 검출 방법을 수행하기 위한 데이터 및 명령들은 메모리(2122)에 저장하고, 명령들은 여기에 개시된 하나 이상의 방법들을 구현하기 위해 프로세서(2124)에 의해 실행될 수 있다. In this embodiment, the controller 2120 may include a memory 2122 and a processor 2124 . The processor 2124 may execute software stored in the memory 2122 according to a control signal of the controller 2120 . Specifically, the controller 2120 stores data and instructions for performing the lane detection method according to the present invention in the memory 2122, and the instructions may be executed by the processor 2124 to implement one or more methods disclosed herein. there is.

이때, 메모리(2122)는 비 휘발성의 프로세서(2124)에서 실행 가능한 기록 매체에 저장될 수 있다. 메모리(2122)는 적절한 내 외부 장치를 통해 소프트웨어와 데이터를 저장할 수 있다. 메모리(2122)는 RAM(random access memory), ROM(read only memory), 하드디스크, 동글과 연결된 메모리(2122) 장치로 구성될 수 있다.In this case, the memory 2122 may be stored in a recording medium executable by the non-volatile processor 2124 . Memory 2122 may store software and data via suitable internal and external devices. The memory 2122 may include random access memory (RAM), read only memory (ROM), a hard disk, and a memory 2122 device connected to a dongle.

메모리(2122)는 운영체제(OS, Operating system), 사용자 어플리케이션, 실행 가능한 명령들을 적어도 저장할 수 있다. 메모리(2122)는 어플리케이션 데이터, 배열 데이터 구조들도 저장할 수 있다.The memory 2122 may store at least an operating system (OS), a user application, and executable commands. The memory 2122 may also store application data and array data structures.

프로세서(2124)는 마이크로 프로세서 또는 적절한 전자적 프로세서로 컨트롤러, 마이크로 컨트롤러 또는 스테이트 머신 일 수 있다.Processor 2124 may be a microprocessor or suitable electronic processor, a controller, microcontroller, or state machine.

프로세서(2124)는 컴퓨팅 장치들의 조합으로 구현될 수 있으며, 컴퓨팅 장치는 디지털 신호 프로세서, 마이크로프로세서 이거나 이들의 적절한 조합으로 구성될 수 있다.The processor 2124 may be implemented as a combination of computing devices, and the computing device may be a digital signal processor, a microprocessor, or a suitable combination thereof.

한편, 자율 주행 차량(2000)은 상술한 제어 장치(2100)에 대한 사용자의 입력을 위한 사용자 인터페이스(2008)를 더 포함할 수 있다. 사용자 인터페이스(2008)는 적절한 상호작용으로 사용자가 정보를 입력하도록 할 수 있다. 예를 들어 터치스크린, 키패드, 조작 버튼 등으로 구현될 수 있다. 사용자 인터페이스(2008)는 입력 또는 명령을 컨트롤러(2120)에 전송하고, 컨트롤러(2120)는 입력 또는 명령에 대한 응답으로 차량의 제어 동작을 수행할 수 있다.Meanwhile, the autonomous vehicle 2000 may further include a user interface 2008 for a user's input to the aforementioned control device 2100 . User interface 2008 may allow a user to enter information with appropriate interaction. For example, it may be implemented as a touch screen, a keypad, an operation button, and the like. The user interface 2008 may transmit an input or command to the controller 2120 , and the controller 2120 may perform a vehicle control operation in response to the input or command.

또한, 사용자 인터페이스(2008)는 자율 주행 차량(2000) 외부의 장치로 무선 통신 장치(2130)를 통해 자율 주행 차량(2000)과 통신을 수행하도록 할 수 있다. 예를 들어 사용자 인터페이스(2008)는 모바일 폰, 태블릿, 또는 기타 컴퓨터 장치와 연동 가능하도록 할 수 있다.Also, the user interface 2008 may be an external device of the autonomous vehicle 2000 and may communicate with the autonomous vehicle 2000 through the wireless communication device 2130 . For example, the user interface 2008 may be capable of interworking with a mobile phone, tablet, or other computer device.

나아가, 본 실시예에서 자율 주행 차량(2000)은 엔진(2006)을 포함하는 것으로 설명하였으나, 다른 타입의 추진 시스템을 포함하는 것도 가능하다. 예를 들어 차량은 전기 에너지로 운행될 수 있으며, 수소 에너지 또는 이들을 조합한 하이브리드 시스템을 통해 운행될 수 있다. 따라서 컨트롤러(2120)는 자율 주행 차량(2000)의 추진 시스템에 따른 추진 메커니즘을 포함하고, 이에 따른 제어 신호를 각 추진 메커니즘의 구성들에 제공할 수 있다.Furthermore, although it has been described that the autonomous vehicle 2000 includes the engine 2006 in this embodiment, it is also possible to include other types of propulsion systems. For example, the vehicle may be driven by electric energy, and may be driven by hydrogen energy or a hybrid system combining them. Accordingly, the controller 2120 may include a propulsion mechanism according to the propulsion system of the autonomous vehicle 2000 , and may provide a corresponding control signal to the components of each propulsion mechanism.

이하, 도 15를 참조하여 본 실시예에 따른 본 발명에 따른 제어 장치(2100)의 세부 구성에 대하여 보다 상세히 설명한다. Hereinafter, a detailed configuration of the control device 2100 according to the present invention according to the present embodiment will be described in more detail with reference to FIG. 15 .

제어 장치(2100)는 프로세서(2124)를 포함한다. 프로세서(2124)는 범용 단일 또는 다중 칩 마이크로프로세서, 전용 마이크로프로세서, 마이크로제어기, 프로그램가능 게이트 어레이 등일 수도 있다. 프로세서는 중앙 처리 장치(CPU)로 지칭될 수도 있다. 또한 본 실시예에서 프로세서(2124)는 복수의 프로세서들의 조합으로 사용되는 것도 가능하다.The control device 2100 includes a processor 2124 . The processor 2124 may be a general purpose single or multi-chip microprocessor, a dedicated microprocessor, microcontroller, programmable gate array, or the like. A processor may also be referred to as a central processing unit (CPU). Also, in this embodiment, the processor 2124 may be used as a combination of a plurality of processors.

제어 장치(2100)는 또한 메모리(2122)를 포함한다. 메모리(2122)는 전자 정보를 저장할 수 있는 임의의 전자 컴포넌트일 수도 있다. 메모리(2122) 역시 단일 메모리 외에 메모리(2122)들의 조합을 포함할 수 있다.The control device 2100 also includes a memory 2122 . Memory 2122 may be any electronic component capable of storing electronic information. Memory 2122 may also include a combination of memories 2122 in addition to a single memory.

본 발명에 따른 차선 검출 방법을 수행하기 위한 데이터 및 명령어(2122a)들은 메모리(2122)에 저장될 수도 있다. 프로세서(2124)가 명령어(2122a)들을 실행할 때, 명령어(2122a)들과 명령의 수행에 필요한 데이터(2122b)의 전부 또는 일부가 프로세서(2124)상으로 로딩(2124a, 2124b)될 수도 있다.Data and instructions 2122a for performing the lane detection method according to the present invention may be stored in the memory 2122 . When the processor 2124 executes the instructions 2122a , all or part of the instructions 2122a and data 2122b necessary for execution of the instructions may be loaded 2124a and 2124b onto the processor 2124 .

제어 장치(2100)는 신호들의 송신 및 수신을 허용하기 위한 송신기(2130a), 수신기(2130b) 또는 트랜시버(2130c)를 포함할 수도 있다. 하나 이상의 안테나(2132a, 2132b)들은 송신기(2130a), 수신기(2130b) 또는 각 트랜시버(2130c)에 전기적으로 연결될 수도 있으며 추가적으로 안테나들을 포함할 수도 있다.The control device 2100 may include a transmitter 2130a, a receiver 2130b, or a transceiver 2130c for allowing transmission and reception of signals. One or more antennas 2132a, 2132b may be electrically coupled to transmitter 2130a, receiver 2130b, or each transceiver 2130c, and may additionally include antennas.

제어 장치(2100)는 디지털 신호 프로세서(DSP)(2170)를 포함할 수도 있다. DSP(2170)를 통해 디지털 신호를 차량이 빠르게 처리할 수 있도록 할 수 있다.The control device 2100 may include a digital signal processor (DSP) 2170 . The DSP 2170 may enable the vehicle to quickly process a digital signal.

제어 장치(2100)는 통신 인터페이스(2180)를 포함할 수도 있다. 통신 인터페이스(2180)는 다른 장치들을 제어 장치(2100)와 연결하기 위한 하나 이상의 포트들 및/또는 통신 모듈 들을 포함할 수도 있다. 통신 인터페이스(2180)는 사용자와 제어 장치(2100)가 상호 작용 할 수 있게 할 수 있다.The control device 2100 may include a communication interface 2180 . The communication interface 2180 may include one or more ports and/or communication modules for connecting other devices with the control device 2100 . The communication interface 2180 may enable a user and the control device 2100 to interact.

제어 장치(2100)의 다양한 구성들은 함께 하나 이상의 버스(2190)들에 의해 연결될 수도 있고, 버스(2190)들은 전력 버스, 제어 신호 버스, 상태 신호 버스, 데이터 버스 등을 포함할 수도 있다. 프로세서(2124)의 제어에 따라 구성들은 버스(2190)를 통해 상호 정보를 전달하고 목적하는 기능을 수행하도록 할 수 있다.The various components of the control device 2100 may be coupled together by one or more buses 2190 , which may include a power bus, a control signal bus, a status signal bus, a data bus, and the like. According to the control of the processor 2124 , the components may transfer information to each other through the bus 2190 and perform a desired function.

한편, 명세서 및 청구범위에서 "제 1", "제 2", "제 3" 및 "제 4" 등의 용어는, 만약 있는 경우, 유사한 구성요소 사이의 구분을 위해 사용되며, 반드시 그렇지는 않지만 특정 순차 또는 발생 순서를 기술하기 위해 사용된다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 시퀀스로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 마찬가지로, 여기서 방법이 일련의 단계를 포함하는 것으로 기술되는 경우, 여기에 제시된 그러한 단계의 순서는 반드시 그러한 단계가 실행될 수 있는 순서인 것은 아니며, 임의의 기술된 단계는 생략될 수 있고/있거나 여기에 기술되지 않은 임의의 다른 단계가 그 방법에 부가 가능할 것이다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Meanwhile, in the specification and claims, terms such as "first", "second", "third", and "fourth" are used to distinguish between similar elements, if any, and this is not necessarily the case. Used to describe a specific sequence or sequence of occurrences. It will be understood that the terms so used are interchangeable under appropriate circumstances to enable the embodiments of the invention described herein to operate, for example, in sequences other than those shown or described herein. Likewise, where methods are described herein as including a series of steps, the order of those steps presented herein is not necessarily the order in which those steps may be performed, and any described steps may be omitted and/or Any other steps not described may be added to the method. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

또한 명세서 및 청구범위의 "왼쪽", "오른쪽", "앞", "뒤", "상부", "바닥", "위에", "아래에" 등의 용어는, 설명을 위해 사용되는 것이며, 반드시 불변의 상대적 위치를 기술하기 위한 것은 아니다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 방향으로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 여기서 사용된 용어 "연결된"은 전기적 또는 비 전기적 방식으로 직접 또는 간접적으로 접속되는 것으로 정의된다. 여기서 서로 "인접하는" 것으로 기술된 대상은, 그 문구가 사용되는 문맥에 대해 적절하게, 서로 물리적으로 접촉하거나, 서로 근접하거나, 서로 동일한 일반적 범위 또는 영역에 있는 것일 수 있다. 여기서 "일실시예에서"라는 문구의 존재는 반드시 그런 것은 아니지만 동일한 실시예를 의미한다.Also, terms such as "left", "right", "front", "behind", "top", "bottom", "above", "below" in the specification and claims are used for descriptive purposes, It is not necessarily intended to describe an invariant relative position. It will be understood that the terms so used are interchangeable under appropriate circumstances to enable the embodiments of the invention described herein to operate otherwise than, for example, as shown or described herein. As used herein, the term “connected” is defined as being directly or indirectly connected in an electrical or non-electrical manner. Objects described herein as being "adjacent" to one another may be in physical contact with one another, in proximity to one another, or in the same general scope or area as appropriate for the context in which the phrase is used. The presence of the phrase “in one embodiment” herein refers to the same, but not necessarily, embodiment.

또한 명세서 및 청구범위에서 '연결된다', '연결하는', '체결된다', '체결하는', '결합된다', '결합하는' 등과 이런 표현의 다양한 변형들의 지칭은 다른 구성요소와 직접적으로 연결되거나 다른 구성요소를 통해 간접적으로 연결되는 것을 포함하는 의미로 사용된다. In addition, in the specification and claims, references to 'connected', 'connecting', 'fastened', 'fastening', 'coupled', 'coupled', etc., and various variations of these expressions, refer to other elements directly It is used in the sense of being connected or indirectly connected through other components.

반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로써, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "part" for the components used in this specification are given or mixed in consideration of the ease of writing the specification, and do not have distinct meanings or roles by themselves.

또한 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the terms used herein are for the purpose of describing the embodiments and are not intended to limit the present invention. As used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various components or various steps described in the specification, some of which components or some steps are It should be construed that it may not include, or may further include additional components or steps.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 명세서를 통해 개시된 모든 실시예들과 조건부 예시들은, 본 발명의 기술 분야에서 통상의 지식을 가진 당업자가 독자가 본 발명의 원리와 개념을 이해하도록 돕기 위한 의도로 기술된 것으로, 당업자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.So far, the present invention has been looked at with respect to preferred embodiments thereof. All embodiments and conditional examples disclosed through this specification have been described with the intention of helping those of ordinary skill in the art to understand the principles and concepts of the present invention, and those skilled in the art It will be understood that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention.

그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드 할 수 있다.Meanwhile, the method according to various embodiments of the present invention described above may be implemented as a program and provided to a server or devices. Accordingly, each device can download the program by accessing the server or device in which the program is stored.

또한, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.In addition, the above-described method according to various embodiments of the present invention may be implemented as a program and stored in various non-transitory computer readable media to be provided. The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, and the like, and can be read by a device. Specifically, the above-described various applications or programs may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

Claims (22)

이동체 추돌 방지 장치의 추돌 방지 방법에 있어서,
상기 이동체의 주행 영상을 획득하는 단계;
신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 단계;
상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하는 단계;
상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 단계; 및
상기 산출된 추돌소요시간을 기초로 상기 이동체의 동작을 제어하는 단계를 포함하는 추돌 방지 방법.
In the collision prevention method of the moving object collision avoidance device,
acquiring a driving image of the moving object;
recognizing an object in the obtained driving image using a neural network model;
calculating a relative distance between the moving object and the object based on the recognized object;
calculating a required collision time between the object and the moving body based on the calculated relative distance; and
and controlling an operation of the moving object based on the calculated required collision time.
제 1 항에 있어서,
상기 신경망 모델은 상기 주행 영상 내 오브젝트를 인식하여 상기 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스(bounding box) 및 상기 바운딩박스 내 오브젝트를 분류(classification)하여 출력하는 것을 특징으로 하는 추돌 방지 방법.
The method of claim 1,
The neural network model recognizes an object in the driving image and classifies and outputs a bounding box indicating an object region in the driving image and an object in the bounding box.
제 2 항에 있어서,
상기 주행 영상 내 인식된 오브젝트의 위치 변화를 트래킹(tracking)하여 상기 오브젝트의 이동을 추적하는 단계;를 더 포함하는 것을 특징으로 하는 추돌 방지 방법.
3. The method of claim 2,
The method of claim 1, further comprising: tracking the movement of the object by tracking a change in the position of the object recognized in the driving image.
제 3 항에 있어서,
상기 오브젝트가 인식된 주행 영상을 정규화(normalization)하는 단계를 더 포함하는 것을 특징으로 하는 추돌 방지 방법.
4. The method of claim 3,
Collision avoidance method, characterized in that it further comprises the step of normalizing the driving image in which the object is recognized.
제 2 항에 있어서,
상기 주행 영상 내 인식된 오브젝트의 위치 상태를 판단하는 단계; 및
상기 오브젝트의 타입에 따른 상기 위치 상태를 기초로 주행 영상 내 인식된 오브젝트 중 트래킹 대상이 되는 오브젝트를 결정하는 단계;를 더 포함하는 것을 특징으로 하는 추돌 방지 방법.
3. The method of claim 2,
determining a position state of an object recognized in the driving image; and
Determining an object to be tracked from among the objects recognized in the driving image based on the positional state according to the type of the object;
제 2 항에 있어서,
상기 상대 거리를 산출하는 단계는 상기 바운딩박스를 기초로 상기 주행 영상 내 가상의 수평선을 생성하는 것을 특징으로 하는 추돌 방지 방법.
3. The method of claim 2,
The calculating of the relative distance comprises generating a virtual horizontal line in the driving image based on the bounding box.
제 6 항에 있어서,
상기 상대 거리를 산출하는 단계는 상기 생성된 가상의 수평선과 상기 바운딩박스의 바닥면 수직 좌표를 기초로 상기 예상 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 방법.
7. The method of claim 6,
The calculating of the relative distance comprises calculating the expected relative distance based on the generated virtual horizontal line and the vertical coordinates of the bottom surface of the bounding box.
제 7 항에 있어서,
상기 상대 거리를 산출하는 단계는 상기 바운딩박스의 수직 높이와 상기 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 방법.
8. The method of claim 7,
The calculating of the relative distance comprises calculating the expected relative distance based on the vertical height of the bounding box and the actual height of the object.
제 8 항에 있어서,
상기 상대 거리를 산출하는 단계는 상기 산출된 예상 상대 거리를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 방법.
9. The method of claim 8,
The calculating of the relative distance comprises calculating the relative distance through prediction and update by applying the calculated expected relative distance to a Kalman filter.
제 2 항에 있어서,
상기 추돌소요시간을 산출하는 단계는 상기 이동체의 속도를 고려하여 상기 추돌소요시간을 산출하는 것을 특징으로 하는 추돌 방지 방법.
3. The method of claim 2,
In the calculating of the required time for collision, the method for preventing collision, characterized in that calculating the required time for the collision in consideration of the speed of the moving object.
제 1 항에 있어서,
상기 동작을 제어하는 단계는 상기 오브젝트와 추돌 가능성이 있는 경우, 추돌 주의 안내를 제공하거나 상기 이동체가 제동되도록 제어하는 것을 특징으로 하는 추돌 방지 방법.
The method of claim 1,
In the controlling of the operation, when there is a possibility of colliding with the object, the collision avoidance method according to claim 1 , wherein a collision warning is provided or the moving object is controlled to be braked.
이동체 추돌 방지 장치에 있어서,
상기 이동체의 주행 영상을 획득하는 영상 획득부;
신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 오브젝트 인식부;
상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하고, 상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 산출부; 및
상기 산출된 추돌소요시간을 기초로 상기 이동체의 동작을 제어하는 제어부;를 포함하는 추돌 방지 장치.
In the moving object collision avoidance device,
an image acquisition unit for acquiring a driving image of the moving object;
an object recognition unit for recognizing an object in the obtained driving image using a neural network model;
a calculation unit calculating a relative distance between the moving object and the object based on the recognized object, and calculating a required collision time between the object and the moving object based on the calculated relative distance; and
Collision avoidance device comprising a; a control unit for controlling the operation of the moving object based on the calculated required collision time.
제 12 항에 있어서,
상기 신경망 모델은 상기 주행 영상 내 오브젝트를 인식하여 상기 주행 영상 내 오브젝트 영역을 나타내는 바운딩박스(bounding box) 및 상기 바운딩박스 내 오브젝트를 분류(classification)하여 출력하는 것을 특징으로 하는 추돌 방지 장치.
13. The method of claim 12,
The neural network model recognizes an object in the driving image and classifies and outputs a bounding box indicating an object region in the driving image and an object in the bounding box.
제 13 항에 있어서,
상기 주행 영상 내 인식된 오브젝트의 위치 변화를 트래킹(tracking)하여 상기 오브젝트의 이동을 추적하는 오브젝트 트래킹부;를 더 포함하는 것을 특징으로 하는 추돌 방지 장치.
14. The method of claim 13,
The collision avoidance device further comprising: an object tracking unit for tracking the movement of the object by tracking a change in the position of the object recognized in the driving image.
제 13 항에 있어서,
상기 주행 영상 내 인식된 오브젝트의 위치 상태를 판단하는 위치 상태 판단부; 및
상기 오브젝트의 타입에 따른 상기 위치 상태를 기초로 상기 이동체와 추돌 가능성이 낮은 오브젝트는 트래킹 대상에서 제외하는 트래킹 결정부;를 더 포함하는 것을 특징으로 하는 추돌 방지 장치.
14. The method of claim 13,
a position state determination unit for determining a position state of an object recognized in the driving image; and
Collision avoidance device further comprising a; a tracking determining unit that excludes the moving object and the object having a low collision probability based on the positional state according to the type of the object from the tracking target.
제 13 항에 있어서,
상기 산출부는 상기 바운딩박스를 기초로 상기 주행 영상 내 가상의 수평선을 생성하는 것을 특징으로 하는 추돌 방지 장치.
14. The method of claim 13,
The calculator is configured to generate a virtual horizontal line in the driving image based on the bounding box.
제 16 항에 있어서,
상기 산출부는 상기 생성된 가상의 수평선과 상기 바운딩박스의 바닥면 수직 좌표를 기초로 상기 예상 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 장치.
17. The method of claim 16,
The calculator is configured to calculate the expected relative distance based on the generated virtual horizontal line and the vertical coordinates of the bottom surface of the bounding box.
제 17 항에 있어서,
상기 산출부는 상기 바운딩박스의 수직 높이와 상기 오브젝트의 실제 높이를 기초로 예상 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 장치.
18. The method of claim 17,
Wherein the calculator calculates the expected relative distance based on the vertical height of the bounding box and the actual height of the object Collision avoidance device, characterized in that.
제 18 항에 있어서,
상기 상대 거리를 산출하는 단계는 상기 산출된 예상 상대 거리를 칼만필터에 적용하여 예측(Predict) 및 업데이트(Update)를 통해 상대 거리를 산출하는 것을 특징으로 하는 추돌 방지 장치.
19. The method of claim 18,
The calculating of the relative distance comprises calculating the relative distance through prediction and update by applying the calculated expected relative distance to a Kalman filter.
제 12 항에 있어서,
상기 산출부는 상기 이동체의 속도를 고려하여 상기 추돌소요시간을 산출하는 것을 특징으로 하는 추돌 방지 장치.
13. The method of claim 12,
The collision avoidance device, characterized in that the calculation unit calculates the required time required for the collision in consideration of the speed of the moving object.
이동체용 전자 장치에 있어서,
이동체의 주행 영상을 촬영하는 촬영부;
상기 촬영부에서 촬영된 주행 영상을 획득하는 영상 획득부;
신경망 모델을 이용하여 상기 획득된 주행 영상 내 오브젝트를 인식하는 인식부;
상기 인식된 오브젝트를 기초로 상기 이동체와 상기 오브젝트 간의 상대 거리를 산출하고, 상기 산출된 상대 거리를 기초로 상기 오브젝트와 상기 이동체 간의 추돌소요시간을 산출하는 산출부; 및
상기 산출된 추돌소요시간을 기초로 상기 이동체의 주행 안내를 위한 정보를 출력하는 출력부;를 포함하는 이동체용 전자 장치.
A mobile electronic device comprising:
a photographing unit for photographing a moving image of a moving object;
an image acquisition unit for acquiring the driving image photographed by the photographing unit;
a recognition unit for recognizing an object in the obtained driving image using a neural network model;
a calculation unit calculating a relative distance between the moving object and the object based on the recognized object, and calculating a required collision time between the object and the moving object based on the calculated relative distance; and
and an output unit for outputting information for guiding the driving of the moving object based on the calculated required collision time.
제 1 항 내지 제 11 항 중 어느 한 항에 기재된 추돌 방지 방법을 실행하기 위한 프로그램 코드를 포함하는 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램.A program stored in a computer-readable recording medium comprising a program code for executing the method for preventing a collision according to any one of claims 1 to 11.
KR1020210135321A 2020-10-13 2021-10-12 Moving body collision avoidance device, collision avoidance method and electronic device KR20220048959A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/499,141 US20220114815A1 (en) 2020-10-13 2021-10-12 Moving body collision avoidance device, collision avoidance method and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200132140 2020-10-13
KR1020200132140 2020-10-13

Publications (1)

Publication Number Publication Date
KR20220048959A true KR20220048959A (en) 2022-04-20

Family

ID=81395424

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210135321A KR20220048959A (en) 2020-10-13 2021-10-12 Moving body collision avoidance device, collision avoidance method and electronic device

Country Status (1)

Country Link
KR (1) KR20220048959A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115240471A (en) * 2022-08-09 2022-10-25 东揽(南京)智能科技有限公司 Intelligent factory collision avoidance early warning method and system based on image acquisition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115240471A (en) * 2022-08-09 2022-10-25 东揽(南京)智能科技有限公司 Intelligent factory collision avoidance early warning method and system based on image acquisition
CN115240471B (en) * 2022-08-09 2024-03-01 东揽(南京)智能科技有限公司 Intelligent factory collision avoidance early warning method and system based on image acquisition

Similar Documents

Publication Publication Date Title
US11951975B1 (en) Handling sensor occlusions for autonomous vehicles
US20210122364A1 (en) Vehicle collision avoidance apparatus and method
US20230418299A1 (en) Controlling autonomous vehicles using safe arrival times
CN108089571B (en) Method and system for predicting vehicle traffic behavior of unmanned vehicles to make driving decisions
JP7499256B2 (en) System and method for classifying driver behavior - Patents.com
CN110782657A (en) Police cruiser using a subsystem of an autonomous vehicle
US11763574B2 (en) Multi-modal, multi-technique vehicle signal detection
CN114829224A (en) Geo-location models for perception, prediction, or planning
KR20190106845A (en) Method and apparatus for passenger recognition and boarding support of autonomous vehicle
JP7143857B2 (en) Information processing device, information processing method, program, and mobile object
US20200298874A1 (en) Vehicle control device, vehicle control method, and storage medium
US20220114815A1 (en) Moving body collision avoidance device, collision avoidance method and electronic device
JP2021091390A (en) Dynamic and variable learning by determining and using most trustworthy inputs
US20210217308A1 (en) Systems and methods for mitigating a risk of being followed by a vehicle
JP6711982B1 (en) Traffic safety support device, personal digital assistant, and program
CN112677967B (en) Vehicle control device, vehicle control method, and storage medium
KR20220048959A (en) Moving body collision avoidance device, collision avoidance method and electronic device
KR20210104184A (en) Vehicle electronic device and operating method of vehicle electronic device
US20240161514A1 (en) Electronic device and method for vehicle which enhances driving environment related function
US20240005631A1 (en) Method, apparatus, wearable helmet, image capturing apparatus and program for measuring distance based on image
US20240161513A1 (en) Electronic Device and method for Vehicle which Enhances Parking Related Function Based on Artificial Intelligence
US20240005632A1 (en) Method for reconstructing 3d information from 2d image and method and apparatus for measuring distance between vehicles using thereof
KR102563339B1 (en) Apparatus and method for detecting object of vehicle
WO2024024471A1 (en) Information processing device, information processing method, and information processing system
US20240157959A1 (en) Vehicle electronic device and method for providing notification related to parking environment based on image reading