KR20180119344A - Region monitoring apparatus and method for monitoring region thereby - Google Patents

Region monitoring apparatus and method for monitoring region thereby Download PDF

Info

Publication number
KR20180119344A
KR20180119344A KR1020170052974A KR20170052974A KR20180119344A KR 20180119344 A KR20180119344 A KR 20180119344A KR 1020170052974 A KR1020170052974 A KR 1020170052974A KR 20170052974 A KR20170052974 A KR 20170052974A KR 20180119344 A KR20180119344 A KR 20180119344A
Authority
KR
South Korea
Prior art keywords
area
information
coordinate
predetermined
region
Prior art date
Application number
KR1020170052974A
Other languages
Korean (ko)
Inventor
김희강
김영덕
손국진
송찬호
이진희
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020170052974A priority Critical patent/KR20180119344A/en
Publication of KR20180119344A publication Critical patent/KR20180119344A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

According to an embodiment of the present invention, disclosed is a region monitoring method which comprises the steps of: acquiring detection information in a first region detected by a radar; acquiring an image in a second region photographed by a camera; acquiring a coordinate transformation between a reference coordinate of the radar and a reference coordinates of the camera by using coordinate information of a preset position in the first region and coordinate information of a preset position in the second region; and extracting tracking information on a predetermined object from the detection information, and displaying an identification mark corresponding to the tracking information on a predetermined object of the image in the second region.

Description

영역 감시 장치 및 이에 의한 영역 감시 방법{REGION MONITORING APPARATUS AND METHOD FOR MONITORING REGION THEREBY}TECHNICAL FIELD [0001] The present invention relates to a region monitoring apparatus and a region monitoring method using the region monitoring apparatus.

본 발명은 영역 감시 분야에 관한 것이다. 보다 구체적으로, 영역에 위치하는 차량 등의 오브젝트를 감시하는 방법 및 장치에 관한 것이다.Field of the Invention The present invention relates to the field of field monitoring. More particularly, the present invention relates to a method and apparatus for monitoring an object such as a vehicle located in an area.

개인 차량의 수가 증가함에 따라 교통 사고의 발생 수도 증가하고 있다. 도로 등에서 교통 사고가 발생하는 경우, 신속한 조치가 필수적이므로 도로 등의 영역에 사고가 발생하였는지를 정확하게 감시하기 위한 시스템이 필요하다.As the number of private vehicles increases, the incidence of traffic accidents also increases. When a traffic accident occurs on a road, etc., it is necessary to take a quick action, so a system for precisely monitoring whether an accident has occurred in a road area or the like is needed.

사고 발생 여부를 감시하기 위한 일 방법으로서, 레이더를 통해 차량의 속도 등을 감지하여 사고 발생 여부를 감지할 수 있다. 그러나, 레이더에 의해 검출되는 정보로부터 사고가 어느 곳에서 발생한 것인지를 정확히 인지할 수 없으며, 또한, 차량의 속도 정보나 가속도 정보만으로 사고 발생 여부를 판단하는 것에는 부정확성이 존재할 수 밖에 없다. 즉, 실제 사고가 아님에도 사고로 인식되어 경찰이나 소방관 등이 출동하는 경우 그에 따라 불필요한 비용이 발생하게 된다.As a method for monitoring the occurrence of an accident, it is possible to detect the occurrence of an accident by detecting the speed of the vehicle through a radar. However, from the information detected by the radar, it can not be precisely recognized where the accident occurred, and there is an inaccuracy in determining whether or not an accident has occurred based on only the vehicle speed information or the acceleration information. That is, even if it is not an actual accident, it is recognized as an accident, and when a police or a firefighter is dispatched, unnecessary expenses are incurred accordingly.

따라서, 도로 등의 일정 영역에서 사고가 발생하였는지 여부를 보다 신속히, 정확하게 감시하는 방안이 요구된다.Therefore, there is a need to more quickly and accurately monitor whether or not an accident has occurred in a certain area such as a road.

본 발명의 일 실시예에 따른 영역 감시 장치 및 이에 의한 영역 감시 방법은 영역에 위치하는 오브젝트를 보다 정확하게 감시하는 것을 목적으로 한다.The area monitoring apparatus and the area monitoring method according to an embodiment of the present invention aim at more accurately monitoring objects located in an area.

또한, 본 발명의 일 실시예에 따른 영역 감시 장치 및 이에 의한 영역 감시 방법은 도로에서의 사고 발생 여부를 정확하게 감시하여 인명 피해를 줄이고, 또한, 불필요한 출동으로 인한 비용 낭비를 방지하는 것을 목적으로 한다.In addition, the area monitoring apparatus and the area monitoring method according to an embodiment of the present invention are intended to accurately monitor whether or not an accident has occurred on the road, thereby reducing casualty damage and preventing waste of money due to unnecessary dispatch .

본 발명의 일 실시예에 따른 영역 감시 방법은,According to an embodiment of the present invention,

레이더에 의해 검출되는 제 1 영역의 검출 정보를 획득하는 단계; 카메라에 의해 촬영되는 제 2 영역의 영상을 획득하는 단계; 상기 제 1 영역 내 기 설정된 위치의 좌표 정보와 상기 제 2 영역 내 기 설정된 위치의 좌표 정보를 이용하여 상기 레이더의 기준 좌표와 상기 카메라의 기준 좌표 사이의 좌표 변환을 획득하는 단계; 및 상기 검출 정보에서 소정 오브젝트에 대한 추적 정보를 추출하고, 상기 영상 소정 오브젝트에 상기 추적 정보에 대응하는 식별 마크를 표시하는 단계를 포함할 수 있다.Obtaining detection information of a first area detected by a radar; Obtaining an image of a second region photographed by a camera; Acquiring coordinate transformation between the reference coordinates of the radar and the reference coordinates of the camera using the coordinate information of the predetermined position in the first area and the coordinate information of the predetermined position in the second area; And extracting tracking information on a predetermined object from the detection information and displaying an identification mark corresponding to the tracking information on the image predetermined object.

상기 제 1 영역 내 기 설정된 위치와 상기 제 2 영역 내 기 설정된 위치 각각은 적어도 4개를 포함할 수 있다.Each of the predetermined positions in the first area and the predetermined area in the second area may include at least four.

상기 좌표 변환을 획득하는 단계는, 상기 제 1 영역 내 적어도 4개의 기 설정된 위치와 상기 제 2 영역 내 적어도 4개의 기 설정된 위치 각각의 좌표 정보쌍 각각을 하기의 수학식에 적용하여 상기 좌표 변환을 획득하되,The step of obtaining the coordinate transformation may include applying each of the coordinate information pairs of at least four preset positions in the first area and at least four predetermined positions in the second area to the following equation However,

[수학식][Mathematical Expression]

Figure pat00001
Figure pat00001

상기 수학식에서 t는 기 설정되는 0이 아닌 상수, X, Y는 제 1 영역 내 기 설정된 위치의 좌표 정보, x, y는 제 2 영역 내 기 설정된 위치의 좌표 정보 및 h11 내지 h33은 상기 좌표 변환의 행렬 요소를 나타낼 수 있다.Where x and y are coordinate information of a predetermined position in the first area, x and y are coordinate information of a predetermined position in the second area, and h 11 to h 33 are coordinate information of a predetermined position in the second area, The matrix elements of the coordinate transformation can be represented.

상기 추적 정보는 상기 소정 오브젝트의 위치 정보, 속도 정보, 가속도 정보 및 감속도 정보 중 적어도 하나를 포함하되, 상기 식별 마크를 표시하는 단계는, 상기 추적 정보와 기 설정된 기준 값을 비교하여, 비교 결과에 대응하는 형상 및/또는 컬러의 상기 식별 마크를 상기 영상에 표시하는 단계를 포함할 수 있다.Wherein the tracking information includes at least one of position information, velocity information, acceleration information, and deceleration information of the predetermined object, wherein the step of displaying the identification mark includes comparing the tracking information with a preset reference value, And displaying the identification mark of the shape and / or color corresponding to the identification mark on the image.

본 발명의 다른 실시예에 따른 영역 감시 장치는,According to another aspect of the present invention,

레이더에 의해 검출되는 제 1 영역의 검출 정보를 획득하고, 카메라에 의해 촬영되는 제 2 영역의 영상을 획득하는 통신부; 상기 제 1 영역 내 기 설정된 위치의 좌표 정보와 상기 제 2 영역 내 기 설정된 위치의 좌표 정보를 이용하여 상기 레이더의 기준 좌표와 상기 카메라의 기준 좌표 사이의 좌표 변환을 획득하는 제어부; 및 상기 검출 정보에서 소정 오브젝트에 대한 추적 정보를 추출하고, 상기 제 2 영역의 영상의 소정 오브젝트에 상기 추적 정보에 대응하는 식별 마크를 표시하는 이미지 처리부를 포함할 수 있다.A communication unit for acquiring detection information of a first area detected by a radar and acquiring an image of a second area photographed by the camera; A controller for obtaining a coordinate transformation between the reference coordinates of the radar and the reference coordinates of the camera using the coordinate information of the predetermined region in the first region and the coordinate information of the predetermined region in the second region; And an image processing unit for extracting tracking information on a predetermined object from the detection information and displaying an identification mark corresponding to the tracking information on a predetermined object of the image of the second area.

본 발명의 일 실시예에 따른 영역 감시 장치 및 이에 의한 영역 감시 방법은 일정 영역에 위치하는 오브젝트를 보다 정확하게 감시할 수 있다.The area monitoring apparatus and the area monitoring method according to an embodiment of the present invention can more accurately monitor an object located in a certain area.

또한, 본 발명의 일 실시예에 따른 영역 감시 장치 및 이에 의한 영역 감시 방법은 도로에서의 사고 발생 여부를 정확하게 감시하여 인명 피해를 줄일 수 있다.In addition, the area monitoring apparatus and the area monitoring method according to an embodiment of the present invention can accurately monitor whether or not an accident has occurred on the road, thereby reducing personal injury.

또한, 본 발명의 일 실시예에 따른 영역 감시 장치 및 이에 의한 영역 감시 방법은 잘못된 판단으로 인한 불필요한 출동으로 발생하는 비용 낭비를 방지하는 것을 목적으로 한다.In addition, the area monitoring apparatus and the area monitoring method according to an embodiment of the present invention aim to prevent cost wasted due to unnecessary dispatch due to erroneous judgment.

또한, 본 발명의 일 실시예에 따른 영역 감시 장치 및 이에 의한 영역 감시 방법은 레이더에서 획득되는 정보를 간단한 방법으로 카메라 영상에 매핑시킴으로써, 운영자에게 신속하게 사고 관련 정보를 전달할 수 있다.In addition, the area monitoring apparatus and the area monitoring method according to an embodiment of the present invention can map accident information to the operator by mapping information obtained from the radar to a camera image in a simple manner.

다만, 본 발명의 일 실시예에 따른 영역 감시 장치 및 이에 의한 영역 감시 방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the area monitoring apparatus and the area monitoring method according to an embodiment of the present invention are not limited to the above-mentioned effects. It will be understood by those of ordinary skill in the art to which the present invention pertains.

도 1은 본 발명의 일 실시예에 따른 영역 감시 장치, 레이더 및 카메라를 도시하는 예시적인 도면이다.
도 2는 본 발명의 일 실시예에 따른 영역 감시 방법을 설명하기 위한 순서도이다.
도 3(a)는 레이더에 의해 감시되는 제 1 영역을 도시하는 도면이고, 도 3(b)는 카메라에 의해 촬영되는 제 2 영역을 도시하는 도면이다.
도 4(a)는 레이더에 의해 획득되는 검출 정보를 도시하는 예시적인 도면이고, 도 4(b)는 식별 마크가 표시된 카메라 영상을 도시하는 예시적인 도면이다.
도 5는 본 발명의 일 실시예에 따른 영역 감시 장치의 블록도이다.
1 is an exemplary diagram showing a region monitoring apparatus, a radar, and a camera according to an embodiment of the present invention.
2 is a flowchart illustrating a method of monitoring a region according to an embodiment of the present invention.
3 (a) is a view showing a first area monitored by a radar, and Fig. 3 (b) is a view showing a second area taken by a camera.
Fig. 4 (a) is an exemplary diagram showing detection information obtained by a radar, and Fig. 4 (b) is an exemplary diagram showing a camera image in which an identification mark is displayed.
5 is a block diagram of an area monitoring apparatus according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명은 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It is to be understood, however, that the intention is not to limit the invention to the specific embodiments, but on the contrary, the intention is to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.

또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, in this specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.

또한, 본 명세서에서 '~부(유닛)', '모듈' 등으로 표현되는 구성요소는 2개 이상의 구성요소가 하나의 구성요소로 합쳐지거나 또는 하나의 구성요소가 보다 세분화된 기능별로 2개 이상으로 분화될 수도 있다. 또한, 이하에서 설명할 구성요소 각각은 자신이 담당하는 주기능 이외에도 다른 구성요소가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성요소 각각이 담당하는 주기능 중 일부 기능이 다른 구성요소에 의해 전담되어 수행될 수도 있음은 물론이다.In the present specification, a component represented by 'unit', 'module', or the like refers to a case where two or more components are combined into one component, or one component is divided into two or more ≪ / RTI > In addition, each of the components to be described below may additionally perform some or all of the functions of the other components in addition to the main functions of the component itself, and some of the main functions And may be performed entirely by components.

이하에서는, 도면을 참조하여 본 발명의 기술적 사상에 따른 예시적인 실시예들에 대해 설명한다.Hereinafter, exemplary embodiments according to the technical idea of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 영역 감시 장치(100), 레이더(10) 및 카메라(20a, 20b)를 도시하는 예시적인 도면이다.Fig. 1 is an exemplary diagram showing a region monitoring apparatus 100, a radar 10, and cameras 20a and 20b according to an embodiment of the present invention.

도 1을 참조하면, 도로 등의 영역을 감시 및 촬영하기 위해 레이더(10) 및 카메라(20a, 20b)가 설치되고, 영역 감시 장치(100)는 레이더(10) 및 카메라(20a, 20b)로부터 전달되는 정보에 기초하여 운영자에게 사고가 발생한 것인지를 알려줄 수 있다.1, a radar 10 and cameras 20a and 20b are provided for monitoring and photographing an area such as a road and the area monitoring apparatus 100 is connected to the radar 10 and the cameras 20a and 20b Based on the information transmitted, the operator can be informed whether an accident has occurred.

본 발명의 일 실시예에서 영역 감시 장치(100)는 범용의 컴퓨터로 구현될 수 있으며, 통신 기능, 이미지 처리 기능 및 디스플레이 기능을 포함할 수 있다.In one embodiment of the present invention, the area monitoring apparatus 100 may be implemented as a general-purpose computer and may include a communication function, an image processing function, and a display function.

레이더(10)는 제 1 영역(15)을 감시하는데, 레이더(10)는 제 1 영역(15)에 위치한 오브젝트(30)로 레이더 신호를 송신하고, 오브젝트(30)로부터 반사되어 되돌아오는 레이더 신호를 수신할 수 있다. 레이더(10)는 신호의 송수신 시간 차이를 이용하여 오브젝트(30)에 대한 추적 정보로서, 예를 들어, 오브젝트(30)의 좌표, 속도, 가속도 및 감속도 중 적어도 하나를 측정할 수 있다.The radar 10 monitors the first area 15 and the radar 10 transmits a radar signal to the object 30 located in the first area 15 and transmits the radar signal reflected from the object 30, Lt; / RTI > The radar 10 can measure at least one of the coordinate, velocity, acceleration, and deceleration of the object 30 as tracking information for the object 30 using the transmission / reception time difference of the signal.

제 1 카메라(20a) 및 제 2 카메라(20b) 각각은 제 2 영역(25a, 25b)을 촬영하는데, 제 2 영역(25a, 25b)은 제 1 영역(15)과 동일할 수 있으며, 또는, 완전히 동일하지는 않지만, 적어도 제 1 영역(15)과 중첩될 수 있다.Each of the first camera 20a and the second camera 20b photographs the second area 25a and 25b and the second area 25a and 25b may be the same as the first area 15, It may be overlapped with at least the first region 15, although not completely the same.

카메라(20a, 20b)들은 제 2 영역(25a, 25b)에 대해 촬영된 영상을 영역 감시 장치(100)로 전송한다.The cameras 20a and 20b transmit the photographed images to the area monitoring apparatus 100 with respect to the second areas 25a and 25b.

본 발명의 일 실시예에서, 영역 감시 장치(100)는 레이더(10)로부터 수신되는 검출 정보와 카메라(20a, 20b)로부터 수신되는 영상을 이용하여 도로 등에 사고가 발생한 것인지를 운영자에게 알려줄 수 있는데, 영역 감시 장치(100)의 동작에 대해서는 하기에서 상세히 설명한다.In one embodiment of the present invention, the area monitoring apparatus 100 can inform the operator whether an accident has occurred on the road or the like by using the detection information received from the radar 10 and the image received from the cameras 20a and 20b And the operation of the area monitoring apparatus 100 will be described in detail below.

도 2는 본 발명의 일 실시예에 따른 영역 감시 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method of monitoring a region according to an embodiment of the present invention.

S210 단계에서, 영역 감시 장치(100)는 레이더(10)에 의해 검출되는 제 1 영역(15)의 검출 정보를 레이더(10) 또는 기타 외부 서버로부터 수신한다. 상기 검출 정보는 제 1 영역(15)에 위치하는 오브젝트에 대한 추적 정보를 포함할 수 있으며, 추적 정보는 오브젝트의 좌표 정보, 속도 정보, 가속도 정보 및 감속도 정보 중 적어도 하나를 포함할 수 있다.In step S210, the area monitoring apparatus 100 receives detection information of the first area 15 detected by the radar 10 from the radar 10 or other external server. The detection information may include tracking information for an object located in the first area 15, and the tracking information may include at least one of coordinate information, velocity information, acceleration information, and deceleration information of the object.

S220 단계에서, 영역 감시 장치(100)는 카메라(20)(도 1에 도시된 카메라들(20a, 20b) 중 어느 하나의 카메라)에 의해 촬영되는 제 2 영역(25)의 영상을 카메라(20) 또는 기타 외부 서버로부터 수신한다. In step S220, the area monitoring apparatus 100 transmits the image of the second area 25 photographed by the camera 20 (any one of the cameras 20a and 20b shown in FIG. 1) to the camera 20 ) Or other external server.

S230 단계에서, 영역 감시 장치(100)는 제 1 영역(15) 내 기 설정된 위치의 제 1 좌표 정보와 제 2 영역 내 기 설정된 위치의 제 2 좌표 정보를 이용하여 레이더(10)의 기준 좌표와 카메라(20)의 기준 좌표 사이의 좌표 변환을 획득한다.In step S230, the area monitoring apparatus 100 uses the first coordinate information of the predetermined area in the first area 15 and the second coordinate information of the predetermined area in the second area to calculate the reference coordinates of the radar 10 And obtains the coordinate transformation between the reference coordinates of the camera 20.

운영자 또는 영역 감시 장치(100)에 의해 미리 제 1 영역(15) 및 제 2 영역(25)에서 적어도 하나의 위치들이 기 설정될 수 있다. 제 1 영역(15) 내에서 기 설정된 위치와 제 2 영역(25) 내에서 기 설정된 위치는 동일한 지점을 포함할 수 있다.At least one position in the first area 15 and the second area 25 can be preset by the operator or the area monitoring apparatus 100 in advance. The predetermined position in the first region 15 and the predetermined position in the second region 25 may include the same point.

또한, 제 1 좌표 정보는 레이더(10)의 기준 좌표를 기준으로 측정되는 좌표 정보를 의미하며, 제 2 좌표 정보는 카메라(20)의 기준 좌표를 기준으로 측정되는 좌표 정보를 의미하는데, 제 1 영역(15) 내 기 설정된 위치와 제 2 영역 내 기 설정된 위치는 실제 동일한 지점이지만, 레이더(10)의 기준 좌표와 카메라(20)의 기준 좌표는 서로 상이하기 때문에 제 1 좌표 정보와 제 2 좌표 정보 역시 서로 상이할 수 밖에 없다.The first coordinate information means coordinate information measured with reference to the reference coordinates of the radar 10 and the second coordinate information means coordinate information measured with reference to the reference coordinates of the camera 20, The predetermined position in the area 15 and the predetermined position in the second area are actually the same point but the reference coordinates of the radar 10 and the reference point of the camera 20 are different from each other, The information also has to be different.

도 3(a) 및 도 3(b)를 참조하여 설명하면, 도 3(a)의 제 1 영역(15)에서 위치들, 즉 A1, B1, C1, D1이 설정되고, 도 3(b)의 제 2 영역(25)에서 위치들, 즉, A2, B2, C2, D2가 설정되고, A1과 A2가 서로 간에 동일한 지점이고, B1과 B2, C1과 C2, 그리고 D1과 D2가 각각 서로 간에 동일한 지점인 경우, 이들 위치쌍에 대한 제 1 좌표 정보와 제 2 좌표 정보는 서로 간에 상이하게 된다.3 (a) and 3 (b), positions in the first area 15, that is, A1, B1, C1 and D1 are set, A2 and B2 and C2 and D2 are set in the second region 25 of the first region 25 and A1 and A2 are the same point with respect to each other, and B1 and B2, C1 and C2, and D1 and D2, In the case of the same point, the first coordinate information and the second coordinate information for these pair of positions become different from each other.

영역 감시 장치(100)는 제 1 좌표 정보와 제 2 좌표 정보를 좌표 정보쌍으로 이용하여 레이더(10)의 기준 좌표(17)와 카메라(20)의 기준 좌표(27) 사이의 좌표 변환(H)를 산출할 수 있다.The area monitoring apparatus 100 uses the first coordinate information and the second coordinate information as coordinate information pairs to perform coordinate conversion between the reference coordinates 17 of the radar 10 and the reference coordinates 27 of the camera 20 ) Can be calculated.

상기 좌표 변환(H)은 아래의 수학식 1로 표현될 수 있다.The coordinate transformation H can be expressed by the following equation (1).

[수학식 1][Equation 1]

Figure pat00002
Figure pat00002

상기 수학식 1에서 t는 기 설정되는 0이 아닌 상수, X, Y는 제 1 영역(15) 내 기 설정된 위치의 제 1 좌표 정보, x, y는 제 2 영역(25) 내 기 설정된 위치의 제 2 좌표 정보 및 h11 내지 h33은 상기 좌표 변환(H)의 행렬 요소를 나타낸다.Where x and y are first coordinate information of a predetermined position in the first area 15 and x and y are coordinates of a predetermined position in the second area 25, The second coordinate information and h 11 to h 33 represent matrix elements of the coordinate transformation (H).

상기 수학식 1은 아래의 수학식 2 내지 수학식 4로 변형될 수 있다.The above equation (1) can be transformed into the following equations (2) to (4).

[수학식 2]&Quot; (2) "

Figure pat00003
Figure pat00003

[수학식 3]&Quot; (3) "

Figure pat00004
Figure pat00004

[수학식 4]&Quot; (4) "

Figure pat00005
Figure pat00005

상기 수학식 4는 수학식 3을 푼 후, 좌표 변환(H)의 행렬 요소들(h11 내지 h33)을 열 행렬로 변형한 것이다.Equation (4) is obtained by transforming the matrix elements (h11 to h33) of the coordinate transformation (H) into a column matrix after solving Equation (3).

상기 수학식 4에서 행렬 요소들(h11 내지 h33)의 열 행렬(h) 중 행렬 요소 h33은 1로 정규화되기 때문에 결국 8개의 행렬 요소만을 산출하면 되므로, 8개의 행렬 요소의 산출을 위해서는 적어도 4개의 좌표 정보쌍(즉, 4개의 제 1 좌표 정보와 그에 대응하는 4개의 제 2 좌표 정보)이 필요하다.Since the matrix element h33 of the column matrix h of the matrix elements h11 to h33 in Equation (4) is normalized to 1, only eight matrix elements are calculated. Therefore, in order to calculate eight matrix elements, at least four A pair of coordinate information (i.e., four pieces of first coordinate information and four pieces of second coordinate information corresponding thereto) are required.

4개의 정보쌍을 상기 수학식 4에 대입하면 아래의 수학식 5와 같이 표현될 수 있다.Substituting the four pairs of information into Equation (4), Equation (5) can be expressed as Equation (5).

[수학식 5]&Quot; (5) "

Figure pat00006
Figure pat00006

상기 수학식 5에서, X1, Y1, x1, y1은 제 1 영역(15)과 제 2 영역(25) 내 서로 동일한 위치(예를 들어, 도 3의 A1 지점과 A2 지점)에 대한 제 1 좌표 정보와 제 2 좌표 정보, X2, Y2, x2, y2은 제 1 영역(15)과 제 2 영역(25) 내 서로 동일한 위치(예를 들어, 도 3의 B1 지점과 B2 지점)에 대한 제 1 좌표 정보와 제 2 좌표 정보, X3, Y3, x3, y3은 제 1 영역(15)과 제 2 영역(25) 내 서로 동일한 위치(예를 들어, 도 3의 C1 지점과 C2 지점)에 대한 제 1 좌표 정보와 제 2 좌표 정보, X4, Y4, x4, y4은 제 1 영역(15)과 제 2 영역(25) 내 서로 동일한 위치(예를 들어, 도 3의 D1 지점과 D2 지점)에 대한 제 1 좌표 정보와 제 2 좌표 정보를 나타낸다.X1, Y1, x1 and y1 in the above equation (5) are the same as the first coordinates (X1, Y1, X1, (For example, the points B1 and B2 in FIG. 3) in the first area 15 and the second area 25, and the second coordinate information X2, Y2, The coordinate information and the second coordinate information, X3, Y3, X3, and Y3, are the same as the positions (for example, positions C1 and C2 in FIG. 3) in the first area 15 and the second area 25 1 coordinate information and the second coordinate information X4, Y4, x4 and y4 are set to the same positions (for example, the D1 point and the D2 point in FIG. 3) in the first area 15 and the second area 25 The first coordinate information and the second coordinate information.

좌표 변환(H)를 열 행렬(h)로 변경하였을 때, A를 특이 값 분해 (Singular Value Decomposition; SVD)함으로써, 열 행렬(h)을 산출할 수 있다.When the coordinate transformation H is changed to the column matrix h, the column matrix h can be calculated by performing A singular value decomposition (SVD).

A를 특이 값 분해하면, 아래의 수학식 6과 같이 나타낼 수 있다.If A is singular value decomposed, it can be expressed by the following Equation (6).

[수학식 6]&Quot; (6) "

Figure pat00007
Figure pat00007

특이 값 분해 후, 수학식 6의 V 행렬의 마지막 열 행렬을 열 행렬(h)로 결정할 수 있다. 열 행렬(h)이 도출되면, 영역 감시 장치(100)는 열 행렬(h)을 통해 좌표 변환(H)를 결정할 수 있다.After the singular value decomposition, the last column matrix of the V matrix of Equation (6) can be determined as a column matrix (h). Once the column matrix h is derived, the region monitoring apparatus 100 can determine the coordinate transformation H through the column matrix h.

다시 도 2를 보면, S240 단계에서, 영역 감시 장치(100)는 레이더(10)의 검출 정보에서 소정 오브젝트에 대한 추적 정보를 추출하고, 카메라(20) 영상 내 소정 오브젝트에 상기 추적 정보에 대응하는 식별 마크를 표시한다.Referring again to FIG. 2, in step S240, the area monitoring apparatus 100 extracts tracking information on a predetermined object from the detection information of the radar 10, and outputs, to a predetermined object in the image of the camera 20, An identification mark is displayed.

영역 감시 장치(100)는 식별 마크가 표시된 카메라 영상을 디스플레이하여 운영자로 하여금 사고가 발생하였는지, 어느 곳에서 사고가 발생하였는지의 정보 등을 정확하게 알려줄 수 있다.The area monitoring apparatus 100 may display a camera image displaying an identification mark so that the operator can accurately inform the operator of the occurrence of the accident and the location of the accident.

도 4(a)는 레이더(10)에 의해 획득되는 검출 정보를 도시하는 예시적인 도면이고, 도 4(b)는 식별 마크가 표시된 카메라 영상을 도시하는 예시적인 도면이다.Fig. 4 (a) is an exemplary diagram showing detection information obtained by the radar 10, and Fig. 4 (b) is an exemplary diagram showing a camera image in which an identification mark is displayed.

도 4(a)를 참조하면, 검출 정보(410)는 제 1 영역(15)에 위치하는 오브젝트들의 추적 정보(412a, 412b, 412c, 412d)를 포함할 수 있다. 도 4(a)에서는 추적 정보를 식별 마크(412a, 412b, 412c, 412d)로 도시하고 있는데, 이는 하나의 예시일 뿐이며, 레이더(10)는 추적 정보를 도 4(a)와 같은 영상 형태가 아닌 텍스트 형태로 제공할 수도 있다.Referring to FIG. 4A, the detection information 410 may include tracking information 412a, 412b, 412c, and 412d of the objects located in the first area 15. In FIG. 4A, the tracking information is shown by the identification marks 412a, 412b, 412c, and 412d, which is only one example. It can also be provided in non-text form.

영역 감시 장치(100)는 도 4(a)에 도시된 추적 정보(412a, 412b, 412c, 412d)로부터 각 오브젝트의 좌표 정보를 추출하고, 이를 좌표 변환(H)에 적용하여 영상(430)에서의 각 오브젝트의 좌표 정보를 추출한다. The area monitoring apparatus 100 extracts the coordinate information of each object from the tracking information 412a, 412b, 412c and 412d shown in FIG. 4A, applies it to the coordinate transformation H, And extracts the coordinate information of each object.

그리고, 영역 감시 장치(100)는 도 4(b)에 도시된 바와 같이, 추적 정보(412a, 412b, 412c, 412d)에 대응하는 식별 마크들(434a, 434b, 434c)을 영상(430) 내 오브젝트(432a, 432b, 432c)에 표시할 수 있다.4 (b), the area monitoring apparatus 100 displays the identification marks 434a, 434b, and 434c corresponding to the tracking information 412a, 412b, 412c, and 412d in the image 430 Can be displayed on the objects 432a, 432b, and 432c.

예를 들어, 영역 감시 장치(100)는 추적 정보(412a, 412b, 412c, 412d)로부터 획득되는 측정 값들(예를 들어, 속도, 가속도 및 감속도 중 적어도 하나)과 소정 기준 값을 비교한 후, 비교 결과에 맞는 형상 및/또는 컬러를 갖는 식별 마크를 영상(430)에 표시할 수 있다. 구체적으로, 감속도가 제 1 기준 값을 초과하는 경우에는 제 1 형상 및/또는 제 1 컬러의 식별 마크를 대응 오브젝트에 표시하고, 감속도가 제 1 기준 값 이하 및 제 2 기준 값을 초과하는 값을 갖는 경우에는 제 2 형상 및/또는 제 2 컬러의 식별 마크를 대응 오브젝트에 표시하고, 감속도가 제 2 기준 값 이하인 경우에는 제 3 형상 및/또는 제 3 컬러의 식별 마크를 대응 오브젝트에 표시할 수 있다.For example, the area monitoring apparatus 100 compares a predetermined reference value with measured values (for example, at least one of speed, acceleration, and deceleration) obtained from the tracking information 412a, 412b, 412c and 412d , An identification mark having a shape and / or color matching the comparison result can be displayed on the image 430. [ Specifically, when the deceleration exceeds the first reference value, the identification mark of the first shape and / or the first color is displayed on the corresponding object, and when the deceleration is below the first reference value and exceeds the second reference value The identification mark of the second shape and / or the second color is displayed on the corresponding object, and when the deceleration is the second reference value or less, the identification mark of the third shape and / or the third color is displayed on the corresponding object Can be displayed.

영역 감시 장치(100)는 식별 마크들(434a, 434b, 434c)이 표시된 영상(430)을 디스플레이함으로써, 운영자는 식별 마크(434a, 434b, 434c)를 통해 사고 발생 여부를 알 수 있고, 또한, 실제 촬영되는 영상(430)을 통해 어디에서 사고가 발생하였는지, 실제 사고가 발생한 것인지를 알 수 있게 된다.The area monitoring apparatus 100 displays the image 430 on which the identification marks 434a, 434b and 434c are displayed so that the operator can know whether an accident has occurred through the identification marks 434a, 434b and 434c, It is possible to know where an accident has occurred or an actual accident has occurred through the image 430 to be actually photographed.

도 5는 본 발명의 일 실시예에 따른 영역 감시 장치(100)의 블록도이다.5 is a block diagram of an area monitoring apparatus 100 according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 영역 감시 장치(100)는 통신부(610), 제어부(630), 이미지 처리부(650) 및 디스플레이(670)를 포함할 수 있다. 통신부(610), 제어부(630) 및 이미지 처리부(650)는 적어도 하나의 프로세서로 구현될 수 있으며, 메모리(미도시)에 저장된 프로그램에 따라 동작할 수 있다.5, the area monitoring apparatus 100 may include a communication unit 610, a control unit 630, an image processing unit 650, and a display 670. The communication unit 610, the control unit 630, and the image processing unit 650 may be implemented by at least one processor and may operate according to programs stored in a memory (not shown).

통신부(610)는 레이더(10)에 의해 검출되는 제 1 영역(15)의 검출 정보를 레이더(10) 또는 기타 외부 서버로부터 수신하고, 카메라(20)에 의해 촬영되는 제 2 영역의 영상을 카메라(20) 또는 기타 외부 서버로부터 수신한다.The communication unit 610 receives detection information of the first area 15 detected by the radar 10 from the radar 10 or other external server and transmits the image of the second area photographed by the camera 20 to the camera 10. [ (20) or other external server.

제어부(630)는 제 1 영역(15) 내 기 설정된 위치의 제 1 좌표 정보와 제 2 영역 내 기 설정된 위치의 제 2 좌표 정보를 이용하여 레이더(10)의 기준 좌표와 카메라(20)의 기준 좌표 사이의 좌표 변환을 획득한다. 좌표 변환을 획득하는 방법에 대해서는 상술하였는바, 상세한 설명은 생략한다.The control unit 630 controls the reference coordinates of the radar 10 and the reference coordinates of the camera 20 using the first coordinate information of the predetermined position in the first area 15 and the second coordinate information of the predetermined position in the second area, Coordinate transformation between coordinates is obtained. The method of obtaining the coordinate transformation has been described above, and a detailed description thereof will be omitted.

이미지 처리부(650)는 검출 정보에서 소정 오브젝트에 대한 추적 정보를 추출하고, 제 2 영역의 영상의 소정 오브젝트에 상기 추적 정보에 대응하는 식별 마크를 표시한다.The image processing unit 650 extracts tracking information on a predetermined object from the detected information and displays an identification mark corresponding to the tracking information on a predetermined object of the image of the second area.

디스플레이(670)는 식별 마크가 표시된 영상을 디스플레이한다.The display 670 displays an image displaying an identification mark.

또한, 구현예에 따라서는 영역 감시 장치(100)는 레이더(10)에서 검출되는 검출 정보로부터 사고가 발생한 것으로 예측되는 경우(예를 들어, 오브젝트의 감속도가 기준 값을 초과한 경우) 디스플레이(670) 또는 스피커를 통해 알람을 발생시켜 운영자의 주의를 환기시킬 수도 있다.According to an embodiment, when the area monitoring apparatus 100 is predicted that an accident has occurred from the detection information detected by the radar 10 (for example, when the deceleration of the object exceeds the reference value) 670) or an alarm may be generated through the speaker to alert the operator.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 작성된 프로그램은 매체에 저장될 수 있다.Meanwhile, the embodiments of the present invention described above can be written in a program that can be executed in a computer, and the created program can be stored in a medium.

상기 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함할 수 있으나, 이에 한정되는 것은 아니다.The medium may include, but is not limited to, storage media such as magnetic storage media (e.g., ROM, floppy disks, hard disks, etc.), optical reading media (e.g., CD ROMs,

첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims. You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100: 영역 감시 장치
10: 레이더
20, 20a, 20b; 카메라
30, 432a, 432b, 432c: 오브젝트
610: 통신부
630: 제어부
650: 이미지 처리부
670: 디스플레이
100: Area monitoring device
10: Radar
20, 20a, 20b; camera
30, 432a, 432b, 432c: object
610:
630:
650:
670: Display

Claims (5)

레이더에 의해 검출되는 제 1 영역의 검출 정보를 획득하는 단계;
카메라에 의해 촬영되는 제 2 영역의 영상을 획득하는 단계;
상기 제 1 영역 내 기 설정된 위치의 좌표 정보와 상기 제 2 영역 내 기 설정된 위치의 좌표 정보를 이용하여 상기 레이더의 기준 좌표와 상기 카메라의 기준 좌표 사이의 좌표 변환을 획득하는 단계; 및
상기 검출 정보에서 소정 오브젝트에 대한 추적 정보를 추출하고, 상기 영상 소정 오브젝트에 상기 추적 정보에 대응하는 식별 마크를 표시하는 단계를 포함하는 것을 특징으로 하는, 영역 감시 장치에 의한 영역 감시 방법.
Obtaining detection information of a first area detected by a radar;
Obtaining an image of a second region photographed by a camera;
Acquiring coordinate transformation between the reference coordinates of the radar and the reference coordinates of the camera using the coordinate information of the predetermined position in the first area and the coordinate information of the predetermined position in the second area; And
Extracting tracking information on a predetermined object from the detection information, and displaying an identification mark corresponding to the tracking information on the image predetermined object.
제1항에 있어서,
상기 제 1 영역 내 기 설정된 위치와 상기 제 2 영역 내 기 설정된 위치 각각은 적어도 4개를 포함하는 것을 특징으로 하는 영역 감시 방법.
The method according to claim 1,
Wherein the predetermined area in the first area and the predetermined area in the second area each include at least four areas.
제2항에 있어서,
상기 좌표 변환을 획득하는 단계는,
상기 제 1 영역 내 적어도 4개의 기 설정된 위치와 상기 제 2 영역 내 적어도 4개의 기 설정된 위치 각각의 좌표 정보쌍 각각을 하기의 수학식에 적용하여 상기 좌표 변환을 획득하되,
[수학식]
Figure pat00008

상기 수학식에서 t는 기 설정되는 0이 아닌 상수, X, Y는 제 1 영역 내 기 설정된 위치의 좌표 정보, x, y는 제 2 영역 내 기 설정된 위치의 좌표 정보 및 h11 내지 h33은 상기 좌표 변환의 행렬 요소를 나타내는 것을 특징으로 하는 영역 감시 방법.
3. The method of claim 2,
Wherein obtaining the coordinate transformation comprises:
Obtaining coordinate transformation by applying each of coordinate information pairs of at least four preset positions in the first area and at least four predetermined positions in the second area to the following equation,
[Mathematical Expression]
Figure pat00008

Where x and y are coordinate information of a predetermined position in the first area, x and y are coordinate information of a predetermined position in the second area, and h 11 to h 33 are coordinate information of a predetermined position in the second area, And a matrix element of the coordinate transformation.
제1항에 있어서,
상기 추적 정보는 상기 소정 오브젝트의 위치 정보, 속도 정보, 가속도 정보 및 감속도 정보 중 적어도 하나를 포함하되,
상기 식별 마크를 표시하는 단계는,
상기 추적 정보와 기 설정된 기준 값을 비교하여, 비교 결과에 대응하는 형상 및/또는 컬러의 상기 식별 마크를 상기 영상에 표시하는 단계를 포함하는 것을 특징으로 하는 영역 감시 방법.
The method according to claim 1,
Wherein the tracking information includes at least one of position information, velocity information, acceleration information, and deceleration information of the predetermined object,
Wherein the step of displaying the identification mark comprises:
Comparing the tracking information with a predetermined reference value, and displaying the identification mark of the shape and / or color corresponding to the comparison result on the image.
레이더에 의해 검출되는 제 1 영역의 검출 정보를 획득하고, 카메라에 의해 촬영되는 제 2 영역의 영상을 획득하는 통신부;
상기 제 1 영역 내 기 설정된 위치의 좌표 정보와 상기 제 2 영역 내 기 설정된 위치의 좌표 정보를 이용하여 상기 레이더의 기준 좌표와 상기 카메라의 기준 좌표 사이의 좌표 변환을 획득하는 제어부; 및
상기 검출 정보에서 소정 오브젝트에 대한 추적 정보를 추출하고, 상기 제 2 영역의 영상의 소정 오브젝트에 상기 추적 정보에 대응하는 식별 마크를 표시하는 이미지 처리부를 포함하는 것을 특징으로 하는 영역 감시 장치.
A communication unit for acquiring detection information of a first area detected by the radar and acquiring an image of a second area photographed by the camera;
A controller for obtaining a coordinate transformation between the reference coordinates of the radar and the reference coordinates of the camera using the coordinate information of the predetermined region in the first region and the coordinate information of the predetermined region in the second region; And
And an image processing unit for extracting tracking information on a predetermined object from the detection information and displaying an identification mark corresponding to the tracking information on a predetermined object of the image of the second area.
KR1020170052974A 2017-04-25 2017-04-25 Region monitoring apparatus and method for monitoring region thereby KR20180119344A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170052974A KR20180119344A (en) 2017-04-25 2017-04-25 Region monitoring apparatus and method for monitoring region thereby

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170052974A KR20180119344A (en) 2017-04-25 2017-04-25 Region monitoring apparatus and method for monitoring region thereby

Publications (1)

Publication Number Publication Date
KR20180119344A true KR20180119344A (en) 2018-11-02

Family

ID=64328559

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170052974A KR20180119344A (en) 2017-04-25 2017-04-25 Region monitoring apparatus and method for monitoring region thereby

Country Status (1)

Country Link
KR (1) KR20180119344A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020108647A1 (en) * 2018-11-30 2020-06-04 杭州海康威视数字技术股份有限公司 Target detection method, apparatus and system based on linkage between vehicle-mounted camera and vehicle-mounted radar
US20220317238A1 (en) * 2019-02-01 2022-10-06 Nec Corporation Vessel analysis device, vessel behavior learning device, vessel analysis system, vessel analysis method, vessel behavior learning method, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020108647A1 (en) * 2018-11-30 2020-06-04 杭州海康威视数字技术股份有限公司 Target detection method, apparatus and system based on linkage between vehicle-mounted camera and vehicle-mounted radar
US20220317238A1 (en) * 2019-02-01 2022-10-06 Nec Corporation Vessel analysis device, vessel behavior learning device, vessel analysis system, vessel analysis method, vessel behavior learning method, and recording medium

Similar Documents

Publication Publication Date Title
EP3620926B1 (en) Method and apparatus for testing autonomous vehicle, and storage medium
KR101622028B1 (en) Apparatus and Method for controlling Vehicle using Vehicle Communication
KR101727162B1 (en) Apparatus and method for providing vessel traffic service
US7218757B2 (en) Method and device for detecting obstruction in image sensor systems
US20090058622A1 (en) Method for predicting lane line and lane departure warning system using the same
KR102158497B1 (en) evaluation system for autonomous driving
US10516855B2 (en) Monitoring system, monitoring method, and monitoring program
CN112014845A (en) Vehicle obstacle positioning method, device, equipment and storage medium
CN110610137B (en) Method and device for detecting vehicle running state, electronic equipment and storage medium
KR20180131033A (en) Calibration apparatus and method of camera and rader
US11798291B2 (en) Redundancy information for object interface for highly and fully automated driving
JP5820135B2 (en) Logistics quality inspection method, data processing apparatus, data recorder, and computer program
CN110174706B (en) Object monitoring device using sensor
CN104167109A (en) Detection method and detection apparatus for vehicle position
WO2022205106A1 (en) Early warning method and apparatus for vehicle, and device and storage medium
KR20130140331A (en) Apparatus and method for managing vehicle accident
JP2009159448A (en) Object detecting apparatus, and object detecting method
KR20180119344A (en) Region monitoring apparatus and method for monitoring region thereby
JP6610994B2 (en) Obstacle detection device and obstacle detection method
JP4176558B2 (en) Vehicle periphery display device
CN110745145A (en) Multi-sensor management system for ADAS
KR20130037902A (en) System and method for alarming and monitoring dangerous situations using multi-sensor
JPWO2019131388A1 (en) Driving support device, driving support system, driving support method, and driving support program
CN112633143B (en) Image processing system, method, head-mounted device, processing device, and storage medium
JP5959682B2 (en) System and method for calculating the distance between an object and a vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
E601 Decision to refuse application
E801 Decision on dismissal of amendment