KR102585525B1 - Object detection device and method thereof - Google Patents

Object detection device and method thereof Download PDF

Info

Publication number
KR102585525B1
KR102585525B1 KR1020220151042A KR20220151042A KR102585525B1 KR 102585525 B1 KR102585525 B1 KR 102585525B1 KR 1020220151042 A KR1020220151042 A KR 1020220151042A KR 20220151042 A KR20220151042 A KR 20220151042A KR 102585525 B1 KR102585525 B1 KR 102585525B1
Authority
KR
South Korea
Prior art keywords
matching
information
object information
mapping
image
Prior art date
Application number
KR1020220151042A
Other languages
Korean (ko)
Inventor
김웅태
배경렬
Original Assignee
이인텔리전스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이인텔리전스 주식회사 filed Critical 이인텔리전스 주식회사
Priority to KR1020220151042A priority Critical patent/KR102585525B1/en
Application granted granted Critical
Publication of KR102585525B1 publication Critical patent/KR102585525B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • H04N5/225
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance

Abstract

본 개시는 오브젝트 검출 장치 및 방법에 관한 것으로, 카메라 및 레이더로부터 자차량 주변에 관한 영상 데이터 및 레이더 데이터를 각각 수신하는 수신부와, 영상 데이터 및 레이더 데이터로부터 각각 적어도 하나 이상의 오브젝트에 관한 영상 오브젝트 정보 및 검출 오브젝트 정보를 추출하고, 미리 설정된 이미지 좌표계 정보를 기준으로 검출 오브젝트 정보를 영상 데이터에 맵핑하여 맵핑 오브젝트 정보를 산출하며, 맵핑 오브젝트 정보 및 영상 오브젝트 정보에 기초하여 동일 오브젝트로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출하는 매칭부와, 매칭 오브젝트 정보에 기초하여 각 오브젝트를 추적하면서, 영상 데이터 및 레이더 데이터에 기초하여 매칭 오브젝트 정보를 갱신하는 트래킹부를 포함을 포함한다.The present disclosure relates to an object detection apparatus and method, which includes a receiver for receiving image data and radar data about the surroundings of the vehicle from a camera and a radar, respectively, image object information about at least one object from the image data and radar data, and Extracts detected object information, maps the detected object information to image data based on preset image coordinate system information, calculates mapping object information, and matches objects determined to be the same object based on the mapping object information and image object information. It includes a matching unit that calculates object information, and a tracking unit that tracks each object based on the matching object information and updates the matching object information based on image data and radar data.

Description

오브젝트 검출 장치 및 방법{OBJECT DETECTION DEVICE AND METHOD THEREOF}Object detection device and method {OBJECT DETECTION DEVICE AND METHOD THEREOF}

본 개시는 오브젝트 검출 장치 및 방법에 관한 것으로, 보다 상세하게는 서로 다른 센서들의 오브젝트 센싱 정보를 매칭하고 추적할 수 있는 오브젝트 검출 장치 및 방법에 관한 것이다.The present disclosure relates to an object detection device and method, and more specifically, to an object detection device and method that can match and track object sensing information from different sensors.

ADAS(Advanced Driver Assistance Systems) 기술은 차량의 운행에 도움을 주거나 주행 안정성을 향상시키기 위해 제공되는 기술들을 통칭하는 용어로서, 자율주행 기술의 일부 또는 완전한 자율주행의 이전 단계에서 필요한 기술로 여겨지고 있다.ADAS (Advanced Driver Assistance Systems) technology is a general term for technologies provided to help drive a vehicle or improve driving stability, and is considered a part of autonomous driving technology or a necessary technology in the previous stage of fully autonomous driving.

일반적으로 ADAS 기술은 차량의 주변 환경 인식을 기반으로 동작하여 차량 운행에 도움을 주게 되는바, 차량 주변의 오브젝트를 검출하는 것은 여러 ADAS 시스템의 동작에 있어서 매우 중요하다.In general, ADAS technology operates based on the vehicle's recognition of its surroundings to help drive the vehicle, and detecting objects around the vehicle is very important in the operation of various ADAS systems.

이러한 점을 고려할 때, 차량에 부착된 다양한 센서들의 장단점을 보완하면서 각 센서들의 센싱 정보를 정확하게 매칭하여 퓨전시킴으로써 오브젝트 검출 성능을 향상시킬 수 있는 기술의 개발이 필요하다.Considering this, it is necessary to develop technology that can improve object detection performance by accurately matching and fusing the sensing information of each sensor while complementing the strengths and weaknesses of the various sensors attached to the vehicle.

본 개시는, 서로 다른 센서의 센싱 정보를 퓨전하여 오브젝트를 검출할 수 있는 오브젝트 검출 장치 및 방법을 제공하고자 한다.The present disclosure seeks to provide an object detection device and method that can detect an object by fusing sensing information from different sensors.

또한, 본 개시는, 카메라 및 레이더의 센싱 정보에서 동일 오브젝트에 관한 정보를 매칭할 수 있는 오브젝트 검출 장치 및 방법을 제공하고자 한다.Additionally, the present disclosure seeks to provide an object detection device and method that can match information about the same object in sensing information from cameras and radars.

또한, 본 개시는, 각 센서의 특징을 이용하여 오브젝트 검출 정확도를 향상시킬 수 있는 오브젝트 검출 장치 및 방법을 제공하고자 한다. Additionally, the present disclosure seeks to provide an object detection device and method that can improve object detection accuracy by using the characteristics of each sensor.

일 측면에서, 본 실시예들은 카메라 및 레이더로부터 자차량 주변에 관한 영상 데이터 및 레이더 데이터를 각각 수신하는 수신부와, 영상 데이터 및 레이더 데이터로부터 각각 적어도 하나 이상의 오브젝트에 관한 영상 오브젝트 정보 및 검출 오브젝트 정보를 추출하고, 미리 설정된 이미지 좌표계 정보를 기준으로 검출 오브젝트 정보를 영상 데이터에 맵핑하여 맵핑 오브젝트 정보를 산출하며, 맵핑 오브젝트 정보 및 영상 오브젝트 정보에 기초하여 동일 오브젝트로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출하는 매칭부와, 매칭 오브젝트 정보에 기초하여 각 오브젝트를 추적하면서, 영상 데이터 및 레이더 데이터에 기초하여 매칭 오브젝트 정보를 갱신하는 트래킹부를 포함하는 오브젝트 검출 장치를 제공할 수 있다.In one aspect, the present embodiments include a receiver that receives image data and radar data about the surroundings of the host vehicle from a camera and a radar, respectively, and image object information and detection object information about at least one object from the image data and radar data, respectively. Extract and map the detected object information to image data based on preset image coordinate system information to calculate mapping object information, and calculate matching object information for objects determined to be the same object based on the mapping object information and image object information. An object detection device including a matching unit that tracks each object based on matching object information and a tracking unit that updates matching object information based on image data and radar data.

다른 측면에서, 본 실시예들은 카메라 및 레이더로부터 자차량 주변에 관한 영상 데이터 및 레이더 데이터를 각각 수신하는 데이터 수신 단계와, 영상 데이터 및 레이더 데이터로부터 각각 적어도 하나 이상의 오브젝트에 관한 영상 오브젝트 정보 및 검출 오브젝트 정보를 추출하고, 미리 설정된 이미지 좌표계 정보를 기준으로 검출 오브젝트 정보를 영상 데이터에 맵핑하여 맵핑 오브젝트 정보를 산출하며, 맵핑 오브젝트 정보 및 영상 오브젝트 정보에 기초하여 동일 오브젝트로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출하는 오브젝트 매칭 단계와, 매칭 오브젝트 정보에 기초하여 각 오브젝트를 추적하면서, 영상 데이터 및 레이더 데이터에 기초하여 매칭 오브젝트 정보를 갱신하는 오브젝트 트래킹 단계를 포함하는 오브젝트 검출 방법을 제공할 수 있다.In another aspect, the present embodiments include a data receiving step of receiving image data and radar data about the surroundings of the own vehicle from a camera and a radar, respectively, and image object information and detection object about at least one object from the image data and radar data, respectively. Extract information, map detected object information to image data based on preset image coordinate system information to calculate mapping object information, and match object information for objects determined to be the same object based on mapping object information and image object information. An object detection method including an object matching step of calculating and an object tracking step of updating matching object information based on image data and radar data while tracking each object based on matching object information can be provided.

본 개시에 의하면, 서로 다른 센서의 센싱 정보를 퓨전하여 오브젝트를 검출할 수 있는 오브젝트 검출 장치 및 방법을 제공할 수 있다. According to the present disclosure, it is possible to provide an object detection device and method that can detect an object by fusing sensing information from different sensors.

또한, 본 개시에 의하면, 카메라 및 레이더의 센싱 정보에서 동일 오브젝트에 관한 정보를 매칭할 수 있는 오브젝트 검출 장치 및 방법을 제공할 수 있다.Additionally, according to the present disclosure, it is possible to provide an object detection device and method that can match information about the same object in sensing information from cameras and radars.

또한, 본 개시에 의하면, 각 센서의 특징을 이용하여 오브젝트 검출 정확도를 향상시킬 수 있는 오브젝트 검출 장치 및 방법을 제공할 수 있다.Additionally, according to the present disclosure, it is possible to provide an object detection device and method that can improve object detection accuracy by using the characteristics of each sensor.

도 1은 본 개시에 따른 오브젝트 검출 장치에 관한 블록도이다.
도 2는 일 실시예에 따른 오브젝트 검출 장치를 이용하여 센싱 퓨전을 기반으로 오브젝트 정보를 매칭하는 구성을 예시적으로 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 오브젝트 검출 장치를 이용하여 복수의 오브젝트 정보 중에서 동일 오브젝트에 관한 정보를 매칭하는 구성을 예시적으로 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 오브젝트 검출 방법에 관한 순서도이다.
도 5는 일 실시예에 따른 오브젝트 검출 방법에서, 오브젝트 매칭 단계에 관한 순서도이다.
도 6은 또 다른 실시예에 따른 오브젝트 검출 방법을 예시적으로 설명하기 위한 순서도이다.
도 7은 또 다른 실시예에 따른 오브젝트 검출 방법에서, 매칭 단계를 예시적으로 설명하기 위한 순서도이다.
도 8은 또 다른 실시예에 따른 오브젝트 검출 방법에서, 트래킹 단계를 예시적으로 설명하기 위한 순서도이다.
1 is a block diagram of an object detection device according to the present disclosure.
FIG. 2 is a diagram illustrating a configuration for matching object information based on sensing fusion using an object detection device according to an embodiment.
FIG. 3 is a diagram illustrating a configuration for matching information about the same object among a plurality of object information using an object detection device according to an embodiment.
Figure 4 is a flowchart of an object detection method according to an embodiment.
Figure 5 is a flowchart of an object matching step in an object detection method according to an embodiment.
Figure 6 is a flowchart illustrating an object detection method according to another embodiment.
Figure 7 is a flowchart illustrating a matching step in an object detection method according to another embodiment.
Figure 8 is a flowchart illustrating a tracking step in an object detection method according to another embodiment.

이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.Hereinafter, some embodiments of the present disclosure will be described in detail with reference to illustrative drawings. In adding reference numerals to components in each drawing, the same components may have the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present embodiments, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When “comprises,” “has,” “consists of,” etc. mentioned in the specification are used, other parts may be added unless “only” is used. When a component is expressed in the singular, it can also include the plural, unless specifically stated otherwise.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. Additionally, in describing the components of the present disclosure, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, order, or number of the components are not limited by the term.

구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of components, when two or more components are described as being “connected,” “coupled,” or “connected,” the two or more components are directly “connected,” “coupled,” or “connected.” ", but it should be understood that two or more components and other components may be further "interposed" and "connected," "combined," or "connected." Here, other components may be included in one or more of two or more components that are “connected,” “coupled,” or “connected” to each other.

구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of temporal flow relationships related to components, operation methods, production methods, etc., for example, temporal precedence relationships such as “after”, “after”, “after”, “before”, etc. Or, when a sequential relationship is described, non-continuous cases may be included unless “immediately” or “directly” is used.

한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when a numerical value or corresponding information (e.g., level, etc.) for a component is mentioned, even if there is no separate explicit description, the numerical value or corresponding information is related to various factors (e.g., process factors, internal or external shocks, It can be interpreted as including the error range that may occur due to noise, etc.).

도 1은 본 개시에 따른 오브젝트 검출 장치에 관한 블록도이다.1 is a block diagram of an object detection device according to the present disclosure.

도 1을 참조하면, 본 개시에 따른 오브젝트 검출 장치(100)는, 수신부(110), 매칭부(120) 및 트래킹부(130)를 포함할 수 있다. 그리고 수신부(110), 매칭부(120) 및 트래킹부(130)는 서로 연결될 수 있다.Referring to FIG. 1, the object detection device 100 according to the present disclosure may include a receiving unit 110, a matching unit 120, and a tracking unit 130. And the receiving unit 110, matching unit 120, and tracking unit 130 may be connected to each other.

일 예로, 오브젝트 검출 장치(100)는, 카메라 및 레이더로부터 자차량 주변에 관한 영상 데이터 및 레이더 데이터를 각각 수신하는 수신부와, 영상 데이터 및 레이더 데이터로부터 각각 적어도 하나 이상의 오브젝트에 관한 영상 오브젝트 정보 및 검출 오브젝트 정보를 추출하고, 미리 설정된 이미지 좌표계 정보를 기준으로 검출 오브젝트 정보를 영상 데이터에 맵핑하여 맵핑 오브젝트 정보를 산출하며, 맵핑 오브젝트 정보 및 영상 오브젝트 정보에 기초하여 동일 오브젝트로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출하는 매칭부와, 매칭 오브젝트 정보에 기초하여 각 오브젝트를 추적하면서, 영상 데이터 및 레이더 데이터에 기초하여 매칭 오브젝트 정보를 갱신하는 트래킹부를 포함할 수 있다.As an example, the object detection device 100 includes a receiver that receives image data and radar data about the surroundings of the vehicle from a camera and a radar, respectively, and image object information and detection about at least one object from the image data and radar data, respectively. Extract object information, calculate mapping object information by mapping detected object information to image data based on preset image coordinate system information, and match objects for objects determined to be the same object based on mapping object information and image object information. It may include a matching unit that calculates information, and a tracking unit that tracks each object based on the matching object information and updates the matching object information based on image data and radar data.

수신부(110)는, 센서 장치 또는 차량의 타 장치와 연결될 수 있고, 센서 장치 또는 차량의 타 장치로부터 일정한 신호 또는 데이터를 수신할 수 있다. 수신부(110)는 임의의 시점 또는 일정 주기로 신호 또는 데이터를 수신할 수 있다. 수신부(110)에서 수신되는 데이터는, 영상 데이터 및 레이더 데이터 등을 포함할 수 있다.The receiving unit 110 may be connected to a sensor device or other devices in the vehicle, and may receive certain signals or data from the sensor device or other devices in the vehicle. The receiving unit 110 may receive signals or data at any time or at a certain period. Data received by the receiver 110 may include image data and radar data.

이 경우, 영상 데이터는 차량에 설치된 카메라 센서로부터 수신될 수 있고, 레이더 데이터는 차량에 설치된 레이더 센서로부터 수신될 수 있다. 경우에 따라, 영상 데이터 및 레이더 데이터는, 타 차량 또는 여타 구조물 등에 설치된 센서 또는 통신 장치로부터 수신될 수 있다.In this case, image data may be received from a camera sensor installed in the vehicle, and radar data may be received from a radar sensor installed in the vehicle. In some cases, image data and radar data may be received from sensors or communication devices installed on other vehicles or other structures.

경우에 따라, 수신부(110)는, 미리 설정된 목표 위치로 자차량을 이동시키기 위한 차량 궤적 정보를 더 수신할 수 있다. 이 경우, 차량 궤적 정보는 자차량 내에 장착된 차량 궤적 추정 장치를 이용하여 추정되는 정보를 포함할 수 있다. 또한, 수신부(110)는, 요레이트(Yaw Rate) 센서로부터 자차량의 헤딩 각도에 관한 헤딩 각도 정보를 더 수신할 수 있다.In some cases, the receiver 110 may further receive vehicle trajectory information for moving the host vehicle to a preset target location. In this case, the vehicle trajectory information may include information estimated using a vehicle trajectory estimation device installed in the own vehicle. Additionally, the receiver 110 may further receive heading angle information regarding the heading angle of the host vehicle from a yaw rate sensor.

매칭부(120)는, 수신부(110) 및 트래킹부(130) 중 적어도 하나와 연결될 수 있다. 이 경우, 수신부(110)에서 수신되는 정보에 기초하여 새로운 정보를 산출할 수도 있고, 수신되는 정보를 다른 정보 또는 미리 설정된 값을 이용하여 재산출할 수도 있다. 그리고 산출된 정보를 트래킹부(130)에 제공할 수 있다.The matching unit 120 may be connected to at least one of the receiving unit 110 and the tracking unit 130. In this case, new information may be calculated based on the information received from the receiving unit 110, or the received information may be recalculated using other information or a preset value. And the calculated information can be provided to the tracking unit 130.

일 예로, 매칭부(120)는, 영상 데이터 및 레이더 데이터로부터 각각 적어도 하나 이상의 오브젝트에 관한 영상 오브젝트 정보 및 검출 오브젝트 정보를 추출할 수 있다. 그리고, 매칭부(120)는, 미리 설정된 영상 좌표계 정보를 기준으로 검출 오브젝트 정보를 영상 데이터에 맵핑하여 맵핑 오브젝트 정보를 산출할 수 있다.As an example, the matching unit 120 may extract image object information and detection object information about at least one object from image data and radar data, respectively. Additionally, the matching unit 120 may calculate mapping object information by mapping the detected object information to image data based on preset image coordinate system information.

일 예로, 매칭부(120)는, 맵핑 오브젝트 정보 및 영상 오브젝트 정보에 기초하여 동일 오브젝트로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출할 수 있다.As an example, the matching unit 120 may calculate matching object information for objects that are determined to be the same object based on mapping object information and image object information.

일 예로, 매칭부(120)는, 각 영상 오브젝트 정보 별로 매칭 경계 영역을 설정할 수 있다. 그리고, 매칭 경계 영역에 맵핑 오브젝트 정보가 포함되는 경우 영상 오브젝트 정보와 맵핑 오브젝트 정보를 매칭하여 동일 오브젝트로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출할 수 있다.As an example, the matching unit 120 may set a matching boundary area for each image object information. Additionally, when mapping object information is included in the matching boundary area, matching object information for objects determined to be the same object can be calculated by matching image object information and mapping object information.

일 예로, 매칭부(120)는, 매칭 경계 영역에 2개 이상의 맵핑 오브젝트 정보가 포함되는 경우, 미리 설정된 매칭 판단 기준에 기초하여 그 중 하나의 맵핑 오젝트 정보를 영상 오브젝트 정보와 매칭하여 매칭 오브젝트 정보를 산출할 수 있다.As an example, when the matching boundary area includes two or more mapping object information, the matching unit 120 matches one of the mapping object information with the image object information based on a preset matching judgment standard to create a matching object. Information can be calculated.

일 예로, 매칭 판단 기준은, 거리 매칭 정보에 기초하여 영상 오브젝트 정보와의 거리가 가장 가까운 것으로 판단되는 맵핑 오브젝트 정보가 영상 오브젝트 정보와 매칭되도록 설정될 수 있다.As an example, the matching determination criterion may be set so that mapping object information determined to have the closest distance to the image object information is matched with the image object information based on the distance matching information.

다른 일 예로, 매칭 판단 기준은, 방향 매칭 정보에 기초하여 영상 오브젝트 정보와의 이동방향 차이가 가장 작은 것으로 판단되는 맵핑 오브젝트 정보가 영상 오브젝트 정보와 매칭되도록 설정될 수 있다.As another example, the matching determination criterion may be set so that the mapping object information determined to have the smallest difference in moving direction from the image object information is matched with the image object information based on the direction matching information.

다른 일 예로, 매칭 판단 기준은, 크기 매칭 정보에 기초하여 영상 오브젝트 정보와의 크기 차이가 가장 작은 것으로 판단되는 맵핑 오브젝트 정보가 영상 오브젝트 정보와 매칭되도록 설정될 수 있다.As another example, the matching determination criterion may be set so that mapping object information determined to have the smallest size difference from the image object information is matched with the image object information based on the size matching information.

다른 일 예로, 매칭 판단 기준은, 거리 매칭 정보, 방향 매칭 정보, 크기 매칭 정보 및 미리 설정된 가중치 정보에 기초하여 각 맵핑 오브젝트 정보 별로 매칭 평가 점수를 산출하고, 매칭 평가 점수가 가장 높은 맵핑 오브젝트 정보가 영상 오브젝트 정보와 매칭되도록 설정될 수 있다.As another example, the matching judgment standard calculates a matching evaluation score for each mapping object information based on distance matching information, direction matching information, size matching information, and preset weight information, and the mapping object information with the highest matching evaluation score is It can be set to match video object information.

일 예로, 매칭부(120)는, 각 맵핑 오브젝트 정보 별로 영상 오브젝트 정보 및 맵핑 오브젝트 정보 간의 거리에 관한 거리 매칭 정보를 산출할 수 있다. 경우에 따라, 거리 매칭 정보는, 매칭 경계 영역에 2개 이상의 맵핑 오브젝트 정보가 포함되는 경우에 한하여 산출되도록 설정될 수 있다.As an example, the matching unit 120 may calculate distance matching information regarding the distance between image object information and mapping object information for each piece of mapping object information. In some cases, distance matching information may be set to be calculated only when two or more mapping object information are included in the matching boundary area.

그리고, 매칭부(120)는, 거리 매칭 정보에 기초하여 영상 오브젝트 정보와의 거리가 가장 가까운 것으로 판단되는 맵핑 오브젝트 정보를 영상 오브젝트 정보와 매칭하여 매칭 오브젝트 정보를 산출할 수 있다.Additionally, the matching unit 120 may calculate matching object information by matching mapping object information determined to have the closest distance to the image object information with the image object information based on the distance matching information.

일 예로, 매칭부(120)는, 각 맵핑 오브젝트 정보 별로 영상 오브젝트 정보 및 맵핑 오브젝트 정보 간의 이동 방향 차이에 관한 방향 매칭 정보를 산출할 수 있다. 경우에 따라, 방향 매칭 정보는, 매칭 경계 영역에 2개 이상의 맵핑 오브젝트 정보가 포함되는 경우에 한하여 산출되도록 설정될 수 있다.As an example, the matching unit 120 may calculate direction matching information regarding the difference in movement direction between image object information and mapping object information for each piece of mapping object information. In some cases, direction matching information may be set to be calculated only when two or more mapping object information are included in the matching boundary area.

그리고, 매칭부(120)는, 방향 매칭 정보에 기초하여 영상 오브젝트 정보와의 이동방향 차이가 가장 작은 것으로 판단되는 맵핑 오브젝트 정보를 영상 오브젝트 정보와 매칭하여 매칭 오브젝트 정보를 산출할 수 있다.Additionally, the matching unit 120 may calculate matching object information by matching mapping object information determined to have the smallest movement direction difference with the image object information with the image object information based on the direction matching information.

일 예로, 매칭부(120)는, 각 맵핑 오브젝트 정보 별로 영상 오브젝트 정보 및 맵핑 오브젝트 정보 간의 크기 차이에 관한 크기 매칭 정보를 산출할 수 있다. 경우에 따라, 크기 매칭 정보는, 매칭 경계 영역에 2개 이상의 맵핑 오브젝트 정보가 포함되는 경우에 한하여 산출되도록 설정될 수 있다.As an example, the matching unit 120 may calculate size matching information regarding the size difference between image object information and mapping object information for each piece of mapping object information. In some cases, size matching information may be set to be calculated only when two or more pieces of mapping object information are included in the matching boundary area.

그리고, 매칭부(120)는, 크기 매칭 정보에 기초하여 영상 오브젝트 정보와의 크기 차이가 가장 작은 것으로 판단되는 맵핑 오브젝트 정보를 영상 오브젝트 정보와 매칭하여 매칭 오브젝트 정보를 산출할 수 있다.Additionally, the matching unit 120 may calculate matching object information by matching mapping object information determined to have the smallest size difference with the image object information with the image object information based on the size matching information.

일 예로, 매칭부(120)는, 거리 매칭 정보, 방향 매칭 정보, 크기 매칭 정보 및 미리 설정된 가중치 정보에 기초하여 각 맵핑 오브젝트 정보 별로 매칭 평가 점수를 산출할 수 있다. 경우에 따라, 매칭 평가 점수는, 매칭 경계 영역에 2개 이상의 맵핑 오브젝트 정보가 포함되는 경우에 한하여 산출되도록 설정될 수 있다.As an example, the matching unit 120 may calculate a matching evaluation score for each mapping object information based on distance matching information, direction matching information, size matching information, and preset weight information. In some cases, the matching evaluation score may be set to be calculated only when two or more mapping object information are included in the matching boundary area.

그리고, 매칭부(120)는, 매칭 평가 점수가 가장 높은 맵핑 오브젝트 정보를 영상 오브젝트 정보와 매칭하여 매칭 오브젝트 정보를 산출할 수 있다.Additionally, the matching unit 120 may calculate matching object information by matching mapping object information with the highest matching evaluation score with video object information.

일 예로, 매칭부(120)는, 영상 데이터에 기초하여 자차량과의 오브젝트 횡방향 거리 정보를 산출하고, 레이더 데이터에 기초하여 자차량과의 오브젝트 종방향 거리 정보를 산출할 수 있다.As an example, the matching unit 120 may calculate object lateral distance information to the host vehicle based on image data, and calculate object longitudinal distance information to the host vehicle based on radar data.

그리고, 매칭부(120)는, 오브젝트 횡방향 거리 정보 및 오브젝트 종방향 거리 정보에 기초하여 매칭 오브젝트 정보를 산출할 수 있다. 예를 들면, 매칭부(120)는, 매칭 오브젝트 정보의 횡방향 성분에 관한 정보는 오브젝트 횡방향 거리 정보에 기초하여 산출하고, 매칭 오브젝트 정보의 종방향 성분에 관한 정보는 오브젝트 종방향 거리 정보에 기초하여 산출할 수 있다.And, the matching unit 120 may calculate matching object information based on the object horizontal distance information and the object vertical distance information. For example, the matching unit 120 calculates information about the horizontal component of the matching object information based on the object horizontal distance information, and information about the vertical component of the matching object information is calculated based on the object vertical distance information. It can be calculated based on

일 예로, 매칭부(120)는, 차량 궤적 정보에 기초하여 적어도 하나 이상의 궤적상 지점 정보를 추출할 수 있다. 다음으로, 매칭부(120)는, 영상 데이터에 기초하여 자차량과의 궤적상 지점 횡방향 거리 정보를 산출하고, 레이더 데이터에 기초하여 자차량과의 궤적상 지점 종방향 거리 정보를 산출할 수 있다.As an example, the matching unit 120 may extract information on at least one point on the trajectory based on vehicle trajectory information. Next, the matching unit 120 may calculate the lateral distance information of a point on a trajectory with the host vehicle based on the image data, and calculate the longitudinal distance information of a point on the trajectory with the host vehicle based on radar data. there is.

트래킹부(130)는, 매칭 오브젝트 정보에 기초하여 각 오브젝트를 추적할 수 있다. 그리고, 트래킹부(130)는, 새롭게 수신되는 영상 데이터 및 레이더 데이터에 기초하여 매칭 오브젝트 정보를 갱신할 수 있다. The tracking unit 130 may track each object based on matching object information. Additionally, the tracking unit 130 may update matching object information based on newly received image data and radar data.

일 예로, 트래킹부(130)는, 궤적상 지점 횡방향 거리 정보에 기초하여 차량 궤적 정보의 횡방향 성분에 관한 정보를 갱신하고, 궤적상 지점 종방향 거리 정보에 기초하여 차량 궤적 정보의 종방향 성분에 관한 정보를 갱신할 수 있다.As an example, the tracking unit 130 updates information about the lateral component of the vehicle trajectory information based on the lateral distance information of the point on the trajectory, and updates the longitudinal component of the vehicle trajectory information based on the longitudinal distance information of the point on the trajectory. Information about ingredients can be updated.

경우에 따라, 트래킹부(130)는, 미리 설정된 PID 제어기를 이용하여 차량 궤적 정보가 갱신되도록 제어할 수 있다. 이 경우, PID 제어기는, 영상 데이터, 궤적상 지점 종방향 거리 정보 및 헤딩 각도 정보에 기초하여 차량 궤적의 횡방향 성분 정보를 산출 및 갱신하는 제 1 PID 제어기 및 레이더 데이터, 궤적상 지점 횡방향 거리 정보 및 헤딩 각도 정보에 기초하여 차량 궤적의 종방향 성분 정보를 산출 및 갱신하는 제 2 PID 제어기를 포함할 수 있다.In some cases, the tracking unit 130 may control vehicle trajectory information to be updated using a preset PID controller. In this case, the PID controller is a first PID controller that calculates and updates the lateral component information of the vehicle trajectory based on the image data, the longitudinal distance information of the point on the trajectory, and the heading angle information, and the radar data and the lateral distance of the point on the trajectory. It may include a second PID controller that calculates and updates longitudinal component information of the vehicle trajectory based on the information and heading angle information.

그리고, 트래킹부(130)는, 제 1 PID 제어기 및 제 2 PID 제어기에서 산출되는 정보를 융합하여 차량 궤적 정보가 갱신되도록 제어할 수 있다.Additionally, the tracking unit 130 can control vehicle trajectory information to be updated by fusing information calculated from the first PID controller and the second PID controller.

이러한 과정을 통해, 본 개시에 따른 오브젝트 검출 장치(100)는, 카메라로부터 수신되는 영상 데이터에 기초하여 차량 궤적 정보의 횡방향 성분에 관한 정확도를 향상시킬 수 있다. 그리고, 레이더로부터 수신되는 레이더 데이터에 기초하여 차량 궤적 정보의 종방향 성분에 관한 정확도를 향상시킬 수 있다.Through this process, the object detection apparatus 100 according to the present disclosure can improve the accuracy of the lateral component of vehicle trajectory information based on image data received from the camera. Additionally, the accuracy of the longitudinal component of vehicle trajectory information can be improved based on radar data received from the radar.

도 2는 일 실시예에 따른 오브젝트 검출 장치를 이용하여 센싱 퓨전을 기반으로 오브젝트 정보를 매칭하는 구성을 예시적으로 설명하기 위한 도면이다.FIG. 2 is a diagram illustrating a configuration for matching object information based on sensing fusion using an object detection device according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 오브젝트 검출 장치(100)는, 자차량(210)에 장착된 카메라(212) 및 레이더(214)로부터 수신되는 데이터를 이용하여 오브젝트(220)를 검출할 수 있다.Referring to FIG. 2, the object detection device 100 according to an embodiment detects an object 220 using data received from a camera 212 and a radar 214 mounted on the own vehicle 210. You can.

일 예로, 오브젝트 검출 장치(100)는, 카메라(212)로부터 수신되는 영상 데이터로부터 영상 오브젝트 정보(222)를 추출할 수 있다. 그리고, 영상 오브젝트 정보(222)에 기초하여 매칭 경계 영역(226)을 설정할 수 있다. 이 경우, 매칭 경계 영역(226)은, 영상 오브젝트 정보(222)로부터 미리 설정된 경계 거리의 범위 내인 영역으로 설정될 수 있다. 또한, 영상 오브젝트 정보(222)에 기초하여 영상 좌표계 정보가 설정될 수 있다.As an example, the object detection device 100 may extract image object information 222 from image data received from the camera 212. And, the matching boundary area 226 can be set based on the image object information 222. In this case, the matching boundary area 226 may be set as an area within the range of a preset boundary distance from the image object information 222. Additionally, image coordinate system information may be set based on the image object information 222.

일 예로, 오브젝트 검출 장치(100)는, 레이더(214)로부터 수신되는 레이더 데이터로부터 검출 오브젝트 정보를 추출하고, 영상 좌표계 정보를 기준으로 검출 오브젝트 정보를 영상 데이터에 맵핑하여 맵핑 오브젝트 정보(224)를 산출할 수 있다.As an example, the object detection device 100 extracts detection object information from radar data received from the radar 214, maps the detection object information to image data based on image coordinate system information, and provides mapping object information 224. It can be calculated.

일 예로, 오브젝트 검출 장치(100)는, 영상 오브젝트 정보(222) 및 맵핑 오브젝트 정보(224)가 서로 동일 오브젝트에 관한 정보인지 여부를 판단할 수 있다. 그리고, 동일 오브젝트로 판단되는 경우, 영상 오브젝트 정보(222) 및 맵핑 오브젝트 정보(224)에 기초하여 해당 오브젝트에 대한 매칭 오브젝트 정보를 산출할 수 있다.As an example, the object detection device 100 may determine whether the image object information 222 and the mapping object information 224 are information about the same object. And, if it is determined to be the same object, matching object information for the object can be calculated based on the image object information 222 and the mapping object information 224.

일 예로, 오브젝트 검출 장치(100)는, 카메라(212)로부터 수신되는 영상 데이터에서 추출된 영상 오브젝트 정보(222) 및 레이더(214)로부터 수신되는 레이더 데이터에서 추출 및 맵핑된 맵핑 오브젝트 정보(224)가 서로 동일한 오브젝트에 관한 정보인지 여부를 판단할 수 있다.As an example, the object detection device 100 includes image object information 222 extracted from image data received from the camera 212 and mapping object information 224 extracted and mapped from radar data received from the radar 214. It can be determined whether is information about the same object.

예를 들면, 매칭 경계 영역(226) 내에 맵핑 오브젝트 정보(224)가 포함되어 있는 조건 및 매칭 경계 영역(226) 내에 포함되는 맵핑 오브젝트가 1개인 조건을 만족하는 경우, 영상 오브젝트 정보(222)와 맵핑 오브젝트 정보(224)를 동일 오브젝트에 관한 정보인 것으로 판단할 수 있고, 이러한 경우 영상 오브젝트 정보(222) 및 맵핑 오브젝트 정보(224)에 기초하여 매칭 오브젝트 정보를 산출할 수 있다.For example, when the condition that the mapping object information 224 is included in the matching boundary area 226 and the condition that there is one mapping object included in the matching boundary area 226 are satisfied, the image object information 222 and The mapping object information 224 may be determined to be information about the same object, and in this case, matching object information may be calculated based on the image object information 222 and the mapping object information 224.

경우에 따라, 오브젝트 검출 장치(100)는, 매칭 경계 영역 내에 포함되는 맵핑 오브젝트가 2개 이상인 경우, 미리 설정된 매칭 판단 기준에 기초하여 영상 오브젝트 정보와 서로 동일한 오브젝트에 관한 맵핑 오브젝트 정보를 결정할 수 있으며, 이와 관련된 구성은 이하 도 3에서 보다 자세히 설명하기로 한다.In some cases, when there are two or more mapping objects included in the matching boundary area, the object detection device 100 may determine video object information and mapping object information about the same object based on preset matching judgment criteria. , Configurations related to this will be described in more detail in FIG. 3 below.

그리고 일반적으로, 카메라 데이터는 상대적으로 횡방향 성분의 정확도가 더 높고, 레이더 데이터는 상대적으로 종방향 성분의 정확도가 더 높은 점을 이용하여, 카메라 센서 및 레이더 센서 간의 센서 퓨전을 통해 오브젝트 검출 장치(100)의 오브젝트 검출 정확성을 향상시킬 수 있다.In general, camera data has relatively higher accuracy in the lateral component, and radar data has relatively higher accuracy in the longitudinal component, making it possible to detect objects through sensor fusion between camera sensors and radar sensors. 100) object detection accuracy can be improved.

일 예로, 오브젝트 검출 장치(100)에서 영상 오브젝트 정보(222) 및 맵핑 오브젝트 정보(224)가 각각 가리키는 오브젝트가 서로 동일한 오브젝트로 판단되어 매칭 오브젝트 정보를 산출하는 경우에, 카메라 센서 및 레이더 센서 간의 센서 퓨전을 통해 매칭 오브젝트 정보를 산출할 수 있다.For example, when the object detection device 100 determines that the objects indicated by the image object information 222 and the mapping object information 224 are the same object and calculates matching object information, the sensor between the camera sensor and the radar sensor Matching object information can be calculated through fusion.

이 경우, 오브젝트 검출 장치(100)는, 영상 데이터에 기초하여 자차량과의 오브젝트 횡방향 거리 정보를 산출하고, 레이더 데이터에 기초하여 자차량과의 오브젝트 종방향 거리 정보를 산출할 수 있다. In this case, the object detection device 100 may calculate the object's lateral distance information to the host vehicle based on image data, and calculate the object's longitudinal distance information to the host vehicle based on radar data.

다음으로, 오브젝트 검출 장치(100)는, 오브젝트 횡방향 거리 정보에 기초하여 매칭 오브젝트 정보의 횡방향 성분에 관한 정보를 산출하고, 오브젝트 종방향 거리 정보에 기초하여 매칭 오브젝트 정보의 종방향 성분에 관한 정보를 산출할 수 있다. 그리고, 매칭 오브젝트 정보의 횡방향 성분에 관한 정보 및 종방향 성분에 관한 정보를 융합하여 최종적으로 매칭 오브젝트 정보를 산출할 수 있다.Next, the object detection device 100 calculates information about the horizontal component of the matching object information based on the object horizontal distance information, and calculates information about the vertical component of the matching object information based on the object vertical distance information. Information can be calculated. And, the matching object information can be finally calculated by fusing the information about the horizontal component and the information about the vertical component of the matching object information.

이러한 과정을 통해, 오브젝트 검출 장치(100)는, 카메라(212)로부터 수신되는 영상 데이터를 이용하여 매칭 오브젝트 정보의 횡방향 성분 정확도를 향상시킬 수 있고, 레이더(214)로부터 수신되는 레이더 데이터를 이용하여 매칭 오브젝트 정보의 종방향 성분 정확도를 향상시킬 수 있다.Through this process, the object detection device 100 can improve the accuracy of the lateral component of matching object information using image data received from the camera 212 and radar data received from the radar 214. Thus, the accuracy of the longitudinal component of matching object information can be improved.

도 3은 일 실시예에 따른 오브젝트 검출 장치를 이용하여 복수의 오브젝트 정보 중에서 동일 오브젝트에 관한 정보를 매칭하는 구성을 예시적으로 설명하기 위한 도면이다.FIG. 3 is a diagram illustrating a configuration for matching information about the same object among a plurality of object information using an object detection device according to an embodiment.

도 3을 참조하면, 오브젝트 검출 장치(100)는, 제 1 오브젝트(310)에 대한 제 1 영상 오브젝트 정보(320)에 기초하여 설정된 제 1 매칭 경계 영역(328)에 2개 이상의 맵핑 오브젝트 정보가 포함되는 경우, 미리 설정된 매칭 판단 기준에 기초하여 제 1 영상 오브젝트 정보(320)와 서로 동일한 오브젝트에 관한 맵핑 오브젝트 정보를 결정할 수 있다.Referring to FIG. 3, the object detection device 100 has two or more mapping object information in the first matching boundary area 328 set based on the first image object information 320 for the first object 310. When included, mapping object information regarding the same object as the first image object information 320 may be determined based on a preset matching decision criterion.

일 예로, 오브젝트 검출 장치(100)는, 각 맵핑 오브젝트 정보 별로 영상 오브젝트 정보 및 맵핑 오브젝트 정보 간의 거리에 관한 거리 매칭 정보를 산출할 수 있다. 이 경우, 매칭 판단 기준은, 거리 매칭 정보에 기초하여 영상 오브젝트 정보와의 거리가 가장 가까운 것으로 판단되는 맵핑 오브젝트 정보로 결정하도록 설정될 수 있다.As an example, the object detection device 100 may calculate distance matching information regarding the distance between image object information and mapping object information for each piece of mapping object information. In this case, the matching determination standard may be set to determine mapping object information that is determined to have the closest distance to the image object information based on the distance matching information.

일 예로, 오브젝트 검출 장치(100)는, 제 1 영상 오브젝트 정보(320) 및 제 1 맵핑 오브젝트 정보(330) 간의 거리에 관한 제 1 거리 매칭 정보 및 제 1 영상 오브젝트 정보(320) 및 제 2 맵핑 오브젝트(360) 간의 거리에 관한 제 2 거리 매칭 정보를 산출할 수 있다.As an example, the object detection device 100 may include first distance matching information regarding the distance between the first image object information 320 and the first mapping object information 330, the first image object information 320, and the second mapping Second distance matching information regarding the distance between objects 360 may be calculated.

이 경우, 제 1 거리 매칭 정보는 제 1 영상 오브젝트 중심(322) 및 제 1 맵핑 오브젝트 중심(332) 간의 거리로 산출될 수 있고, 제 2 거리 매칭 정보는 제 1 영상 오브젝트 중심(322) 및 제 2 맵핑 오브젝트 중심(362) 간의 거리로 산출될 수 있다.In this case, the first distance matching information may be calculated as the distance between the first image object center 322 and the first mapping object center 332, and the second distance matching information may be calculated as the distance between the first image object center 322 and the first mapping object center 332. 2 It can be calculated as the distance between the centers of the mapping objects 362.

그리고, 오브젝트 검출 장치(100)는, 제 1 거리 매칭 정보와 제 2 거리 매칭 정보의 크기를 비교하여, 제 1 거리 매칭 정보가 더 작다고 판단되는 경우, 제 1 영상 오브젝트 정보(320)와의 거리가 가장 가까운 제 1 맵핑 오브젝트 정보(330)를 제 1 영상 오브젝트 정보(320)와 동일한 오브젝트에 관한 맵핑 오브젝트 정보로 결정할 수 있다.And, the object detection device 100 compares the sizes of the first distance matching information and the second distance matching information, and when it is determined that the first distance matching information is smaller, the distance to the first image object information 320 is The closest first mapping object information 330 may be determined as mapping object information about the same object as the first image object information 320.

일 예로, 오브젝트 검출 장치(100)는, 제 1 영상 오브젝트 정보(320) 및 제 1 맵핑 오브젝트 정보(330) 간의 이동 방향 차이에 관한 제 1 방향 매칭 정보 및 제 1 영상 오브젝트 정보(320) 및 제 2 맵핑 오브젝트(360) 간의 이동 방향 차이에 관한 제 2 방향 매칭 정보를 산출할 수 있다.As an example, the object detection device 100 includes first direction matching information regarding the difference in movement direction between the first image object information 320 and the first mapping object information 330, the first image object information 320, and the first image object information 320. Second direction matching information regarding the difference in movement directions between the two mapping objects 360 may be calculated.

이 경우, 제 1 방향 매칭 정보는 제 1 영상 오브젝트 차폭(324) 및 제 1 맵핑 오브젝트 차폭(334) 간의 방향 차이 또는 제 1 영상 오브젝트 전장(326) 및 제 1 맵핑 오브젝트 전장(336) 간의 방향 차이로 산출될 수 있고, 제 2 방향 매칭 정보는 제 1 영상 오브젝트 차폭(324) 및 제 2 맵핑 오브젝트 차폭(364) 간의 방향 차이 또는 제 1 영상 오브젝트 전장(326) 및 제 2 맵핑 오브젝트 전장(366) 간의 방향 차이로 산출될 수 있다.In this case, the first direction matching information is the direction difference between the first image object difference width 324 and the first mapping object difference width 334 or the direction difference between the first image object full length 326 and the first mapping object full length 336. It can be calculated as, and the second direction matching information is the direction difference between the first image object difference width 324 and the second mapping object difference width 364 or the first image object full length 326 and the second mapping object full length 366. It can be calculated as the difference in direction between the two sides.

그리고, 오브젝트 검출 장치(100)는, 제 1 방향 매칭 정보와 제 2 방향 매칭 정보의 크기를 비교하여, 제 1 방향 매칭 정보가 더 작다고 판단되는 경우, 제 1 영상 오브젝트 정보(320)와의 이동 방향 차이가 가장 작은 제 1 맵핑 오브젝트 정보(330)를 제 1 영상 오브젝트 정보(320)와 동일한 오브젝트에 관한 맵핑 오브젝트 정보로 결정할 수 있다.And, the object detection device 100 compares the sizes of the first direction matching information and the second direction matching information, and when it is determined that the first direction matching information is smaller, the moving direction with the first image object information 320 The first mapping object information 330 with the smallest difference may be determined as mapping object information about the same object as the first image object information 320.

일 예로, 오브젝트 검출 장치(100)는, 제 1 영상 오브젝트 정보(320) 및 제 1 맵핑 오브젝트 정보(330) 간의 크기 차이에 관한 제 1 크기 매칭 정보 및 제 1 영상 오브젝트 정보(320) 및 제 2 맵핑 오브젝트 정보(360) 간의 크기 차이에 관한 제 2 크기 매칭 정보를 산출할 수 있다.As an example, the object detection device 100 may include first size matching information regarding the size difference between the first image object information 320 and the first mapping object information 330, the first image object information 320, and the second Second size matching information regarding the size difference between the mapping object information 360 may be calculated.

이 경우, 제 1 크기 매칭 정보는 제 1 영상 오브젝트 차폭(324) 및 제 1 맵핑 오브젝트 차폭(334) 간의 크기 차이 또는 제 1 영상 오브젝트 전장(326) 및 제 1 맵핑 오브젝트 전장(336) 간의 크기 차이로 산출될 수 있고, 제 2 크기 매칭 정보는 제 1 영상 오브젝트 차폭(324) 및 제 2 맵핑 오브젝트 차폭(364) 간의 크기 차이 또는 제 1 영상 오브젝트 전장(326) 및 제 2 맵핑 오브젝트 전장(366) 간의 크기 차이로 산출될 수 있다.In this case, the first size matching information is the size difference between the first image object difference width 324 and the first mapping object difference width 334 or the size difference between the first image object full length 326 and the first mapping object full length 336. It can be calculated as, and the second size matching information is the size difference between the first image object difference width 324 and the second mapping object difference width 364 or the first image object full length 326 and the second mapping object full length 366. It can be calculated as the size difference between the liver.

그리고, 오브젝트 검출 장치(100)는, 제 1 크기 매칭 정보와 제 2 크기 매칭 정보의 크기를 비교하여, 제 1 크기 매칭 정보가 더 작다고 판단되는 경우, 제 1 영상 오브젝트 정보(320)와의 크기 차이가 가장 작은 제 1 맵핑 오브젝트 정보(330)를 제 1 영상 오브젝트 정보(320)와 동일한 오브젝트에 관한 맵핑 오브젝트 정보로 결정할 수 있다.And, the object detection device 100 compares the sizes of the first size matching information and the second size matching information, and when it is determined that the first size matching information is smaller, the size difference with the first image object information 320 The first mapping object information 330 with the smallest value may be determined as mapping object information about the same object as the first image object information 320.

일 예로, 오브젝트 검출 장치(100)는, 제 1 영상 오브젝트 정보(320) 및 제 1 맵핑 오브젝트 정보(330)에 관한 제 1 매칭 평가 점수 및 제 1 영상 오브젝트 정보(320) 및 제 1 맵핑 오브젝트(360)에 관한 제 2 매칭 평가 점수를 각각 산출할 수 있다.As an example, the object detection device 100 includes a first matching evaluation score related to the first image object information 320 and the first mapping object information 330, and the first image object information 320 and the first mapping object ( 360), each of the second matching evaluation scores can be calculated.

일 예로, 매칭 평가 점수는, 거리 매칭 정보, 방향 매칭 정보, 크기 매칭 정보 및 미리 설정된 가중치 정보에 기초하여 설정될 수 있다. 이 경우, 가중치 정보는, 거리 가중치, 방향 가중치 및 크기 가중치가 서로 다른 값을 갖도록 설정될 수 있다.As an example, the matching evaluation score may be set based on distance matching information, direction matching information, size matching information, and preset weight information. In this case, the weight information may be set so that the distance weight, direction weight, and size weight have different values.

일 예로, 자차량이 직선 도로에서 주행 중인 상황에서는 각도 가중치를 상대적으로 작게 설정하고, 거리 가중치를 상대적으로 크게 설정할 수 있다.For example, in a situation where the own vehicle is driving on a straight road, the angle weight can be set to be relatively small and the distance weight can be set to be relatively large.

다른 예로, 자차량이 곡선 도로에서 주행 중인 상황 또는 차선 변경 제어를 수행 중인 상황에서는, 각도 가중치를 상대적으로 더 크게 설정할 수 있다.As another example, in a situation where the host vehicle is driving on a curved road or performing lane change control, the angle weight can be set to be relatively larger.

도 3에 나타난 실시예는, 제 1 매칭 경계 영역(328)에 2개의 맵핑 오브젝트가 존재하지만, 이상에서 살펴본 바와 같이 제 1 거리 매칭 정보가 제 2 거리 매칭 정보보다 작고, 제 1 방향 매칭 정보가 제 2 방향 매칭 정보보다 작으며, 제 1 크기 매칭 정보가 제 2 크기 매칭 정보보다 작은 것으로 판단되므로, 가중치 정보를 어떻게 설정하여도 제 1 매칭 평가 점수가 제 2 매칭 평가 점수보다 높게 산출될 수 있다.In the embodiment shown in FIG. 3, two mapping objects exist in the first matching boundary area 328, but as seen above, the first distance matching information is smaller than the second distance matching information, and the first direction matching information is It is smaller than the second direction matching information, and since the first size matching information is judged to be smaller than the second size matching information, the first matching evaluation score can be calculated to be higher than the second matching evaluation score no matter how the weight information is set. .

그리고 이러한 산출 결과에 따라, 매칭 평가 점수가 가장 높은 맵핑 오브젝트를 제 1 영상 오브젝트 정보(320)와 동일한 오브젝트에 관한 맵핑 오브젝트 정보로 결정할 수 있다.And according to this calculation result, the mapping object with the highest matching evaluation score can be determined as mapping object information about the same object as the first image object information 320.

아래에서는 본 개시에서 전술한 내용들을 모두 수행할 수 있는 오브젝트 검출 장치(100)를 이용하는 오브젝트 검출 방법에 대해 설명하며, 위에서 설명한 내용과 중복되는 내용은 경우에 따라 생략할 수 있으나, 아래 방법 관점에서도 모두 적용될 수 있다.Below, an object detection method using the object detection device 100, which can perform all of the above-described content in the present disclosure, will be described. Content that overlaps with the content described above may be omitted in some cases, but also from the perspective of the method below. All can be applied.

도 4는 일 실시예에 따른 오브젝트 검출 방법에 관한 순서도이다.Figure 4 is a flowchart of an object detection method according to an embodiment.

도 4를 참조하면, 일 실시예에 따른 오브젝트 검출 방법은, 데이터 수신 단계(S410), 오브젝트 매칭 단계(S420) 및 오브젝트 트래킹 단계(S430)를 포함할 수 있다.Referring to FIG. 4, the object detection method according to one embodiment may include a data receiving step (S410), an object matching step (S420), and an object tracking step (S430).

일 예로, 오브젝트 검출 방법은, 카메라 및 레이더로부터 자차량 주변에 관한 영상 데이터 및 레이더 데이터를 각각 수신하는 데이터 수신 단계와, 영상 데이터 및 레이더 데이터로부터 각각 적어도 하나 이상의 오브젝트에 관한 영상 오브젝트 정보 및 검출 오브젝트 정보를 추출하고, 미리 설정된 영상 좌표계 정보를 기준으로 검출 오브젝트 정보를 영상 데이터에 맵핑하여 맵핑 오브젝트 정보를 산출하며, 맵핑 오브젝트 정보 및 영상 오브젝트 정보에 기초하여 동일 오브젝트로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출하는 오브젝트 매칭 단계와, 매칭 오브젝트 정보에 기초하여 각 오브젝트를 추적하면서, 영상 데이터 및 레이더 데이터에 기초하여 매칭 오브젝트 정보를 갱신하는 오브젝트 트래킹 단계를 포함할 수 있다.As an example, the object detection method includes a data receiving step of receiving image data and radar data about the surroundings of the own vehicle from a camera and a radar, respectively, and image object information and detection object about at least one object from the image data and radar data, respectively. Extract information, calculate mapping object information by mapping detected object information to image data based on preset image coordinate system information, and match object information for objects determined to be the same object based on mapping object information and image object information. It may include an object matching step of calculating and an object tracking step of updating matching object information based on image data and radar data while tracking each object based on matching object information.

데이터 수신 단계(S410)에서는, 카메라 센서 및 레이더 센서로부터 영상 데이터 및 레이더 데이터를 수신하는 것을 포함할 수 있다. 경우에 따라, 데이터 수신 단계(S410)에서는, 차량 궤적 추정 장치로부터 수신되는 미리 설정된 목표 위치로 자차량을 이동시키기 위한 차량 궤적 정보 및 요레이트(Yaw Rate) 센서로부터 수신되는 자차량의 헤딩 각도에 관한 헤딩 각도 정보를 더 수신할 수 있다.The data reception step (S410) may include receiving image data and radar data from a camera sensor and a radar sensor. In some cases, in the data reception step (S410), the vehicle trajectory information for moving the host vehicle to a preset target position received from the vehicle trajectory estimation device and the heading angle of the host vehicle received from the yaw rate sensor. Additional heading angle information may be received.

오브젝트 매칭 단계(S420)에서는, 영상 데이터 및 레이더 데이터로부터 영상 오브젝트 정보 및 검출 오브젝트 정보를 추출하고, 검출 오브젝트 정보를 영상 데이터에 맵핑하여 맵핑 오브젝트 정보를 산출하며, 맵핑 오브젝트 정보 및 영상 오브젝트 정보에 기초하여 동일 오브젝트로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출하는 것을 포함할 수 있다.In the object matching step (S420), image object information and detection object information are extracted from image data and radar data, mapping detection object information is mapped to image data to calculate mapping object information, and mapping object information is calculated based on the mapping object information and image object information. This may include calculating matching object information for objects that are determined to be the same object.

오브젝트 트래킹 단계(S430)에서는, 매칭 오브젝트 정보에 기초하여 각 오브젝트를 추적하는 것을 포함할 수 있다. 그리고, 새롭게 수신되는 영상 데이터 및 레이더 데이터에 기초하여 매칭 오브젝트 정보를 갱신하는 것을 포함할 수 있다.The object tracking step (S430) may include tracking each object based on matching object information. And, it may include updating matching object information based on newly received image data and radar data.

도 5는 일 실시예에 따른 오브젝트 검출 방법에서, 오브젝트 매칭 단계에 관한 순서도이다.Figure 5 is a flowchart of an object matching step in an object detection method according to an embodiment.

도 5를 참조하면, 일 실시예에 따른 오브젝트 매칭 단계(S420)는, 거리 매칭 단계(S510), 방향 매칭 단계(S520), 크기 매칭 단계(S530) 및 가중치 평가 매칭 단계(S540)를 포함할 수 있다.Referring to FIG. 5, the object matching step (S420) according to one embodiment may include a distance matching step (S510), a direction matching step (S520), a size matching step (S530), and a weight evaluation matching step (S540). You can.

거리 매칭 단계(S510)에서는, 각 맵핑 오브젝트 정보 별로 영상 오브젝트 정보 및 맵핑 오브젝트 정보 간의 거리에 관한 거리 매칭 정보를 산출할 수 있다. 그리고, 거리 매칭 정보에 기초하여 영상 오브젝트 정보와의 거리가 가장 가까운 것으로 판단되는 맵핑 오브젝트 정보를 영상 오브젝트 정보와 매칭하여 매칭 오브젝트 정보를 산출할 수 있다.In the distance matching step (S510), distance matching information regarding the distance between the image object information and the mapping object information can be calculated for each piece of mapping object information. Then, based on the distance matching information, mapping object information determined to have the closest distance to the image object information may be matched with the image object information to calculate matching object information.

방향 매칭 단계(S520)에서는, 각 맵핑 오브젝트 정보 별로 영상 오브젝트 정보 및 맵핑 오브젝트 정보 간의 이동 방향 차이에 관한 방향 매칭 정보를 산출할 수 있다. 그리고, 방향 매칭 정보에 기초하여 영상 오브젝트 정보와의 이동방향 차이가 가장 작은 것으로 판단되는 맵핑 오브젝트 정보를 영상 오브젝트 정보와 매칭하여 매칭 오브젝트 정보를 산출할 수 있다.In the direction matching step (S520), direction matching information regarding the difference in movement direction between the image object information and the mapping object information can be calculated for each piece of mapping object information. Then, based on the direction matching information, mapping object information determined to have the smallest movement direction difference with the image object information is matched with the image object information to calculate matching object information.

크기 매칭 단계(S530)에서는, 각 맵핑 오브젝트 정보 별로 영상 오브젝트 정보 및 맵핑 오브젝트 정보 간의 크기 차이에 관한 크기 매칭 정보를 산출할 수 있다. 그리고, 크기 매칭 정보에 기초하여 영상 오브젝트 정보와의 크기 차이가 가장 작은 것으로 판단되는 맵핑 오브젝트 정보를 영상 오브젝트 정보와 매칭하여 매칭 오브젝트 정보를 산출할 수 있다.In the size matching step (S530), size matching information regarding the size difference between the image object information and the mapping object information can be calculated for each mapping object information. Then, based on the size matching information, mapping object information determined to have the smallest size difference from the image object information may be matched with the image object information to calculate matching object information.

가중치 평가 매칭 단계(S540)에서는, 거리 매칭 정보, 방향 매칭 정보, 크기 매칭 정보 및 미리 설정된 가중치 정보에 기초하여 각 맵핑 오브젝트 정보 별로 매칭 평가 점수를 산출할 수 있다. 그리고, 매칭 평가 점수가 가장 높은 맵핑 오브젝트 정보를 영상 오브젝트 정보와 매칭하여 매칭 오브젝트 정보를 산출할 수 있다.In the weight evaluation matching step (S540), a matching evaluation score can be calculated for each mapping object information based on distance matching information, direction matching information, size matching information, and preset weight information. Additionally, matching object information can be calculated by matching mapping object information with the highest matching evaluation score with video object information.

도 6은 또 다른 실시예에 따른 오브젝트 검출 방법을 예시적으로 설명하기 위한 순서도이다.Figure 6 is a flowchart illustrating an object detection method according to another embodiment.

도 6을 참조하면, 또 다른 실시예에 따른 오브젝트 검출 방법은, 레이더 데이터 수신 단계(S610), 영상 데이터 수신 단계(S612), 데이터 입력 단계(S620), 매칭 단계(S630), 트래킹 단계(S640), 버퍼 처리 및 완료 판단 단계(S650) 및 추정 데이터 반영 단계(S652)를 포함할 수 있다.Referring to FIG. 6, an object detection method according to another embodiment includes a radar data reception step (S610), an image data reception step (S612), a data input step (S620), a matching step (S630), and a tracking step (S640). ), a buffer processing and completion determination step (S650), and an estimated data reflection step (S652).

레이더 데이터 수신 단계(S610) 및 영상 데이터 수신 단계(S612)에서는, 자차량에 장착된 레이더 센서 및 카메라 센서로부터 각각 레이더 데이터 및 영상 데이터를 수신하는 것을 포함할 수 있다.The radar data receiving step (S610) and the image data receiving step (S612) may include receiving radar data and image data from a radar sensor and a camera sensor mounted on the own vehicle, respectively.

데이터 입력 단계(S620)에서는, 수신된 레이더 데이터 및 영상 데이터를 매칭 및 트래킹 프로세스에 이용하기 위해 입력하는 것을 포함할 수 있다.The data input step (S620) may include inputting the received radar data and image data for use in the matching and tracking process.

매칭 단계(S630)에서는, 입력된 영상 데이터 및 레이더 데이터에 기초하여, 서로 동일한 오브젝트에 관한 정보로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출하는 것을 포함할 수 있다. 매칭 단계(S630)에 관하여는 이하 도 7에서 보다 자세히 설명하기로 한다.The matching step (S630) may include calculating matching object information for objects that are determined to be information about the same object, based on the input image data and radar data. The matching step (S630) will be described in more detail in FIG. 7 below.

트래킹 단계(S640)에서는, 매칭 단계(S630)에서 산출된 매칭 오브젝트 정보에 기초하여 각 오브젝트를 추적하면서, 새롭게 수신되는 영상 데이터 및 레이더 데이터에 기초하여 매칭 오브젝트 정보를 갱신하는 것을 포함할 수 있다. 트래킹 단계(S640)에 관하여는 이하 도 8에서 보다 자세히 설명하기로 한다.The tracking step (S640) may include updating matching object information based on newly received image data and radar data while tracking each object based on the matching object information calculated in the matching step (S630). The tracking step (S640) will be described in more detail in FIG. 8 below.

버퍼 처리 및 완료 판단 단계(S650)에서는, 데이터 입력 단계(S620)에서 입력된 레이더 데이터 및 영상 데이터를 기초로 매칭 단계(S630) 및 트래킹 단계(S640)가 수행된 결과 데이터를 트랙 버퍼에 입력하고, 오브젝트 검출 프로세스의 완료 여부를 판단하는 것을 포함할 수 있다. 여기서, 오브젝트 검출 프로세스가 완료되지 않은 것으로 판단된 경우, 추정 데이터 반영 단계(S652)로 진행될 수 있다.In the buffer processing and completion determination step (S650), the result data of the matching step (S630) and the tracking step (S640) are performed based on the radar data and image data input in the data input step (S620) and input into the track buffer. , It may include determining whether the object detection process is complete. Here, if it is determined that the object detection process is not completed, the process may proceed to the estimated data reflection step (S652).

추정 데이터 반영 단계(S652)에서는, 매칭 단계(S630) 및 트래킹 단계(S640)가 수행된 결과 데이터를 오브젝트 추정 데이터에 반영하고, 반영된 데이터를 다시 데이터 입력 단계(S620)에 입력하는 것을 포함할 수 있다.In the estimated data reflection step (S652), the result data of the matching step (S630) and the tracking step (S640) may be reflected in the object estimation data, and the reflected data may be input again into the data input step (S620). there is.

도 7은 또 다른 실시예에 따른 오브젝트 검출 방법에서, 매칭 단계를 예시적으로 설명하기 위한 순서도이다.Figure 7 is a flowchart illustrating a matching step in an object detection method according to another embodiment.

도 7을 참조하면, 또 다른 실시예에 따른 매칭 단계(S630)는, 추정 버퍼 판단 단계(S710), 매칭 데이터 생성 단계(S712), 초기화 데이터 생성 단계(S714), 매칭 데이터 체킹 단계(S720), 매칭 여부 판단 단계(S730), 초기화 데이터 생성 단계(S732), 매칭 데이터 입력 단계(S740), 매칭 버퍼 입력 단계(S750), 버퍼 정리 단계(S752) 및 매칭 정보 업데이트 단계(S760)를 포함할 수 있다. Referring to FIG. 7, the matching step (S630) according to another embodiment includes an estimated buffer determining step (S710), a matching data generating step (S712), an initialization data generating step (S714), and a matching data checking step (S720). , a matching determination step (S730), an initialization data generation step (S732), a matching data input step (S740), a matching buffer input step (S750), a buffer cleaning step (S752), and a matching information update step (S760). You can.

일 예로, 매칭 단계(S630)는, 레이더 데이터 및 영상 데이터가 이미 입력된 후에 수행되는 경우로 가정할 수 있다. 그리고 이 경우, 레이더 데이터는 영상 데이터에 기초하여 변환된 레이더 데이터일 수 있다.As an example, it can be assumed that the matching step (S630) is performed after radar data and image data have already been input. And in this case, the radar data may be radar data converted based on image data.

추정 버퍼 판단 단계(S710)에서는, 추정 버퍼가 NULL인지 여부를 판단하는 것을 포함할 수 있다. NULL이 아닌 것으로 판단되는 경우(NO)는 매칭 데이터 생성 단계(S712)로 진행될 수 있고, NULL인 것으로 판단되는 경우(YES)는 매칭 데이터 생성 단계(S712)로 진행될 수 있다.The estimated buffer determination step (S710) may include determining whether the estimated buffer is NULL. If it is determined that it is not NULL (NO), it can proceed to the matching data generation step (S712), and if it is determined to be NULL (YES), it can proceed to the matching data generation step (S712).

매칭 데이터 생성 단계(S712)에서는, 추정 버퍼가 NULL이 아닌 경우 레이더 데이터 및 영상 데이터에 기초하여 매칭 여부의 판단에 이용하기 위한 매칭 데이터를 생성하는 것을 포함할 수 있다. 그런 다음, 매칭 데이터 체킹 단계(S720)로 진행될 수 있다.The matching data generation step (S712) may include generating matching data for use in determining whether or not a match is made based on radar data and image data when the estimation buffer is not NULL. Then, the process may proceed to the matching data checking step (S720).

초기화 데이터 생성 단계(S714)에서는, 추정 버퍼가 NULL인 경우 레이더 데이터 및 영상 데이터를 반영하여 추정 데이터를 초기화하는 것을 포함할 수 있다.In the initialization data generation step (S714), if the estimation buffer is NULL, it may include initializing the estimation data by reflecting the radar data and image data.

매칭 데이터 체킹 단계(S720)에서는, 생성된 매칭 데이터 및 추정 버퍼에 저장된 데이터의 매칭 여부를 판단하기 위한 체크사항을 확인하는 것을 포함할 수 있다.The matching data checking step (S720) may include confirming checks to determine whether the generated matching data matches the data stored in the estimation buffer.

매칭 여부 판단 단계(S730)에서는, 생성된 매칭 데이터 및 추정 버퍼에 저장된 데이터가 동일 오브젝트에 관한 데이터인지 여부를 판단하는 매칭 여부 판단을 수행할 수 있다. 여기서, 매칭되지 않은 것으로 판단되는 경우는 초기화 데이터 생성 단계(S732)로 진행될 수 있다.In the matching determination step (S730), a matching determination may be performed to determine whether the generated matching data and the data stored in the estimation buffer are data related to the same object. Here, if it is determined that there is no match, the process may proceed to the initialization data generation step (S732).

초기화 데이터 생성 단계(S732)에서는, 생성된 매칭 데이터 및 추정 버퍼에 저장된 데이터가 매칭되지 않은 것으로 판단되는 경우, 매칭 데이터를 초기화하는 것을 포함할 수 있다.The initialization data generation step (S732) may include initializing the matching data when it is determined that the generated matching data and the data stored in the estimation buffer do not match.

매칭 데이터 입력 단계(S740)에서는, 생성된 매칭 데이터 및 추정 버퍼에 저장된 데이터가 매칭되는 것으로 판단되는 경우, 매칭 데이터를 입력하는 것을 포함할 수 있다.The matching data input step (S740) may include inputting matching data when it is determined that the generated matching data and the data stored in the estimation buffer match.

매칭 버퍼 입력 단계(S750)에서는, 입력된 매칭 데이터를 매칭 버퍼에 입력하는 것을 포함할 수 있다. 그리고, 이 경우 버퍼 정리 단계(S752)가 진행될 수 있다.The matching buffer input step (S750) may include inputting the input matching data into the matching buffer. And, in this case, the buffer cleaning step (S752) may proceed.

버퍼 정리 단계(S752)에서는, 매칭 데이터를 매칭 버퍼에 입력하면서, 매칭 버퍼에 저장되어 있던 기존 데이터의 일부를 삭제하여 정리하는 것을 포함할 수 있다. 예를 들어, 스택(stack) 버퍼인 경우는 기존 데이터 중 가장 최근에 저장된 데이터를 삭제할 수 있고, 큐(queue) 버퍼인 경우는 기존 데이터 중 가장 최근에 저장된 데이터를 삭제할 수 있다.The buffer cleaning step (S752) may include inputting matching data into the matching buffer and deleting and organizing some of the existing data stored in the matching buffer. For example, in the case of a stack buffer, the most recently stored data among existing data can be deleted, and in the case of a queue buffer, the most recently stored data among existing data can be deleted.

매칭 정보 업데이트 단계(S760)에서는, 매칭 데이터 입력에 따라 변화된 매칭 관련 정보를 업데이트하는 것을 포함할 수 있다.The matching information updating step (S760) may include updating matching-related information that has changed according to matching data input.

도 8은 또 다른 실시예에 따른 오브젝트 검출 방법에서, 트래킹 단계를 예시적으로 설명하기 위한 순서도이다.Figure 8 is a flowchart illustrating a tracking step in an object detection method according to another embodiment.

도 8을 참조하면, 또 다른 실시예에 따른 트래킹 단계(S640)는, 트래킹 모드 판단 단계(S810), 생성 모드 단계(S812), 추적 모드 단계(S814), 소멸 모드 단계(S816), 칼만 필터 처리 단계(S820) 및 트래킹 완료 판단 단계(S830)를 포함할 수 있다.Referring to FIG. 8, the tracking step (S640) according to another embodiment includes a tracking mode determination step (S810), a creation mode step (S812), a tracking mode step (S814), an extinction mode step (S816), and a Kalman filter. It may include a processing step (S820) and a tracking completion determination step (S830).

일 예로, 트래킹 단계(S640)는, 매칭 단계(S630)에서 레이더 데이터 및 카메라 데이터에 기초하여 매칭이 이루어지고, 그 결과를 이용하여 센서 퓨전된 퓨전 매칭 데이터가 퓨전 버퍼에 입력된 후에 수행되는 경우로 가정할 수 있다.As an example, the tracking step (S640) is performed after matching is made based on radar data and camera data in the matching step (S630), and fusion matching data fused by the sensor using the result is input to the fusion buffer. It can be assumed that

트래킹 모드 판단 단계(S810)에서는, 퓨전 매칭 데이터에 기초하여 트래킹 모드를 판단하는 것을 포함할 수 있다. 이 경우, 트래킹 모드는 생성 모드, 추적 모드 및 소멸 모드를 포함할 수 있다.The tracking mode determination step (S810) may include determining the tracking mode based on fusion matching data. In this case, tracking modes may include creation mode, tracking mode, and destruction mode.

생성 모드 단계(S812)에서는, 퓨전 매칭 데이터에 기초하여 판단되는 오브젝트가 기존의 퓨전 버퍼에 존재하지 않았던 오브젝트인 것으로 판단되는 경우, 트래킹 대상에 해당 오브젝트가 추가되도록 생성하는 것을 포함할 수 있다. 이 경우, 해당 오브젝트의 ID를 퓨전 버퍼에 추가하는 것을 포함할 수 있다.In the creation mode step (S812), if the object determined based on the fusion matching data is determined to be an object that did not exist in the existing fusion buffer, it may include creating the object to be added to the tracking target. In this case, this may include adding the ID of the object to the fusion buffer.

추적 모드 단계(S814)에서는, 퓨전 매칭 데이터에 기초하여 판단되는 오브젝트가 기존의 퓨전 버퍼에 존재하던 오브젝트인 것으로 판단되는 경우, 트래킹 대상으로 유지되도록 하는 것을 포함할 수 있다.In the tracking mode step (S814), if the object determined based on the fusion matching data is determined to be an object that existed in the existing fusion buffer, it may include maintaining it as a tracking target.

소멸 모드 단계(S816)에서는, 퓨전 매칭 데이터에 기초하여 판단되는 오브젝트가 더 이상 트래킹 대상이 아닌 것으로 판단되는 경우, 트래킹 대상에서 삭제하는 것을 포함할 수 있다. 이 경우, 해당 오브젝트의 ID를 퓨전 버퍼에서 삭제하는 것을 포함할 수 있다.In the extinction mode step (S816), if the object determined based on the fusion matching data is determined to no longer be a tracking target, it may include deleting it from the tracking target. In this case, this may include deleting the ID of the corresponding object from the fusion buffer.

칼만 필터 처리 단계(S820)에서는, 입력된 퓨전 매칭 데이터에 기초하여 칼만 필터 처리를 수행하고, 이를 통해 데이터의 노이즈 부분을 제거하고 검출 정확도를 향상시키는 과정을 포함할 수 있다.The Kalman filter processing step (S820) may include performing Kalman filter processing based on the input fusion matching data, thereby removing noise from the data and improving detection accuracy.

트래킹 완료 판단 단계(S830)에서는, 모든 오브젝트에 대해 트래킹이 완료되었는지를 판단하는 것을 포함할 수 있다. 모든 오브젝트에 대해 트래킹 완료로 판단되는 경우 트래킹 단계(S640)가 종료되고, 하나의 오브젝트라도 트래킹 완료로 판단되지 않는 경우는 다시 트래킹 단계(S640)의 처음으로 돌아가 반복될 수 있다.The tracking completion determination step (S830) may include determining whether tracking has been completed for all objects. If tracking is determined to be complete for all objects, the tracking step (S640) is terminated, and if tracking is not determined to be complete for even one object, the tracking step (S640) can be returned to the beginning and repeated.

그리고, 트래킹 단계(S640)가 종료된 경우, 그 결과를 미리 설정된 방식에 따라 Output_message로 생성할 수 있다. 이 경우, Output_message는, 각 오브젝트를 구별하기 위한 fusion_id 항목, 오브젝트 정보의 종류를 구별하기 위한 class_id 항목, 제어 메시지의 내용에 관한 SFOut.msg 항목 및 센서 퓨전 수행 여부를 구별하기 위한 fusion_flag 항목에 관한 정보가 포함될 수 있다.And, when the tracking step (S640) is completed, the result can be generated as Output_message according to a preset method. In this case, Output_message contains information about the fusion_id item to distinguish each object, the class_id item to distinguish the type of object information, the SFOut.msg item regarding the contents of the control message, and the fusion_flag item to distinguish whether sensor fusion is performed. may be included.

상기의 내용에서 설명한 바와 같이, 본 개시는, 서로 다른 센서의 센싱 정보를 퓨전하여 오브젝트를 검출할 수 있는 오브젝트 검출 장치 및 방법을 제공할 수 있다.As described above, the present disclosure can provide an object detection device and method that can detect an object by fusing sensing information from different sensors.

또한, 본 개시는, 카메라 및 레이더의 센싱 정보에서 동일 오브젝트에 관한 정보를 매칭할 수 있는 오브젝트 검출 장치 및 방법을 제공할 수 있다.Additionally, the present disclosure can provide an object detection device and method that can match information about the same object in sensing information from cameras and radars.

또한, 본 개시는, 각 센서의 특징을 이용하여 오브젝트 검출 정확도를 향상시킬 수 있는 오브젝트 검출 장치 및 방법을 제공할 수 있다.Additionally, the present disclosure can provide an object detection device and method that can improve object detection accuracy by using the characteristics of each sensor.

이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 기술 사상의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로 이러한 실시예에 의하여 본 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present disclosure, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present disclosure. In addition, the present embodiments are not intended to limit the technical idea of the present disclosure, but rather to explain it, so the scope of the present technical idea is not limited by these embodiments. The scope of protection of this disclosure should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this disclosure.

Claims (14)

카메라 및 레이더로부터 자차량 주변에 관한 영상 데이터 및 레이더 데이터를 각각 수신하는 수신부;
상기 영상 데이터 및 상기 레이더 데이터로부터 각각 적어도 하나 이상의 오브젝트에 관한 영상 오브젝트 정보 및 검출 오브젝트 정보를 추출하고, 미리 설정된 영상 좌표계 정보를 기준으로 상기 검출 오브젝트 정보를 상기 영상 데이터에 맵핑하여 맵핑 오브젝트 정보를 산출하며, 상기 맵핑 오브젝트 정보 및 상기 영상 오브젝트 정보에 기초하여 동일 오브젝트로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출하는 매칭부; 및
상기 매칭 오브젝트 정보에 기초하여 상기 각 오브젝트를 추적하면서, 상기 영상 데이터 및 상기 레이더 데이터에 기초하여 상기 매칭 오브젝트 정보를 갱신하는 트래킹부를 포함하되,
상기 매칭부는,
상기 각 영상 오브젝트 정보 별로 매칭 경계 영역을 설정하고, 상기 매칭 경계 영역에 상기 맵핑 오브젝트 정보가 포함되는 경우 상기 영상 오브젝트 정보와 상기 맵핑 오브젝트 정보를 매칭하여 상기 매칭 오브젝트 정보를 산출하는 오브젝트 검출 장치.
a receiving unit that receives image data and radar data about the surroundings of the vehicle from a camera and a radar, respectively;
Extract image object information and detection object information about at least one object from the image data and the radar data, respectively, and map the detection object information to the image data based on preset image coordinate system information to calculate mapping object information. and a matching unit that calculates matching object information for objects determined to be the same object based on the mapping object information and the image object information; and
A tracking unit that tracks each object based on the matching object information and updates the matching object information based on the image data and the radar data,
The matching unit,
An object detection device that sets a matching boundary area for each image object information, and calculates the matching object information by matching the image object information and the mapping object information when the matching boundary area includes the mapping object information.
삭제delete 제 1 항에 있어서,
상기 매칭부는,
상기 매칭 경계 영역에 2개 이상의 상기 맵핑 오브젝트 정보가 포함되는 경우, 상기 각 맵핑 오브젝트 정보 별로 상기 영상 오브젝트 정보 및 상기 맵핑 오브젝트 정보 간의 거리에 관한 거리 매칭 정보를 산출하고,
상기 거리 매칭 정보에 기초하여 상기 영상 오브젝트 정보와의 거리가 가장 가까운 것으로 판단되는 상기 맵핑 오브젝트 정보를 상기 영상 오브젝트 정보와 매칭하여 상기 매칭 오브젝트 정보를 산출하는 오브젝트 검출 장치.
According to claim 1,
The matching unit,
When the matching boundary area includes two or more pieces of mapping object information, calculate distance matching information regarding the distance between the image object information and the mapping object information for each piece of mapping object information,
An object detection device that calculates the matching object information by matching the mapping object information, which is determined to have the closest distance to the image object information, with the image object information based on the distance matching information.
제 1 항에 있어서,
상기 매칭부는,
상기 매칭 경계 영역에 2개 이상의 상기 맵핑 오브젝트 정보가 포함되는 경우, 상기 각 맵핑 오브젝트 정보 별로 상기 영상 오브젝트 정보 및 상기 맵핑 오브젝트 정보 간의 이동 방향 차이에 관한 방향 매칭 정보를 산출하고,
상기 방향 매칭 정보에 기초하여 상기 영상 오브젝트 정보와의 이동 방향 차이가 가장 작은 것으로 판단되는 상기 맵핑 오브젝트 정보를 상기 영상 오브젝트 정보와 매칭하여 상기 매칭 오브젝트 정보를 산출하는 오브젝트 검출 장치.
According to claim 1,
The matching unit,
When the matching boundary area includes two or more pieces of mapping object information, calculate direction matching information about a difference in movement direction between the image object information and the mapping object information for each piece of mapping object information,
An object detection device that calculates the matching object information by matching the mapping object information, which is determined to have the smallest movement direction difference with the image object information, with the image object information based on the direction matching information.
제 1 항에 있어서,
상기 매칭부는,
상기 매칭 경계 영역에 2개 이상의 상기 맵핑 오브젝트 정보가 포함되는 경우, 상기 각 맵핑 오브젝트 정보 별로 상기 영상 오브젝트 정보 및 상기 맵핑 오브젝트 정보 간의 크기 차이에 관한 크기 매칭 정보를 산출하고,
상기 크기 매칭 정보에 기초하여 상기 영상 오브젝트 정보와의 크기 차이가 가장 작은 것으로 판단되는 상기 맵핑 오브젝트 정보를 상기 영상 오브젝트 정보와 매칭하여 상기 매칭 오브젝트 정보를 산출하는 오브젝트 검출 장치.
According to claim 1,
The matching unit,
When the matching boundary area includes two or more pieces of mapping object information, calculate size matching information about the size difference between the image object information and the mapping object information for each piece of mapping object information,
An object detection device that calculates the matching object information by matching the mapping object information, which is determined to have the smallest size difference with the image object information, with the image object information based on the size matching information.
제 1 항에 있어서,
상기 매칭부는,
상기 매칭 경계 영역에 2개 이상의 상기 맵핑 오브젝트 정보가 포함되는 경우, 상기 영상 오브젝트 정보 및 상기 맵핑 오브젝트 정보 간의 거리에 관한 거리 매칭 정보, 이동 방향 차이에 관한 방향 매칭 정보, 크기 차이에 관한 크기 매칭 정보를 각각 산출하고,
상기 거리 매칭 정보, 상기 방향 매칭 정보, 상기 크기 매칭 정보 및 미리 설정된 가중치 정보에 기초하여 상기 각 맵핑 오브젝트 정보 별로 매칭 평가 점수를 산출하며, 상기 매칭 평가 점수가 가장 높은 상기 맵핑 오브젝트 정보를 상기 영상 오브젝트 정보와 매칭하여 상기 매칭 오브젝트 정보를 산출하는 오브젝트 검출 장치.
According to claim 1,
The matching unit,
When the matching boundary area includes two or more pieces of mapping object information, distance matching information about the distance between the image object information and the mapping object information, direction matching information about the difference in movement direction, and size matching information about the size difference Calculate each,
A matching evaluation score is calculated for each mapping object information based on the distance matching information, the direction matching information, the size matching information, and the preset weight information, and the mapping object information with the highest matching evaluation score is assigned to the video object. An object detection device that matches information and calculates the matching object information.
제 1 항에 있어서,
상기 매칭부는,
상기 영상 데이터에 기초하여 상기 자차량과의 오브젝트 횡방향 거리 정보를 산출하고, 상기 레이더 데이터에 기초하여 상기 자차량과의 오브젝트 종방향 거리 정보를 산출하며,
상기 오브젝트 횡방향 거리 정보 및 상기 오브젝트 종방향 거리 정보에 기초하여 상기 매칭 오브젝트 정보를 산출하는 오브젝트 검출 장치.
According to claim 1,
The matching unit,
Calculating lateral distance information of the object with the host vehicle based on the image data, and calculating longitudinal distance information of the object with the host vehicle based on the radar data,
An object detection device that calculates the matching object information based on the object lateral distance information and the object longitudinal distance information.
카메라 및 레이더로부터 자차량 주변에 관한 영상 데이터 및 레이더 데이터를 각각 수신하는 데이터 수신 단계;
상기 영상 데이터 및 상기 레이더 데이터로부터 각각 적어도 하나 이상의 오브젝트에 관한 영상 오브젝트 정보 및 검출 오브젝트 정보를 추출하고, 미리 설정된 영상 좌표계 정보를 기준으로 상기 검출 오브젝트 정보를 상기 영상 데이터에 맵핑하여 맵핑 오브젝트 정보를 산출하며, 상기 맵핑 오브젝트 정보 및 상기 영상 오브젝트 정보에 기초하여 동일 오브젝트로 판단되는 오브젝트에 대한 매칭 오브젝트 정보를 산출하는 오브젝트 매칭 단계; 및
상기 매칭 오브젝트 정보에 기초하여 상기 각 오브젝트를 추적하면서, 상기 영상 데이터 및 상기 레이더 데이터에 기초하여 상기 매칭 오브젝트 정보를 갱신하는 오브젝트 트래킹 단계를 포함하되,
상기 오브젝트 매칭 단계는,
상기 각 영상 오브젝트 정보 별로 매칭 경계 영역을 설정하고, 상기 매칭 경계 영역에 상기 맵핑 오브젝트 정보가 포함되는 경우 상기 영상 오브젝트 정보와 상기 맵핑 오브젝트 정보를 매칭하여 상기 매칭 오브젝트 정보를 산출하는 오브젝트 검출 방법.
A data receiving step of receiving image data and radar data about the surroundings of the vehicle from a camera and a radar, respectively;
Extract image object information and detection object information about at least one object from the image data and the radar data, respectively, and map the detection object information to the image data based on preset image coordinate system information to calculate mapping object information. and an object matching step of calculating matching object information for an object determined to be the same object based on the mapping object information and the image object information; and
An object tracking step of tracking each object based on the matching object information and updating the matching object information based on the image data and the radar data,
The object matching step is,
An object detection method for setting a matching boundary area for each image object information, and calculating the matching object information by matching the image object information and the mapping object information when the matching boundary area includes the mapping object information.
삭제delete 제 8 항에 있어서,
상기 오브젝트 매칭 단계는,
상기 매칭 경계 영역에 2개 이상의 상기 맵핑 오브젝트 정보가 포함되는 경우, 상기 각 맵핑 오브젝트 정보 별로 상기 영상 오브젝트 정보 및 상기 맵핑 오브젝트 정보 간의 거리에 관한 거리 매칭 정보를 산출하고,
상기 거리 매칭 정보에 기초하여 상기 영상 오브젝트 정보와의 거리가 가장 가까운 것으로 판단되는 상기 맵핑 오브젝트 정보를 상기 영상 오브젝트 정보와 매칭하여 상기 매칭 오브젝트 정보를 산출하는 거리 매칭 단계를 포함하는 오브젝트 검출 방법.
According to claim 8,
The object matching step is,
When the matching boundary area includes two or more pieces of mapping object information, calculate distance matching information regarding the distance between the image object information and the mapping object information for each piece of mapping object information,
An object detection method comprising a distance matching step of calculating the matching object information by matching the mapping object information, which is determined to have the closest distance to the image object information, with the image object information based on the distance matching information.
제 8 항에 있어서,
상기 오브젝트 매칭 단계는,
상기 매칭 경계 영역에 2개 이상의 상기 맵핑 오브젝트 정보가 포함되는 경우, 상기 각 맵핑 오브젝트 정보 별로 상기 영상 오브젝트 정보 및 상기 맵핑 오브젝트 정보 간의 이동 방향 차이에 관한 방향 매칭 정보를 산출하고,
상기 방향 매칭 정보에 기초하여 상기 영상 오브젝트 정보와의 이동방향 차이가 가장 작은 것으로 판단되는 상기 맵핑 오브젝트 정보를 상기 영상 오브젝트 정보와 매칭하여 상기 매칭 오브젝트 정보를 산출하는 방향 매칭 단계를 포함하는 오브젝트 검출 방법.
According to claim 8,
The object matching step is,
When the matching boundary area includes two or more pieces of mapping object information, calculate direction matching information about a difference in movement direction between the image object information and the mapping object information for each piece of mapping object information,
An object detection method comprising a direction matching step of calculating the matching object information by matching the mapping object information determined to have the smallest movement direction difference with the image object information based on the direction matching information with the image object information. .
제 8 항에 있어서,
상기 오브젝트 매칭 단계는,
상기 매칭 경계 영역에 2개 이상의 상기 맵핑 오브젝트 정보가 포함되는 경우, 상기 각 맵핑 오브젝트 정보 별로 상기 영상 오브젝트 정보 및 상기 맵핑 오브젝트 정보 간의 크기 차이에 관한 크기 매칭 정보를 산출하고,
상기 크기 매칭 정보에 기초하여 상기 영상 오브젝트 정보와의 크기 차이가 가장 작은 것으로 판단되는 상기 맵핑 오브젝트 정보를 상기 영상 오브젝트 정보와 매칭하여 상기 매칭 오브젝트 정보를 산출하는 크기 매칭 단계를 포함하는 오브젝트 검출 방법.
According to claim 8,
The object matching step is,
When the matching boundary area includes two or more pieces of mapping object information, calculate size matching information about the size difference between the image object information and the mapping object information for each piece of mapping object information,
An object detection method comprising a size matching step of calculating the matching object information by matching the mapping object information determined to have the smallest size difference with the image object information based on the size matching information with the image object information.
제 8 항에 있어서,
상기 오브젝트 매칭 단계는,
상기 매칭 경계 영역에 2개 이상의 상기 맵핑 오브젝트 정보가 포함되는 경우, 상기 영상 오브젝트 정보 및 상기 맵핑 오브젝트 정보 간의 거리에 관한 거리 매칭 정보, 이동 방향 차이에 관한 방향 매칭 정보, 크기 차이에 관한 크기 매칭 정보를 각각 산출하고,
상기 거리 매칭 정보, 상기 방향 매칭 정보, 상기 크기 매칭 정보 및 미리 설정된 가중치 정보에 기초하여 상기 각 맵핑 오브젝트 정보 별로 매칭 평가 점수를 산출하며, 상기 매칭 평가 점수가 가장 높은 상기 맵핑 오브젝트 정보를 상기 영상 오브젝트 정보와 매칭하여 상기 매칭 오브젝트 정보를 산출하는 가중치 평가 매칭 단계를 포함하는 오브젝트 검출 방법.
According to claim 8,
The object matching step is,
When the matching boundary area includes two or more pieces of mapping object information, distance matching information about the distance between the image object information and the mapping object information, direction matching information about the difference in movement direction, and size matching information about the size difference Calculate each,
A matching evaluation score is calculated for each mapping object information based on the distance matching information, the direction matching information, the size matching information, and the preset weight information, and the mapping object information with the highest matching evaluation score is assigned to the video object. An object detection method including a weight evaluation matching step of calculating the matching object information by matching information.
제 8 항에 있어서,
상기 오브젝트 매칭 단계는,
상기 영상 데이터에 기초하여 상기 자차량과의 오브젝트 횡방향 거리 정보를 산출하고, 상기 레이더 데이터에 기초하여 상기 자차량과의 오브젝트 종방향 거리 정보를 산출하며,
상기 오브젝트 트래킹 단계는,
상기 오브젝트 횡방향 거리 정보 및 상기 오브젝트 종방향 거리 정보에 기초하여 상기 매칭 오브젝트 정보를 산출하는 오브젝트 검출 방법.
According to claim 8,
The object matching step is,
Calculating lateral distance information of the object with the host vehicle based on the image data, and calculating longitudinal distance information of the object with the host vehicle based on the radar data,
The object tracking step is,
An object detection method for calculating the matching object information based on the object lateral distance information and the object longitudinal distance information.
KR1020220151042A 2022-11-11 2022-11-11 Object detection device and method thereof KR102585525B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220151042A KR102585525B1 (en) 2022-11-11 2022-11-11 Object detection device and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220151042A KR102585525B1 (en) 2022-11-11 2022-11-11 Object detection device and method thereof

Publications (1)

Publication Number Publication Date
KR102585525B1 true KR102585525B1 (en) 2023-10-10

Family

ID=88291860

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220151042A KR102585525B1 (en) 2022-11-11 2022-11-11 Object detection device and method thereof

Country Status (1)

Country Link
KR (1) KR102585525B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101960417B1 (en) * 2017-09-26 2019-03-20 (주)에이치브레인 Fusion sensor for improving object recognition rate and vehicle safety assistant system
KR20210097233A (en) * 2020-01-28 2021-08-09 한양대학교 에리카산학협력단 Remote control support system for a self driving car and method of the same
KR102343059B1 (en) * 2021-08-05 2021-12-27 주식회사 인피닉 Data collecting system for artificial intelligence machine learning, and device therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101960417B1 (en) * 2017-09-26 2019-03-20 (주)에이치브레인 Fusion sensor for improving object recognition rate and vehicle safety assistant system
KR20210097233A (en) * 2020-01-28 2021-08-09 한양대학교 에리카산학협력단 Remote control support system for a self driving car and method of the same
KR102343059B1 (en) * 2021-08-05 2021-12-27 주식회사 인피닉 Data collecting system for artificial intelligence machine learning, and device therefor

Similar Documents

Publication Publication Date Title
JP7291158B2 (en) Information processing method, system, device, program and computer storage medium
US10549430B2 (en) Mapping method, localization method, robot system, and robot
KR101581286B1 (en) System and method for path planning for autonomous navigation of driverless ground vehicle
US20190101649A1 (en) Systems, devices, and methods for autonomous vehicle localization
JP6246609B2 (en) Self-position estimation apparatus and self-position estimation method
KR20180106417A (en) System and Method for recognizing location of vehicle
KR20220033477A (en) Appratus and method for estimating the position of an automated valet parking system
JP7372350B2 (en) Lidar and radar based tracking and mapping systems and methods thereof
JP6492469B2 (en) Own vehicle travel lane estimation device and program
EP3623844A1 (en) Obstacle detection method and device
KR102569900B1 (en) Apparatus and method for performing omnidirectional sensor-fusion and vehicle including the same
KR102176834B1 (en) Environment feature based position recognition apparatus and method for autonomous vehicles
US20200166349A1 (en) Parking support apparatus
KR101248868B1 (en) Self control driving system based on driving record
GB2370706A (en) Determining the position of a vehicle
CN113008237A (en) Path planning method and device and aircraft
CN110986966B (en) Automatic driving positioning method and system for long-distance tunnel
JPWO2018180245A1 (en) Output device, control method, program and storage medium
US20230205234A1 (en) Information processing device, information processing system, method, and program
US20190094025A1 (en) Apparatus and method for localising a vehicle
KR102585525B1 (en) Object detection device and method thereof
CN113125795A (en) Obstacle speed detection method, device, equipment and storage medium
US11562501B1 (en) Multi-mode visual geometry localization
WO2021074660A1 (en) Object recognition method and object recognition device
US11892858B2 (en) Systems and methods for operating a vehicle in a degraded visual environment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant