KR20220101540A - Object detection method based on radar-camera fusion and electronic apparatus - Google Patents

Object detection method based on radar-camera fusion and electronic apparatus Download PDF

Info

Publication number
KR20220101540A
KR20220101540A KR1020210049912A KR20210049912A KR20220101540A KR 20220101540 A KR20220101540 A KR 20220101540A KR 1020210049912 A KR1020210049912 A KR 1020210049912A KR 20210049912 A KR20210049912 A KR 20210049912A KR 20220101540 A KR20220101540 A KR 20220101540A
Authority
KR
South Korea
Prior art keywords
image data
data
radar
time
detecting
Prior art date
Application number
KR1020210049912A
Other languages
Korean (ko)
Inventor
정연규
박용정
최성림
윤평화
이형수
노경수
박민우
Original Assignee
모본주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모본주식회사 filed Critical 모본주식회사
Publication of KR20220101540A publication Critical patent/KR20220101540A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/36Cycles; Motorcycles; Scooters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a method for detecting an object by converging image data and radar data and an electronic apparatus. The method for detecting the object by converging the image data and the radar data of the present invention comprises the following steps of: detecting, by the electronic apparatus of a vehicle, a specific object using first image data and first radar data at a specific time point; detecting, by the electronic apparatus, visual object information of the road surface from second image data of a viewpoint after the specific time point; setting, by the electronic apparatus, a target region of interest for object detection based on the visual object information; and detecting, by the electronic apparatus, the specific object by using the second image data or the second radar data of a later view of the target region of interest. Specific object detection at a later time point further uses a detection result of the specific object obtained at the specific time point.

Description

영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법 및 전자장치{OBJECT DETECTION METHOD BASED ON RADAR-CAMERA FUSION AND ELECTRONIC APPARATUS}OBJECT DETECTION METHOD BASED ON RADAR-CAMERA FUSION AND ELECTRONIC APPARATUS

이하 설명하는 기술은 차량에서 카메라와 레이더를 사용한 객체 검출 기법에 관한 것이다.The technology to be described below relates to an object detection technique using a camera and a radar in a vehicle.

최근의 차량은 운전 보조 시스템(advanced driver assistance systems, ADAS)을 탑재한다. 운전 보조 시스템은 다양한 센서 장치를 이용하여 외부 정보를 획득하고, 이를 분석하여 차량 운행의 안전 및 편의를 위한 기능을 제공한다. 대표적인 센서 장치로 카메라 및 레이더가 있다.Modern vehicles are equipped with advanced driver assistance systems (ADAS). The driving assistance system obtains external information using various sensor devices and analyzes it to provide a function for safety and convenience of driving a vehicle. Representative sensor devices include a camera and a radar.

카메라는 시야(field of view, FOV)에 위치한 객체를 포함하는 영상을 생성한다. 카메라는 객체 분류 및 객체 구분에 유용하다. 레이더는 FOV에 위치하는 먼 거리의 객체 인식 및 상대 속도 측정에 유용하다. 다만, 카메라는 조도 변화나 기후 변화(강우, 안개, 눈 등)와 같은 환경에 취약하고, 레이더는 작은 물체 식별이나 객체의 분류가 어렵다는 한계가 있다. 따라서, 카메라와 레이더의 단점을 상호보완하기 위하여, 카메라와 레이더의 융합 기술이 개발되고 있다.The camera creates an image containing an object located in the field of view (FOV). Cameras are useful for object classification and object classification. Radar is useful for recognizing distant objects located in the FOV and measuring relative speed. However, cameras are vulnerable to changes in illuminance or climate change (rainfall, fog, snow, etc.), and radar has limitations in that it is difficult to identify small objects or classify objects. Therefore, in order to complement the shortcomings of the camera and the radar, a convergence technology of the camera and the radar is being developed.

미국공개특허 제2020-0175315호US Patent Publication No. 2020-0175315

센서 간 융합은 영상 데이터와 레이더 데이터를 비가공 데이터(raw data) 수준에서 결합하는 저레벨 융합 방식(early fusion)과 영상 데이터와 레이더 데이터를 각각 처리한 결과를 결합하는 고레벨 융합 방식(late fusion)이 있다. 저레벨 융합은 높은 연산 파워가 필요하다는 한계가 있고, 고레벨 융합은 각각의 데이터를 검증하는데 추가 연산이 필요하다는 한계가 있다.Inter-sensor fusion consists of a low-level fusion method that combines image data and radar data at the raw data level (early fusion) and a high-level fusion method that combines the results of processing image data and radar data respectively (late fusion). have. Low-level fusion has a limitation that high computational power is required, and high-level fusion has a limit that additional computation is required to verify each data.

이하 설명하는 기술은 영상 데이터 및 레이더 데이터의 단점을 상호보완하는 하이브리드 융합(hybrid fusion) 방식을 제공하고자 한다. The technology to be described below is intended to provide a hybrid fusion method that complements the disadvantages of image data and radar data.

영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법은 차량의 전자장치가 특정 시점의 제1 영상 데이터 및 제1 레이더 데이터 각각을 이용하여 특정 객체의 정보를 추출하는 단계, 상기 전자장치가 상기 특정 시점 이후 시점의 제2 영상 데이터에서 도로 노면의 시각 객체 정보를 검출하는 단계, 상기 전자장치가 상기 시각 객체 정보를 기준으로 객체 검출을 위한 타깃 관심 영역을 설정하는 단계 및 상기 전자장치가 상기 타깃 관심 영역에 대한 상기 이후 시점의 제2 영상 데이터 또는 제2 레이더 데이터를 이용하여 상기 특정 객체를 검출하는 단계를 포함한다. 상기 이후 시점에서의 특정 객체 검출은 상기 특정 시점에서 획득한 상기 특정 객체의 검출 결과를 더 이용한다.The method for detecting an object by fusing image data and radar data includes: extracting, by an electronic device of a vehicle, information on a specific object using each of first image data and first radar data at a specific time point; detecting visual object information of a road surface from second image data of a viewpoint after the viewpoint; setting, by the electronic device, a target region of interest for object detection based on the visual object information; and, by the electronic device, the target interest and detecting the specific object using second image data or second radar data of the later time point for the area. The specific object detection at the later time point further uses the detection result of the specific object acquired at the specific time point.

영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 전자장치는 특정 시점의 제1 영상 데이터 및 제1 레이더 데이터와 상기 특정 시점 이후 시점의 제2 영상 데이터 및 제2 레이더 데이터를 입력받는 입력장치, 영상 데이터 및 레이더 데이터를 이용하여 객체를 검출하는 프로그램을 저장하는 저장장치 및 상기 제1 영상 데이터 및 상기 제1 레이더 데이터를 각각 이용하여 특정 객체의 정보를 추출하고, 상기 제2 영상 데이터에서 도로 노면의 시각 객체 정보를 기준으로 타깃 관심 영역을 설정하고, 상기 타깃 관심 영역에 대한 상기 제2 영상 데이터 및 상기 제2 레이더 데이터를 이용한 검출 결과를 융합하여 상기 특정 객체를 검출하는 연산장치를 포함한다. 상기 연산장치는 상기 특정 시점에서 획득한 상기 특정 객체의 검출 결과를 더 이용하여 상기 이후 시점에서의 특정 객체를 검출한다.An electronic device for detecting an object by fusing image data and radar data includes an input device that receives first image data and first radar data at a specific time point and second image data and second radar data at a time point after the specific time point; A storage device for storing a program for detecting an object using data and radar data, and extracting information on a specific object using the first image data and the first radar data, respectively, and extracting information on a road surface from the second image data and a computing device configured to set a target ROI based on visual object information, and to fuse detection results using the second image data for the target ROI and the second radar data to detect the specific object. The computing device detects the specific object at the later point in time by further using the detection result of the specific object acquired at the specific point in time.

이하 설명하는 기술은 차량의 운전 환경에 따라 설정되는 적응적 관심 영역(region of interest, ROI)을 기준으로 영상 데이터와 레이더 데이터를 융합하여 융합 대상인 데이터를 축소한다. 또한, 이하 설명하는 기술은 영상 데이터와 레이더 데이터를 객체 검출단계에서 융합하되 직전에 사용된 이종 데이터의 예측 결과를 활용하여 빠르면서 정확도 높은 객체 검출이 가능하다.The technology to be described below reduces fusion target data by fusing image data and radar data based on an adaptive region of interest (ROI) set according to the driving environment of the vehicle. In addition, the technology to be described below fuses image data and radar data in the object detection step, but utilizes the prediction result of the heterogeneous data used just before, so that it is possible to quickly and accurately detect an object.

도 1은 차량에서 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 과정에 대한 순서도의 예이다.
도 2는 차량에서 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 과정에 대한 순서도의 다른 예이다.
도 3은 센서 장치를 내장한 차량에 대한 예이다.
도 4는 적응적 관심 영역을 설정하는 과정에 대한 예이다.
도 5는 영상 데이터와 레이더 데이터를 융합하여 객체를 검출하는 과정에 대한 예이다.
도 6은 객체를 검출하는 전자장치에 대한 예이다.
1 is an example of a flowchart for a process of detecting an object by fusing image data and radar data in a vehicle.
2 is another example of a flowchart for a process of detecting an object by fusing image data and radar data in a vehicle.
3 is an example of a vehicle having a built-in sensor device.
4 is an example of a process of setting an adaptive ROI.
5 is an example of a process of detecting an object by fusing image data and radar data.
6 is an example of an electronic device for detecting an object.

이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technology to be described below can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the technology described below to specific embodiments, and it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the technology described below.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components are not limited by the above terms, and only for the purpose of distinguishing one component from other components. used only as For example, a first component may be named as a second component, and similarly, the second component may also be referred to as a first component without departing from the scope of the technology to be described below. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설명된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms of terms used herein, the singular expression should be understood to include the plural expression unless the context clearly dictates otherwise, and terms such as "comprises" include the described feature, number, step, operation, element. , parts or combinations thereof are to be understood, but not to exclude the possibility of the presence or addition of one or more other features or numbers, step operation components, parts or combinations thereof.

도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Prior to a detailed description of the drawings, it is intended to clarify that the classification of the constituent parts in the present specification is merely a division according to the main function that each constituent unit is responsible for. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each of the constituent units to be described below may additionally perform some or all of the functions of other constituent units in addition to the main function it is responsible for. Of course, it can also be performed by being dedicated to it.

또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in performing the method or operation method, each process constituting the method may occur differently from the specified order unless a specific order is clearly described in context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

이하 설명하는 기술은 차량의 센서 장치가 획득한 데이터를 이용하여 차량 주변의 객체를 검출하는 기술이다. 이하 설명하는 카메라 및 레이더를 이용한 객체 검출 기법이다. 차량은 다수의 카메라를 사용할 수 있고, 하나 이상의 레이더를 사용할 수도 있다. 따라서, 이하 설명하는 기술에서 센서 장치(카메라 및 레이더)의 배치나 개수는 다양할 수 있다. 즉, 이하 설명하는 기술은 전방, 측면 및 후방 등 다양한 방향에 대한 객체 검출에 활용될 수 있다. 따라서, 이하 동일 또는 중첩되는 FOV를 갖는 카메라와 레이더를 기준으로 설명한다. 즉, 이하 설명은 하나의 FOV를 기준으로 한다. 물론, 이하 설명하는 기술은 다수의 FOV에 동시에 적용될 수도 있다.A technique to be described below is a technique for detecting an object around a vehicle using data acquired by a sensor device of the vehicle. This is an object detection technique using a camera and radar to be described below. A vehicle may use multiple cameras, and may use more than one radar. Accordingly, the arrangement or number of sensor devices (cameras and radars) in the technology to be described below may vary. That is, the technology to be described below may be utilized for object detection in various directions, such as front, side, and rear. Accordingly, the following description will be based on a camera and a radar having the same or overlapping FOV. That is, the following description is based on one FOV. Of course, the techniques described below may be simultaneously applied to multiple FOVs.

영상 데이터는 카메라가 생성하는 데이터이다. 영상 데이터는 기본적으로 2차원인 이미지 좌표계(image coordinate system)를 사용한다. X 및 Y의 시작이 되는 지점은 설정에 따라 달라질 수 있다.The image data is data generated by the camera. Image data uses a basically two-dimensional image coordinate system. The starting point of X and Y may vary depending on the setting.

레이더 데이터는 레이더가 생성하는 데이터이다. 레이더 데이터의 생성 과정에 대한 설명은 생략한다. 레이더 데이터는 기본적으로 월드 좌표계(world coordinate system)를 사용한다. 월드 좌표계는 3차원 X, Y 및 Z의 축으로 구성되며 축의 방향이나 각 축의 시작점은 설정에 따라 달라질 수 있다.Radar data is data generated by radar. A description of the radar data generation process will be omitted. Radar data basically uses the world coordinate system. The world coordinate system consists of three-dimensional X, Y, and Z axes, and the direction of the axes or the starting point of each axis may vary depending on the settings.

이하 설명하는 기술은 영상 데이터와 레이더 데이터를 융합하여 객체를 검출하는 기법이다. 이하 설명하는 기술에 적용되는 융합 방식은 하이브리드 융합 방식이라고 명명할 수 있다. 하이브리드 융합 방식은 두 가지 관점에서 하이브리드라고 할 수 있다. 하나의 기준은 영상 데이터를 이용하여 특정한 관심 영역을 설정하고, 설정된 관심 영역의 범위에서 영상 데이터와 레이더 데이터를 융합할 수 있다는 점이다. 또 다른 하나의 기준은 영상 데이터 또는 레이더 데이터에서 추출되는 특징을 기준으로 객체를 검출할 때 이전 시점에서 다른 이종 데이터의 예측 결과를 활용한다는 점이다. 이하 구체적으로 설명한다.A technique to be described below is a technique for detecting an object by fusing image data and radar data. The fusion method applied to the technology to be described below may be referred to as a hybrid fusion method. The hybrid fusion method can be called a hybrid in two respects. One criterion is that a specific ROI may be set using the image data, and the image data and radar data may be fused within the set ROI. Another criterion is that when detecting an object based on features extracted from image data or radar data, prediction results of other heterogeneous data at a previous time point are used. It will be described in detail below.

이하 전자장치는 차량에서 영상 데이터 및/또는 레이더 데이터를 이용하여 객체를 검출하는 장치를 의미한다. 예컨대, 전자장치는 차량의 ECU(electronic control unit), 전용 검출 장치 등을 의미할 수 있다. Hereinafter, an electronic device refers to a device for detecting an object in a vehicle using image data and/or radar data. For example, the electronic device may mean an electronic control unit (ECU) of a vehicle, a dedicated detection device, or the like.

도 1은 차량에서 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 과정(100)에 대한 순서도의 예이다. 도 1은 t 시점에서의 객체 검출에 대한 예이다. 여기서, t는 특정 시점을 의미한다. 데이터를 수집되는 간격을 기준으로 t-1은 t의 직전 시점, t+1은 t의 직후 시점을 의미한다. 1 is an example of a flowchart for a process 100 of detecting an object by fusing image data and radar data in a vehicle. 1 is an example of object detection at time t. Here, t means a specific time point. Based on the interval at which data is collected, t-1 denotes a time point immediately before t, and t+1 denotes a time point immediately after t.

카메라는 t-1 시점의 제1 영상 데이터를 생성한다. 전자장치는 제1 영상 데이터를 획득한다(110). 전자장치는 제1 영상 데이터를 이용하여 객체 정보를 추출할 수 있다(110). 객체 정보는 카메라의 FOV에 위치하는 객체에 대한 정보로서 객체의 위치, 속도 및 크기 중 적어도 하나의 정보를 포함할 수 있다. 또는, 전자장치는 제1 영상 데이터를 이용하여 객체를 검출할 수도 있다.The camera generates first image data at time t-1. The electronic device acquires first image data (110). The electronic device may extract object information by using the first image data ( 110 ). The object information is information about an object located in the FOV of the camera and may include at least one of a position, a speed, and a size of the object. Alternatively, the electronic device may detect the object using the first image data.

레이더는 t-1 시점의 제1 레이더 데이터를 생성한다. 전자장치는 제1 레이더 데이터를 획득한다(120). 전자장치는 제1 레이더 데이터를 이용하여 객체 정보를 추출할 수 있다(120). 객체 정보는 레이더의 FOV에 위치하는 객체에 대한 정보로서 객체의 위치, 속도 및 크기 중 적어도 하나의 정보를 포함할 수 있다. 또는, 전자장치는 제1 레이더 데이터를 이용하여 객체를 검출할 수도 있다.The radar generates first radar data at time t-1. The electronic device acquires first radar data ( 120 ). The electronic device may extract object information using the first radar data ( 120 ). The object information is information about an object located in the FOV of the radar, and may include at least one of a position, a speed, and a size of the object. Alternatively, the electronic device may detect the object using the first radar data.

이후 카메라는 t 시점의 제2 영상 데이터를 생성한다. 레이더는 t 시점의 제2 레이더 데이터를 생성한다. 전자장치는 제2 영상 데이터 및 제2 레이더 데이터를 획득한다(130).Thereafter, the camera generates second image data at time t. The radar generates second radar data at time t. The electronic device acquires second image data and second radar data ( 130 ).

전자장치는 제2 영상 데이터를 기준으로 타깃 관심 영역을 설정한다(140). 타깃 관심 영역은 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하기 위한 영역을 의미한다. 타깃 관심 영역은 위험도 내지 중요도에 따라 일반적인 후보 영역과 후보 영역보다 우선순위가 높은 경고 영역을 포함할 수 있다. 전자장치는 경고 영역에 대하여 먼저 객체를 검출할 수 있다. 전자장치는 제2 영상 데이터에서 획득한 정보를 기준으로 적응적으로 타깃 관심 영역을 설정할 수 있다. 타깃 관심 영역 설정에 대해서는 후술한다.The electronic device sets the target region of interest based on the second image data ( 140 ). The target region of interest refers to a region for detecting an object by fusing image data and radar data. The target region of interest may include a general candidate region and a warning region having a higher priority than the candidate region according to risk or importance. The electronic device may first detect an object with respect to the warning area. The electronic device may adaptively set the target ROI based on information obtained from the second image data. The setting of the target region of interest will be described later.

전자장치는 타깃 관심 영역에 대한 제1 영상 데이터 및 제2 레이더 데이터를 융합하여 객체를 검출할 수 있다(150). 전자장치는 타깃 관심 영역으로 범위를 한정하여 제1 영상 데이터 및 제2 레이더 데이터를 융합할 수 있다. 전자장치는 t-1 시점의 획득한 제1 영상 데이터의 객체 정보를 활용하여, t 시점의 제2 레이더 데이터를 이용하여 객체를 검출할 수 있다. 이때, 전자장치는 t-1 시점의 제1 영상 데이터에서 추출된 객체 정보를 기준으로 t 시점에서 예측되는 객체 정보(객체 위치, 속도 및 크기 중 적어도 하나)를 활용하여, t 시점의 제2 레이더 데이터에서 객체를 검출한다. t-1 시점의 제1 영상 데이터를 기준으로 예측되는 t 시점의 객체 정보를 활용하면, 전자장치는 제2 레이더 데이터만으로 식별하기 어려웠던 객체를 효과적으로 검출할 수 있다. 결과적으로 전자장치는 t-1 시점의 제1 영상 데이터와 t 시점의 제2 레이더 데이터를 융합하여 객체를 검출하게 된다. 이 방식은 종래 저레벨 융합과 다르고, 각각 객체를 검출한 후 결과를 병합했던 고레벨 융합과도 상이한 방식이다.The electronic device may detect the object by fusing the first image data and the second radar data for the target ROI ( 150 ). The electronic device may fuse the first image data and the second radar data by limiting the range to the target ROI. The electronic device may detect an object using the second radar data at time t by using object information of the first image data acquired at time t-1. In this case, the electronic device utilizes object information predicted at time t (at least one of an object location, speed, and size) based on the object information extracted from the first image data at time t-1, and the second radar at time t Detect objects in data. When object information at time t predicted based on the first image data at time t-1 is used, the electronic device can effectively detect an object that is difficult to identify only with the second radar data. As a result, the electronic device detects an object by fusing the first image data at time t-1 and the second radar data at time t. This method is different from the conventional low-level fusion, and it is also different from the high-level fusion in which each object is detected and the results are merged.

또한, 전자장치는 타깃 관심 영역에 대한 제1 레이더 데이터 및 제2 영상 데이터를 융합하여 객체를 검출할 수 있다(160). 전자장치는 타깃 관심 영역으로 범위를 한정하여 제1 레이더 데이터 및 제2 영상 데이터를 융합할 수 있다. 전자장치는 t-1 시점의 획득한 제1 레이더 데이터의 객체 정보를 활용하여, t 시점의 제2 영상 데이터를 이용하여 객체를 검출할 수 있다. 이때, 전자장치는 t-1 시점의 제1 레이더 데이터에서 추출된 객체 정보를 기준으로 t 시점에서 예측되는 객체 정보(객체 위치, 속도 및 크기 중 적어도 하나)를 활용하여, t 시점의 제2 영상 데이터에서 객체를 검출한다. t-1 시점의 제1 레이더 데이터를 기준으로 예측되는 t 시점의 객체 정보를 활용하면, 전자장치는 제2 영상 데이터만으로 식별하기 어려웠던 객체를 효과적으로 검출할 수 있다. 결과적으로 전자장치는 t-1 시점의 제1 레이더 데이터와 t 시점의 제2 영상 데이터를 융합하여 객체를 검출하게 된다. 이 방식은 종래 저레벨 융합과 다르고, 각각 객체를 검출한 후 결과를 병합했던 고레벨 융합과도 상이한 방식이다.Also, the electronic device may detect the object by fusing the first radar data and the second image data for the target ROI ( 160 ). The electronic device may fuse the first radar data and the second image data by limiting the range to the target ROI. The electronic device may detect the object using the second image data of the time t by utilizing the object information of the first radar data acquired at the time t-1. In this case, the electronic device utilizes the object information predicted at time t (at least one of an object position, velocity, and size) based on the object information extracted from the first radar data at time t-1, and the second image at time t Detect objects in data. If object information at time t predicted based on the first radar data at time t-1 is used, the electronic device can effectively detect an object that is difficult to identify only with the second image data. As a result, the electronic device detects an object by fusing the first radar data at time t-1 and the second image data at time t. This method is different from the conventional low-level fusion, and it is also different from the high-level fusion in which each object is detected and the results are merged.

전자장치는 객체 검출이 종료되었는지 확인하고(170), 객체 검출이 계속 필요한 상황인 경우 동일한 방식으로 객체 검출을 계속한다. 이후 시점은 현재 t 시점 직후의 시점으로 t = t + 1이 된다(180). t+1 시점에서 전자장치는 t 시점의 영상 데이터 및 레이더 데이터를 이용하여 추출한 객체 정보가 보유한 상태이다. 따라서, 전자장치는 t+1 시점의 영상 데이터 및 레이더 데이터를 이용하여 각각 객체를 검출할 수 있다.The electronic device checks whether the object detection is finished ( 170 ), and continues object detection in the same manner when the object detection is still required. The subsequent time point is a time point immediately after the current time t, and t = t + 1 (180). At time t+1, the electronic device retains object information extracted using image data and radar data at time t. Accordingly, the electronic device may detect each object using image data and radar data at time t+1.

나아가, t+1 시점에서 전자장치는 t 시점에서 영상 데이터와 레이더 데이터를 융합하여 객체를 검출한 결과(150 및/또는 160)를 활용하여 t+1 시점에서 예측되는 객체 정보를 추정할 수 있다. 이 경우, 전자장치는 t 시점에서 융합 방식으로 예측된 객체 정보를 기준으로 t+1 시점에서 객체 정보를 예측하고, t+1 시점에서 획득한 영상 데이터 또는 레이더 데이터를 이용하여 t+1 시점의 객체를 검출할 수 있다.Furthermore, at time t+1, the electronic device may estimate object information predicted at time t+1 by using the result (150 and/or 160) of detecting an object by fusing image data and radar data at time t. . In this case, the electronic device predicts the object information at time t+1 based on the object information predicted by the fusion method at time t, and uses the image data or radar data acquired at time t+1 to determine the object information at time t+1. object can be detected.

도 2는 차량에서 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 과정(200)에 대한 순서도의 다른 예이다. 도 1은 t 시점에서의 객체 검출에 대한 예이다. 2 is another example of a flowchart for a process 200 of detecting an object by fusing image data and radar data in a vehicle. 1 is an example of object detection at time t.

카메라는 t-1 시점의 제1 영상 데이터를 생성한다. 전자장치는 제1 영상 데이터를 획득한다(210). 전자장치는 제1 영상 데이터를 이용하여 객체 정보를 추출할 수 있다(210). 객체 정보는 카메라의 FOV에 위치하는 객체에 대한 정보로서 객체의 위치, 속도 및 크기 중 적어도 하나의 정보를 포함할 수 있다. 또는, 전자장치는 제1 영상 데이터를 이용하여 객체를 검출할 수도 있다.The camera generates first image data at time t-1. The electronic device acquires first image data ( 210 ). The electronic device may extract object information by using the first image data ( 210 ). The object information is information about an object located in the FOV of the camera and may include at least one of a position, a speed, and a size of the object. Alternatively, the electronic device may detect the object using the first image data.

레이더는 t-1 시점의 제1 레이더 데이터를 생성한다. 전자장치는 제1 레이더 데이터를 획득한다(220). 전자장치는 제1 레이더 데이터를 이용하여 객체 정보를 추출할 수 있다(220). 객체 정보는 레이더의 FOV에 위치하는 객체에 대한 정보로서 객체의 위치, 속도 및 크기 중 적어도 하나의 정보를 포함할 수 있다. 또는, 전자장치는 제1 레이더 데이터를 이용하여 객체를 검출할 수도 있다.The radar generates first radar data at time t-1. The electronic device acquires first radar data (220). The electronic device may extract object information by using the first radar data ( 220 ). The object information is information about an object located in the FOV of the radar, and may include at least one of a position, a speed, and a size of the object. Alternatively, the electronic device may detect the object using the first radar data.

이후 카메라는 t 시점의 제2 영상 데이터를 생성한다. 레이더는 t 시점의 제2 레이더 데이터를 생성한다. 전자장치는 제2 영상 데이터 및 제2 레이더 데이터를 획득한다(230).Thereafter, the camera generates second image data at time t. The radar generates second radar data at time t. The electronic device acquires second image data and second radar data ( 230 ).

전자장치는 제2 영상 데이터를 기준으로 타깃 관심 영역을 설정한다(240). 타깃 관심 영역은 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하기 위한 영역을 의미한다. 타깃 관심 영역은 위험도 내지 중요도에 따라 일반적인 후보 영역과 후보 영역보다 우선순위가 높은 경고 영역을 포함할 수 있다. 전자장치는 경고 영역에 대하여 먼저 객체를 검출할 수 있다. 전자장치는 제2 영상 데이터에서 획득한 정보를 기준으로 적응적으로 타깃 관심 영역을 설정할 수 있다. 타깃 관심 영역 설정에 대해서는 후술한다.The electronic device sets a target region of interest based on the second image data ( 240 ). The target region of interest refers to a region for detecting an object by fusing image data and radar data. The target region of interest may include a general candidate region and a warning region having a higher priority than the candidate region according to risk or importance. The electronic device may first detect an object with respect to the warning area. The electronic device may adaptively set the target ROI based on information obtained from the second image data. The setting of the target region of interest will be described later.

전자장치는 타깃 관심 영역에 대한 제1 영상 데이터 및 제2 레이더 데이터를 융합하여 객체를 검출할 수 있다(250). 전자장치는 타깃 관심 영역으로 범위를 한정하여 제1 영상 데이터 및 제2 레이더 데이터를 융합할 수 있다. 전자장치는 t-1 시점의 획득한 제1 영상 데이터의 객체 정보를 활용하여, t 시점의 제2 레이더 데이터를 이용하여 객체를 검출할 수 있다. 이때, 전자장치는 t-1 시점의 제1 영상 데이터에서 추출된 객체 정보를 기준으로 t 시점에서 예측되는 객체 정보(객체 위치, 속도 및 크기 중 적어도 하나)를 활용하여, t 시점의 제2 레이더 데이터에서 객체를 검출한다. t-1 시점의 제1 영상 데이터를 기준으로 예측되는 t 시점의 객체 정보를 활용하면, 전자장치는 제2 레이더 데이터만으로 식별하기 어려웠던 객체를 효과적으로 검출할 수 있다. 결과적으로 전자장치는 t-1 시점의 제1 영상 데이터와 t 시점의 제2 레이더 데이터를 융합하여 객체를 검출하게 된다. 이 방식은 종래 저레벨 융합과 다르고, 각각 객체를 검출한 후 결과를 병합했던 고레벨 융합과도 상이한 방식이다.The electronic device may detect the object by fusing the first image data and the second radar data for the target ROI ( 250 ). The electronic device may fuse the first image data and the second radar data by limiting the range to the target ROI. The electronic device may detect an object using the second radar data at time t by using object information of the first image data acquired at time t-1. In this case, the electronic device utilizes object information predicted at time t (at least one of an object location, speed, and size) based on the object information extracted from the first image data at time t-1, and the second radar at time t Detect objects in data. When object information at time t predicted based on the first image data at time t-1 is used, the electronic device can effectively detect an object that is difficult to identify only with the second radar data. As a result, the electronic device detects an object by fusing the first image data at time t-1 and the second radar data at time t. This method is different from the conventional low-level fusion, and it is also different from the high-level fusion in which each object is detected and the results are merged.

또한, 전자장치는 타깃 관심 영역에 대한 제1 레이더 데이터 및 제2 영상 데이터를 융합하여 객체를 검출할 수 있다(260). 전자장치는 타깃 관심 영역으로 범위를 한정하여 제1 레이더 데이터 및 제2 영상 데이터를 융합할 수 있다. 전자장치는 t-1 시점의 획득한 제1 레이더 데이터의 객체 정보를 활용하여, t 시점의 제2 영상 데이터를 이용하여 객체를 검출할 수 있다. 이때, 전자장치는 t-1 시점의 제1 레이더 데이터에서 추출된 객체 정보를 기준으로 t 시점에서 예측되는 객체 정보(객체 위치, 속도 및 크기 중 적어도 하나)를 활용하여, t 시점의 제2 영상 데이터에서 객체를 검출한다. t-1 시점의 제1 레이더 데이터를 기준으로 예측되는 t 시점의 객체 정보를 활용하면, 전자장치는 제2 영상 데이터만으로 식별하기 어려웠던 객체를 효과적으로 검출할 수 있다. 결과적으로 전자장치는 t-1 시점의 제1 레이더 데이터와 t 시점의 제2 영상 데이터를 융합하여 객체를 검출하게 된다. 이 방식은 종래 저레벨 융합과 다르고, 각각 객체를 검출한 후 결과를 병합했던 고레벨 융합과도 상이한 방식이다.Also, the electronic device may detect an object by fusing the first radar data and the second image data for the target ROI ( 260 ). The electronic device may fuse the first radar data and the second image data by limiting the range to the target ROI. The electronic device may detect the object using the second image data of the time t by utilizing the object information of the first radar data acquired at the time t-1. In this case, the electronic device utilizes the object information predicted at time t (at least one of an object position, velocity, and size) based on the object information extracted from the first radar data at time t-1, and the second image at time t Detect objects in data. If object information at time t predicted based on the first radar data at time t-1 is used, the electronic device can effectively detect an object that is difficult to identify only with the second image data. As a result, the electronic device detects an object by fusing the first radar data at time t-1 and the second image data at time t. This method is different from the conventional low-level fusion, and it is also different from the high-level fusion in which each object is detected and the results are merged.

전자장치는 (i) 제1 영상 데이터 및 제2 레이더 데이터를 융합하여 객체를 검출한 결과(250) 및 (ii) 제1 레이더 데이터 및 제2 영상 데이터를 융합하여 객체를 검출한 결과(260)를 병합하여 최종적으로 객체를 검출할 수 있다(270). 이 과정은 전자장치가 250 과정에서 검출한 객체와 260 과정에서 검출한 객체를 병합한 결과를 기준으로 객체를 예측하는 것이다. 예컨대, 전자장치는 250 과정의 객체 검출 결과 및 260 과정의 객체 검출 결과에서 중첩되어 검출된 객체를 최종 검출 결과로 선택할 수 있다.The electronic device provides (i) a result of detecting an object by fusing the first image data and the second radar data (250) and (ii) a result of detecting an object by fusing the first radar data and the second image data (260). may be merged to finally detect the object ( 270 ). In this process, the electronic device predicts an object based on a result of merging the object detected in step 250 and the object detected in step 260 . For example, the electronic device may select an object detected overlapping in the object detection result of step 250 and the object detection result of step 260 as the final detection result.

전자장치는 객체 검출이 종료되었는지 확인하고(280), 객체 검출이 계속 필요한 상황인 경우 동일한 방식으로 객체 검출을 계속한다. 이후 시점은 현재 t 시점 직후의 시점으로 t = t + 1이 된다(290). t+1 시점에서 전자장치는 t 시점의 영상 데이터 및 레이더 데이터를 이용하여 추출한 객체 정보가 보유한 상태이다. 따라서, 전자장치는 t+1 시점의 영상 데이터 및 레이더 데이터를 이용하여 각각 객체를 검출할 수 있다.The electronic device checks whether the object detection is finished ( 280 ), and if the object detection is still required, the object detection is continued in the same manner. The subsequent time point is a time point immediately after the current time t, and t = t + 1 (290). At time t+1, the electronic device retains object information extracted using image data and radar data at time t. Accordingly, the electronic device may detect each object using image data and radar data at time t+1.

나아가, t+1 시점에서 전자장치는 t 시점에서 영상 데이터와 레이더 데이터를 융합하여 객체를 검출한 결과(250 및/또는 260)를 활용하여 t+1 시점에서 예측되는 객체 정보를 추정할 수 있다. 이 경우, 전자장치는 t 시점에서 융합 방식으로 예측된 객체 정보를 기준으로 t+1 시점에서 객체 정보를 예측하고, t+1 시점에서 획득한 영상 데이터 또는 레이더 데이터를 이용하여 t+1 시점의 객체를 검출할 수 있다.Furthermore, at time t+1, the electronic device may estimate object information predicted at time t+1 by using the results (250 and/or 260) of detecting an object by fusing image data and radar data at time t. . In this case, the electronic device predicts the object information at time t+1 based on the object information predicted by the fusion method at time t, and uses the image data or radar data acquired at time t+1 to determine the object information at time t+1. object can be detected.

도 3은 센서 장치를 내장한 차량(300)에 대한 예이다. 도 3은 레이더(310), 카메라(320) 및 ECU(330, 340, 350, 360)를 포함하는 차량 시스템(300)에 대한 예이다. 센서 장치와 ECU는 차량 통신(CAN 등)을 통해 데이터를 주고받을 수 있다.3 is an example of a vehicle 300 having a built-in sensor device. 3 is an example of a vehicle system 300 including a radar 310 , a camera 320 , and ECUs 330 , 340 , 350 , and 360 . The sensor device and ECU can exchange data through vehicle communication (CAN, etc.).

도 3(A)는 레이더(310), 카메라(320) 및 복수의 ECU(330, 340 및 350)를 포함하는 차량 시스템(300)에 대한 예이다. 레이더(310)는 통상적으로 차량의 전방면에 배치된다. 물론, 도 3(A)와 달리 레이더(310)는 다른 위치에 배치되거나, 또는 복수개가 사용될 수도 있다.3A is an example of a vehicle system 300 including a radar 310 , a camera 320 , and a plurality of ECUs 330 , 340 and 350 . Radar 310 is typically disposed on the front side of the vehicle. Of course, unlike FIG. 3A , the radar 310 may be disposed at a different location, or a plurality of radars may be used.

도 3(A)는 예시적으로 4개의 카메라(321, 322, 323 및 324)가 배치된 예이다. 운전 보조 시스템의 필요에 따라 카메라의 배치 위치나 개수는 달라질 수 있다. 3A is an example in which four cameras 321 , 322 , 323 , and 324 are arranged by way of example. The arrangement position or number of cameras may vary according to the needs of the driving assistance system.

ECU(330)는 레이더(310)가 생성한 레이더 데이터를 입력받아 객체 정보를 추출할 수 있다.The ECU 330 may receive the radar data generated by the radar 310 and extract object information.

ECU(340)는 복수의 카메라(321, 322, 323 및 324) 중 적어도 하나의 카메라가 생성한 영상 데이터를 입력받아 객체 정보를 추출할 수 있다. The ECU 340 may receive image data generated by at least one of the plurality of cameras 321 , 322 , 323 and 324 , and extract object information.

ECU(350)는 ECU(330) 및 ECU(340)로부터 각각 t-1 시점의 객체 정보를 수신할 수 있다. 또한, ECU(350)는 ECU(330) 및 ECU(340)로부터 각각 t 시점의 영상 데이터 및/또는 레이더 데이터를 수신할 수도 있다. ECU(350)는 t-1 시점의 영상 데이터에서 추출한 객체 정보와 t 시점의 레이더 데이터를 융합하여 객체를 검출할 수 있다. 또한, ECU(350)는 t-1 시점의 레이더 데이터에서 추출한 객체 정보와 t 시점의 영상 데이터를 융합하여 객체를 검출할 수 있다. 이 과정은 도 1 및 도 2에서 설명한 과정과 같다. The ECU 350 may receive object information at time t-1 from the ECU 330 and the ECU 340 , respectively. Also, the ECU 350 may receive image data and/or radar data at time t, respectively, from the ECU 330 and the ECU 340 . The ECU 350 may detect an object by fusing object information extracted from the image data at time t-1 and radar data at time t. Also, the ECU 350 may detect an object by fusing object information extracted from radar data at time t-1 and image data at time t. This process is the same as the process described in FIGS. 1 and 2 .

도 3(B)는 레이더(310), 카메라(320) 및 ECU(360)를 포함하는 차량 시스템(300)에 대한 예이다. ECU(360)는 하이브리드 융합 방식 전용 ECU라고 할 수 있다.3B is an example of a vehicle system 300 including a radar 310 , a camera 320 , and an ECU 360 . The ECU 360 may be referred to as an ECU dedicated to the hybrid fusion method.

레이더(310)는 통상적으로 차량의 전방면에 배치된다. 물론, 도 3(B)와 달리 레이더(310)는 다른 위치에 배치되거나, 또는 복수개가 사용될 수도 있다.Radar 310 is typically disposed on the front side of the vehicle. Of course, unlike FIG. 3B , the radar 310 may be disposed at a different location, or a plurality of radars may be used.

도 3(B)는 예시적으로 4개의 카메라(321, 322, 323 및 324)가 배치된 예이다. 운전 보조 시스템의 필요에 따라 카메라의 배치 위치나 개수는 달라질 수 있다. 3(B) is an example in which four cameras 321 , 322 , 323 and 324 are arranged. The arrangement position or number of cameras may vary according to the needs of the driving assistance system.

ECU(360)는 레이더(310)가 생성한 레이더 데이터를 입력받아 객체 정보를 추출할 수 있다.The ECU 360 may receive the radar data generated by the radar 310 and extract object information.

ECU(360)는 복수의 카메라(321, 322, 323 및 324) 중 적어도 하나의 카메라가 생성한 영상 데이터를 입력받아 객체 정보를 추출할 수 있다. The ECU 360 may receive image data generated by at least one of the plurality of cameras 321 , 322 , 323 and 324 , and extract object information.

ECU(360)는 레이더(310) 및 복수의 카메라(321, 322, 323 및 324) 중 적어도 하나로부터 전달되는 데이터를 이용하여 각각 t-1 시점의 객체 정보를 추출할 수 있다. 또한, ECU(360)는 레이더(310) 및 복수의 카메라(321, 322, 323 및 324) 중 적어도 하나로부터 각각 t 시점의 영상 데이터 및/또는 레이더 데이터를 수신할 수도 있다. ECU(360)는 t-1 시점의 영상 데이터에서 추출한 객체 정보와 t 시점의 레이더 데이터를 융합하여 객체를 검출할 수 있다. 또한, ECU(360)는 t-1 시점의 레이더 데이터에서 추출한 객체 정보와 t 시점의 영상 데이터를 융합하여 객체를 검출할 수 있다. 이 과정은 도 1 및 도 2에서 설명한 과정과 같다. The ECU 360 may extract object information at time t-1 using data transmitted from at least one of the radar 310 and the plurality of cameras 321 , 322 , 323 , and 324 , respectively. Also, the ECU 360 may receive image data and/or radar data at time t from at least one of the radar 310 and the plurality of cameras 321 , 322 , 323 and 324 , respectively. The ECU 360 may detect an object by fusing object information extracted from the image data at time t-1 and radar data at time t. Also, the ECU 360 may detect an object by fusing object information extracted from radar data at time t-1 and image data at time t. This process is the same as the process described in FIGS. 1 and 2 .

도 4는 적응적 관심 영역을 설정하는 과정에 대한 예이다. 4 is an example of a process of setting an adaptive ROI.

전자장치는 영상 데이터를 이용하여 일정한 정보를 추출할 수 있다. The electronic device may extract certain information by using the image data.

전자장치는 영상 데이터에서 도로 노면의 시각 객체 정보를 추출할 수 있다. 여기서, 시각 객체 정보는 차선, 차선의 종류, 차선의 휘어진 방향, 차선의 휘어짐 정도 및 정지선 중 적어도 하나의 정보를 포함할 수 있다. The electronic device may extract visual object information of the road surface from the image data. Here, the visual object information may include information on at least one of a lane, a type of a lane, a bending direction of the lane, a bending degree of the lane, and a stop line.

예컨대, 전자장치는 차선을 구분하여 현재 차량의 주행 차선과 주변 차량의 주행 차선을 식별할 수 있다. 전자장치는 차선의 종류(중앙선, 실선, 점선 등)를 구분하여 주변 차량의 근접 가능성을 예측할 수 있다. 전자장치는 차선이 휘어진 방향을 기준으로 곡선 도로인지 여부를 판단할 수 있다. 전자장치는 차선의 휘어짐 정도를 기준으로 곡률 정보를 판단할 수 있다. 전자장치는 정지선을 기준으로 현재 차량의 속도 감속 가능성 및/또는 선행 차량의 감속 여부를 예측할 수 있다.For example, the electronic device may classify lanes to identify a current driving lane of the vehicle and a driving lane of a neighboring vehicle. The electronic device may classify the types of lanes (center line, solid line, dotted line, etc.) to predict the proximity of a nearby vehicle. The electronic device may determine whether the road is a curved road based on the direction in which the lane is curved. The electronic device may determine the curvature information based on the degree of curvature of the lane. The electronic device may predict the possibility of speed deceleration of the current vehicle and/or whether the preceding vehicle is decelerated based on the stop line.

노면의 시각 정보는 차선 외에도 다양한 정보를 포함한다. 따라서, 시각 객체 정보는 주행 방향 표시, 속도 제한 표시, 보호구역 표시, 도로 정보 표시, 횡단 보도 표시, 금지 표시 및 정지 표시 중 적어도 하나의 표시를 더 포함할 수도 있다. The visual information on the road surface includes various information in addition to the lane. Accordingly, the visual object information may further include at least one of a driving direction display, a speed limit display, a protected area display, a road information display, a crosswalk display, a prohibition display, and a stop display.

예컨대, 전자장치는 주행 방향 표시(화살표)를 기준으로 현재 차선 및 주변 차선의 차량의 진행 방향을 예측할 수 있다. 전자장치는 속도 제한 표시를 기준으로 현재 차량 또는 주변 차량의 속도 증감 여부를 예측할 수 있다. 전자장치는 보호구역 표시(어린이 보호구역, 동물 보호 구역 등)를 기준으로 현재 차량 또는 주변 차량의 속도 감속 여부를 예측할 수 있다. 전자장치는 기타 도로 정보 표시(감속, 차선 감소 등)를 기준으로 현재 차량 및/또는 주변 차량의 감속 여부 내지 진로 변경 여부를 예측할 수 있다. 전자장치는 횡단 보도 표시를 기준으로 현재 차량 및/또는 주변 차량의 감속 여부, 횡단 보도상의 보행 여부를 예측할 수 있다. 전자장치는 금지 표시(직진 금지, 회전 금지, 유턴 금지 등)를 기준으로 현재 차량 및/또는 주변 차량의 주행 방향을 예측할 수 있다. 전자자치는 정지 표시를 기준으로 현재 차량 및/또는 주변 차량의 감속 내지 정지 여부를 예측할 수 있다. For example, the electronic device may predict the traveling direction of a vehicle in a current lane and a neighboring lane based on the driving direction display (arrow). The electronic device may predict whether the speed of the current vehicle or a nearby vehicle will increase or decrease based on the speed limit display. The electronic device can predict whether the current vehicle or nearby vehicles will slow down based on the protected area mark (children's area, animal shelter, etc.). The electronic device may predict whether the current vehicle and/or surrounding vehicles are decelerating or whether to change a course based on other road information display (deceleration, lane reduction, etc.). The electronic device may predict whether the current vehicle and/or nearby vehicles are decelerating or whether to walk on the crosswalk based on the crosswalk display. The electronic device may predict the driving direction of the current vehicle and/or surrounding vehicles based on the prohibition mark (for example, prohibition of going straight, prohibition of turning, prohibition of U-turn, etc.). The electronic autonomy may predict whether the current vehicle and/or surrounding vehicles will decelerate or stop based on the stop indication.

나아가, 전자장치는 현재 차량의 속도, 현재 시간 및 주변 조도 등과 같은 정보 중 적어도 하나를 더 이용하여 타깃 관심 영역을 설정할 수도 있다. 예컨대, 전자장치는 차량의 속도에 따라 적응적으로 타깃 관심 영역의 길이 또는 크기를 변경할 수 있다. 또한, 전자장치는 현재 시간 또는/및 주변 조도에 따라 주변이 어두운 경우 적응적으로 타깃 관심 영역의 길이 또는 크기를 변경할 수 있다.Furthermore, the electronic device may set the target ROI by further using at least one of information such as a current vehicle speed, a current time, and ambient illuminance. For example, the electronic device may adaptively change the length or size of the target ROI according to the speed of the vehicle. In addition, the electronic device may adaptively change the length or size of the target ROI when the surroundings are dark according to the current time or/and ambient illuminance.

도 4(A)는 직선 도로의 차선 정보를 기준으로 현재 차량 T가 타깃 관심 영역을 설정하는 예이다. 설명의 편의를 위하여 차량이 타깃 관심 영역을 설정한다고 설명한다. 구체적으로는 차량에 배치된 전자장치가 타깃 관심 영역을 설정하는 것이다.4A is an example in which the current vehicle T sets a target ROI based on lane information of a straight road. For convenience of description, it will be described that the vehicle sets the target ROI. Specifically, the electronic device disposed in the vehicle sets the target ROI.

차량 T는 카메라 FOV에서 획득되는 영상 데이터 및 레이더 FOV에서 획득되는 레이더 데이터를 이용하여 타깃 관심 영역을 설정할 수 있다. 차량 T는 카메라 FOV의 차선 정보를 획득한다. 차량 T는 직선 코스에서 현재 주행 차선과 인접한 차선을 구분할 수 있다. 전술한 바와 같이 타깃 관심 영역은 경고 영역과 후보 영역으로 구성될 수 있다. 경우에 따라서, 타깃 관심 영역은 경고 영역 또는 후보 영역으로만 구성될 수도 있다.The vehicle T may set the target ROI by using image data acquired from the camera FOV and radar data acquired from the radar FOV. The vehicle T acquires lane information of the camera FOV. Vehicle T may distinguish a current driving lane and an adjacent lane on a straight course. As described above, the target ROI may include a warning region and a candidate region. In some cases, the target region of interest may consist of only a warning region or a candidate region.

차량 T는 현재 주행 차선은 경고 영역으로 설정할 수 있다. 차량 T는 현재 주행 차선에 인접한 차선(들)을 후보 영역으로 설정할 수 있다. 도 4(A)에서 차량 A는 후보 영역에 위치하여, 차량 C는 경고 영역에 위치한다. 한편, 차량 B는 타깃 관심 영역 밖에 위치하여 검출 대상이 되지 않을 수 있다. 이 상황에서 차량 T는 먼저 경고 영역에 위치하는 객체(차량 C)가 있는지 여부를 먼저 검출할 수 있다.The current driving lane of vehicle T may be set as a warning area. The vehicle T may set lane(s) adjacent to the current driving lane as a candidate area. In FIG. 4A , vehicle A is located in the candidate area, and vehicle C is located in the warning area. Meanwhile, vehicle B may not be a detection target because it is located outside the target ROI. In this situation, vehicle T may first detect whether there is an object (vehicle C) located in the warning area.

차량 T는 차량 T의 속도를 고려하여 경고 영역 또는 후보 영역의 길이(주행 방향 기준)를 적응적으로 설정할 수도 있다. 예컨대, 차량 T의 속도가 높다면 카메라 또는 레이더의 관측 범위 내에서 경고 영역 또는 후보 영역의 길이가 보다 길어질 수 있다. 또한, 차량 T는 차량 T의 진행 방향을 고려하여 타깃 관심 영역을 진행 방향에 따라 확장하거나 이동시킬 수 있다.The vehicle T may adaptively set the length (based on the driving direction) of the warning area or the candidate area in consideration of the speed of the vehicle T. For example, if the speed of the vehicle T is high, the length of the warning area or the candidate area within the observation range of the camera or radar may be longer. Also, the vehicle T may expand or move the target ROI according to the traveling direction in consideration of the traveling direction of the vehicle T.

도 4(B)는 곡선(커브) 도로의 차선 정보를 기준으로 현재 차량 T가 타깃 관심 영역을 설정하는 예이다. 설명의 편의를 위하여 차량이 타깃 관심 영역을 설정한다고 설명한다. 구체적으로는 차량에 배치된 전자장치가 타깃 관심 영역을 설정하는 것이다.4B is an example in which the current vehicle T sets a target ROI based on lane information of a curved (curve) road. For convenience of description, it will be described that the vehicle sets the target ROI. Specifically, the electronic device disposed in the vehicle sets the target ROI.

차량 T는 영상 데이터로부터 획득되는 차선 정보(차선, 차선의 휘어지는 방향, 차선의 휘어짐 정보)를 기준으로 타깃 관심 영역을 설정할 수 있다. 차량 T는 현재 우측으로 휘어지는 곡선 도로를 만나는 상황이다. 차량 T는 직전 또는 기본 관심 영역을 우측으로 이동시켜 타깃 관심 영역을 설정할 수 있다. 또는 차량 T는 직전 또는 기본 관심 영역을 횡방향(주행 방향 기준)으로 확장하여 타깃 관심 영역을 설정할 수 있다. 도 4(B)는 후보 영역을 설정하는 예이다. 도 4(B)에서 차량 A와 차량 C가 모두 타깃 관심 영역에 위치한다.The vehicle T may set a target ROI based on lane information (a lane, a bending direction of a lane, and information about a bending of a lane) obtained from image data. Vehicle T is currently meeting a curved road that curves to the right. The vehicle T may set the target ROI by moving the previous or default ROI to the right. Alternatively, the vehicle T may set the target ROI by extending the previous or basic ROI in the lateral direction (based on the driving direction). 4B is an example of setting a candidate area. In FIG. 4B , both vehicle A and vehicle C are located in the target ROI.

차량 T는 차량 T의 속도를 고려하여 타깃 관심 영역의 횡방향 길이를 적응적으로 설정할 수도 있다. 예컨대, 차량 T의 속도가 높다면 카메라 또는 레이더의 관측 범위 내에서 횡방향의 길이를 더 길게 설정할 수 있다. 또한, 차량 T는 차량 T의 진행 방향을 고려하여 타깃 관심 영역을 진행 방향에 따라 확장하거나 이동시킬 수 있다.The vehicle T may adaptively set the lateral length of the target region of interest in consideration of the speed of the vehicle T. For example, if the speed of the vehicle T is high, the lateral length may be set longer within the observation range of the camera or radar. Also, the vehicle T may expand or move the target ROI according to the traveling direction in consideration of the traveling direction of the vehicle T.

도 4(C)는 차량이 횡단 보도를 만나는 상황에서 현재 차량 T가 타깃 관심 영역을 설정하는 예이다. 설명의 편의를 위하여 차량이 타깃 관심 영역을 설정한다고 설명한다. 구체적으로는 차량에 배치된 전자장치가 타깃 관심 영역을 설정하는 것이다. 4(C) is an example in which the current vehicle T sets a target region of interest in a situation where the vehicle meets a crosswalk. For convenience of description, it will be described that the vehicle sets the target ROI. Specifically, the electronic device disposed in the vehicle sets the target ROI.

차량 T는 영상 데이터에 포함되는 노면의 시각 객체 정보를 기준으로 전방에 횡단 보도가 나타나는 것을 알 수 있다. 차량 T는 직전 또는 기본 관심 영역을 횡방향(주행 방향 기준)으로 확장하여 타깃 관심 영역을 설정할 수 있다. 또한, 차량 T는 직전 또는 기본 관심 영역의 길이 방향은 일정하게 줄일 수도 있다. 차량 T는 현재 주행 차선이 포함되는 영역을 경고 영역으로 설정하고, 주변 차선이 포함되는 영역을 후보 영역으로 설정할 수 있다.It can be seen that a crosswalk appears in front of vehicle T based on the visual object information of the road surface included in the image data. The vehicle T may set the target ROI by extending the previous or basic ROI in the lateral direction (based on the driving direction). Also, the longitudinal direction of the vehicle T immediately before or of the basic ROI may be reduced uniformly. The vehicle T may set an area including the current driving lane as a warning area, and may set an area including a neighboring lane as a candidate area.

차량 T는 차량 T의 속도를 고려하여 타깃 관심 영역의 횡방향 길이를 적응적으로 설정할 수도 있다. 예컨대, 차량 T의 속도가 높다면 카메라 또는 레이더의 관측 범위 내에서 타깃 관심 영역의 길이를 보다 길게하고, 횡방향의 길이는 3개의 차선 폭 정도로 설정할 수 있다. 또한, 차량 T는 차량 T의 진행 방향을 고려하여 타깃 관심 영역을 진행 방향에 따라 확장하거나 이동시킬 수 있다.The vehicle T may adaptively set the lateral length of the target region of interest in consideration of the speed of the vehicle T. For example, if the speed of the vehicle T is high, the length of the target region of interest within the observation range of the camera or radar may be longer, and the length in the lateral direction may be set to about three lane widths. Also, the vehicle T may expand or move the target ROI according to the traveling direction in consideration of the traveling direction of the vehicle T.

도 4(D)는 차량이 교차로를 만나는 상황에서 현재 차량 T가 타깃 관심 영역을 설정하는 예이다. 설명의 편의를 위하여 차량이 타깃 관심 영역을 설정한다고 설명한다. 구체적으로는 차량에 배치된 전자장치가 타깃 관심 영역을 설정하는 것이다. 4(D) is an example in which the current vehicle T sets a target ROI in a situation where the vehicle meets an intersection. For convenience of description, it will be described that the vehicle sets the target ROI. Specifically, the electronic device disposed in the vehicle sets the target ROI.

차량 T는 영상 데이터에 포함되는 노면의 시각 객체 정보를 기준으로 전방에 교차로가 나타나는 것을 알 수 있다. 차량 T는 직전 또는 기본 관심 영역을 횡방향(주행 방향 기준)으로 확장하여 타깃 관심 영역을 설정할 수 있다. 삼거라 교차로인 경우 차량 T는 직전 또는 기본 관심 영역을 일방향으로 이동하여 타깃 관심 영역을 설정할 수 있다.The vehicle T may know that an intersection appears in front based on the visual object information on the road surface included in the image data. The vehicle T may set the target ROI by extending the previous or basic ROI in the lateral direction (based on the driving direction). In the case of a three-way intersection, the vehicle T may set the target ROI by moving the previous or basic ROI in one direction.

또한, 차량 T는 직전 또는 기본 관심 영역의 길이 방향은 일정하게 줄일 수도 있다. 차량 T는 현재 주행 차선이 포함되는 영역을 경고 영역으로 설정하고, 주변 차선이 포함되는 영역을 후보 영역으로 설정할 수 있다. 도 4(D)에서 차량 A가 후보 영역에 위치한다.Also, the longitudinal direction of the vehicle T immediately before or of the basic ROI may be reduced uniformly. The vehicle T may set an area including the current driving lane as a warning area, and may set an area including a neighboring lane as a candidate area. In FIG. 4(D) , vehicle A is located in the candidate area.

차량 T는 차량 T의 속도를 고려하여 타깃 관심 영역의 횡방향 길이를 적응적으로 설정할 수도 있다. 예컨대, 차량 T의 속도가 높다면 카메라 또는 레이더의 관측 범위 내에서 타깃 관심 영역의 길이를 보다 길게하고, 횡방향의 길이는 3개의 차선 폭 정도로 설정할 수 있다. 또한, 차량 T는 차량 T의 진행 방향을 고려하여 타깃 관심 영역을 진행 방향에 따라 확장하거나 이동시킬 수 있다.The vehicle T may adaptively set the lateral length of the target region of interest in consideration of the speed of the vehicle T. For example, if the speed of the vehicle T is high, the length of the target region of interest within the observation range of the camera or radar may be longer, and the length in the lateral direction may be set to about three lane widths. Also, the vehicle T may expand or move the target ROI according to the traveling direction in consideration of the traveling direction of the vehicle T.

도 4에서 설명한 타깃 관심 영역은 하나의 예이다. 도 4와 다른 다양한 시각 객체 정보를 이용하여 차량(전자장치)은 타깃 관심 영역을 적응적으로 설정할 수 있다.The target region of interest described in FIG. 4 is an example. The vehicle (electronic device) may adaptively set the target ROI by using various visual object information different from that of FIG. 4 .

도 5는 영상 데이터와 레이더 데이터를 융합하여 객체를 검출하는 과정에 대한 예이다. 도 5는 도 3(B)의 차량 시스템을 기준으로 객체를 검출하는 과정을 설명한 예이다.5 is an example of a process of detecting an object by fusing image data and radar data. FIG. 5 is an example illustrating a process of detecting an object based on the vehicle system of FIG. 3B .

카메라(310)는 t-1 시점의 제1 영상 데이터 및 t 시점의 제2 영상 데이터를 생성한다. 레이더(320)는 t-1 시점의 제1 레이더 데이터 및 t 시점의 제2 레이더 데이터를 생성한다. The camera 310 generates first image data at time t-1 and second image data at time t. The radar 320 generates first radar data at time t-1 and second radar data at time t.

ECU(360)는 제1 영상 데이터에서 객체 정보를 추출한다. ECU(360)는 제1 영상 데이터에서 객체를 검출할 수 있다(①). The ECU 360 extracts object information from the first image data. The ECU 360 may detect an object from the first image data (①).

ECU(360)는 제1 레이더 데이터에서 객체 정보를 추출한다. ECU(360)는 제1 레이더 데이터에서 객체를 검출할 수 있다(②). The ECU 360 extracts object information from the first radar data. The ECU 360 may detect an object from the first radar data (②).

ECU(360)는 제2 영상 데이터를 기준으로 t 시점에서의 타깃 관심 영역을 설정할 수 있다. 타깃 관심 영역 설정은 도 4에서 설명한 바와 같다(③).The ECU 360 may set the target ROI at time t based on the second image data. Setting the target region of interest is the same as described in FIG. 4 (③).

ECU(360)는 제2 영상 데이터와 제1 레이더 데이터를 융합하여 t 시점에서 객체 검출할 수 있다(④). The ECU 360 may fuse the second image data and the first radar data to detect the object at time t (④).

제2 영상 데이터만을 이용하는 경우, ECU(360)는 칼만 필터를 이용하여 t-1 시점의 영상 프레임까지의 보정된 결과치를 기초로 t 시점의 영상 프레임(제2 영상 데이터)에서 객체 검출을 위한 특징을 추출한다. ECU(360)가 t 시점에서 객체를 검출하는 과정은 "T frame = function {a,b,c}"라고 표현할 수 있다. 여기서, a, b 및 c는 영상 데이터에서 추출되는 특징(변수)이다.When only the second image data is used, the ECU 360 uses the Kalman filter to detect an object in the image frame (second image data) at the time t based on the corrected result value up to the image frame at the time t-1. to extract A process in which the ECU 360 detects an object at time t may be expressed as "T frame = function {a, b, c}". Here, a, b, and c are features (variables) extracted from image data.

하이브리드 융합 방식을 사용하는 경우, ECU(360)는 t-1 시점까지 레이더 데이터를 이용하여 예측한 결과를 활용하여, t 시점에서의 영상 데이터를 기준으로 객체를 검출한다. ECU(360)가 t 시점에서 객체를 검출하는 과정은 "T frame = function {a,b,c, Radar(T-1 frame)}라고 표현할 수 있다. 여기서, Radar(T-1 frame)은 t-1 시점의 레이더 데이터를 이용하여 예측되는 객체 정보(객체의 위치, 객체의 속도, 객체의 크기 등에 해당한다.In the case of using the hybrid fusion method, the ECU 360 detects an object based on the image data at the time t by utilizing a result predicted using radar data up to time t-1. A process in which the ECU 360 detects an object at time t can be expressed as "T frame = function {a, b, c, Radar(T-1 frame)}. Here, Radar(T-1 frame) is t - Corresponds to object information predicted using radar data at the time of -1 (object location, object speed, object size, etc.).

ECU(360)는 제2 레이더 데이터와 제1 영상 데이터를 융합하여 t 시점에서 객체 검출할 수 있다(⑤). The ECU 360 may fuse the second radar data and the first image data to detect the object at time t (⑤).

제2 레이더 데이터만을 이용하는 경우, ECU(360)는 칼만 필터를 이용하여 t-1 시점의 레이더 데이터까지의 보정된 결과치를 기초로 t 시점의 레이더 프레임(제2 레이더 데이터)에서 객체 검출을 위한 특징을 추출한다. ECU(360)가 t 시점에서 객체를 검출하는 과정은 "T frame = function {x,y,z}"라고 표현할 수 있다. 여기서, x, y 및 z는 레이더 데이터에서 추출되는 특징(변수)이다.When only the second radar data is used, the ECU 360 uses the Kalman filter to detect objects in the radar frame (second radar data) at the time t based on the corrected result value up to the radar data at the time t-1. to extract A process in which the ECU 360 detects an object at time t may be expressed as “T frame = function {x, y, z}”. Here, x, y, and z are features (variables) extracted from radar data.

하이브리드 융합 방식을 사용하는 경우, ECU(360)는 t-1 시점까지 영상 데이터를 이용하여 예측한 결과를 활용하여, t 시점에서의 레이더 데이터를 기준으로 객체를 검출한다. ECU(360)가 t 시점에서 객체를 검출하는 과정은 "T frame = function {x,y,z, Image(T-1 frame)}"라고 표현할 수 있다. 여기서, Image(T-1 frame)은 t-1 시점의 영상 데이터를 이용하여 예측되는 객체 정보(객체의 위치, 객체의 속도, 객체의 크기 등에 해당한다.In the case of using the hybrid fusion method, the ECU 360 detects an object based on the radar data at the time t by utilizing a result predicted using the image data up to time t-1. A process in which the ECU 360 detects an object at time t may be expressed as "T frame = function {x, y, z, Image(T-1 frame)}". Here, Image (T-1 frame) corresponds to object information (position of an object, velocity of an object, size of an object, etc.) predicted using image data at time t-1.

나아가, ECU(360)는 "T frame = function {a,b,c, Radar(T-1 frame)}"로 검출한 결과와 "T frame = function {x,y,z, Image(T-1 frame)}"로 예측한 결과를 병합하여 최종적으로 객체를 검출할 수도 있다.Further, the ECU 360 detects a result of "T frame = function {a, b, c, Radar(T-1 frame)}" and "T frame = function {x, y, z, Image(T-1)" frame)}", and finally the object can be detected by merging the predicted results.

도 5의 하단에는 객체 검출 결과의 예를 도시한다. An example of the object detection result is shown at the bottom of FIG. 5 .

먼저, ECU(360)는 현재 시점의 영상 데이터를 기준으로 횡단 보도를 검출하면, 타깃 관심 영역을 횡방향으로 확장할 수 있다. 또한, ECU(360)는 노면의 스쿨존(SCHOOL) 표시를 식별하면, 타깃 관심 영역을 횡방향 등으로 확장할 수도 있다. 또한, ECU(360)는 차선 정보를 식별하여 현재 주행 차선의 경우, 길이 방향으로 타깃 관심 영역을 확장할 수 있다.First, when the ECU 360 detects a crosswalk based on image data of a current viewpoint, the ECU 360 may horizontally expand the target ROI. In addition, the ECU 360 may expand the target ROI in the lateral direction or the like when identifying the school zone mark on the road surface. Also, the ECU 360 may identify the lane information to expand the target ROI in the longitudinal direction in the case of the current driving lane.

ECU(360)는 횡단 보도를 건너는 사람(O1)을 검출할 수 있다. 또한, ECU(360)는 현재 차량의 주향 방향 전방에 있는 다른 차량(O2)을 검출할 수 있다. 검출 결과에 따라, ECU(360)는 차량의 동작을 제어하는 다른 ECU 또는 인포테인먼트 ECU에 정보를 전달하여, 차량의 속도를 줄이거나, 운전자에게 일정한 정보를 경고할 수 있다. The ECU 360 may detect a person O1 crossing the crosswalk. Also, the ECU 360 may detect another vehicle O2 that is in front of the current vehicle in the striking direction. According to the detection result, the ECU 360 may transmit information to another ECU or infotainment ECU that controls the operation of the vehicle to reduce the speed of the vehicle or to warn the driver of certain information.

도 6은 객체를 검출하는 전자장치에 대한 예이다. 전자장치는 차량의 ECU, 객체 검출 전용 장치, 데이터 처리 전용 칩셋 등과 같은 형태로 구현될 수 있다.6 is an example of an electronic device for detecting an object. The electronic device may be implemented in the form of an ECU of a vehicle, an object detection-only device, a data processing-only chipset, or the like.

전자장치(400)는 저장장치(410), 메모리(420), 연산장치(430), 인터페이스 장치(440) 및 통신장치(450)를 포함할 수 있다.The electronic device 400 may include a storage device 410 , a memory 420 , an arithmetic device 430 , an interface device 440 , and a communication device 450 .

저장장치(410)는 영상 데이터에서 객체 정보를 추출 또는 객체를 검출하는 프로그램을 저장할 수 있다. The storage device 410 may store a program for extracting object information from image data or for detecting an object.

저장장치(410)는 레이더 데이터에서 객체 정보를 추출 또는 객체를 검출하는 프로그램을 저장할 수 있다. The storage device 410 may store a program for extracting object information from radar data or detecting an object.

저장장치(410)는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 프로그램을 저장할 수 있다. The storage device 410 may store a program for detecting an object by fusing image data and radar data.

저장장치(410)는 검출된 객체에 대한 정보를 저장할 수 있다.The storage device 410 may store information on the detected object.

메모리(420)는 전자장치(400)가 객체 검출 과정에서 생성되는 데이터 및 정보 등을 저장할 수 있다.The memory 420 may store data and information generated by the electronic device 400 during an object detection process.

인터페이스 장치(440)는 차량 통신을 통해 연결된 다른 객체로부터 일정한 데이터 및 명령을 입력받는 장치이다. The interface device 440 is a device that receives predetermined data and commands from other objects connected through vehicle communication.

인터페이스 장치(440)는 센서 장치(카메라 또는/및 레이더)로부터 영상 데이터 또는/및 레이더 데이터를 입력받을 수 있다. 인터페이스 장치(440)는 센서 장치에 일정한 명령(데이터 요청 등)을 전달할 수 있다.The interface device 440 may receive image data and/or radar data from a sensor device (camera and/or radar). The interface device 440 may transmit a predetermined command (data request, etc.) to the sensor device.

인터페이스 장치(440)는 다른 ECU로부터 일정한 데이터 또는 명령을 입력받을 수 있다. 인터페이스 장치(440)는 다른 ECU에 객체 검출 결과 또는 명령을 전달할 수도 있다.The interface device 440 may receive predetermined data or commands from other ECUs. The interface device 440 may transmit an object detection result or command to another ECU.

통신장치(450)는 무선 네트워크를 통해 일정한 정보를 수신하고 전송하는 구성을 의미한다. 차량 통신은 주로 버스 네트워크로 연결된 인터페이스 장치를 통해 데이터 및 정보를 주고받는다. 다만, 차량은 경우에 따라 별도의 무선 인터페이스(450)를 통해 차량 내부의 장치 간 또는 차량 외부의 객체와 정보를 주고받을 수도 있다.The communication device 450 means a configuration for receiving and transmitting certain information through a wireless network. Vehicle communication mainly exchanges data and information through an interface device connected by a bus network. However, in some cases, the vehicle may exchange information between devices inside the vehicle or with an object outside the vehicle through a separate wireless interface 450 .

통신장치(450)는 센서 장치(카메라 또는/및 레이더)로부터 영상 데이터 또는/및 레이더 데이터를 수신할 수 있다. 통신장치(450)는 센서 장치에 일정한 명령(데이터 요청 등)을 송신할 수도 있다.The communication device 450 may receive image data and/or radar data from a sensor device (camera and/or radar). The communication device 450 may transmit a predetermined command (such as a data request) to the sensor device.

통신장치(450)는 다른 ECU로부터 일정한 데이터 또는 명령을 수신할 수 있다. 통신장치(450)는 다른 ECU에 객체 검출 결과 또는 명령을 송신할 수도 있다.The communication device 450 may receive certain data or commands from other ECUs. The communication device 450 may transmit an object detection result or a command to another ECU.

통신장치(450)는 객체 검출 결과 및 추출한 객체 정보를 외부 객체(RSU, 주변 차량)에 송신할 수도 있다.The communication device 450 may transmit the object detection result and the extracted object information to an external object (RSU, surrounding vehicle).

연산 장치(430)는 저장장치(410)에 프로그램을 이용하여 t-1 시점의 제1 영상 데이터에서 객체 정보를 추출할 수 있다. The computing device 430 may extract object information from the first image data at time t-1 by using a program in the storage device 410 .

연산 장치(430)는 저장장치(410)에 프로그램을 이용하여 t-1 시점의 제1 레이더 데이터에서 객체 정보를 추출할 수 있다.The computing device 430 may extract object information from the first radar data at time t-1 by using a program in the storage device 410 .

연산 장치(430)는 저장장치(410)에 프로그램을 이용하여 t 시점의 제2 영상 데이터를 기준으로 타깃 관심 영역을 설정할 수 있다. 연산 장치(430)는 도로 노면의 시각 객체 정보를 기준으로 타깃 관심 영역을 설정할 수 있다. 타깃 관심 영역 설정은 도 4에서 설명한 바와 같다.The computing device 430 may set the target ROI based on the second image data at time t by using a program in the storage device 410 . The computing device 430 may set the target ROI based on visual object information on the road surface. Setting the target region of interest is the same as described with reference to FIG. 4 .

연산 장치(430)는 타깃 관심 영역에 대한 t 시점의 제2 영상 데이터 및 t 시점의 제1 레이더 데이터를 융합하여 객체를 검출할 수 있다. 객체 검출은 도 5에서 설명한 바와 같다.The computing device 430 may detect an object by fusing the second image data at time t and the first radar data at time t for the target ROI. Object detection is the same as described with reference to FIG. 5 .

연산 장치(430)는 타깃 관심 영역에 대한 t 시점의 제2 레이더 데이터 및 t 시점의 제1 영상 데이터를 융합하여 객체를 검출할 수 있다. 객체 검출은 도 5에서 설명한 바와 같다.The computing device 430 may detect an object by fusing the second radar data at time t and the first image data at time t for the target ROI. Object detection is the same as described with reference to FIG. 5 .

또한, 연산 장치(430)는 t 시점의 제2 영상 데이터 및 t 시점의 제1 레이더 데이터를 융합하여 객체를 검출한 결과 및 t 시점의 제2 레이더 데이터 및 t 시점의 제1 영상 데이터를 융합하여 객체를 검출한 결과를 병합하여 최종적으로 객체를 검출할 수도 있다.In addition, the computing device 430 fuses the second image data at time t and the first radar data at time t to detect an object and fuses the second radar data at time t and the first image data at time t. An object may be finally detected by merging the results of detecting the object.

연산 장치(430)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.The computing device 430 may be a device such as a processor, an AP, or a program embedded chip that processes data and processes a predetermined operation.

또한, 상술한 바와 같은 적응적 관심 영역 설정 방법, 카메라 및 레이더 융합 방법, 객체 검출 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 일시적 또는 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.In addition, the adaptive region-of-interest setting method, the camera and radar fusion method, and the object detection method as described above may be implemented as a program (or application) including an executable algorithm that can be executed in a computer. The program may be provided by being stored in a temporary or non-transitory computer readable medium.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM (read-only memory), PROM (programmable read only memory), EPROM(Erasable PROM, EPROM) 또는 EEPROM(Electrically EPROM) 또는 플래시 메모리 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specifically, the various applications or programs described above are CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM (read-only memory), PROM (programmable read only memory), EPROM (Erasable PROM, EPROM) Alternatively, it may be provided while being stored in a non-transitory readable medium such as an EEPROM (Electrically EPROM) or a flash memory.

일시적 판독 가능 매체는 스태틱 램(Static RAM,SRAM), 다이내믹 램(Dynamic RAM,DRAM), 싱크로너스 디램 (Synchronous DRAM,SDRAM), 2배속 SDRAM(Double Data Rate SDRAM,DDR SDRAM), 증강형 SDRAM(Enhanced SDRAM,ESDRAM), 동기화 DRAM(Synclink DRAM,SLDRAM) 및 직접 램버스 램(Direct Rambus RAM,DRRAM) 과 같은 다양한 RAM을 의미한다.Temporarily readable media include: Static RAM (SRAM), Dynamic RAM (DRAM), Synchronous DRAM (SDRAM), Double Data Rate SDRAM (DDR SDRAM), Enhanced SDRAM (Enhanced) SDRAM, ESDRAM), Synchronous DRAM (Synclink DRAM, SLDRAM) and Direct Rambus RAM (Direct Rambus RAM, DRRAM) refers to a variety of RAM.

본 실시례 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.This embodiment and the drawings attached to this specification merely clearly show a part of the technical idea included in the above-described technology, and within the scope of the technical idea included in the specification and drawings of the above-described technology, those skilled in the art can easily It will be apparent that all inferred modified examples and specific embodiments are included in the scope of the above-described technology.

Claims (15)

차량의 전자장치가 특정 시점의 제1 영상 데이터 및 제1 레이더 데이터 각각을 이용하여 특정 객체의 정보를 추출하는 단계;
상기 전자장치가 상기 특정 시점 이후 시점의 제2 영상 데이터에서 도로 노면의 시각 객체 정보를 검출하는 단계;
상기 전자장치가 상기 시각 객체 정보를 기준으로 객체 검출을 위한 타깃 관심 영역을 설정하는 단계; 및
상기 전자장치가 상기 타깃 관심 영역에 대한 상기 이후 시점의 제2 영상 데이터 또는 제2 레이더 데이터를 이용하여 상기 특정 객체를 검출하는 단계를 포함하되, 상기 이후 시점에서의 특정 객체 검출은 상기 특정 시점에서 획득한 상기 특정 객체의 검출 결과를 더 이용하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법.
extracting, by an electronic device of a vehicle, information on a specific object using each of first image data and first radar data at a specific time;
detecting, by the electronic device, visual object information of a road surface from second image data of a time point after the specific time point;
setting, by the electronic device, a target ROI for object detection based on the visual object information; and
and detecting, by the electronic device, the specific object using second image data or second radar data of the later time point for the target ROI, wherein the detection of the specific object at the later time point is performed at the specific time point. A method of detecting an object by fusing image data and radar data that further use the obtained detection result of the specific object.
제1항에 있어서,
상기 시각 객체 정보는 차선, 차선의 종류, 차선의 휘어진 방향, 차선의 휘어짐 정도 및 정지선을 포함하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법.
According to claim 1,
The visual object information is a method of detecting an object by fusing image data and radar data including a lane, a type of lane, a bending direction of a lane, a bending degree of a lane, and a stop line.
제2항에 있어서,
상기 시각 객체 정보는 주행 방향 표시, 속도 제한 표시, 보호구역 표시, 도로 정보 표시, 횡단 보도 표시, 금지 표시 및 정지 표시 중 적어도 하나의 표시를 더 포함하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법.
3. The method of claim 2,
The visual object information detects an object by fusing image data and radar data further comprising at least one of a driving direction display, a speed limit display, a protected area display, a road information display, a crosswalk display, a prohibition display, and a stop display. How to.
제1항에 있어서,
상기 전자장치는 상기 이후 시점에서의 상기 차량의 속도, 시간 및 주변 조도 중 적어도 하나의 정보를 더 이용하여 상기 타깃 관심 영역을 설정하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법.
According to claim 1,
The electronic device detects an object by fusing image data and radar data for setting the target region of interest by further using at least one of the vehicle speed, time, and ambient illuminance at the later time point.
제1항에 있어서,
상기 타깃 관심 영역은 객체 추적에 대한 우선 순위가 높은 경고 영역 및 객체 추적에 대한 우선 순위가 상기 경고 영역보다 낮은 후보 영역을 포함하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법.
According to claim 1,
The method of detecting an object by fusing image data and radar data, wherein the target region of interest includes a warning region having a high priority for object tracking and a candidate region having a lower priority for object tracking than the warning region.
제1항에 있어서,
상기 전자장치는 상기 시각 객체 정보를 기준으로 상기 이후 시점 이전에 설정된 초기 관심 영역을 일 방향 이동, 적어도 일 방향의 확대 또는 적어도 일 방향의 축소하여 상기 타깃 관심 영역을 설정하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법.
According to claim 1,
The electronic device receives image data and radar data for setting the target region of interest by moving, expanding in at least one direction, or reducing the initial region of interest set before the later time in one direction based on the visual object information. A method for detecting objects by fusion.
제1항에 있어서,
상기 전자장치는 시간 t-1 프레임의 상기 제1 레이더 데이터를 기준으로 상기 특정 객체에 대하여 시간 t 프레임에서 예측되는 객체의 위치, 속도 및 크기를 더 이용하여, 상기 시간 t 프레임의 상기 제2 영상 데이터에서 상기 객체를 검출하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법.
According to claim 1,
The electronic device further uses the position, velocity, and size of the object predicted in the time t frame with respect to the specific object based on the first radar data of the time t-1 frame, and the second image of the time t frame A method of detecting an object by fusing image data and radar data for detecting the object in data.
제1항에 있어서,
상기 전자장치는 시간 t-1 프레임의 상기 제1 영상 데이터를 기준으로 상기 특정 객체에 대하여 시간 t 프레임에서 예측되는 객체의 위치, 속도 및 크기를 더 이용하여, 상기 시간 t 프레임의 상기 제2 레이더 데이터에서 상기 객체를 검출하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법.
According to claim 1,
The electronic device further uses the position, velocity, and size of the object predicted in the time t frame with respect to the specific object based on the first image data of the time t-1 frame, and the second radar of the time t frame A method of detecting an object by fusing image data and radar data for detecting the object in data.
제1항에 있어서,
상기 전자장치는 상기 제2 영상 데이터 및 상기 제2 레이더 데이터를 각각 이용하여 상기 특정 객체를 검출한 결과들을 병합하여 최종적으로 상기 특정 객체를 검출하는 단계를 더 포함하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법.
According to claim 1,
The electronic device fuses image data and radar data further comprising the step of finally detecting the specific object by merging results of detecting the specific object using the second image data and the second radar data, respectively. How to detect an object.
특정 시점의 제1 영상 데이터 및 제1 레이더 데이터와 상기 특정 시점 이후 시점의 제2 영상 데이터 및 제2 레이더 데이터를 입력받는 입력장치;
영상 데이터 및 레이더 데이터를 이용하여 객체를 검출하는 프로그램을 저장하는 저장장치; 및
상기 제1 영상 데이터 및 상기 제1 레이더 데이터를 각각 이용하여 특정 객체의 정보를 추출하고, 상기 제2 영상 데이터에서 도로 노면의 시각 객체 정보를 기준으로 타깃 관심 영역을 설정하고, 상기 타깃 관심 영역에 대한 상기 제2 영상 데이터 및 상기 제2 레이더 데이터를 이용한 검출 결과를 융합하여 상기 특정 객체를 검출하는 연산장치를 포함하되,
상기 연산장치는 상기 특정 시점에서 획득한 상기 특정 객체의 검출 결과를 더 이용하여 상기 이후 시점에서의 특정 객체를 검출하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 전자장치.
an input device for receiving first image data and first radar data at a specific time point, and second image data and second radar data at a time point after the specific time point;
a storage device for storing a program for detecting an object using image data and radar data; and
information of a specific object is extracted using the first image data and the first radar data, respectively, and a target region of interest is set based on visual object information of a road surface from the second image data, and the target region of interest is And a computing device for detecting the specific object by fusing the detection result using the second image data and the second radar data,
The computing device further uses a detection result of the specific object acquired at the specific point in time to fuse image data for detecting the specific object at the later time point and radar data to detect the object.
제10항에 있어서,
상기 시각 객체 정보는 차선, 차선의 종류, 차선의 휘어진 방향, 차선의 휘어짐 정도 및 정지선을 포함하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 전자장치.
11. The method of claim 10,
The visual object information is an electronic device that detects an object by fusing image data and radar data including a lane, a type of lane, a bending direction of the lane, a bending degree of the lane, and a stop line.
제10항에 있어서,
상기 연산장치는 상기 이후 시점에서의 상기 차량의 속도, 시간 및 주변 조도 중 적어도 하나의 정보를 더 이용하여 상기 타깃 관심 영역을 설정하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 전자장치.
11. The method of claim 10,
The computing device detects an object by fusing image data and radar data for setting the target region of interest by further using at least one of the vehicle speed, time, and ambient illuminance at the later time point.
제10항에 있어서,
상기 연산장치는 상기 시각 객체 정보를 기준으로 상기 이후 시점 이전에 설정된 초기 관심 영역을 일 방향 이동, 적어도 일 방향의 확대 또는 적어도 일 방향의 축소하여 상기 타깃 관심 영역을 설정하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 전자장치.
11. The method of claim 10,
The computing device performs image data and radar data for setting the target region of interest by moving an initial region of interest set before the subsequent time point in one direction based on the visual object information, expanding in at least one direction, or reducing the region in at least one direction. An electronic device that detects an object by fusion.
제10항에 있어서,
상기 연산장치는 시간 t-1 프레임의 상기 제1 레이더 데이터를 기준으로 상기 특정 객체에 대하여 시간 t 프레임에서 예측되는 객체의 위치, 속도 및 크기를 더 이용하여, 상기 시간 t 프레임의 상기 제2 영상 데이터에서 상기 객체를 검출하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 전자장치.
11. The method of claim 10,
The computing device further uses the position, velocity, and size of the object predicted in the time t frame with respect to the specific object based on the first radar data of the time t-1 frame, and the second image of the time t frame An electronic device for detecting an object by fusing image data and radar data for detecting the object from data.
제10항에 있어서,
상기 연산장치는 시간 t-1 프레임의 상기 제1 영상 데이터를 기준으로 상기 특정 객체에 대하여 시간 t 프레임에서 예측되는 객체의 위치, 속도 및 크기를 더 이용하여, 상기 시간 t 프레임의 상기 제2 레이더 데이터에서 상기 객체를 검출하는 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 전자장치.
11. The method of claim 10,
The computing device further uses the position, velocity, and size of the object predicted in the time t frame with respect to the specific object based on the first image data of the time t-1 frame, and the second radar of the time t frame An electronic device for detecting an object by fusing image data and radar data for detecting the object from data.
KR1020210049912A 2021-01-11 2021-04-16 Object detection method based on radar-camera fusion and electronic apparatus KR20220101540A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210003243 2021-01-11
KR1020210003243 2021-01-11

Publications (1)

Publication Number Publication Date
KR20220101540A true KR20220101540A (en) 2022-07-19

Family

ID=82606894

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210049912A KR20220101540A (en) 2021-01-11 2021-04-16 Object detection method based on radar-camera fusion and electronic apparatus
KR1020210055139A KR102529475B1 (en) 2021-01-11 2021-04-28 Integrable/detachable camera and radar sensor system and error compensation method of the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210055139A KR102529475B1 (en) 2021-01-11 2021-04-28 Integrable/detachable camera and radar sensor system and error compensation method of the same

Country Status (1)

Country Link
KR (2) KR20220101540A (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005066656A1 (en) * 2003-12-26 2005-07-21 Hitachi, Ltd. Vehicle mounted radar system and its signal processing method
KR101756349B1 (en) * 2015-12-15 2017-07-10 현대오트론 주식회사 Vehicular radar-camera sensor module installing structure
JP2020003236A (en) * 2018-06-25 2020-01-09 株式会社リコー Distance measurement device, moving body, distance measurement method, and distance measurement system

Also Published As

Publication number Publication date
KR20220101542A (en) 2022-07-19
KR102529475B1 (en) 2023-05-08

Similar Documents

Publication Publication Date Title
CN110406533B (en) Lane keeping assist system and method for improving safety of longitudinal control of front vehicle follower
CN107433946B (en) Apparatus and method for controlling lane change considering priority
US9499171B2 (en) Driving support apparatus for vehicle
JP5690688B2 (en) Outside world recognition method, apparatus, and vehicle system
JP6654923B2 (en) Map information output device
Park et al. Robust range estimation with a monocular camera for vision-based forward collision warning system
CN106004876A (en) Gap-based speed control for automated driving system
US10752223B2 (en) Autonomous emergency braking system and method for vehicle at crossroad
US10325163B2 (en) Vehicle vision
US10339393B2 (en) Demarcation line recognition apparatus
CN109074742B (en) Peripheral recognition device, peripheral recognition method, and computer-readable recording medium
JP6717240B2 (en) Target detection device
JP6301714B2 (en) Travel route generator
JP6522255B1 (en) Behavior selection apparatus, behavior selection program and behavior selection method
US10482332B2 (en) Pedestrian determining apparatus for determining whether an object is a pedestrian crossing ahead of an own vehicle
JP2019093764A (en) Vehicle control device
US11180141B2 (en) Vehicle control system
JP2018036796A (en) Environment information processing device
KR20190109622A (en) System and method for detecting close cut-in vehicle based on free space signal
EP3709279A1 (en) Target detection device for vehicle
JP6654440B2 (en) Vehicle recognition device and vehicle recognition method
WO2017056724A1 (en) Periphery recognition device
US20210011481A1 (en) Apparatus for controlling behavior of autonomous vehicle and method thereof
CN111976585A (en) Projection information recognition device and method based on artificial neural network
KR20220101540A (en) Object detection method based on radar-camera fusion and electronic apparatus

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application