KR20210115493A - Method and system for analysing obstacle using analysis priority for obstacle candidate based on attention of driver - Google Patents

Method and system for analysing obstacle using analysis priority for obstacle candidate based on attention of driver Download PDF

Info

Publication number
KR20210115493A
KR20210115493A KR1020200031358A KR20200031358A KR20210115493A KR 20210115493 A KR20210115493 A KR 20210115493A KR 1020200031358 A KR1020200031358 A KR 1020200031358A KR 20200031358 A KR20200031358 A KR 20200031358A KR 20210115493 A KR20210115493 A KR 20210115493A
Authority
KR
South Korea
Prior art keywords
obstacle
obstacle candidate
driver
analysis
vehicle
Prior art date
Application number
KR1020200031358A
Other languages
Korean (ko)
Other versions
KR102352360B1 (en
Inventor
김선우
도상현
이재복
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020200031358A priority Critical patent/KR102352360B1/en
Publication of KR20210115493A publication Critical patent/KR20210115493A/en
Application granted granted Critical
Publication of KR102352360B1 publication Critical patent/KR102352360B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/009Priority selection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention provides a method and a system for analyzing an obstacle capable of analyzing obstacle candidates according to applied analysis priorities by providing the analysis priority of the obstacle candidates according to vision of a driver by previously obtaining and analyzing image data of the obstacle candidates in a direction where the vision of the driver does not reach.

Description

운전자의 시선에 기반한 장애물 후보들에 대한 분석 우선순위를 이용하여 장애물을 분석하는 방법 및 시스템{METHOD AND SYSTEM FOR ANALYSING OBSTACLE USING ANALYSIS PRIORITY FOR OBSTACLE CANDIDATE BASED ON ATTENTION OF DRIVER}Method and system for analyzing obstacles using analysis priority for obstacle candidates based on driver's gaze

아래의 설명은 운전자의 시선에 기반한 장애물 후보들에 대한 분석 우선순위를 이용하여 장애물을 분석하는 방법 및 시스템에 관한 것이다.The following description relates to a method and system for analyzing an obstacle using an analysis priority for obstacle candidates based on a driver's gaze.

운전자가 탑승하여 주행하는 일반 차량에는 운전미숙, 부주의 등의 원인으로 보행자 및 장애물과의 충돌을 방지하기 위하여, 센서를 이용하여 외부 환경을 인지하고 충돌 위험을 운전자에게 경고하거나 능동적으로 감속하는 기술이 적용되고 있다.In order to prevent collisions with pedestrians and obstacles due to inexperienced driving or negligence, a technology that recognizes the external environment using sensors and warns the driver of the risk of collision or actively decelerates is being applied

또한, 차량 주행시 충돌에 대한 경고만으로도 운전자가 빠르게 반응하여 충돌을 방지할 수 있으며, 능동적인 반응까지 적용되어 안전 주행에 큰 도움이 되고 있다. 일반 차량의 경우 모든 물체와의 충돌을 방지해야 하기 때문에 운전자의 의도와 관계없이 수동/능동적인 개입이 안전 운전에 도움이 된다.In addition, the driver can react quickly to prevent a collision with only a warning about a collision when driving a vehicle, and an active reaction is also applied, which is a great help in safe driving. In the case of a normal vehicle, it is necessary to prevent collision with any object, so passive/active intervention is helpful for safe driving regardless of the driver's intention.

[선행문헌번호][Prior literature number]

한국등록특허 제10-1628176호Korean Patent No. 10-1628176

운전자의 시선에 미치지 않는 방향의 장애물 후보들에 대해 먼저 이미지 데이터들을 획득하여 분석함으로써, 운전자의 시선에 따른 장애물 후보들의 분석 우선순위의 부여하고, 부여된 분석 우선순위에 따라 장애물 후보들을 분석할 수 있는 장애물 분석 방법 및 시스템을 제공한다.By first acquiring and analyzing image data for obstacle candidates in a direction that does not reach the driver's gaze, it is possible to give the analysis priority of the obstacle candidates according to the driver's gaze, and to analyze the obstacle candidates according to the given analysis priority. An obstacle analysis method and system are provided.

차량에 포함된 컴퓨터 장치가 수행하는 장애물 분석 방법에 있어서, 상기 컴퓨터 장치가 포함하는 적어도 하나의 프로세서에 의해, 운전자의 주시 방향을 결정하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 차량의 레이더로부터 수집된 포인트 클라우드 데이터를 이용하여 장애물 후보를 선정하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 운전자의 주시 방향 및 상기 선정된 장애물 후보의 위치에 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 차량의 카메라로부터 수집된 이미지 데이터에서 상기 선정된 장애물 후보의 위치에 대응하는 장애물 후보 이미지 데이터를 상기 결정된 분석 우선순위에 따라 획득하여 순차적으로 분석하는 단계를 포함하는 장애물 분석 방법을 제공한다.A method for analyzing an obstacle performed by a computer device included in a vehicle, the method comprising: determining a gaze direction of a driver by at least one processor included in the computer device; selecting, by the at least one processor, an obstacle candidate using the point cloud data collected from the radar of the vehicle; determining, by the at least one processor, an analysis priority for the selected obstacle candidate based on the driver's gaze direction and the position of the selected obstacle candidate; and sequentially analyzing, by the at least one processor, the obstacle candidate image data corresponding to the position of the selected obstacle candidate from the image data collected from the camera of the vehicle according to the determined analysis priority. A method for analyzing obstacles is provided.

일측에 따르면, 상기 분석 우선순위를 결정하는 단계는, 상기 운전자의 주시 방향 및 상기 선정된 장애물 후보의 위치에 따라 결정되는 방향간의 각도가 클수록 상기 선정된 장애물 후보에 대해 상대적으로 더 높은 분석 우선순위를 부여하는 것을 특징으로 할 수 있다.According to one side, in the determining of the analysis priority, the larger the angle between the driver's gaze direction and the direction determined according to the position of the selected obstacle candidate, the higher the analysis priority for the selected obstacle candidate. It may be characterized in that it is given.

다른 측면에 따르면, 상기 분석 우선순위를 결정하는 단계는, 상기 차량과 상기 선정된 장애물 후보의 위치에 따라 결정되는 거리에 더 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하는 것을 특징으로 할 수 있다.According to another aspect, the determining of the analysis priority comprises determining the analysis priority for the selected obstacle candidate further based on a distance determined according to the location of the vehicle and the selected obstacle candidate. can do.

또 다른 측면에 따르면, 상기 분석 우선순위를 결정하는 단계는, 상기 차량의 진행 방향에 더 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하는 것을 특징으로 할 수 있다.According to another aspect, the determining of the analysis priority may include determining the analysis priority of the selected obstacle candidate further based on the traveling direction of the vehicle.

또 다른 측면에 따르면, 상기 분석하는 단계는, 상기 수집된 이미지 데이터에서 상기 분석 우선순위가 상대적으로 더 높은 장애물 후보의 위치에 대응하는 장애물 후보 이미지 데이터를 상기 수집된 이미지 데이터에서 먼저 획득하여 분석하는 것을 특징으로 할 수 있다.According to another aspect, the analyzing may include first obtaining and analyzing obstacle candidate image data corresponding to the position of an obstacle candidate having a relatively higher analysis priority in the collected image data from the collected image data. can be characterized as

또 다른 측면에 따르면, 상기 장애물 후보를 선정하는 단계는, 포인트 클라우드 데이터로 구성된 학습 데이터를 이용하여 입력되는 포인트 클라우드 데이터에 대한 장애물 후보를 선정하도록 학습된 기계 학습 모듈에 상기 수집된 포인트 클라우드 데이터를 입력하여 장애물 후보를 선정하는 것을 특징으로 할 수 있다.According to another aspect, in the selecting of the obstacle candidate, the collected point cloud data is applied to a machine learning module trained to select an obstacle candidate for the input point cloud data by using the learning data composed of the point cloud data. It may be characterized in that an obstacle candidate is selected by input.

또 다른 측면에 따르면, 상기 운전자의 주시 방향을 결정하는 단계는, 상기 차량의 내부에 포함된 카메라를 통해 획득한 영상으로부터 상기 운전자의 주시점을 검출하여 상기 검출한 주시점에 따라 상기 운전자의 주시 방향을 결정하는 것을 특징으로 할 수 있다.According to another aspect, in the determining of the driver's gaze direction, the driver's gaze is detected according to the detected gaze point by detecting the driver's gaze point from an image acquired through a camera included in the vehicle. It may be characterized in that the direction is determined.

컴퓨터 장치와 결합되어 상기 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.Provided is a computer program stored in a computer-readable recording medium in combination with a computer device to execute the method on the computer device.

상기 방법을 컴퓨터 장치에 실행시키기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체를 제공한다.There is provided a computer-readable recording medium in which a program for executing the method in a computer device is recorded.

차량에 포함된 컴퓨터 장치에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 의해, 운전자의 주시 방향을 결정하고, 상기 차량의 레이더로부터 수집된 포인트 클라우드 데이터를 이용하여 장애물 후보를 선정하고, 상기 운전자의 주시 방향 및 상기 선정된 장애물 후보의 위치에 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하고, 상기 적어도 하나의 프로세서에 의해, 상기 차량의 카메라로부터 수집된 이미지 데이터에서 상기 선정된 장애물 후보의 위치에 대응하는 장애물 후보 이미지 데이터를 상기 결정된 분석 우선순위에 따라 획득하여 순차적으로 분석하는 것을 특징으로 하는 컴퓨터 장치를 제공한다.A computer device included in a vehicle, comprising at least one processor embodied to execute computer-readable instructions, wherein the at least one processor determines a gaze direction of a driver and collects data collected from the vehicle's radar. Selecting an obstacle candidate using point cloud data, determining an analysis priority for the selected obstacle candidate based on the driver's gaze direction and the position of the selected obstacle candidate, and by the at least one processor, It provides a computer device, characterized in that the obtained obstacle candidate image data corresponding to the position of the selected obstacle candidate from the image data collected from the camera of the vehicle according to the determined analysis priority and sequentially analyzed.

운전자의 시선에 미치지 않는 방향의 장애물 후보들에 대해 먼저 이미지 데이터들을 획득하여 분석함으로써, 운전자의 시선에 따른 장애물 후보들의 분석 우선순위의 부여하고, 부여된 분석 우선순위에 따라 장애물 후보들을 분석할 수 있다.By first acquiring and analyzing image data for obstacle candidates in a direction that does not reach the driver's gaze, the analysis priority of the obstacle candidates according to the driver's gaze is given, and the obstacle candidates can be analyzed according to the given analysis priority. .

도 1은 본 발명의 일실시예에 따른 주행 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다.
도 3은 본 발명의 일실시예에 따른 장애물 분석 방법의 예를 도시한 흐름도이다.
도 4는 본 발명의 일실시예에 있어서, 차량과 선정된 장애물 후보의 위치에 따라 결정되는 거리를 활용하는 예를 도시한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 차량의 주행 방향을 활용하는 예를 도시한 도면이다.
1 is a diagram illustrating an example of a driving environment according to an embodiment of the present invention.
2 is a block diagram illustrating an example of a computer device according to an embodiment of the present invention.
3 is a flowchart illustrating an example of an obstacle analysis method according to an embodiment of the present invention.
4 is a diagram illustrating an example of using a distance determined according to a location of a vehicle and a selected obstacle candidate according to an embodiment of the present invention.
5 is a diagram illustrating an example of utilizing a driving direction of a vehicle according to an embodiment of the present invention.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들에 따른 장애물 분석 시스템은 차량에 포함된 적어도 하나의 컴퓨터 장치를 포함할 수 있으며, 본 발명의 실시예들에 따른 장애물 분석 방법은 장애물 분석 시스템에 포함된 적어도 하나의 컴퓨터 장치를 통해 수행될 수 있다. 이때, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 장애물 분석 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 장애물 분석 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.The obstacle analysis system according to embodiments of the present invention may include at least one computer device included in a vehicle, and the obstacle analysis method according to embodiments of the present invention includes at least one computer device included in the obstacle analysis system. can be done through In this case, the computer program according to an embodiment of the present invention may be installed and driven in the computer device, and the computer device may perform the obstacle analysis method according to the embodiments of the present invention under the control of the driven computer program. . The above-described computer program may be stored in a computer-readable recording medium in order to be combined with a computer device to execute the obstacle analysis method in the computer.

도 1은 본 발명의 일실시예에 따른 주행 환경의 예를 도시한 도면이다. 도 1은 차량(110)과 장애물들(120, 130 및 140)을 나타내고 있다. 이때, 운전자의 주시 방향(111)에 따른 시야(112)는 한정되어 있기 때문에 이러한 장애물들(120, 130 및 140)을 동시에 살펴보기 어렵다. 예를 들어, 도 1의 실시예에서, 장애물 1(120)과 장애물 2(130)는 운전자의 시야(112)에 포함될 가능성이 높으며, 이에 따라 운전자가 직접 장애물 1(120) 및 장애물 2(130)에 대응할 가능성이 높은 반면, 장애물 3(140)은 운전자의 시야(112)에서 벗어나 있기 때문에, 운전자가 직접 대응하기 어려울 수 있다.1 is a diagram illustrating an example of a driving environment according to an embodiment of the present invention. 1 shows a vehicle 110 and obstacles 120 , 130 and 140 . At this time, since the field of view 112 according to the driver's gaze direction 111 is limited, it is difficult to simultaneously look at these obstacles 120 , 130 , and 140 . For example, in the embodiment of FIG. 1 , the obstacle 1 120 and the obstacle 2 130 are highly likely to be included in the driver's field of view 112 , and accordingly, the obstacle 1 120 and the obstacle 2 130 are directly included by the driver. ), while the obstacle 3 140 is out of the driver's field of view 112, it may be difficult for the driver to directly respond.

본 실시예에서 차량에 포함된 컴퓨터 장치는 기본적으로 모든 장애물들에 대한 탐지 및 대응을 진행할 수 있으나, 더 위험한 장애물을 보다 빠르게 인지하여 대응하기 위해, 운전자의 시선을 활용할 수 있다. 예를 들어, 차량에 포함된 컴퓨터 장치는 운전자의 주시 방향(111)과 장애물들(120, 130 및 140)의 위치에 기반하여 결정되는 장애물들(120, 130 및 140)의 방향들(121, 131 및 141)에 기반하여 장애물들(120, 130 및 140) 각각에 대한 분석 우선순위를 결정할 수 있으며, 이러한 분석 우선순위에 따라 순차적으로 장애물들(120, 130 및 140)을 분석할 수 있다. 예를 들어, 장애물들(120, 130 및 140) 중 장애물 3(140)의 분석 우선순위가 가장 높게 결정되는 경우, 차량에 포함된 컴퓨터 장치는 장애물 3(140)을 가장 먼저 분석할 수 있다. 이처럼, 본 실시예에 따른 컴퓨터 장치는 분석 우선순위에 따라 순차적으로 장애물 후보들을 분석함으로써, 상대적으로 더 위험한 장애물을 상대적으로 더 빠르게 인지하여 대응할 수 있다.In this embodiment, the computer device included in the vehicle may basically detect and respond to all obstacles, but may utilize the driver's gaze to recognize and respond to more dangerous obstacles more quickly. For example, the computer device included in the vehicle may determine the directions 121 of the obstacles 120 , 130 and 140 based on the driver's gaze direction 111 and the positions of the obstacles 120 , 130 and 140 . Based on 131 and 141 , it is possible to determine an analysis priority for each of the obstacles 120 , 130 and 140 , and sequentially analyze the obstacles 120 , 130 and 140 according to the analysis priority. For example, when the analysis priority of the obstacle 3 140 is determined to be the highest among the obstacles 120 , 130 , and 140 , the computer device included in the vehicle may analyze the obstacle 3 140 first. As such, the computer device according to the present embodiment may recognize and respond to a relatively more dangerous obstacle relatively quickly by sequentially analyzing the obstacle candidates according to the analysis priority.

도 2는 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다. 일례로, 앞서 설명한 차량에 포함된 컴퓨터 장치가 도 2를 통해 도시된 컴퓨터 장치(200)에 대응될 수 있다. 이러한 컴퓨터 장치(200)는 도 2에 도시된 바와 같이, 메모리(210), 프로세서(220), 통신 인터페이스(230) 그리고 입출력 인터페이스(240)를 포함할 수 있다.2 is a block diagram illustrating an example of a computer device according to an embodiment of the present invention. As an example, the computer device included in the vehicle described above may correspond to the computer device 200 illustrated in FIG. 2 . As shown in FIG. 2 , the computer device 200 may include a memory 210 , a processor 220 , a communication interface 230 , and an input/output interface 240 .

메모리(210)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(210)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 장치(200)에 포함될 수도 있다. 또한, 메모리(210)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(210)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(230)를 통해 메모리(210)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(260)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 장치(200)의 메모리(210)에 로딩될 수 있다.The memory 210 is a computer-readable recording medium and may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive. Here, a non-volatile mass storage device such as a ROM and a disk drive may be included in the computer device 200 as a separate permanent storage device distinct from the memory 210 . Also, the memory 210 may store an operating system and at least one program code. These software components may be loaded into the memory 210 from a computer-readable recording medium separate from the memory 210 . The separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, the software components may be loaded into the memory 210 through the communication interface 230 instead of a computer-readable recording medium. For example, the software components may be loaded into the memory 210 of the computer device 200 based on a computer program installed by files received through the network 260 .

프로세서(220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(210) 또는 통신 인터페이스(230)에 의해 프로세서(220)로 제공될 수 있다. 예를 들어 프로세서(220)는 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processor 220 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. The instructions may be provided to the processor 220 by the memory 210 or the communication interface 230 . For example, the processor 220 may be configured to execute a received instruction according to a program code stored in a recording device such as the memory 210 .

통신 인터페이스(230)는 네트워크(260)를 통해 컴퓨터 장치(200)가 다른 장치와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 장치(200)의 프로세서(220)가 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(230)의 제어에 따라 네트워크(260)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(260)를 거쳐 컴퓨터 장치(200)의 통신 인터페이스(230)를 통해 컴퓨터 장치(200)로 수신될 수 있다. 통신 인터페이스(230)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(220)나 메모리(210)로 전달될 수 있고, 파일 등은 컴퓨터 장치(200)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The communication interface 230 may provide a function for the computer device 200 to communicate with other devices via the network 260 . For example, a request, command, data, file, etc. generated by the processor 220 of the computer device 200 according to a program code stored in a recording device such as the memory 210 is transmitted to the network ( 260) to other devices. Conversely, signals, commands, data, files, etc. from other devices may be received by the computer device 200 through the communication interface 230 of the computer device 200 via the network 260 . A signal, command, or data received through the communication interface 230 may be transferred to the processor 220 or the memory 210 , and the file may be a storage medium (described above) that the computer device 200 may further include. persistent storage).

입출력 인터페이스(240)는 입출력 장치(250)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(240)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(250) 중 적어도 하나는 컴퓨터 장치(200)와 하나의 장치로 구성될 수도 있다. 예를 들어, 스마트폰이나 내비게이션과 같이 터치스크린, 마이크, 스피커 등이 컴퓨터 장치(200)에 포함된 형태로 구현될 수 있다. The input/output interface 240 may be a means for an interface with the input/output device 250 . For example, the input device may include a device such as a microphone, keyboard, or mouse, and the output device may include a device such as a display or a speaker. As another example, the input/output interface 240 may be a means for an interface with a device in which functions for input and output are integrated into one, such as a touch screen. At least one of the input/output devices 250 may include the computer device 200 and one device. For example, a touch screen, a microphone, a speaker, etc. may be implemented in a form included in the computer device 200 such as a smart phone or a navigation system.

또한, 다른 실시예들에서 컴퓨터 장치(200)는 도 2의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 장치(200)는 상술한 입출력 장치(250) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.Also, in other embodiments, the computer device 200 may include fewer or more components than those of FIG. 2 . However, there is no need to clearly show most of the prior art components. For example, the computer device 200 may be implemented to include at least a portion of the above-described input/output device 250 or may further include other components such as a transceiver and a database.

도 3은 본 발명의 일실시예에 따른 장애물 분석 방법의 예를 도시한 흐름도이다. 본 실시예에 따른 장애물 분석 방법은 컴퓨터 장치(200)에 의해 수행될 수 있다. 이때, 컴퓨터 장치(200)의 프로세서(220)는 메모리(210)가 포함하는 운영체제의 코드나 적어도 하나의 컴퓨터 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(220)는 컴퓨터 장치(200)에 저장된 코드가 제공하는 제어 명령에 따라 컴퓨터 장치(200)가 도 3의 방법이 포함하는 단계들(310 내지 340)을 수행하도록 컴퓨터 장치(200)를 제어할 수 있다.3 is a flowchart illustrating an example of an obstacle analysis method according to an embodiment of the present invention. The obstacle analysis method according to the present embodiment may be performed by the computer device 200 . In this case, the processor 220 of the computer device 200 may be implemented to execute a control instruction according to a code of an operating system included in the memory 210 or a code of at least one computer program. Here, the processor 220 causes the computer device 200 to perform the steps 310 to 340 included in the method of FIG. 3 according to a control command provided by a code stored in the computer device 200 . can control

단계(310)에서 컴퓨터 장치(200)는 운전자의 주시 방향을 결정할 수 있다. 일례로, 컴퓨터 장치(200)는 차량의 내부에 포함된 카메라를 통해 획득한 영상으로부터 운전자의 주시점을 검출하여 검출한 주시점에 따라 운전자의 주시 방향을 결정할 수 있다. 이러한 카메라는 차량 자체가 포함하는 카메라일 수도 있으나, 스마트폰, 내비게이션 및/또는 블랙박스 장치 등과 같이 컴퓨터 장치(200)에 연결되는 별도의 장치가 포함하는 카메라일 수도 있다. 운전자의 얼굴을 인식하고, 인식된 얼굴에 따라 운전자의 주시 방향을 결정하는 기술은 이미 잘 알려진 기술들을 활용할 수 있다.In operation 310 , the computer device 200 may determine the driver's gaze direction. For example, the computer device 200 may detect the driver's gaze point from an image acquired through a camera included in the vehicle and determine the driver's gaze direction according to the detected gaze point. Such a camera may be a camera included in the vehicle itself, or may be a camera included in a separate device connected to the computer device 200 such as a smart phone, a navigation device, and/or a black box device. A technology for recognizing the driver's face and determining the driver's gaze direction according to the recognized face may utilize well-known technologies.

단계(320)에서 컴퓨터 장치(200)는 차량의 레이더로부터 수집된 포인트 클라우드 데이터를 이용하여 장애물 후보를 선정할 수 있다. 레이더는 마이크로파(극초단파, 10cm~100cm 파장) 정도의 전자기파나 레이저를 물체에 발사시켜 그 물체에서 반사되는 전자기파나 레이저를 수신하여 물체와의 거리, 방향, 고도 등을 알아내는 무선감시장치일 수 있다. 전자기파나 레이저의 진행 방향에 장애물이 위치하는 경우, 장애물이 위치하는 영역에 의해 반사되는 전자기파나 레이저에 의해 레이더는 다수의 포인트들이 클라우드를 형성하는 데이터(이하, '포인트 클라우드 데이터')를 얻게 된다. 다시 말해, 컴퓨터 장치(200)는 포인트 클라우드 데이터를 형성하는 위치에 장애물 후보가 존재함을 인식할 수 있게 된다. 이를 위해, 컴퓨터 장치(200)는 포인트 클라우드 데이터로 구성된 학습 데이터를 이용하여 입력되는 포인트 클라우드 데이터에 대한 장애물 후보를 선정하도록 학습된 기계 학습 모듈을 활용할 수 있다. 이 경우, 컴퓨터 장치(200)는 레이더를 통해 수집된 포인트 클라우드 데이터를 기계 학습 모듈에 입력하여 장애물 후보를 선정할 수 있게 된다. 이러한 기계 학습 모듈은 DNN(Deep Neural Network), CNN(Convolutional Neural Network) 또는 RNN(Recurrent Neural Network)과 같은 신경망에 기반하거나 또는 SVM(Support Vector Machine)과 같은 분류 모델에 기반할 수 있다.In operation 320 , the computer device 200 may select an obstacle candidate using point cloud data collected from the vehicle's radar. Radar is a wireless monitoring device that emits electromagnetic waves or lasers of about microwave (microwave, 10cm to 100cm wavelength) to an object, receives electromagnetic waves or lasers reflected from the object, and finds the distance, direction, and altitude of the object. . When an obstacle is located in the traveling direction of the electromagnetic wave or laser, the radar obtains data (hereinafter, 'point cloud data') in which a plurality of points form a cloud by the electromagnetic wave or laser reflected by the area where the obstacle is located. . In other words, the computer device 200 may recognize that an obstacle candidate exists at a position where the point cloud data is formed. To this end, the computer device 200 may utilize the machine learning module learned to select an obstacle candidate for the input point cloud data by using the learning data composed of the point cloud data. In this case, the computer device 200 may select an obstacle candidate by inputting the point cloud data collected through the radar into the machine learning module. Such a machine learning module may be based on a neural network such as a Deep Neural Network (DNN), a Convolutional Neural Network (CNN), or a Recurrent Neural Network (RNN), or may be based on a classification model such as a Support Vector Machine (SVM).

단계(330)에서 컴퓨터 장치(200)는 운전자의 주시 방향 및 선정된 장애물 후보의 위치에 기반하여 선정된 장애물 후보에 대한 분석 우선순위를 결정할 수 있다. 예를 들어, 컴퓨터 장치(200)는 운전자의 주시 방향 및 선정된 장애물 후보의 위치에 따라 결정되는 방향간의 각도에 기반하여 선정된 장애물 후보에 대한 분석 우선순위를 결정할 수 있다. 보다 구체적인 예로, 컴퓨터 장치(200)는 운전자의 주시 방향 및 선정된 장애물 후보의 위치에 따라 결정되는 방향간의 각도가 클수록 선정된 장애물 후보에 대해 상대적으로 더 높은 분석 우선순위를 부여할 수 있다. 상술한 각도가 클수록 해당 장애물 후보는 운전자의 시야에서 벗어나 있을 확률이 높으며, 따라서 상대적으로 더 위험한 장애물일 가능성이 존재한다. 이에, 컴퓨터 장치(200)는 이러한 장애물 후보에 더 높은 분석 우선순위를 부여하여 해당 장애물 후보가 더 빠르게 분석되도록 할 수 있다.In operation 330 , the computer device 200 may determine an analysis priority for the selected obstacle candidate based on the driver's gaze direction and the position of the selected obstacle candidate. For example, the computer device 200 may determine an analysis priority for the selected obstacle candidate based on the angle between the driver's gaze direction and the direction determined according to the position of the selected obstacle candidate. As a more specific example, the computer device 200 may give a relatively higher analysis priority to the selected obstacle candidate as the angle between the driver's gaze direction and the direction determined according to the position of the selected obstacle candidate increases. As the above-mentioned angle is larger, the probability that the corresponding obstacle candidate is out of the driver's field of vision is high, and thus there is a possibility that it is a relatively dangerous obstacle. Accordingly, the computer device 200 may give the obstacle candidate a higher analysis priority so that the obstacle candidate is analyzed more quickly.

다른 실시예에서, 컴퓨터 장치(200)는 차량과 선정된 장애물 후보의 위치에 따라 결정되는 거리에 더 기반하여 선정된 장애물 후보에 대한 분석 우선순위를 결정할 수 있다. 예를 들어, 운전자의 주시 방향 및 선정된 장애물 후보의 위치에 따라 결정되는 방향간의 각도가 동일/유사한 두 장애물 후보들에 대해서는 거리가 더 가까운 장애물 후보에 상대적으로 더 높은 분석 우선순위가 부여될 수 있다. 보다 구체적인 예로, 각도에 따른 스코어와 거리에 따른 스코어가 합산된 가중치에 따라 분석 유선순위가 부여될 수 있다.In another embodiment, the computer device 200 may determine an analysis priority for the selected obstacle candidate further based on a distance determined according to the location of the vehicle and the selected obstacle candidate. For example, with respect to two obstacle candidates having the same/similar angle between directions determined according to the driver's gaze direction and the position of the selected obstacle candidate, a relatively higher analysis priority may be given to an obstacle candidate having a closer distance. . As a more specific example, an analysis streamline ranking may be given according to a weight obtained by adding a score according to an angle and a score according to a distance.

또 다른 실시예에서, 컴퓨터 장치(200)는 차량의 진행 방향에 더 기반하여 선정된 장애물 후보에 대한 분석 우선순위를 결정할 수 있다. 차량의 진행 방향과 무관한 장애물 후보의 경우에는 상대적으로 분석 우선순위를 낮게 부여할 수 있다. 보다 구체적인 예로, 각도에 따른 스코어와 거리에 따른 스코어, 그리고 차량의 진행 방향과 장애물 후보의 위치에 따른 스코어가 합산된 가중치에 따라 분석 유선순위가 부여될 수 있다.In another embodiment, the computer device 200 may determine an analysis priority for the selected obstacle candidate further based on the traveling direction of the vehicle. In the case of an obstacle candidate that is not related to the direction of the vehicle, a relatively low priority for analysis may be given. As a more specific example, the analysis wired priority may be given according to a weight obtained by adding a score according to an angle, a score according to a distance, and a score according to a driving direction of a vehicle and a position of an obstacle candidate.

단계(340)에서 컴퓨터 장치(200)는 차량의 카메라로부터 수집된 이미지 데이터에서 선정된 장애물 후보의 위치에 대응하는 장애물 후보 이미지 데이터를 결정된 분석 우선순위에 따라 획득하여 순차적으로 분석할 수 있다. 이때, 컴퓨터 장치(200)는 수집된 이미지 데이터에서 분석 우선순위가 높은 장애물 후보의 위치에 대응하는 장애물 후보 이미지 데이터를 수집된 이미지 데이터에서 먼저 획득하여 분석할 수 있다. 예를 들어, 레이더로부터 수집된 포인트 클라우드 데이터만으로는 장애물의 종류나 장애물의 위치 및 크기 등을 정확하게 분석하기 어렵기 때문에, 카메라로부터 수집되는 이미지 데이터가 더 활용될 수 있다. 이 경우, 이미지 데이터에서 정확한 장애물을 인식하는 것은 일정 시간이 요구되기 때문에 컴퓨터 장치(200)는 이러한 운전자의 시선에 기반한 분석 우선순위에 따라 순차적으로 장애물 후보들을 분석함으로써 상대적으로 더 위험한 장애물을 상대적으로 더 빠르게 인지하여 대응할 수 있게 된다.In operation 340, the computer device 200 may obtain and sequentially analyze the obstacle candidate image data corresponding to the position of the selected obstacle candidate from the image data collected from the camera of the vehicle according to the determined analysis priority. In this case, the computer device 200 may first obtain and analyze the obstacle candidate image data corresponding to the position of the obstacle candidate having a high analysis priority in the collected image data from the collected image data. For example, since it is difficult to accurately analyze the type of obstacle or the location and size of an obstacle only with point cloud data collected from radar, image data collected from a camera may be further utilized. In this case, since a certain time is required to accurately recognize an obstacle in the image data, the computer device 200 sequentially analyzes the obstacle candidates according to the analysis priority based on the driver's gaze, thereby recognizing a relatively more dangerous obstacle. You will be able to recognize and respond more quickly.

도 4는 본 발명의 일실시예에 있어서, 차량과 선정된 장애물 후보의 위치에 따라 결정되는 거리를 활용하는 예를 도시한 도면이다. 도 4는 차량(110)과 장애물 A(410) 및 장애물 B(420)를 나타내고 있다. 이때, 운전자의 주시 방향(111)과 장애물 A(410)의 위치에 따라 결정되는 방향(411)간의 제1 각도, 그리고 운전자의 주시 방향(111)과 장애물 B(420)의 위치에 따라 결정되는 방향(421)간의 제2 각도만을 고려하는 경우, 장애물 B(420)에 더 높은 분석 우선순위가 결정될 수 있다. 그러나, 본 실시예에서는 장애물 A(410)가 장애물 B(420)보다 더 가까이에 존재하기 때문에 장애물 A(410)를 먼저 분석해야 할 필요성이 존재한다. 이에 앞서 설명한 컴퓨터 장치(200)는 각도에 따른 스코어와 거리에 따른 스코어를 각각 산출한 후 합산하여 합산된 스코어에 따른 가중치에 따라 장애물 A(410) 및 장애물 B(420) 각각의 분석 우선순위를 결정할 수 있다. 다시 말해, 운전자의 주시 방향(111)에 대해 상대적으로 더 큰 각도에 위치하는 장애물 B(420)보다 차량(110)에 상대적으로 더 가까운 장애물 A(410)가 더 높은 분석 우선순위를 가질 수도 있게 된다.4 is a diagram illustrating an example of using a distance determined according to a location of a vehicle and a selected obstacle candidate according to an embodiment of the present invention. 4 shows a vehicle 110 and an obstacle A 410 and an obstacle B 420 . At this time, the first angle between the driver's gaze direction 111 and the direction 411 determined according to the position of the obstacle A 410, and the driver's gaze direction 111 and the position of the obstacle B 420 When only the second angle between the directions 421 is considered, a higher analysis priority may be determined for the obstacle B 420 . However, in the present embodiment, since the obstacle A 410 is closer than the obstacle B 420 , there is a need to first analyze the obstacle A 410 . The computer device 200 described above calculates the score according to the angle and the score according to the distance, respectively, and adds them up to determine the analysis priority of each of the obstacles A 410 and B 420 according to the weight according to the summed score. can decide In other words, an obstacle A 410 relatively closer to the vehicle 110 may have a higher analysis priority than an obstacle B 420 positioned at a relatively larger angle with respect to the driver's gaze direction 111 . do.

도 5는 본 발명의 일실시예에 있어서, 차량의 주행 방향을 활용하는 예를 도시한 도면이다. 도 5는 차량(110)과 장애물 a(510) 및 장애물 b(520)를 나타내고 있다. 차량(110)과 장애물 a(510)간의 거리, 그리고 차량(110)과 장애물 b(520)간의 거리는 동일하다고 가정한다. 이 경우, 운전자의 주시 방향(111)과 장애물 a(510)의 위치에 따라 결정되는 방향(511)간의 제1 각도, 그리고 운전자의 주시 방향(111)과 장애물 b(520)의 위치에 따라 결정되는 방향(521)간의 제2 각도만을 고려하는 경우, 장애물 b(520)에 더 높은 분석 우선순위가 결정될 수 있다. 그러나, 본 실시예에서는 차량(110)의 진행 방향(530)에 장애물 a(510)가 존재하기 때문에 장애물 a(510)를 먼저 분석해야 할 필요성이 존재한다. 이에 앞서 설명한 컴퓨터 장치(200)는 각도에 따른 스코어, 그리고 차량의 진행 방향(530)과의 장애물들(510 및 520) 각각의 위치에 따른 스코어를 각각 산출한 후 합산하여 합산된 스코어에 따른 가중치에 따라 장애물 a(510) 및 장애물 b(520) 각각의 분석 우선순위를 결정할 수 있다. 다시 말해, 운전자의 주시 방향(111)에 대해 상대적으로 더 큰 각도에 위치하는 장애물 b(520)보다 차량(110)의 진행 방향(530)과 관련성이 더 높은 장애물 a(510)가 더 높은 분석 우선순위를 가질 수도 있게 된다.5 is a diagram illustrating an example of utilizing a driving direction of a vehicle according to an embodiment of the present invention. 5 shows the vehicle 110 and an obstacle a 510 and an obstacle b 520 . It is assumed that the distance between the vehicle 110 and the obstacle a 510 and the distance between the vehicle 110 and the obstacle b 520 are the same. In this case, the first angle between the driver's gaze direction 111 and the direction 511 determined according to the position of the obstacle a 510 and the driver's gaze direction 111 and the position of the obstacle b 520 are determined according to the first angle. When only the second angle between the directions 521 is considered, a higher analysis priority may be determined for the obstacle b 520 . However, in the present embodiment, since the obstacle a 510 exists in the traveling direction 530 of the vehicle 110 , there is a need to first analyze the obstacle a 510 . The computer device 200 described above calculates the score according to the angle and the score according to the position of each of the obstacles 510 and 520 in the traveling direction 530 of the vehicle, and then adds them up and adds a weight according to the summed score. Accordingly, it is possible to determine an analysis priority of each of the obstacle a 510 and the obstacle b 520 . In other words, the analysis that the obstacle a (510) having a higher relevance to the traveling direction 530 of the vehicle 110 is higher than the obstacle b (520) located at a relatively larger angle with respect to the driver's gaze direction 111 . You can even have priorities.

이와 같이, 본 발명의 실시예들에 따르면, 운전자의 시선에 미치지 않는 방향의 장애물 후보들에 대해 먼저 이미지 데이터들을 획득하여 분석함으로써, 운전자의 시선에 따른 장애물 후보들의 분석 우선순위의 부여하고, 부여된 분석 우선순위에 따라 장애물 후보들을 분석할 수 있다.As described above, according to embodiments of the present invention, by first acquiring and analyzing image data for obstacle candidates in a direction that does not reach the driver's gaze, the analysis priority of the obstacle candidates according to the driver's gaze is given, and the given Obstacle candidates can be analyzed according to the analysis priority.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or apparatus described above may be implemented as a hardware component or a combination of a hardware component and a software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The medium may be to continuously store a computer executable program, or to temporarily store it for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or several hardware combined, it is not limited to a medium directly connected to any computer system, and may exist distributed on a network. Examples of the medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and those configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media may include recording media or storage media managed by an app store that distributes applications, sites that supply or distribute other various software, and servers. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (15)

차량에 포함된 컴퓨터 장치가 수행하는 장애물 분석 방법에 있어서,
상기 컴퓨터 장치가 포함하는 적어도 하나의 프로세서에 의해, 운전자의 주시 방향을 결정하는 단계;
상기 적어도 하나의 프로세서에 의해, 상기 차량의 레이더로부터 수집된 포인트 클라우드 데이터를 이용하여 장애물 후보를 선정하는 단계;
상기 적어도 하나의 프로세서에 의해, 상기 운전자의 주시 방향 및 상기 선정된 장애물 후보의 위치에 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하는 단계; 및
상기 적어도 하나의 프로세서에 의해, 상기 차량의 카메라로부터 수집된 이미지 데이터에서 상기 선정된 장애물 후보의 위치에 대응하는 장애물 후보 이미지 데이터를 상기 결정된 분석 우선순위에 따라 획득하여 순차적으로 분석하는 단계
를 포함하는 장애물 분석 방법.
In the obstacle analysis method performed by a computer device included in a vehicle,
determining a driver's gaze direction by at least one processor included in the computer device;
selecting, by the at least one processor, an obstacle candidate using the point cloud data collected from the radar of the vehicle;
determining, by the at least one processor, an analysis priority for the selected obstacle candidate based on the driver's gaze direction and the position of the selected obstacle candidate; and
acquiring and sequentially analyzing, by the at least one processor, obstacle candidate image data corresponding to the position of the selected obstacle candidate from the image data collected from the camera of the vehicle according to the determined analysis priority;
An obstacle analysis method comprising a.
제1항에 있어서,
상기 분석 우선순위를 결정하는 단계는,
상기 운전자의 주시 방향 및 상기 선정된 장애물 후보의 위치에 따라 결정되는 방향간의 각도에 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하는 것을 특징으로 하는 장애물 분석 방법.
According to claim 1,
The step of determining the analysis priority,
The obstacle analysis method, characterized in that the analysis priority for the selected obstacle candidate is determined based on an angle between the driver's gaze direction and a direction determined according to the position of the selected obstacle candidate.
제1항에 있어서,
상기 분석 우선순위를 결정하는 단계는,
상기 운전자의 주시 방향 및 상기 선정된 장애물 후보의 위치에 따라 결정되는 방향간의 각도가 클수록 상기 선정된 장애물 후보에 대해 상대적으로 더 높은 분석 우선순위를 부여하는 것을 특징으로 하는 장애물 분석 방법.
According to claim 1,
The step of determining the analysis priority,
The obstacle analysis method, characterized in that, as the angle between the driver's gaze direction and the direction determined according to the position of the selected obstacle candidate increases, a relatively higher analysis priority is given to the selected obstacle candidate.
제1항에 있어서,
상기 분석 우선순위를 결정하는 단계는,
상기 차량과 상기 선정된 장애물 후보의 위치에 따라 결정되는 거리에 더 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하는 것을 특징으로 하는 장애물 분석 방법.
According to claim 1,
The step of determining the analysis priority,
The obstacle analysis method, characterized in that the analysis priority for the selected obstacle candidate is further based on a distance determined according to the location of the vehicle and the selected obstacle candidate.
제1항에 있어서,
상기 분석 우선순위를 결정하는 단계는,
상기 차량의 진행 방향에 더 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하는 것을 특징으로 하는 장애물 분석 방법.
According to claim 1,
The step of determining the analysis priority,
Obstacle analysis method, characterized in that the analysis priority for the selected obstacle candidate is determined further based on the traveling direction of the vehicle.
제1항에 있어서,
상기 분석하는 단계는,
상기 수집된 이미지 데이터에서 상기 분석 우선순위가 상대적으로 더 높은 장애물 후보의 위치에 대응하는 장애물 후보 이미지 데이터를 상기 수집된 이미지 데이터에서 먼저 획득하여 분석하는 것을 특징으로 하는 장애물 분석 방법.
According to claim 1,
The analyzing step is
The obstacle analysis method, characterized in that in the collected image data, the obstacle candidate image data corresponding to the position of the obstacle candidate having a relatively higher analysis priority is first obtained and analyzed from the collected image data.
제1항에 있어서,
상기 장애물 후보를 선정하는 단계는,
포인트 클라우드 데이터로 구성된 학습 데이터를 이용하여 입력되는 포인트 클라우드 데이터에 대한 장애물 후보를 선정하도록 학습된 기계 학습 모듈에 상기 수집된 포인트 클라우드 데이터를 입력하여 장애물 후보를 선정하는 것을 특징으로 하는 장애물 분석 방법.
According to claim 1,
The step of selecting the obstacle candidate comprises:
Obstacle analysis method, characterized in that selecting an obstacle candidate by inputting the collected point cloud data into a machine learning module trained to select an obstacle candidate for the input point cloud data by using the learning data composed of the point cloud data.
제1항에 있어서,
상기 운전자의 주시 방향을 결정하는 단계는,
상기 차량의 내부에 포함된 카메라를 통해 획득한 영상으로부터 상기 운전자의 주시점을 검출하여 상기 검출한 주시점에 따라 상기 운전자의 주시 방향을 결정하는 것을 특징으로 하는 장애물 분석 방법.
According to claim 1,
The step of determining the driver's gaze direction includes:
An obstacle analysis method, characterized in that by detecting the driver's gaze point from an image acquired through a camera included in the vehicle, and determining the driver's gaze direction according to the detected gaze point.
제1항 내지 제8항 중 어느 한 항의 방법을 컴퓨터 장치에 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium in which a computer program for executing the method of any one of claims 1 to 8 in a computer device is recorded. 차량에 포함된 컴퓨터 장치에 있어서,
컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서에 의해,
운전자의 주시 방향을 결정하고,
상기 차량의 레이더로부터 수집된 포인트 클라우드 데이터를 이용하여 장애물 후보를 선정하고,
상기 운전자의 주시 방향 및 상기 선정된 장애물 후보의 위치에 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하고,
상기 적어도 하나의 프로세서에 의해, 상기 차량의 카메라로부터 수집된 이미지 데이터에서 상기 선정된 장애물 후보의 위치에 대응하는 장애물 후보 이미지 데이터를 상기 결정된 분석 우선순위에 따라 획득하여 순차적으로 분석하는 것
을 특징으로 하는 컴퓨터 장치.
A computer device included in a vehicle, comprising:
at least one processor implemented to execute computer-readable instructions
including,
by the at least one processor,
determine the driver's gaze direction;
Selecting an obstacle candidate using the point cloud data collected from the radar of the vehicle,
determining an analysis priority for the selected obstacle candidate based on the driver's gaze direction and the position of the selected obstacle candidate;
Obtaining and sequentially analyzing, by the at least one processor, obstacle candidate image data corresponding to the position of the selected obstacle candidate in the image data collected from the camera of the vehicle according to the determined analysis priority
A computer device characterized by a.
제10항에 있어서,
상기 적어도 하나의 프로세서에 의해,
상기 운전자의 주시 방향 및 상기 선정된 장애물 후보의 위치에 따라 결정되는 방향간의 각도에 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하는 것
을 특징으로 하는 컴퓨터 장치.
11. The method of claim 10,
by the at least one processor,
Determining an analysis priority for the selected obstacle candidate based on an angle between the driver's gaze direction and a direction determined according to the position of the selected obstacle candidate
A computer device characterized by a.
제10항에 있어서,
상기 적어도 하나의 프로세서에 의해,
상기 운전자의 주시 방향 및 상기 선정된 장애물 후보의 위치에 따라 결정되는 방향간의 각도가 클수록 상기 선정된 장애물 후보에 대해 상대적으로 더 높은 분석 우선순위를 부여하는 것
을 특징으로 하는 컴퓨터 장치.
11. The method of claim 10,
by the at least one processor,
Giving a relatively higher analysis priority to the selected obstacle candidate as the angle between the driver's gaze direction and the direction determined according to the position of the selected obstacle candidate increases
A computer device characterized by a.
제10항에 있어서,
상기 적어도 하나의 프로세서에 의해,
상기 차량과 상기 선정된 장애물 후보의 위치에 따라 결정되는 거리에 더 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하는 것
을 특징으로 하는 컴퓨터 장치.
11. The method of claim 10,
by the at least one processor,
Determining an analysis priority for the selected obstacle candidate further based on a distance determined according to the location of the vehicle and the selected obstacle candidate
A computer device characterized by a.
제10항에 있어서,
상기 적어도 하나의 프로세서에 의해,
상기 차량의 진행 방향에 더 기반하여 상기 선정된 장애물 후보에 대한 분석 우선순위를 결정하는 것
을 특징으로 하는 컴퓨터 장치.
11. The method of claim 10,
by the at least one processor,
Determining an analysis priority for the selected obstacle candidate further based on the traveling direction of the vehicle
A computer device characterized by a.
제10항에 있어서,
상기 적어도 하나의 프로세서에 의해,
상기 수집된 이미지 데이터에서 상기 분석 우선순위가 상대적으로 더 높은 장애물 후보의 위치에 대응하는 장애물 후보 이미지 데이터를 상기 수집된 이미지 데이터에서 먼저 획득하여 분석하는 것
을 특징으로 하는 컴퓨터 장치.
11. The method of claim 10,
by the at least one processor,
In the collected image data, the obstacle candidate image data corresponding to the position of the obstacle candidate having a relatively higher analysis priority is first obtained and analyzed from the collected image data.
A computer device characterized by a.
KR1020200031358A 2020-03-13 2020-03-13 Method and system for analysing obstacle using analysis priority for obstacle candidate based on attention of driver KR102352360B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200031358A KR102352360B1 (en) 2020-03-13 2020-03-13 Method and system for analysing obstacle using analysis priority for obstacle candidate based on attention of driver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200031358A KR102352360B1 (en) 2020-03-13 2020-03-13 Method and system for analysing obstacle using analysis priority for obstacle candidate based on attention of driver

Publications (2)

Publication Number Publication Date
KR20210115493A true KR20210115493A (en) 2021-09-27
KR102352360B1 KR102352360B1 (en) 2022-01-18

Family

ID=77926165

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200031358A KR102352360B1 (en) 2020-03-13 2020-03-13 Method and system for analysing obstacle using analysis priority for obstacle candidate based on attention of driver

Country Status (1)

Country Link
KR (1) KR102352360B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024008016A1 (en) * 2022-07-08 2024-01-11 松灵机器人(深圳)有限公司 Operation map construction method and apparatus, mowing robot, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284797A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Drive safety device
JP2008189139A (en) * 2007-02-05 2008-08-21 Mazda Motor Corp Driving support device for vehicle
KR20130094997A (en) * 2012-02-17 2013-08-27 현대모비스 주식회사 Apparatus and method detectinc obstacle and alerting collision
JP5327321B2 (en) * 2009-06-04 2013-10-30 トヨタ自動車株式会社 Vehicle periphery monitoring device and vehicle periphery monitoring method
JP2014153874A (en) * 2013-02-07 2014-08-25 Denso Corp Target recognition device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284797A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Drive safety device
JP2008189139A (en) * 2007-02-05 2008-08-21 Mazda Motor Corp Driving support device for vehicle
JP5327321B2 (en) * 2009-06-04 2013-10-30 トヨタ自動車株式会社 Vehicle periphery monitoring device and vehicle periphery monitoring method
KR20130094997A (en) * 2012-02-17 2013-08-27 현대모비스 주식회사 Apparatus and method detectinc obstacle and alerting collision
JP2014153874A (en) * 2013-02-07 2014-08-25 Denso Corp Target recognition device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024008016A1 (en) * 2022-07-08 2024-01-11 松灵机器人(深圳)有限公司 Operation map construction method and apparatus, mowing robot, and storage medium

Also Published As

Publication number Publication date
KR102352360B1 (en) 2022-01-18

Similar Documents

Publication Publication Date Title
JP7239703B2 (en) Object classification using extraterritorial context
KR102223270B1 (en) Autonomous driving vehicles with redundant ultrasonic radar
US10782699B2 (en) Real-time perception adjustment and driving adaption based on surrounding vehicles' behavior for autonomous driving vehicles
US10535269B2 (en) Apparatus and method for collision control of vehicle based on boundary
US11308391B2 (en) Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles
US20200331476A1 (en) Automatic lane change with minimum gap distance
US20190278290A1 (en) Simulation-based method to evaluate perception requirement for autonomous driving vehicles
EP3315388B1 (en) Spring system-based change lane approach for autonomous vehicles
US9827811B1 (en) Vehicular haptic feedback system and method
CN108099918B (en) Method for determining a command delay of an autonomous vehicle
US20180143644A1 (en) Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions
JP7271467B2 (en) Automatic driving control method, device, electronic device and storage medium
CN104685550A (en) Indication of environmental hazards
JP6808775B2 (en) Object tracking using multiple queues
US11807269B2 (en) Method for vehicle avoiding obstacle, electronic device, and computer storage medium
US11372100B2 (en) Radar object classification and communication using smart targets
KR102352360B1 (en) Method and system for analysing obstacle using analysis priority for obstacle candidate based on attention of driver
US20200369295A1 (en) System for determining driver operating of autonomous vehicle and method therefor
JP2016197278A (en) Pedestrian determination device
KR102179835B1 (en) Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication
US20230192084A1 (en) Autonomous vehicle, control system for sharing information with autonomous vehicle, and method thereof
US20190384289A1 (en) System and method for controlling operation of an autonomous vehicle
US11854399B2 (en) System for controlling vehicle driving through roundabout and method of controlling the same
KR102602271B1 (en) Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network
JP2020154913A (en) Object detection device and method, traffic support server, computer program and sensor device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant