KR20200047886A - 운전자 보조 시스템 및 그 제어방법 - Google Patents
운전자 보조 시스템 및 그 제어방법 Download PDFInfo
- Publication number
- KR20200047886A KR20200047886A KR1020180128523A KR20180128523A KR20200047886A KR 20200047886 A KR20200047886 A KR 20200047886A KR 1020180128523 A KR1020180128523 A KR 1020180128523A KR 20180128523 A KR20180128523 A KR 20180128523A KR 20200047886 A KR20200047886 A KR 20200047886A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- pedestrian
- obstacle
- image data
- radar
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000013459 approach Methods 0.000 claims description 10
- 230000003247 decreasing effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/34—Protecting non-occupants of a vehicle, e.g. pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G06K9/00369—
-
- G06K9/00791—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/50—Magnetic or electromagnetic sensors
- B60W2420/506—Inductive sensors, i.e. passive wheel sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/804—Relative longitudinal speed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/93185—Controlling the brakes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/932—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93272—Sensor installation details in the back of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93274—Sensor installation details on the side of the vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
일 실시예에 따른 운전자 보조 시스템은, 차량의 전방 시야(field of view)를 갖도록 상기 차량에 마련되고, 영상 데이터를 획득하는 카메라; 상기 차량에 대한 외부 감지 시야를 갖도록 상기 차량에 마련되고, 레이더 데이터를 획득하는 레이더; 및 상기 카메라에 의해 획득된 영상 데이터 및 상기 레이더에 의해 획득된 레이더 데이터를 처리하는 적어도 하나의 프로세서를 포함하는 제어부;를 포함하되, 상기 제어부는, 상기 영상 데이터 및 상기 레이더 데이터 중 적어도 하나에 기초하여 상기 차량의 전방에 정지하여 위치하는 정지 장애물을 인식(Detection)하고, 상기 레이더 데이터에 기초하여 상기 정지 장애물의 위치를 중심으로 관심영역(Range Of Interest, ROI)을 결정하고, 상기 레이더 데이터에 기초하여 상기 관심영역 내에 존재하는 객체를 식별하고, 상기 객체의 상기 차량의 주행 도로 방향으로의 속도에 기초하여 상기 객체를 보행자로 결정한다.
Description
개시된 발명은 운전자 보조 시스템에 관한 것으로써, 더욱 상세하게는 차량의 전방에 위치하는 보행자를 인식할 수 있는 운전자 보조 시스템에 관한 것이다.
최근 운전자가 외부 상황을 감지하지 못하는 경우를 대비하여, 차량 전방에 마련된 카메라가 촬영한 영상으로부터 보행자를 인식하여 차량의 전방에 보행자가 위치함을 운전자에게 알려주는 시스템이 개발되고 있다.
뿐만 아니라, 차량 전방에 마련된 레이더를 이용하여 차량 전방의 객체를 감지하여 차량의 전방에 보행자가 위치함을 운전자에게 알려주는 시스템 또한 개발되고 있다.
다만, 차량 전방에 설치된 레이더의 경우 3차원 좌표계(X,Y,Z)를 이용하여 객체를 감지함과 달리, 카메라를 통하여 획득한 영상을 통하여는 2차원 정보를 획득하는 바, 레이더 및 카메라의 융합을 통하여 보행자를 포함하는 객체의 위치 및 이동을 통한 트래킹의 정확성을 향상시키기 위한 기술 개발이 계속되고 있다.
차량의 전방에 위치하는 정지 장애물을 인식하여 정지 장애물을 중심으로 관심영역을 설정하고, 레이더를 이용하여 관심영역 내에 위치하는 보행자 후보를 결정하고, 카메라를 이용하여 보행자 후보를 보행자로 인식할 수 있는 운전자 보조 시스템 및 그 제어방법을 제공한다.
일 실시예에 따른 운전자 보조 시스템은, 차량의 전방 시야(field of view)를 갖도록 상기 차량에 마련되고, 영상 데이터를 획득하는 카메라; 상기 차량에 대한 외부 감지 시야를 갖도록 상기 차량에 마련되고, 레이더 데이터를 획득하는 레이더; 및 상기 카메라에 의해 획득된 영상 데이터 및 상기 레이더에 의해 획득된 레이더 데이터를 처리하는 적어도 하나의 프로세서를 포함하는 제어부;를 포함하되, 상기 제어부는, 상기 영상 데이터 및 상기 레이더 데이터 중 적어도 하나에 기초하여 상기 차량의 전방에 정지하여 위치하는 정지 장애물을 인식(Detection)하고, 상기 레이더 데이터에 기초하여 상기 정지 장애물의 위치를 중심으로 관심영역(Range Of Interest, ROI)을 결정하고, 상기 레이더 데이터에 기초하여 상기 관심영역 내에 존재하는 객체를 식별하고, 상기 객체의 상기 차량의 주행 도로 방향으로의 속도에 기초하여 상기 객체를 보행자로 결정한다.
상기 제어부는, 상기 레이더 데이터에 기초하여 상기 정지 장애물에 대한 상대 위치 정보를 결정하고, 상기 상대 위치 정보에 기초하여 상기 차량으로부터 상기 정지 장애물까지의 상대거리에 해당하는 지점부터 미리 설정된 거리 상수만큼 상기 차량으로부터 멀어지는 방향으로 연장된 지점까지의 영역 중 상기 차량을 중심으로 미리 설정된 각도에 해당하는 영역을 상기 관심영역으로 결정할 수 있다.
상기 제어부는, 상기 레이더 데이터 및 상기 영상 데이터 중 적어도 하나에 기초하여 상기 정지 장애물의 길이, 폭 및 높이 중 적어도 하나를 판단할 수 있다.
상기 제어부는, 상기 정지 장애물의 길이, 폭 및 높이 중 적어도 하나에 기초하여 상기 관심영역이 상기 정지 장애물이 위치하는 영역 및 상기 정지 장애물로부터 가려지는 후방 영역을 포함하도록 상기 미리 설정된 거리 상수 및 상기 미리 설정된 각도 중 적어도 하나를 갱신할 수 있다.
상기 제어부는, 상기 차량이 상기 정지 장애물에 접근함에 따라, 상기 미리 설정된 거리 상수를 감소하는 방향으로 갱신할 수 있다.
상기 제어부는, 상기 차량이 상기 정지 장애물에 접근함에 따라, 상기 미리 설정된 각도를 증가하는 방향으로 갱신할 수 있다.
상기 제어부는, 상기 레이더 데이터 및 상기 영상 데이터 중 적어도 하나로부터 식별되는 객체 중 상기 차량과의 상대 속도가 상기 차량의 속도와 동일한 객체를 상기 정지 장애물로 인식할 수 있다.
상기 제어부는, 상기 객체에 대한 영상 데이터를 획득하도록 상기 카메라를 제어하고, 상기 객체에 대한 영상 데이터를 미리 저장된 보행자 구분 데이터와 비교하여 상기 보행자를 결정할 수 있다.
상기 제어부는, 상기 영상 데이터 및 상기 레이더 데이터 중 적어도 하나에 기초하여 상기 보행자에 대한 상대 위치 정보 및 상대 속도 정보를 결정하고, 상기 보행자에 대한 상대 위치 정보 및 상대 속도 정보 중 적어도 하나에 기초하여 상기 차량과 상기 보행자 사이의 충돌까지의 시간(Time To Collision, TTC)을 결정할 수 있다.
상기 제어부는, 상기 충돌까지의 시간과 미리 설정된 기준 시간 사이의 비교 결과에 기초하여 상기 차량의 제동을 제어하는 제동 신호 또는 상기 차량의 조향을 제어하는 조향 신호를 상기 차량에 전송할 수 있다.
차량의 전방 시야(field of view)를 갖도록 상기 차량에 마련되고, 영상 데이터를 획득하는 카메라, 상기 차량에 대한 외부 감지 시야를 갖도록 상기 차량에 마련되고, 레이더 데이터를 획득하는 레이더 및 상기 카메라에 의해 획득된 영상 데이터 및 상기 레이더에 의해 획득된 레이더 데이터를 처리하는 적어도 하나의 프로세서를 포함하는 제어부를 포함하는 일 실시예에 따른 운전자 보조 시스템의 제어방법은, 상기 영상 데이터 및 상기 레이더 데이터 중 적어도 하나에 기초하여 상기 차량의 전방에 정지하여 위치하는 정지 장애물을 인식(Detection)하고; 상기 레이더 데이터에 기초하여 상기 정지 장애물의 위치를 중심으로 관심영역(Range Of Interest, ROI)을 결정하고; 상기 레이더 데이터에 기초하여 상기 관심영역 내에 존재하는 객체를 식별하고; 상기 객체의 상기 차량의 주행 도로 방향으로의 속도에 기초하여 상기 객체를 보행자로 결정하는 것;을 포함한다.
상기 관심영역을 결정하는 것은, 상기 레이더 데이터에 기초하여 상기 정지 장애물에 대한 상대 위치 정보를 결정하고; 상기 상대 위치 정보에 기초하여 상기 차량으로부터 상기 정지 장애물까지의 상대거리에 해당하는 지점부터 미리 설정된 거리 상수만큼 상기 차량으로부터 멀어지는 방향으로 연장된 지점까지의 영역 중 상기 차량을 중심으로 미리 설정된 각도에 해당하는 영역을 상기 관심영역으로 결정하는 것;을 포함할 수 있다.
상기 운전자 보조 시스템의 제어방법은, 상기 레이더 데이터 및 상기 영상 데이터 중 적어도 하나에 기초하여 상기 정지 장애물의 길이, 폭 및 높이 중 적어도 하나를 판단하는 것;을 더 포함할 수 있다.
상기 운전자 보조 시스템의 제어방법은, 상기 정지 장애물의 길이, 폭 및 높이 중 적어도 하나에 기초하여 상기 관심영역이 상기 정지 장애물이 위치하는 영역 및 상기 정지 장애물로부터 가려지는 후방 영역을 포함하도록 상기 미리 설정된 거리 상수 및 상기 미리 설정된 각도 중 적어도 하나를 갱신하는 것;을 더 포함할 수 있다.
상기 운전자 보조 시스템의 제어방법은, 상기 차량이 상기 정지 장애물에 접근함에 따라, 상기 미리 설정된 거리 상수를 감소하는 방향으로 갱신하는 것;을 더 포함할 수 있다.
상기 운전자 보조 시스템의 제어방법은, 상기 차량이 상기 정지 장애물에 접근함에 따라, 상기 미리 설정된 각도를 증가하는 방향으로 갱신하는 것;을 더 포함할 수 있다.
상기 정지 장애물을 인식하는 것은, 상기 레이더 데이터 및 상기 영상 데이터 중 적어도 하나로부터 식별되는 객체 중 상기 차량과의 상대 속도가 상기 차량의 속도와 동일한 객체를 상기 정지 장애물로 인식하는 것;을 포함할 수 있다.
상기 보행자를 결정하는 것은, 상기 객체에 대한 영상 데이터를 획득하도록 상기 카메라를 제어하고; 상기 객체에 대한 영상 데이터를 미리 저장된 보행자 구분 데이터와 비교하여 상기 보행자를 결정하는 것;을 포함할 수 있다.
상기 운전자 보조 시스템의 제어방법은, 상기 영상 데이터 및 상기 레이더 데이터 중 적어도 하나에 기초하여 상기 보행자에 대한 상대 위치 정보 및 상대 속도 정보를 결정하고; 상기 보행자에 대한 상대 위치 정보 및 상대 속도 정보 중 적어도 하나에 기초하여 상기 차량과 상기 보행자 사이의 충돌까지의 시간(Time To Collision, TTC)을 결정하는 것;을 더 포함할 수 있다.
상기 운전자 보조 시스템의 제어방법은, 상기 충돌까지의 시간과 미리 설정된 기준 시간 사이의 비교 결과에 기초하여 상기 차량의 제동을 제어하는 제동 신호 또는 상기 차량의 조향을 제어하는 조향 신호를 상기 차량에 전송하는 것;을 더 포함할 수 있다.
일 측면에 따른 운전자 보조 시스템 및 그 제어방법에 따르면, 차량의 전방에 위치하는 정지 장애물을 인식하여 정지 장애물을 중심으로 관심영역을 설정하고, 레이더를 이용하여 관심영역 내에 위치하는 보행자 후보를 결정하고, 카메라를 이용하여 보행자 후보를 보행자로 인식함으로써, 정지 장애물에 가려진 보행자를 보다 정확하고 효율적으로 인식할 수 있다.
도 1은 일 실시예에 의한 차량의 구성을 도시한다.
도 2는 일 실시예에 의한 운전자 보조 시스템의 구성을 도시한다.
도 3은 일 실시예에 의한 운전자 보조 시스템에 포함된 카메라 및 레이더를 도시한다.
도 4는 일 실시예에 따른 운전자 보조 시스템을 장착한 차량이 주행하는 상황을 도시한다.
도 5 및 도 6은 일 실시예에 따른 운전자 보조 시스템의 관심영역(Range Of Interest, ROI)를 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 운전자 보조 시스템의 제어방법에 있어서, 보행자를 인식하는 경우에 관한 순서도이다.
도 2는 일 실시예에 의한 운전자 보조 시스템의 구성을 도시한다.
도 3은 일 실시예에 의한 운전자 보조 시스템에 포함된 카메라 및 레이더를 도시한다.
도 4는 일 실시예에 따른 운전자 보조 시스템을 장착한 차량이 주행하는 상황을 도시한다.
도 5 및 도 6은 일 실시예에 따른 운전자 보조 시스템의 관심영역(Range Of Interest, ROI)를 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 운전자 보조 시스템의 제어방법에 있어서, 보행자를 인식하는 경우에 관한 순서도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 개시된 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 개시된 발명의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 일 실시예에 의한 차량(1)의 구성을 도시한다.
도 1에 도시된 바와 같이, 차량(1)은 엔진(10)과, 변속기(20)와, 제동 장치(30)와, 조향 장치(40)를 포함한다. 엔진(10)은 실린더와 피스톤을 포함하며, 차량(1)이 주행하기 위한 동력을 생성할 수 있다. 변속기(20)는 복수의 기어들을 포함하며, 엔진(10)에 의하여 생성된 동력을 차륜까지 전달할 수 있다. 제동 장치(30)는 차륜과의 마찰을 통하여 차량(1)을 감속시키거나 차량(1)을 정지시킬 수 있다. 조향 장치(40)는 차량(1)의 주행 방향을 변경시킬 수 있다.
차량(1)은 복수의 전장 부품들을 포함할 수 있다. 예를 들어, 차량(1)은 엔진 관리 시스템(Engine Management System, EMS)(11)과, 변속기 제어 유닛(Transmission Control Unit, TCU)(21)와, 전자식 제동 제어 모듈(Electronic Brake Control Module)(31)과, 전자식 조향 장치(Electronic Power Steering, EPS)(41)와, 바디 컨트롤 모듈(Body Control Module, BCM)(51)과, 운전자 보조 시스템(Driver Assistance System, DAS)(100)을 더 포함한다.
엔진 관리 시스템(11)은 가속 페달을 통한 운전자의 가속 의지 또는 운전자 보조 시스템(100)의 요청에 응답하여 엔진(10)을 제어할 수 있다. 예를 들어, 엔진 관리 시스템(11)은 엔진(10)의 토크를 제어할 수 있다.
변속기 제어 유닛(21)은 변속 레버를 통한 운전자의 변속 명령 및/또는 차량(1)의 주행 속도에 응답하여 변속기(20)를 제어할 수 있다. 예를 들어, 변속기 제어 유닛(21)은 엔진(10)으로부터 차륜까지의 변속 비율을 조절할 수 있다.
전자식 제동 제어 모듈(31)은 제동 페달을 통한 운전자의 제동 의지 및/또는 차륜들의 슬립(slip)에 응답하여 제동 장치(30)를 제어할 수 있다. 예를 들어, 전자식 제동 제어 모듈(31)은 차량(1)의 제동 시에 감지되는 차륜의 슬립에 응답하여 차륜의 제동을 일시적으로 해제할 수 있다(Anti-lock Braking Systems, ABS). 전자식 제동 제어 모듈(31)은 차량(1)의 조향 시에 감지되는 오버스티어링(oversteering) 및/또는 언더스티어링(understeering)에 응답하여 차륜의 제동을 선택적으로 해제할 수 있다(Electronic stability control, ESC). 또한, 전자식 제동 제어 모듈(31)은 차량(1)의 구동 시에 감지되는 차륜의 슬립에 응답하여 차륜을 일시적으로 제동할 수 있다(Traction Control System, TCS).
전자식 조향 장치(41)는 스티어링 휠을 통한 운전자의 조향 의지에 응답하여 운전자가 쉽게 스티어링 휠을 조작할 수 있도록 조향 장치(40)의 동작을 보조할 수 있다. 예를 들어, 전자식 조향 장치(41)는 저속 주행 또는 주차 시에는 조향력을 감소시키고 고속 주행 시에는 조향력을 증가시키도록 조향 장치(40)의 동작을 보조할 수 있다.
바디 컨트롤 모듈(51)은 운전자에게 편의를 제공하거나 운전자의 안전을 보장하는 전장 부품들의 동작을 제어할 수 있다. 예를 들어, 바디 컨트롤 모듈(51)은 헤드 램프, 와이퍼, 클러스터, 다기능 스위치 및 방향 지시 램프 등을 제어할 수 있다.
운전자 보조 시스템(100)은 운전자가 차량(1)을 조작(구동, 제동, 조향)하는 것을 보조할 수 있다. 예를 들어, 운전자 보조 시스템(100)은 차량(1) 주변의 환경(예를 들어, 다른 차량, 보행자, 차선, 도로 표지판 등)을 감지하고, 감지된 환경에 응답하여 차량(1)의 구동 및/또는 제동 및/또는 조향을 제어할 수 있다.
운전자 보조 시스템(100)은 운전자에게 다양한 기능을 제공할 수 있다. 예를 들어, 운전자 보조 시스템(100)은 차선 이탈 경고(Lane Departure Warning, LDW)와, 차선 유지 보조(Lane Keeping Assist, LKA)와, 상향등 보조(High Beam Assist, HBA)와, 자동 긴급 제동(Autonomous Emergency Braking, AEB)과, 교통 표지판 인식(Traffic Sign Recognition, TSR)과, 스마트 크루즈 컨트롤(Smart Cruise Control, SCC)과, 사각지대 감지(Blind Spot Detection, BSD) 등을 제공할 수 있다.
운전자 보조 시스템(100)은 차량(1) 주변의 영상 데이터를 획득하는 카메라 모듈(101)과, 차량(1) 주변의 객체 데이터를 획득하는 레이더 모듈(102)을 포함한다.
카메라 모듈(101)은 카메라(101a)와 제어기(Electronic Control Unit, ECU) (101b)를 포함하며, 차량(1)의 전방을 촬영하고 다른 차량, 보행자, 차선, 도로 표지판 등을 인식할 수 있다.
레이더 모듈(102)은 레이더(102a)와 제어기(102b)를 포함하며, 차량(1) 주변의 객체(예를 들어, 다른 차량, 보행자 등)의 상대 위치, 상대 속도 등을 획득할 수 있다.
이상의 전자 부품들은 차량용 통신 네트워크(NT)를 통하여 서로 통신할 수 있다. 예를 들어, 전장 부품들은 이더넷(Ethernet), 모스트(Media Oriented Systems Transport, MOST), 플렉스레이(Flexray), 캔(Controller Area Network, CAN), 린(Local Interconnect Network, LIN) 등을 통하여 데이터를 주고 받을 수 있다. 예를 들어, 운전자 보조 시스템(100)은 엔진 관리 시스템(11), 전자식 제동 제어 모듈(31) 및 전자식 조향 장치(41)에 각각 차량용 통신 네트워크(NT)를 통하여 구동 제어 신호, 제동 신호 및 조향 신호를 전송할 수 있다.
도 2는 일 실시예에 의한 운전자 보조 시스템(100)의 구성을 도시한다. 도 3은 일 실시예에 의한 운전자 보조 시스템(100)에 포함된 카메라(110) 및 레이더(120, 130)를 도시한다.
도 2에 도시된 바와 같이, 차량(1)은 제동 시스템(32)과, 조향 시스템(42)과, 운전자 보조 시스템(100)을 포함할 수 있다.
제동 시스템(32)은 도 1과 함께 설명된 전자식 제동 제어 모듈(31, 도 1 참조)과 제동 장치(30, 도 1 참조)를 포함하며, 조향 시스템(42)은 전자식 조향 장치(41, 도 1 참조)와 조향 장치(40, 도 1 참조)를 포함할 수 있다.
운전자 보조 시스템(100)은 전방 카메라(110)와, 전방 레이더(120)와, 복수의 코너 레이더들(130)을 포함할 수 있다.
전방 카메라(110)는 도 3에 도시된 바와 같이 차량(1)의 전방을 향하는 시야(field of view)(110a)를 가질 수 있다. 전방 카메라(110)는 예를 들어 차량(1)의 프론트 윈드 쉴드에 설치될 수 있다.
전방 카메라(110)는 차량(1)의 전방을 촬영하고, 차량(1) 전방의 영상 데이터를 획득할 수 있다. 차량(1) 전방의 영상 데이터는 차량(1) 전방에 위치하는 다른 차량 또는 보행자 또는 차선에 관한 위치 정보를 포함할 수 있다.
전방 카메라(110)는 복수의 렌즈들 및 이미지 센서를 포함할 수 있다. 이미지 센서는 광을 전기 신호로 변환하는 복수의 포토 다이오드들을 포함할 수 있으며, 복수의 포토 다이오드들이 2차원 매트릭스로 배치될 수 있다.
전방 카메라(110)는 제어부(140)와 전기적으로 연결될 수 있다. 예를 들어, 전방 카메라(110)는 차량용 통신 네트워크(NT)를 통하여 제어부(140)와 연결되거나, 하드 와이어(hard wire)를 통하여 제어부(140)와 연결되거나, 인쇄 회로 기판(Printed Circuit Board, PCB)을 통하여 제어부(140)와 연결될 수 있다.
전방 카메라(110)는 차량(1) 전방의 영상 데이터를 제어부(140)로 전달할 수 있다.
전방 레이더(120)는 도 3에 도시된 바와 같이 차량(1)의 전방을 향하는 감지 시야(field of sensing)(120a)을 가질 수 있다. 전방 레이더(120)는 예를 들어 차량(1)의 그릴(grille) 또는 범퍼(bumper)에 설치될 수 있다.
전방 레이더(120)는 차량(1)의 전방을 향하여 송신 전파를 방사하는 송신 안테나(또는 송신 안테나 어레이)와, 객체에 반사된 반사 전파를 수신하는 수신 안테나(또는 수신 안테나 어레이)를 포함할 수 있다. 전방 레이더(120)는 송신 안테나에 의한 송신된 송신 전파와 수신 안테나에 의하여 수신된 반사 전파로부터 전방 레이더 데이터를 획득할 수 있다. 전방 레이더 데이터는 차량(1) 전방에 위치하는 다른 차량 또는 보행자에 관한 거리 정보 및 속도 정도를 포함할 수 있다. 전방 레이더(120)는 송신 전파와 반사 전파 사이의 위상 차이(또는 시간 차이)에 기초하여 객체까지의 상태 거리를 산출하고, 송신 전파와 반사 전파 사이의 주파수 차이에 기초하여 객체의 상대 속도를 산출할 수 있다.
전방 레이더(120)는 예를 들어 차량용 통신 네트워크(NT) 또는 하드 와이어 또는 인쇄 회로 기판을 통하여 제어부(140)와 연결될 수 있다. 전방 레이더(120)는 전방 레이더 데이터를 제어부(140)로 전달할 수 있다.
복수의 코너 레이더들(130)은 차량(1)의 전방 우측에 설치되는 제1 코너 레이더(131)와, 차량(1)의 전방 좌측에 설치되는 제2 코너 레이더(132)와, 차량(1)의 후방 우측에 설치되는 제3 코너 레이더(133)와, 차량(1)의 후방 좌측에 설치되는 제4 코너 레이더(134)를 포함한다.
제1 코너 레이더(131)는 도 3에 도시된 바와 같이 차량(1)의 전방 우측을 향하는 감지 시야(131a)를 가질 수 있다. 전방 레이더(120)는 예를 들어 차량(1)의 전방 범퍼의 우측에 설치될 수 있다. 제2 코너 레이더(132)는 차량(1)의 전방 좌측을 향하는 감지 시야(132a)를 가질 수 있으며, 예를 들어 차량(1)의 전방 범퍼의 좌측에 설치될 수 있다. 제3 코너 레이더(133)는 차량(1)의 후방 우측을 향하는 감지 시야(133a)를 가질 수 있으며, 예를 들어 차량(1)의 후방 범퍼의 우측에 설치될 수 있다. 제4 코너 레이더(134)는 차량(1)의 후방 좌측을 향하는 감지 시야(134a)를 가질 수 있으며, 예를 들어 차량(1)의 후방 범퍼의 좌측에 설치될 수 있다.
제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134) 각각은 송신 안테나와 수신 안테나를 포함할 수 있다. 제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134)은 각각 제1 코너 레이더 데이터와 제2 코너 레이더 데이터와 제3 코너 레이더 데이터와 제4 코너 레이더 데이터를 획득할 수 있다. 제1 코너 레이더 데이터는 차량(1) 전방 우측에 위치하는 다른 차량 또는 보행자(이하 "객체"라 한다)에 관한 거리 정보 및 속도 정도를 포함할 수 있다. 제2 코너 레이더 데이터는 차량(1) 전방 좌측에 위치하는 객체의 거리 정보 및 속도 정도를 포함할 수 있다. 제3 및 제4 코너 레이더 데이터는 차량(1) 후방 우측 및 차량(1) 후방 좌측에 위치하는 객체의 거리 정보 및 속도 정보를 포함할 수 있다.
제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134) 각각은 예를 들어 차량용 통신 네트워크(NT) 또는 하드 와이어 또는 인쇄 회로 기판을 통하여 제어부(140)와 연결될 수 있다. 제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134)은 각각 제1, 제2, 제3 및 제4 코너 레이더 데이터를 제어부(140)로 전달할 수 있다.
제어부(140)는 카메라 모듈(101, 도 1 참조)의 제어기(101b, 도 1 참조) 및/또는 레이더 모듈(102, 도 1 참조)의 제어기(102b, 도 1 참조) 및/또는 별도의 통합 제어기를 포함할 수 있다.
제어부(140)는 프로세서(141)와 메모리(142)를 포함한다.
프로세서(141)는 전방 카메라(110)의 전방 영상 데이터와 전방 레이더(120)의 전방 레이더 데이터와 복수의 코너 레이더들(130)의 코너 레이더 데이터를 처리하고, 제동 시스템(32) 및 조향 시스템(42)을 제어하기 위한 제동 신호 및 조향 신호를 생성할 수 있다. 예를 들어, 프로세서(141)는 전방 카메라(110)의 전방 영상 데이터를 처리하는 이미지 시그널 프로세서 및/또는 레이더(120, 130)의 레이더 데이터를 처리하는 디지털 시그널 프로세서 및/또는 제동 신호와 조향 신호를 생성하는 마이크로 컨트롤 유닛(Micro Control Unit, MCU)를 포함할 수 있다.
프로세서(141)는 전방 카메라(110)의 전방 영상 데이터와 전방 레이더(120)의 전방 레이더 데이터와 복수의 코너 레이더들(130)의 코너 레이더 데이터에 기초하여 차량(1) 전방의 객체들(예를 들어, 다른 차량, 보행자 등)을 감지할 수 있다.
구체적으로, 프로세서(141)는 전방 레이더(120)의 전방 레이더 데이터와 복수의 코너 레이더들(130)의 코너 레이더 데이터에 기초하여 차량(1) 전방의 객체들의 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다.
즉, 프로세서(141)는 레이더(120, 130)의 레이더 데이터에 기초하여 차량(1) 전방의 객체들의 차량에 대한 상대 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다.
프로세서(141)는 전방 카메라(110)의 전방 영상 데이터에 기초하여 차량(1) 전방의 객체들의 위치 정보(방향) 및 유형 정보(예를 들어, 객체가 다른 차량인지, 또는 보행자인지 등)를 획득할 수 있다. 또한, 프로세서(141)는 전방 영상 데이터에 의하여 감지된 객체들을 전방 레이더 데이터에 의한 감지된 객체에 매칭하고, 매칭 결과에 기초하여 차량(1)의 전방 객체들의 유형 정보와 위치 정보와 속도 정보를 획득할 수 있다.
프로세서(141)는 전방 객체들의 유형 정보와 위치 정보와 속도 정보에 기초하여 제동 신호와 조향 신호를 생성할 수 있다.
예를 들어, 프로세서(141)는 전방 객체들의 위치 정보(거리)와 속도 정보(상대 속도)에 기초하여 차량(1)과 전방 객체 사이의 충돌까지의 시간(Time to Collision, TTC)를 산출하고, 충돌까지의 시간과 미리 정해진 기준 시간 사이의 비교 결과에 기초하여 운전자에게 충돌을 경고하거나 제동 신호를 제동 시스템(32)으로 전송할 수 있다. 미리 정해진 제1 기준 시간보다 작은 충돌까지의 시간에 응답하여, 프로세서(141)는 오디오 및/또는 디스플레이를 통한 경고를 출력하도록 할 수 있다. 미리 정해진 제2 기준 시간보다 작은 충돌까지의 시간에 응답하여, 프로세서(141)는 사전 제동 신호를 제동 시스템(32)으로 전송할 수 있다. 미리 정해진 제3 기준 시간보다 작은 충돌까지의 시간에 응답하여, 프로세서(141)는 긴급 제동 신호를 제동 시스템(32)으로 전송할 수 있다. 이때, 제2 기준 시간은 제1 기준 시간보다 작고, 제3 기준 시간은 제2 기준 시간보다 작다.
다른 예로, 프로세서(141)는 전방 객체들의 속도 정보(상대 속도)에 기초하여 충돌까지의 거리(Distance to Collision, DTC)를 산출하고, 충돌까지의 거리와 전방 객체들까지의 거리 사이의 비교 결과에 기초하여 운전자에게 충돌을 경고하거나 제동 신호를 제동 시스템(32)으로 전송할 수 있다.
또한, 프로세서(141)는 충돌까지의 시간과 미리 정해진 기준 시간 사이의 비교 결과에 기초하여 운전자에게 충돌을 경고하거나 조향 신호를 조향 시스템(42)으로 전송할 수 있다. 미리 정해진 제1 기준 시간보다 작은 충돌까지의 시간에 응답하여, 프로세서(141)는 오디오 및/또는 디스플레이를 통한 경고를 출력하도록 할 수 있다. 미리 정해진 제2 기준 시간보다 작은 충돌까지의 시간에 응답하여, 프로세서(141)는 사전 조향 신호를 조향 시스템(42)으로 전송할 수 있다. 미리 정해진 제3 기준 시간보다 작은 충돌까지의 시간에 응답하여, 프로세서(141)는 긴급 조향 신호를 조향 시스템(42)으로 전송할 수 있다. 이때, 제2 기준 시간은 제1 기준 시간보다 작고, 제3 기준 시간은 제2 기준 시간보다 작다.
다른 예로, 프로세서(141)는 전방 객체들의 속도 정보(상대 속도)에 기초하여 충돌까지의 거리(Distance to Collision, DTC)를 산출하고, 충돌까지의 거리와 전방 객체들까지의 거리 사이의 비교 결과에 기초하여 운전자에게 충돌을 경고하거나 조향 신호를 조향 시스템(42)으로 전송할 수 있다.
또한, 프로세서(141)는 복수의 코너 레이더들(130)의 코너 레이더 데이터에 기초하여 차량(1) 측방(전방 우측, 전방 좌측, 후방 우측, 후방 좌측)의 객체들의 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다.
메모리(142)는 프로세서(141)가 영상 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 레이더 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 프로세서(141)가 제동 신호 및/또는 조향 신호를 생성하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.
메모리(142)는 전방 카메라(110)로부터 수신된 영상 데이터 및/또는 레이더(120, 130)로부터 수신된 레이더 데이터를 임시로 기억하고, 프로세서(141)의 영상 데이터 및/또는 레이더 데이터의 처리 결과를 임시로 기억할 수 있다.
메모리(142)는 S램(S-RAM), D램(D-RAM) 등의 휘발성 메모리뿐만 아니라 플래시 메모리, 롬(Read Only Memory, ROM), 이피롬(Erasable Programmable Read Only Memory: EPROM) 등의 비휘발성 메모리를 포함할 수 있다.
도 4는 일 실시예에 따른 운전자 보조 시스템(100)을 장착한 차량(1)이 주행하는 상황을 도시한다.
도 4에 도시된 바와 같이, 일 실시예에 따른 운전자 보조 시스템(100)을 장착한 차량(1)이 주행하는 상황에서, 차량(1)의 우측 전방에 정지하여 위치하는 정지 장애물(2)이 위치할 수 있다.
이때, 정지 장애물(2)은, 차량(1)의 좌측 전방 또는 우측 전방에 정지하여 위치하는 객체로서, 다른 차량 및 도로 구조물 등을 포함할 수 있다.
이와 같이, 차량(1)의 좌측 전방 또는 우측 전방에 정지하여 위치하는 정지 장애물(2)이 위치하는 경우, 차량(1)의 전방에서 바라보았을 때 정지 장애물(2)에 의하여 가려지는 후방 영역이 존재할 수 있다.
이때, 정지 장애물(2)에 의하여 가려지는 후방 영역은 차량(1)에서 차량(1)이 진행하는 방향으로 바라보았을 때 정지 장애물(2)에 의하여 가려지는 영역에 해당할 수 있으며, 정지 장애물(2)을 기준으로 차량(1)이 진행하는 방향에 위치할 수 있다.
정지 장애물(2)의 후방 영역에 위치하는 객체(보행자, 구조물 등)(3)가 존재하고, 정지 장애물(2)의 후방 영역에 위치하는 객체(3)가 차량(1)이 진행하고 있는 도로 상으로 진입하는 상황이라면, 차량(1)은 정지 장애물(2)의 후방 영역에 위치하는 객체(3)를 인식하지 못하여 차량 사고를 유발할 수 있다.
또한, 기존의 보행자 인식 기술의 경우, 카메라의 영상 데이터를 기반으로 영상 데이터와 유사한 레이더 데이터를 융합하여 보행자를 인식하는데, 정지 장애물의 후방 영역에 위치하던 보행자가 갑자기 차량(1)이 진행하고 있는 도로 상으로 진입하는 경우, 카메라가 레이더보다 보행자를 늦게 감지하는 경우가 있어 보행자 인식의 성능에 문제가 있을 수 있다.
따라서, 운전자 보조 시스템(100)의 프로세서(141)는 전방 카메라(110)의 전방 영상 데이터 및 레이더(120, 130)의 레이더 데이터 중 적어도 하나에 기초하여 차량(1)의 전방에 정지하여 위치하는 정지 장애물(2)을 우선적으로 인식하고, 레이더(120, 130)의 레이더 데이터에 기초하여 정지 장애물(2)의 상대 위치 정보(거리, 방향)을 결정하고, 정지 장애물(2)의 상대 위치 정보에 기초하여 정지 장애물(2)의 위치를 중심으로 관심영역(Range Of Interest, ROI)을 결정할 수 있다. 관심영역과 관련하여는 뒤에서 다시 자세히 설명하기로 한다.
이를 통해, 운전자 보조 시스템(100)의 레이더(120, 130)는 관심영역에 대하여 레이더 데이터를 획득할 수 있으며, 프로세서(141)는 레이더(120, 130)의 레이더 데이터에 기초하여 정지 장애물(2)에 의하여 가려지는 후방 영역에 위치하는 객체(3)를 식별할 수 있다.
즉, 운전자 보조 시스템(100)은 정지 장애물(2)에 의하여 가려져서 전방 카메라(110)로 영상 데이터를 획득하지 못하는 상황에서도 사전에 레이더(120, 130)를 통하여 관심영역에 대한 레이더 데이터를 획득함으로써, 정지 장애물(2)에 의하여 가려지는 후방 영역에서 갑자기 주행 도로로 진입할 수 있는 객체(3)를 식별할 수 있다.
구체적으로, 일 실시예에 따른 프로세서(141)는, 레이더(120, 130)의 레이더 데이터에 기초하여 관심영역 내에 존재하는 객체(3)를 식별할 수 있으며, 객체(3)의 상대 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다.
이때, 일 실시예에 따른 프로세서(141)는, 식별된 객체(3)의 차량(1)의 주행 도로 방향으로의 속도가 미리 설정된 임계 속도 이상이면, 식별된 객체(3)를 보행자로 추정되는 보행자 후보로 결정할 수 있다.
보행자는, 차량(1)과의 충돌로 인해 상해를 입을 수 있는 교통약자(Vulnerable Road User, VRU)에 해당하는 객체로, 움직임에 따라 차량(1)과 충돌 가능성이 있을 수 있어 전방 카메라(110) 및 레이더(120, 130)을 이용한 인식의 대상이 되는 객체에 해당하며, 보행하는 사람 외에 자전거, 오토바이 등의 이동 수단을 이용하여 이동하는 사이클리스트(cyclist) 등이 포함될 수 있다.
또한, 보행자 후보는, 보행자로 추정되는 객체에 해당되며, 레이더(120, 130)의 레이더 데이터에 기초하여 차량(1)의 주행 도로 방향으로의 속도가 미리 설정된 임계 속도 이상인 객체로 판단되는 객체에 해당할 수 있다.
즉, 프로세서(141)는 레이더 데이터에 기초하여 보행자에 해당할 수 있는 보행자 후보를 우선적으로 식별함으로써, 이후 영상 데이터에 기초하여 보행자를 인식하는데 있어 보다 빠르고 정확하게 보행자를 인식할 수 있다.
일 실시예에 따른 프로세서(141)는, 보행자 후보에 대한 영상 데이터를 획득하도록 전방 카메라(110)를 제어할 수 있다.
이때, 전방 카메라(110)는 프로세서(141)의 제어에 따라 보행자 후보가 위치하는 관심영역에 대하여 영상 데이터를 획득할 수 있으며, 보행자 후보의 속도 정보에 기초하여 보행자 후보가 정지 장애물(2)의 후방 영역을 벗어나는 시점을 판단하여 보행자 후보에 대한 영상 데이터를 획득할 수 있다.
일 실시예에 따른 프로세서(141)는, 획득된 보행자 후보에 대한 영상 데이터를 미리 저장된 보행자 구분 데이터와 비교하여 보행자 후보가 보행자에 대응하는 경우, 보행자 후보를 보행자로 인식할 수 있다.
이때, 보행자 구분 데이터는, 일반적인 보행자에 해당하는 사람 또는 사이클리스트에 대한 특징에 대한 데이터로서, 메모리(142) 상에 미리 저장되어 있을 수 있으며, 프로세서(141)는 획득된 영상 데이터 상의 보행자 후보의 특징이 보행자 구분 데이터 상의 사람 또는 사이클리스트의 특징과 대응하는지 여부를 판단하여 보행자 후보와 보행자의 대응 여부를 판단할 수 있다.
다시 말해, 프로세서(141)는 레이더 데이터에 기초하여 관심영역(500) 내에 존재하는 객체(3)의 차량(1)의 주행 도로 방향으로의 속도에 기초하여 객체(3)를 보행자로 결정할 수 있으며, 객체(3)에 대한 영상 데이터를 미리 저장된 보행자 구분 데이터와 비교하여 보행자를 결정함으로써, 레이더 데이터에 기초하여 결정된 보행자를 영상 데이터에 기초하여 다시 판단할 수 있다.
이를 통해, 운전자 보조 시스템(100)은 보행자 인식에 있어 보다 정확한 인식 결과를 제공할 수 있다.
이와 같이, 프로세서(141)는, 보행자 후보가 위치할 수 있는 관심영역에 대한 영상 데이터를 우선적으로 처리하여 보다 신속하고 효율적으로 관심영역에 위치할 수 있는 보행자를 인식할 수 있다.
즉, 프로세서(141)는 차량(1)의 전방에 대한 전체 영상 데이터 중 관심영역에 대한 영상 데이터를 우선적으로 처리하여 계산량을 줄일 수 있어 보다 신속하고 효율적으로 보행자를 인식할 수 있다.
운전자 보조 시스템(100)은 정지 장애물(2)에 가려져 보이지 않을 수 있는 정지 장애물(2)의 후방 영역에 위치하는 객체(3)에 대하여도 사전에 관심영역을 결정하여, 차량 전방에 대한 보행자 인식을 수행하는 경우에 비하여 계산량을 줄일 수 있어 효율적으로 보행자를 인식할 수 있다.
또한, 운전자 보조 시스템(100)은 정지 장애물(2)에 가려져 보이지 않을 수 있는 정지 장애물(2)의 후방 영역에 위치하는 객체(3)에 대하여도 사전에 레이더(120, 130)를 이용하여 보행자 후보를 선정할 수 있어, 전방 카메라(110)를 통한 보행자 인식의 신뢰도를 높일 수 있다.
또한, 운전자 보조 시스템(100)은 레이더(120, 130)의 레이더 데이터에 기초하여 획득된 보행자 후보에 대한 속도 정보를 이용하여 보행자 후보가 정지 장애물(2)의 후방 영역을 벗어나는 시점을 판단하여 보행자 후보에 대한 영상 데이터를 획득할 수 있어, 보행자에 대한 보다 높은 성능의 인식 결과를 얻을 수 있다.
이하에서는 정지 장애물(2)의 후방 영역에 위치하는 객체(3)를 식별하기 위한 관심영역에 대하여 자세히 설명한다.
도 5 및 도 6은 일 실시예에 따른 운전자 보조 시스템(100)의 관심영역(500)을 설명하기 위한 도면이다.
도 5에 도시된 바와 같이, 일 실시예에 따른 운전자 보조 시스템(100)이 장착되는 차량(1)이 주행하는 상황에서, 일 실시예에 따른 프로세서(141)는 전방 카메라(110)로부터 획득된 영상 데이터 및 레이더(120, 130)로부터 획득된 레이더 데이터를 수신할 수 있다.
일 실시예에 따른 프로세서(141)는 영상 데이터 및 레이더 데이터 중 적어도 하나에 기초하여 차량(1)의 전방에 정지하여 위치하는 정지 장애물(2)을 인식할 수 있다. 도 5 및 도 6에서는 정지 장애물(2)이 우측 전방에 정지하여 있는 것으로 도시하였으나, 이에 제한되는 것은 아니며, 정지 장애물(2)은 좌측 전방에 정지하여 위치할 수도 있다.
이때, 일 실시예에 따른 프로세서(141)는 영상 데이터 및 레이더 데이터 중 적어도 하나로부터 식별되는 객체 중 차량(1)과의 상대 속도가 차량(1)의 속도와 동일한 객체를 정지 장애물(2)로 인식할 수 있다.
즉, 프로세서(141)는, 전방에서 식별되는 복수의 객체 중 차량(1)과의 상대 속도가 차량(1)의 속도와 다른 객체는 주행중인 다른 차량인 것으로 판단할 수 있으며, 차량(1)과의 상대 속도가 차량(1)의 속도와 같은 객체만을 정지 장애물(2)로 인식할 수 있다.
일 실시예에 따른 프로세서(141)는 레이더 데이터에 기초하여 정지 장애물(2)에 대한 상대 위치 정보를 결정할 수 있다. 이때, 상대 위치 정보는 차량(1)으로부터 정지 장애물(2)까지의 거리 및 차량(1)의 우측 횡축(y축)을 기준으로 정지 장애물(2)까지의 각도에 대한 정보를 포함할 수 있다.
이하에서는, 차량(1)이 진행하는 방향을 종방향(x방향)으로 정의하며, 차량(1)이 진행하는 방향과 직각인 방향을 횡방향(y 방향)으로 정의한다.
또한, 설명의 편의를 위하여, 차량(1)을 중심으로 하는 좌표계에서 종방향을 향하는 축을 x축, 횡방향을 향하는 축을 y축으로 정의한다.
따라서, 정지 장애물(2)의 상대 위치 정보는 차량(1)을 중심으로 하는 좌표계에서, (xObstacle, yObstacle)로 나타낼 수 있으며, 차량(1)으로부터 정지 장애물(2)까지의 거리(rObstacle) 및 차량(1)의 우측 횡축(y축)을 기준으로 정지 장애물(2)까지의 각도(φObstacle)로도 나타낼 수 있다.
이때, 차량(1)을 중심으로 정지 장애물(2)까지의 거리(rObstacle)는, <수학식 1>을 만족할 수 있으며, 차량(1)의 우측 횡축(y축)을 기준으로 정지 장애물(2)까지의 각도(φObstacle)는 <수학식 2>를 만족할 수 있다.
또한, 일 실시예에 따른 프로세서(141)는, 레이더 데이터 및 영상 데이터 중 적어도 하나에 기초하여 정지 장애물(2)의 길이, 폭 및 높이를 결정할 수 있다.
즉, 레이더(120, 130)는, 정지 장애물(2)의 각 지점으로부터 반사된 반사 전파로부터 정지 장애물(2)의 길이, 폭 및 높이에 대한 정보를 포함하는 레이더 데이터를 획득할 수 있으며, 프로세서(141)는 레이더 데이터에 기초하여 정지 장애물(2)의 길이, 폭 및 높이를 결정할 수 있다.
또한, 프로세서(141)는, 전방 카메라(110)의 전방 영상 데이터에 기초하여 차량(1)의 전방의 정지 장애물(2)의 유형 정보를 획득할 수 있으며, 유형 정보에 기초하여 정지 장애물(2)의 길이, 폭 및 높이를 결정할 수 있다.
일 실시예에 따른 프로세서(141)는 정지 장애물(2)에 대한 상대 위치 정보에 기초하여 정지 장애물(2)의 위치를 중심으로 관심영역(500)을 결정할 수 있다.
구체적으로, 프로세서(141)는, 정지 장애물(2)의 상대 위치 정보에 기초하여 차량(1)으로부터 정지 장애물(2)까지의 상대거리에 해당하는 지점(rObstacle)부터 미리 설정된 거리 상수(dROI)만큼 차량(1)으로부터 멀어지는 방향으로 연장된 지점(rObstacle+dROI)까지의 영역 중 차량(1)을 중심으로 미리 설정된 각도(φROI)에 해당하는 영역을 관심영역(500)으로 결정할 수 있다.
즉, 프로세서(141)는, 반지름이 rObstacle+dROI이고 중심각이 φROI인 부채꼴에서 반지름이 rObstacle이고 중심각이 φROI인 부채꼴을 제거함으로써 관심영역(500)을 결정할 수 있다.
이때, 미리 설정된 거리 상수(dROI) 및 미리 설정된 각도(φROI)는 운전자 보조 시스템(100)의 설계 단계에서 미리 설정된 값으로 정지 장애물(2) 및 정지 장애물(2)에 의하여 가려질 것으로 예상되는 후방 영역을 포함할 수 있는 정도로 설정된 값에 해당한다.
일 실시예에 따른 프로세서(141)는, 정지 장애물(2)의 길이, 폭 및 높이 중 적어도 하나에 기초하여 관심영역(500)이 정지 장애물(2) 및 정지 장애물(2)로부터 가려지는 후방 영역을 포함하도록 미리 설정된 거리 상수(dROI) 및 미리 설정된 각도(φROI) 중 적어도 하나를 갱신할 수 있다.
즉, 프로세서(141)는 결정된 정지 장애물(2)의 길이 및 폭 중 적어도 하나를 고려하여 정지 장애물(2)이 위치하는 영역이 관심영역(500)에 포함될 수 있도록 미리 설정된 거리 상수(dROI) 및 미리 설정된 각도(φROI) 중 적어도 하나를 갱신할 수 있다.
또한, 프로세서(141)는 결정된 정지 장애물(2)의 높이에 비례하여 미리 설정된 거리 상수(dROI)를 증가하는 방향으로 갱신할 수 있다. 이는, 정지 장애물(2)의 높이가 클수록 정지 장애물(2)에 의하여 가려지는 후방 영역이 넓어질 수 있기 때문이다.
즉, 프로세서(141)는, 결정된 정지 장애물(2)의 길이, 폭 및 높이 중 적어도 하나를 고려하여 미리 설정된 거리 상수(dROI) 및 미리 설정된 각도(φROI) 중 적어도 하나를 갱신함으로써, 관심영역(500)이 정지 장애물(2)이 위치하는 영역과 정지 장애물(2)에 의하여 가려지는 후방 영역을 포함할 수 있도록 한다.
또한, 일 실시예에 따른 프로세서(141)는, 차량(1)이 정지 장애물(2)에 접근함에 따라, 미리 설정된 거리 상수(dROI)를 감소하는 방향으로 갱신할 수 있으며, 미리 설정된 각도(φROI)를 증가하는 방향으로 갱신할 수 있다.
도 6에 도시된 바와 같이, 도 5에 비하여 차량(1)이 정지 장애물(2)로부터 멀리 위치하는 경우에는, 도 6에서의 미리 설정된 거리 상수(dROI)가 도 5에서의 미리 설정된 거리 상수(dROI)에 비해 길게 나타나며, 도 6에서의 미리 설정된 각도(φROI)는 도 5에서의 미리 설정된 각도(φROI)에 비해 좁게 나타난다.
즉, 프로세서(141)는, 차량(1)과 정지 장애물(2) 사이의 거리(rObstacle)가 짧아질수록, 더 구체적으로는, 차량(1)과 정지 장애물(2) 사이의 종방향 거리(xObstacle)가 짧아질수록, 미리 설정된 거리 상수(dROI)를 감소하는 방향으로 갱신할 수 있으며, 미리 설정된 각도(φROI)를 증가하는 방향으로 갱신할 수 있다.
이는, 레이더(120, 130)의 특성을 고려한 것이다. 레이더(120, 130)는 거리가 멀어질수록 획득하는 위치 정보 오차가 커질 수 있다. 즉, 프로세서(141)는, 차량(1)과 정지 장애물(2) 사이의 거리(rObstacle)가 먼 경우에는, 미리 설정된 거리 상수(dROI)를 보다 길게 설정하고, 미리 설정된 각도(φROI)를 보다 좁게 설정하여, 후방 영역에 위치하는 객체(3)에 대한 위치 정보 오차를 줄일 수 있다.
일 실시예에 따른 프로세서(141)는 레이더 데이터에 기초하여 관심영역(500) 내에서의 객체(3)를 식별할 수 있다.
즉, 프로세서(141)는 레이더 데이터에 기초하여 관심영역(500) 내에 존재하는 객체(3)를 식별할 수 있다.
구체적으로, 프로세서(141)는 레이더 데이터에 기초하여 식별되는 객체의 상대 위치 정보에 기초하여 해당 객체가 관심영역(500) 내에 존재하는지 여부를 결정할 수 있다.
이때, 레이더 데이터에 기초하여 식별되는 객체의 상대 위치 정보는 차량(1)을 중심으로 하는 좌표계에서, (xVRU, yVRU)로 나타낼 수 있으며, 차량(1)으로부터 객체까지의 거리(rVRU) 및 차량(1)의 우측 횡축(y축)을 기준으로 객체까지의 각도(φVRU)로도 나타낼 수 있다.
차량(1)을 중심으로 객체까지의 거리(rVRU)는, <수학식 3>을 만족할 수 있으며, 차량(1)의 우측 횡축(y축)을 기준으로 객체까지의 각도(φVRU)는 <수학식 4>를 만족할 수 있다.
프로세서(141)는 객체의 상대 위치 정보에 기초하여 차량(1)으로부터 객체까지의 거리(rVRU)가 차량(1)으로부터 정지 장애물(2)까지의 상대거리에 해당하는 지점(rObstacle)부터 미리 설정된 거리 상수(dROI)만큼 차량(1)으로부터 멀어지는 방향으로 연장된 지점(rObstacle+dROI) 사이에 위치하고, 차량(1)의 우측 횡축(y축)을 기준으로 객체까지의 각도(φVRU)가 미리 설정된 각도(φROI) 범위 내에 위치하는 경우, 해당 객체를 관심영역(500) 내에서의 객체(3)로 식별할 수 있다.
즉, 프로세서(141)는 객체의 상대 위치 정보가 <수학식 5> 및 <수학식 6>을 만족하는 경우, 해당 객체를 관심영역(500) 내에서의 객체(3)로 식별할 수 있다.
일 실시예에 따른 프로세서(141)는 관심영역 내에 존재하는 것으로 식별된 객체(3)의 차량(1)의 주행 도로 방향으로의 속도가 미리 설정된 임계 속도 이상인 경우, 관심영역 내에 존재하는 것으로 식별된 객체(3)를 보행자로 추정되는 보행자 후보로 결정할 수 있다.
즉, 프로세서(141)는 레이더 데이터에 기초하여 관심영역 내에 존재하는 것으로 식별된 객체(3)의 속도 정보를 획득할 수 있으며, 획득된 속도 정보에 기초하여 차량(1)의 주행 도로 방향으로의 속도를 결정할 수 있다.
이후, 프로세서(141)는 결정된 객체(3)의 차량(1)의 주행 도로 방향으로의 속도가 미리 설정된 임계 속도 이상인 경우, 객체(3)를 보행자로 추정되는 보행자 후보로 결정할 수 있다.
이때, 미리 설정된 임계 속도는 차량(1)의 주행에 따라 객체(3)가 정지 장애물(2)의 후방 영역에서 차량(1)의 주행 도로로 진입하여 차량(1)과 충돌할 수 있는 정도의 속도에 해당할 수 있다.
일 실시예에 따른 프로세서(141)는 보행자 후보에 대한 영상 데이터를 획득하도록 전방 카메라(110)를 제어할 수 있다.
이때, 프로세서(141)는 보행자 후보가 위치하는 관심영역(500)에 대한 영상 데이터를 획득하도록 전방 카메라(110)를 제어할 수 있으며, 획득된 보행자 후보의 차량(1)의 주행 도로방향으로의 속도에 기초하여 보행자 후보가 정지 장애물(2)의 후방 영역에서 벗어나는 시점을 예측하여 해당 시점에 영상 데이터를 획득하도록 전방 카메라(110)를 제어할 수 있다.
이를 통해, 프로세서(141)는 보다 신속하게 보행자 후보에 대한 영상 데이터를 획득할 수 있다.
일 실시예에 따른 프로세서(141)는 보행자 후보에 대한 영상 데이터를 미리 설정된 보행자 구분 데이터와 비교하여 보행자 후보를 보행자로 인식할 수 있다.
구체적으로, 프로세서(141)는, 획득된 보행자 후보에 대한 영상 데이터를 미리 저장된 보행자 구분 데이터와 비교하여 보행자 후보가 보행자에 대응하는 경우, 보행자 후보를 보행자로 인식할 수 있다.
이때, 보행자 구분 데이터는, 일반적인 보행자에 해당하는 사람 또는 사이클리스트에 대한 특징에 대한 데이터로서, 메모리(142) 상에 미리 저장되어 있을 수 있으며, 프로세서(141)는 획득된 영상 데이터 상의 보행자 후보의 특징이 보행자 구분 데이터 상의 사람 또는 사이클리스트의 특징과 대응하는지 여부를 판단하여 보행자 후보와 보행자의 대응 여부를 판단할 수 있다.
다시 말해, 프로세서(141)는 레이더 데이터에 기초하여 관심영역(500) 내에 존재하는 객체(3)의 차량(1)의 주행 도로 방향으로의 속도에 기초하여 객체(3)를 보행자로 결정할 수 있으며, 객체(3)에 대한 영상 데이터를 미리 저장된 보행자 구분 데이터와 비교하여 보행자를 결정함으로써, 레이더 데이터에 기초하여 결정된 보행자를 영상 데이터에 기초하여 다시 판단할 수 있다.
이를 통해, 운전자 보조 시스템(100)은 보행자 인식에 있어 보다 정확한 인식 결과를 제공할 수 있다.
즉, 프로세서(141)는 레이더 데이터에 기초하여 보행자에 해당할 수 있는 보행자 후보를 우선적으로 식별함으로써, 이후 영상 데이터에 기초하여 보행자를 인식하는데 있어 보다 빠르고 정확하게 보행자를 인식할 수 있다.
이와 같이, 프로세서(141)는, 보행자 후보가 위치할 수 있는 관심영역에 대한 영상 데이터를 우선적으로 처리하여 보다 신속하고 효율적으로 관심영역에 위치할 수 있는 보행자를 인식할 수 있다.
즉, 프로세서(141)는 차량(1)의 전방에 대한 전체 영상 데이터 중 관심영역에 대한 영상 데이터를 우선적으로 처리하여 계산량을 줄일 수 있어 보다 신속하고 효율적으로 보행자를 인식할 수 있다.
이와 같이, 운전자 보조 시스템(100)은 정지 장애물(2)에 가려져 보이지 않을 수 있는 정지 장애물(2)의 후방 영역에 위치하는 객체(3)에 대하여도 사전에 관심영역을 결정하여, 차량 전방에 대한 보행자 인식을 수행하는 경우에 비하여 계산량을 줄일 수 있어 효율적으로 보행자를 인식할 수 있다.
또한, 운전자 보조 시스템(100)은 정지 장애물(2)에 가려져 보이지 않을 수 있는 정지 장애물(2)의 후방 영역에 위치하는 객체(3)에 대하여도 사전에 레이더(120, 130)를 이용하여 보행자 후보를 선정할 수 있어, 전방 카메라(110)를 통한 보행자 인식의 신뢰도를 높일 수 있다.
또한, 운전자 보조 시스템(100)은 레이더(120, 130)의 레이더 데이터에 기초하여 획득된 보행자 후보에 대한 속도 정보를 이용하여 보행자 후보가 정지 장애물(2)의 후방 영역을 벗어나는 시점을 판단하여 보행자 후보에 대한 영상 데이터를 획득할 수 있어, 보행자에 대한 보다 높은 성능의 인식 결과를 얻을 수 있다.
또한, 일 실시예에 따른 프로세서(141)는, 영상 데이터 및 레이더 데이터 중 적어도 하나에 기초하여 보행자에 대한 상대 위치 정보 및 상대 속도 정보를 결정하고, 보행자에 대한 상대 위치 정보 및 상대 속도 정보 중 적어도 하나에 기초하여 차량(1)과 보행자 사이의 충돌까지의 시간(Time To Collision, TTC)을 결정할 수 있다.
또한, 일 실시예에 따른 프로세서(141)는, 충돌까지의 시간과 미리 설정된 기준 시간 사이의 비교 결과에 기초하여 차량(1)의 제동을 제어하는 제동 신호 또는 차량(1)의 조향을 제어하는 조향 신호를 차량(1)에 전송할 수 있다.
즉, 프로세서(141)는, 차량(1)과 보행자 사이의 충돌이 예상되는 경우, 제동 신호를 제동 시스템(32)에 전송하거나 조향 신호를 조향 시스템(42)에 전송할 수 있다.
이하, 일 실시예에 따른 운전자 보조 시스템(100)의 제어방법을 설명하기로 한다. 후술하는 운전자 보조 시스템(100)의 제어방법에는 전술한 실시예에 따른 운전자 보조 시스템(100)이 적용될 수 있다. 따라서, 앞서 도 1 내지 도 6을 참조하여 설명한 내용은 특별한 언급이 없더라도 일 실시예에 따른 운전자 보조 시스템(100)의 제어방법에도 동일하게 적용 가능하다.
도 7은 일 실시예에 따른 운전자 보조 시스템(100)의 제어방법에 있어서, 보행자를 인식하는 경우에 관한 순서도이다.
도 7에 도시된 바와 같이, 일 실시예에 따른 운전자 보조 시스템(100)이 장착되는 차량(1)이 주행하는 상황에서, 일 실시예에 따른 프로세서(141)는 전방 카메라(110)로부터 획득된 영상 데이터 및 레이더(120, 130)로부터 획득된 레이더 데이터를 수신할 수 있다(710).
일 실시예에 따른 프로세서(141)는 영상 데이터 및 레이더 데이터 중 적어도 하나에 기초하여 차량(1)의 전방에 정지하여 위치하는 정지 장애물(2)을 인식할 수 있다(720).
이때, 일 실시예에 따른 프로세서(141)는 영상 데이터 및 레이더 데이터 중 적어도 하나로부터 식별되는 객체 중 차량(1)과의 상대 속도가 차량(1)의 속도와 동일한 객체를 정지 장애물(2)로 인식할 수 있다.
즉, 프로세서(141)는, 전방에서 식별되는 복수의 객체 중 차량(1)과의 상대 속도가 차량(1)의 속도와 다른 객체는 주행중인 다른 차량인 것으로 판단할 수 있으며, 차량(1)과의 상대 속도가 차량(1)의 속도와 같은 객체만을 정지 장애물(2)로 인식할 수 있다.
일 실시예에 따른 프로세서(141)는 레이더 데이터에 기초하여 정지 장애물(2)에 대한 상대 위치 정보를 결정할 수 있다(730). 이때, 상대 위치 정보는 차량(1)으로부터 정지 장애물(2)까지의 거리 및 차량(1)의 우측 횡축(y축)을 기준으로 정지 장애물(2)까지의 각도에 대한 정보를 포함할 수 있다.
정지 장애물(2)의 상대 위치 정보는 차량(1)을 중심으로 하는 좌표계에서, (xObstacle, yObstacle)로 나타낼 수 있으며, 차량(1)으로부터 정지 장애물(2)까지의 거리(rObstacle) 및 차량(1)의 우측 횡축(y축)을 기준으로 정지 장애물(2)까지의 각도(φObstacle)로도 나타낼 수 있다.
또한, 일 실시예에 따른 프로세서(141)는, 레이더 데이터 및 영상 데이터 중 적어도 하나에 기초하여 정지 장애물(2)의 길이, 폭 및 높이를 결정할 수 있다.
즉, 레이더(120, 130)는, 정지 장애물(2)의 각 지점으로부터 반사된 반사 전파로부터 정지 장애물(2)의 길이, 폭 및 높이에 대한 정보를 포함하는 레이더 데이터를 획득할 수 있으며, 프로세서(141)는 레이더 데이터에 기초하여 정지 장애물(2)의 길이, 폭 및 높이를 결정할 수 있다.
또한, 프로세서(141)는, 전방 카메라(110)의 전방 영상 데이터에 기초하여 차량(1)의 전방의 정지 장애물(2)의 유형 정보를 획득할 수 있으며, 유형 정보에 기초하여 정지 장애물(2)의 길이, 폭 및 높이를 결정할 수 있다.
일 실시예에 따른 프로세서(141)는 정지 장애물(2)에 대한 상대 위치 정보에 기초하여 정지 장애물(2)의 위치를 중심으로 관심영역(500)을 결정할 수 있다(740).
구체적으로, 프로세서(141)는, 정지 장애물(2)의 상대 위치 정보에 기초하여 차량(1)으로부터 정지 장애물(2)까지의 상대거리에 해당하는 지점(rObstacle)부터 미리 설정된 거리 상수(dROI)만큼 차량(1)으로부터 멀어지는 방향으로 연장된 지점(rObstacle+dROI)까지의 영역 중 차량(1)을 중심으로 미리 설정된 각도(φROI)에 해당하는 영역을 관심영역(500)으로 결정할 수 있다.
즉, 프로세서(141)는, 반지름이 rObstacle+dROI이고 중심각이 φROI인 부채꼴에서 반지름이 rObstacle이고 중심각이 φROI인 부채꼴을 제거함으로써 관심영역(500)을 결정할 수 있다.
이때, 미리 설정된 거리 상수(dROI) 및 미리 설정된 각도(φROI)는 운전자 보조 시스템(100)의 설계 단계에서 미리 설정된 값으로 정지 장애물(2) 및 정지 장애물(2)에 의하여 가려질 것으로 예상되는 후방 영역을 포함할 수 있는 정도로 설정된 값에 해당한다.
일 실시예에 따른 프로세서(141)는, 정지 장애물(2)의 길이, 폭 및 높이 중 적어도 하나에 기초하여 관심영역(500)이 정지 장애물(2) 및 정지 장애물(2)로부터 가려지는 후방 영역을 포함하도록 미리 설정된 거리 상수(dROI) 및 미리 설정된 각도(φROI) 중 적어도 하나를 갱신할 수 있다.
즉, 프로세서(141)는 결정된 정지 장애물(2)의 길이 및 폭 중 적어도 하나를 고려하여 정지 장애물(2)이 위치하는 영역이 관심영역(500)에 포함될 수 있도록 미리 설정된 거리 상수(dROI) 및 미리 설정된 각도(φROI) 중 적어도 하나를 갱신할 수 있다.
또한, 프로세서(141)는 결정된 정지 장애물(2)의 높이에 비례하여 미리 설정된 거리 상수(dROI)를 증가하는 방향으로 갱신할 수 있다. 이는, 정지 장애물(2)의 높이가 클수록 정지 장애물(2)에 의하여 가려지는 후방 영역이 넓어질 수 있기 때문이다.
즉, 프로세서(141)는, 결정된 정지 장애물(2)의 길이, 폭 및 높이 중 적어도 하나를 고려하여 미리 설정된 거리 상수(dROI) 및 미리 설정된 각도(φROI) 중 적어도 하나를 갱신함으로써, 관심영역(500)이 정지 장애물(2)이 위치하는 영역과 정지 장애물(2)에 의하여 가려지는 후방 영역을 포함할 수 있도록 한다.
또한, 일 실시예에 따른 프로세서(141)는, 차량(1)이 정지 장애물(2)에 접근함에 따라, 미리 설정된 거리 상수(dROI)를 감소하는 방향으로 갱신할 수 있으며, 미리 설정된 각도(φROI)를 증가하는 방향으로 갱신할 수 있다.
즉, 프로세서(141)는, 차량(1)과 정지 장애물(2) 사이의 거리(rObstacle)가 짧아질수록, 더 구체적으로는, 차량(1)과 정지 장애물(2) 사이의 종방향 거리(xObstacle)가 짧아질수록, 미리 설정된 거리 상수(dROI)를 감소하는 방향으로 갱신할 수 있으며, 미리 설정된 각도(φROI)를 증가하는 방향으로 갱신할 수 있다.
이는, 레이더(120, 130)의 특성을 고려한 것이다. 레이더(120, 130)는 거리가 멀어질수록 획득하는 위치 정보 오차가 커질 수 있다. 즉, 프로세서(141)는, 차량(1)과 정지 장애물(2) 사이의 거리(rObstacle)가 먼 경우에는, 미리 설정된 거리 상수(dROI)를 보다 길게 설정하고, 미리 설정된 각도(φROI)를 보다 좁게 설정하여, 후방 영역에 위치하는 객체(3)에 대한 위치 정보 오차를 줄일 수 있다.
일 실시예에 따른 프로세서(141)는 레이더 데이터에 기초하여 관심영역(500) 내에서의 객체(3)를 식별할 수 있다(750).
즉, 프로세서(141)는 레이더 데이터에 기초하여 관심영역(500) 내에 존재하는 객체(3)를 식별할 수 있다.
구체적으로, 프로세서(141)는 레이더 데이터에 기초하여 식별되는 객체의 상대 위치 정보에 기초하여 해당 객체가 관심영역(500) 내에 존재하는지 여부를 결정할 수 있다.
이때, 레이더 데이터에 기초하여 식별되는 객체의 상대 위치 정보는 차량(1)을 중심으로 하는 좌표계에서, (xVRU, yVRU)로 나타낼 수 있으며, 차량(1)으로부터 객체까지의 거리(rVRU) 및 차량(1)의 우측 횡축(y축)을 기준으로 객체까지의 각도(φVRU)로도 나타낼 수 있다.
프로세서(141)는 객체의 상대 위치 정보에 기초하여 차량(1)으로부터 객체까지의 거리(rVRU)가 차량(1)으로부터 정지 장애물(2)까지의 상대거리에 해당하는 지점(rObstacle)부터 미리 설정된 거리 상수(dROI)만큼 차량(1)으로부터 멀어지는 방향으로 연장된 지점(rObstacle+dROI) 사이에 위치하고, 차량(1)의 우측 횡축(y축)을 기준으로 객체까지의 각도(φVRU)가 미리 설정된 각도(φROI) 범위 내에 위치하는 경우, 해당 객체를 관심영역(500) 내에서의 객체(3)로 식별할 수 있다.
일 실시예에 따른 프로세서(141)는 관심영역 내에 존재하는 것으로 식별된 객체(3)의 차량(1)의 주행 도로 방향으로의 속도가 미리 설정된 임계 속도 이상인 경우(760의 예), 관심영역 내에 존재하는 것으로 식별된 객체(3)를 보행자로 추정되는 보행자 후보로 결정할 수 있다(770).
즉, 프로세서(141)는 레이더 데이터에 기초하여 관심영역 내에 존재하는 것으로 식별된 객체(3)의 속도 정보를 획득할 수 있으며, 획득된 속도 정보에 기초하여 차량(1)의 주행 도로 방향으로의 속도를 결정할 수 있다.
이후, 프로세서(141)는 결정된 객체(3)의 차량(1)의 주행 도로 방향으로의 속도가 미리 설정된 임계 속도 이상인 경우, 객체(3)를 보행자로 추정되는 보행자 후보로 결정할 수 있다.
이때, 미리 설정된 임계 속도는 차량(1)의 주행에 따라 객체(3)가 정지 장애물(2)의 후방 영역에서 차량(1)의 주행 도로로 진입하여 차량(1)과 충돌할 수 있는 정도의 속도에 해당할 수 있다.
일 실시예에 따른 프로세서(141)는 보행자 후보에 대한 영상 데이터를 획득하도록 전방 카메라(110)를 제어할 수 있다(780).
이때, 프로세서(141)는 보행자 후보가 위치하는 관심영역(500)에 대한 영상 데이터를 획득하도록 전방 카메라(110)를 제어할 수 있으며, 획득된 보행자 후보의 차량(1)의 주행 도로방향으로의 속도에 기초하여 보행자 후보가 정지 장애물(2)의 후방 영역에서 벗어나는 시점을 예측하여 해당 시점에 영상 데이터를 획득하도록 전방 카메라(110)를 제어할 수 있다.
이를 통해, 프로세서(141)는 보다 신속하게 보행자 후보에 대한 영상 데이터를 획득할 수 있다.
일 실시예에 따른 프로세서(141)는 보행자 후보에 대한 영상 데이터를 미리 설정된 보행자 구분 데이터와 비교하여 보행자 후보를 보행자로 인식할 수 있다(790).
구체적으로, 프로세서(141)는, 획득된 보행자 후보에 대한 영상 데이터를 미리 저장된 보행자 구분 데이터와 비교하여 보행자 후보가 보행자에 대응하는 경우, 보행자 후보를 보행자로 인식할 수 있다.
이때, 보행자 구분 데이터는, 일반적인 보행자에 해당하는 사람 또는 사이클리스트에 대한 특징에 대한 데이터로서, 메모리(142) 상에 미리 저장되어 있을 수 있으며, 프로세서(141)는 획득된 영상 데이터 상의 보행자 후보의 특징이 보행자 구분 데이터 상의 사람 또는 사이클리스트의 특징과 대응하는지 여부를 판단하여 보행자 후보와 보행자의 대응 여부를 판단할 수 있다.
즉, 프로세서(141)는 레이더 데이터에 기초하여 보행자에 해당할 수 있는 보행자 후보를 우선적으로 식별함으로써, 이후 영상 데이터에 기초하여 보행자를 인식하는데 있어 보다 빠르고 정확하게 보행자를 인식할 수 있다.
이와 같이, 프로세서(141)는, 보행자 후보가 위치할 수 있는 관심영역에 대한 영상 데이터를 우선적으로 처리하여 보다 신속하고 효율적으로 관심영역에 위치할 수 있는 보행자를 인식할 수 있다.
즉, 프로세서(141)는 차량(1)의 전방에 대한 전체 영상 데이터 중 관심영역에 대한 영상 데이터를 우선적으로 처리하여 계산량을 줄일 수 있어 보다 신속하고 효율적으로 보행자를 인식할 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
1: 차량
2: 정지 장애물
3: 객체
100: 운전자 보조 시스템
110: 전방 카메라
120: 전방 레이더
130: 복수의 코너 레이더들
140: 제어부
2: 정지 장애물
3: 객체
100: 운전자 보조 시스템
110: 전방 카메라
120: 전방 레이더
130: 복수의 코너 레이더들
140: 제어부
Claims (20)
- 차량의 전방 시야(field of view)를 갖도록 상기 차량에 마련되고, 영상 데이터를 획득하는 카메라;
상기 차량에 대한 외부 감지 시야를 갖도록 상기 차량에 마련되고, 레이더 데이터를 획득하는 레이더; 및
상기 카메라에 의해 획득된 영상 데이터 및 상기 레이더에 의해 획득된 레이더 데이터를 처리하는 적어도 하나의 프로세서를 포함하는 제어부;를 포함하되,
상기 제어부는,
상기 영상 데이터 및 상기 레이더 데이터 중 적어도 하나에 기초하여 상기 차량의 전방에 정지하여 위치하는 정지 장애물을 인식(Detection)하고, 상기 레이더 데이터에 기초하여 상기 정지 장애물의 위치를 중심으로 관심영역(Range Of Interest, ROI)을 결정하고, 상기 레이더 데이터에 기초하여 상기 관심영역 내에 존재하는 객체를 식별하고, 상기 객체의 상기 차량의 주행 도로 방향으로의 속도에 기초하여 상기 객체를 보행자로 결정하는 운전자 보조 시스템. - 제1항에 있어서,
상기 제어부는,
상기 레이더 데이터에 기초하여 상기 정지 장애물에 대한 상대 위치 정보를 결정하고, 상기 상대 위치 정보에 기초하여 상기 차량으로부터 상기 정지 장애물까지의 상대거리에 해당하는 지점부터 미리 설정된 거리 상수만큼 상기 차량으로부터 멀어지는 방향으로 연장된 지점까지의 영역 중 상기 차량을 중심으로 미리 설정된 각도에 해당하는 영역을 상기 관심영역으로 결정하는 운전자 보조 시스템. - 제2항에 있어서,
상기 제어부는,
상기 레이더 데이터 및 상기 영상 데이터 중 적어도 하나에 기초하여 상기 정지 장애물의 길이, 폭 및 높이 중 적어도 하나를 판단하는 운전자 보조 시스템. - 제3항에 있어서,
상기 제어부는,
상기 정지 장애물의 길이, 폭 및 높이 중 적어도 하나에 기초하여 상기 관심영역이 상기 정지 장애물이 위치하는 영역 및 상기 정지 장애물로부터 가려지는 후방 영역을 포함하도록 상기 미리 설정된 거리 상수 및 상기 미리 설정된 각도 중 적어도 하나를 갱신하는 운전자 보조 시스템. - 제2항에 있어서,
상기 제어부는,
상기 차량이 상기 정지 장애물에 접근함에 따라, 상기 미리 설정된 거리 상수를 감소하는 방향으로 갱신하는 운전자 보조 시스템. - 제2항에 있어서,
상기 제어부는,
상기 차량이 상기 정지 장애물에 접근함에 따라, 상기 미리 설정된 각도를 증가하는 방향으로 갱신하는 운전자 보조 시스템. - 제1항에 있어서,
상기 제어부는,
상기 레이더 데이터 및 상기 영상 데이터 중 적어도 하나로부터 식별되는 객체 중 상기 차량과의 상대 속도가 상기 차량의 속도와 동일한 객체를 상기 정지 장애물로 인식하는 운전자 보조 시스템. - 제1항에 있어서,
상기 제어부는,
상기 객체에 대한 영상 데이터를 획득하도록 상기 카메라를 제어하고, 상기 객체에 대한 영상 데이터를 미리 저장된 보행자 구분 데이터와 비교하여 상기 보행자를 결정하는 운전자 보조 시스템. - 제8항에 있어서,
상기 제어부는,
상기 영상 데이터 및 상기 레이더 데이터 중 적어도 하나에 기초하여 상기 보행자에 대한 상대 위치 정보 및 상대 속도 정보를 결정하고, 상기 보행자에 대한 상대 위치 정보 및 상대 속도 정보 중 적어도 하나에 기초하여 상기 차량과 상기 보행자 사이의 충돌까지의 시간(Time To Collision, TTC)을 결정하는 운전자 보조 시스템. - 제9항에 있어서,
상기 제어부는,
상기 충돌까지의 시간과 미리 설정된 기준 시간 사이의 비교 결과에 기초하여 상기 차량의 제동을 제어하는 제동 신호 또는 상기 차량의 조향을 제어하는 조향 신호를 상기 차량에 전송하는 운전자 보조 시스템. - 차량의 전방 시야(field of view)를 갖도록 상기 차량에 마련되고, 영상 데이터를 획득하는 카메라, 상기 차량에 대한 외부 감지 시야를 갖도록 상기 차량에 마련되고, 레이더 데이터를 획득하는 레이더 및 상기 카메라에 의해 획득된 영상 데이터 및 상기 레이더에 의해 획득된 레이더 데이터를 처리하는 적어도 하나의 프로세서를 포함하는 제어부를 포함하는 운전자 보조 시스템의 제어방법에 있어서,
상기 영상 데이터 및 상기 레이더 데이터 중 적어도 하나에 기초하여 상기 차량의 전방에 정지하여 위치하는 정지 장애물을 인식(Detection)하고;
상기 레이더 데이터에 기초하여 상기 정지 장애물의 위치를 중심으로 관심영역(Range Of Interest, ROI)을 결정하고;
상기 레이더 데이터에 기초하여 상기 관심영역 내에 존재하는 객체를 식별하고;
상기 객체의 상기 차량의 주행 도로 방향으로의 속도에 기초하여 상기 객체를 보행자로 결정하는 것;을 포함하는 운전자 보조 시스템의 제어방법. - 제11항에 있어서,
상기 관심영역을 결정하는 것은,
상기 레이더 데이터에 기초하여 상기 정지 장애물에 대한 상대 위치 정보를 결정하고;
상기 상대 위치 정보에 기초하여 상기 차량으로부터 상기 정지 장애물까지의 상대거리에 해당하는 지점부터 미리 설정된 거리 상수만큼 상기 차량으로부터 멀어지는 방향으로 연장된 지점까지의 영역 중 상기 차량을 중심으로 미리 설정된 각도에 해당하는 영역을 상기 관심영역으로 결정하는 것;을 포함하는 운전자 보조 시스템의 제어방법. - 제12항에 있어서,
상기 레이더 데이터 및 상기 영상 데이터 중 적어도 하나에 기초하여 상기 정지 장애물의 길이, 폭 및 높이 중 적어도 하나를 판단하는 것;을 더 포함하는 운전자 보조 시스템의 제어방법. - 제13항에 있어서,
상기 정지 장애물의 길이, 폭 및 높이 중 적어도 하나에 기초하여 상기 관심영역이 상기 정지 장애물이 위치하는 영역 및 상기 정지 장애물로부터 가려지는 후방 영역을 포함하도록 상기 미리 설정된 거리 상수 및 상기 미리 설정된 각도 중 적어도 하나를 갱신하는 것;을 더 포함하는 운전자 보조 시스템의 제어방법. - 제12항에 있어서,
상기 차량이 상기 정지 장애물에 접근함에 따라, 상기 미리 설정된 거리 상수를 감소하는 방향으로 갱신하는 것;을 더 포함하는 운전자 보조 시스템의 제어방법. - 제12항에 있어서,
상기 차량이 상기 정지 장애물에 접근함에 따라, 상기 미리 설정된 각도를 증가하는 방향으로 갱신하는 것;을 더 포함하는 운전자 보조 시스템의 제어방법. - 제11항에 있어서,
상기 정지 장애물을 인식하는 것은,
상기 레이더 데이터 및 상기 영상 데이터 중 적어도 하나로부터 식별되는 객체 중 상기 차량과의 상대 속도가 상기 차량의 속도와 동일한 객체를 상기 정지 장애물로 인식하는 것;을 포함하는 운전자 보조 시스템의 제어방법. - 제11항에 있어서,
상기 보행자를 결정하는 것은,
상기 객체에 대한 영상 데이터를 획득하도록 상기 카메라를 제어하고;
상기 객체에 대한 영상 데이터를 미리 저장된 보행자 구분 데이터와 비교하여 상기 보행자를 결정하는 것;을 포함하는 운전자 보조 시스템의 제어방법. - 제18항에 있어서,
상기 영상 데이터 및 상기 레이더 데이터 중 적어도 하나에 기초하여 상기 보행자에 대한 상대 위치 정보 및 상대 속도 정보를 결정하고;
상기 보행자에 대한 상대 위치 정보 및 상대 속도 정보 중 적어도 하나에 기초하여 상기 차량과 상기 보행자 사이의 충돌까지의 시간(Time To Collision, TTC)을 결정하는 것;을 더 포함하는 운전자 보조 시스템의 제어방법. - 제19항에 있어서,
상기 충돌까지의 시간과 미리 설정된 기준 시간 사이의 비교 결과에 기초하여 상기 차량의 제동을 제어하는 제동 신호 또는 상기 차량의 조향을 제어하는 조향 신호를 상기 차량에 전송하는 것;을 더 포함하는 운전자 보조 시스템의 제어방법.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180128523A KR102572784B1 (ko) | 2018-10-25 | 2018-10-25 | 운전자 보조 시스템 및 그 제어방법 |
US16/216,567 US10460182B1 (en) | 2018-10-25 | 2018-12-11 | Driver assistance system and control method thereof |
EP18001023.3A EP3644090B1 (en) | 2018-10-25 | 2018-12-28 | Driver assistance system and control method thereof |
CN201910007509.1A CN111098853B (zh) | 2018-10-25 | 2019-01-04 | 驾驶员辅助系统及其控制方法 |
US16/559,054 US10579886B1 (en) | 2018-10-25 | 2019-09-03 | Driver assistance system and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180128523A KR102572784B1 (ko) | 2018-10-25 | 2018-10-25 | 운전자 보조 시스템 및 그 제어방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200047886A true KR20200047886A (ko) | 2020-05-08 |
KR102572784B1 KR102572784B1 (ko) | 2023-09-01 |
Family
ID=65033292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180128523A KR102572784B1 (ko) | 2018-10-25 | 2018-10-25 | 운전자 보조 시스템 및 그 제어방법 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10460182B1 (ko) |
EP (1) | EP3644090B1 (ko) |
KR (1) | KR102572784B1 (ko) |
CN (1) | CN111098853B (ko) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102524296B1 (ko) * | 2018-12-07 | 2023-04-24 | 현대자동차주식회사 | 적재물 추락 발생 감지에 따른 차량 제어 방법 및 시스템 |
US11505181B2 (en) * | 2019-01-04 | 2022-11-22 | Toyota Motor Engineering & Manufacturing North America, Inc. | System, method, and computer-readable storage medium for vehicle collision avoidance on the highway |
KR102673147B1 (ko) * | 2019-01-30 | 2024-06-07 | 주식회사 에이치엘클레무브 | 운전자 보조 시스템 및 그 제어방법 |
GB2585332A (en) * | 2019-02-12 | 2021-01-13 | Chidziva Pasihapaori | Vehicle with moving object detector |
KR20200130888A (ko) * | 2019-05-07 | 2020-11-23 | 현대모비스 주식회사 | 복합정보 기반 scc시스템 제어 방법 및 장치 |
US11109041B2 (en) * | 2019-05-16 | 2021-08-31 | Tencent America LLC | Method and apparatus for video coding |
US11643115B2 (en) | 2019-05-31 | 2023-05-09 | Waymo Llc | Tracking vanished objects for autonomous vehicles |
KR20210041224A (ko) * | 2019-10-07 | 2021-04-15 | 현대자동차주식회사 | 자동차 및 그를 위한 주변 정보 출력 방법 |
KR20210136631A (ko) * | 2020-05-08 | 2021-11-17 | 주식회사 만도모빌리티솔루션즈 | 차량용 레이더의 수직 장착 오정렬 감지 장치, 방법 및 그를 포함하는 레이더 장치 |
CN111845695A (zh) * | 2020-06-10 | 2020-10-30 | 东风柳州汽车有限公司 | 一种车辆转向的控制方法及装置 |
CN111796285A (zh) * | 2020-06-15 | 2020-10-20 | 北京汽车研究总院有限公司 | 车辆的障碍物检测方法和装置 |
CN112440986B (zh) * | 2020-11-30 | 2022-08-09 | 重庆长安汽车股份有限公司 | 一种行车控制方法、行人aeb系统、智能驾驶汽车、控制器及计算机可读存储介质 |
CN112627673B (zh) * | 2020-12-22 | 2022-08-16 | 广州小鹏自动驾驶科技有限公司 | 一种剪刀门控制系统和方法 |
CN113085568B (zh) * | 2021-03-19 | 2022-10-14 | 浙江亚太智能网联汽车创新中心有限公司 | 一种双向行驶摆渡车的控制系统及双向行驶摆渡车 |
CN113043952A (zh) * | 2021-04-09 | 2021-06-29 | 新疆爱华盈通信息技术有限公司 | 一种汽车盲区监测系统及方法 |
CN113362684A (zh) * | 2021-06-01 | 2021-09-07 | 石家庄华燕交通科技有限公司 | 科目三考试控制与评判系统及方法 |
CN113903142B (zh) * | 2021-09-24 | 2022-12-06 | 广州智伴人工智能科技有限公司 | 一种用于智能陪伴机器人的儿童户外状态监测方法和系统 |
CN114619986A (zh) * | 2022-03-07 | 2022-06-14 | 金龙联合汽车工业(苏州)有限公司 | 一种用于客车的aeb与lka融合控制系统 |
CN114872712B (zh) * | 2022-06-29 | 2022-10-18 | 小米汽车科技有限公司 | 静态车辆检测方法、装置、设备、车辆及存储介质 |
CN116106906B (zh) * | 2022-12-01 | 2023-11-21 | 山东临工工程机械有限公司 | 工程车辆避障方法、装置、电子设备、存储介质及装载机 |
EP4382952A1 (en) * | 2022-12-08 | 2024-06-12 | Aptiv Technologies AG | Methods and systems for displaying information to an occupant of a vehicle |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014213776A (ja) * | 2013-04-26 | 2014-11-17 | 株式会社デンソー | 衝突判定装置、および衝突緩和装置 |
KR20180078980A (ko) * | 2016-12-30 | 2018-07-10 | 기아자동차주식회사 | 자세 정보 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4313712B2 (ja) * | 2004-03-30 | 2009-08-12 | 本田技研工業株式会社 | 走行安全装置 |
WO2006070865A1 (ja) * | 2004-12-28 | 2006-07-06 | Kabushiki Kaisha Toyota Chuo Kenkyusho | 車両運動制御装置 |
US9963145B2 (en) * | 2012-04-22 | 2018-05-08 | Emerging Automotive, Llc | Connected vehicle communication with processing alerts related to traffic lights and cloud systems |
DE102013113054B4 (de) * | 2012-12-03 | 2022-01-27 | Denso Corporation | Zielerfassungsvorrichtung zum Vermeiden einer Kollision zwischen einem Fahrzeug und einem durch einen an dem Fahrzeug montierten Sensor erfassten Ziel |
JP5842863B2 (ja) * | 2013-05-14 | 2016-01-13 | 株式会社デンソー | 衝突緩和装置 |
KR101843073B1 (ko) * | 2013-05-31 | 2018-03-28 | 도요타 지도샤(주) | 차량의 운전 지원 장치 및 차량 탑재 컴퓨터 |
KR101489836B1 (ko) * | 2013-09-13 | 2015-02-04 | 자동차부품연구원 | 보행자 감지 및 충돌 회피 장치 및 방법 |
US9988047B2 (en) * | 2013-12-12 | 2018-06-05 | Magna Electronics Inc. | Vehicle control system with traffic driving control |
KR102290046B1 (ko) | 2014-10-28 | 2021-08-17 | 현대모비스 주식회사 | 주간주행등 제어 장치 및 방법 |
US9718405B1 (en) * | 2015-03-23 | 2017-08-01 | Rosco, Inc. | Collision avoidance and/or pedestrian detection system |
JP6581379B2 (ja) * | 2015-03-31 | 2019-09-25 | 株式会社デンソー | 車両制御装置、及び車両制御方法 |
JP6520687B2 (ja) * | 2015-12-14 | 2019-05-29 | 株式会社デンソー | 運転支援装置 |
US20170206426A1 (en) * | 2016-01-15 | 2017-07-20 | Ford Global Technologies, Llc | Pedestrian Detection With Saliency Maps |
US10705530B2 (en) * | 2016-01-29 | 2020-07-07 | Nissan Motor Co., Ltd. | Vehicle travel control method and vehicle travel control device |
JP6239047B1 (ja) * | 2016-06-17 | 2017-11-29 | 三菱電機株式会社 | 物体認識統合装置および物体認識統合方法 |
JP6558356B2 (ja) * | 2016-12-22 | 2019-08-14 | トヨタ自動車株式会社 | 自動運転システム |
JP6565893B2 (ja) * | 2016-12-26 | 2019-08-28 | トヨタ自動車株式会社 | 運転支援装置 |
KR101996418B1 (ko) | 2016-12-30 | 2019-07-04 | 현대자동차주식회사 | 센서 융합 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법 |
-
2018
- 2018-10-25 KR KR1020180128523A patent/KR102572784B1/ko active IP Right Grant
- 2018-12-11 US US16/216,567 patent/US10460182B1/en active Active
- 2018-12-28 EP EP18001023.3A patent/EP3644090B1/en active Active
-
2019
- 2019-01-04 CN CN201910007509.1A patent/CN111098853B/zh active Active
- 2019-09-03 US US16/559,054 patent/US10579886B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014213776A (ja) * | 2013-04-26 | 2014-11-17 | 株式会社デンソー | 衝突判定装置、および衝突緩和装置 |
KR20180078980A (ko) * | 2016-12-30 | 2018-07-10 | 기아자동차주식회사 | 자세 정보 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN111098853A (zh) | 2020-05-05 |
US10579886B1 (en) | 2020-03-03 |
EP3644090B1 (en) | 2022-04-13 |
KR102572784B1 (ko) | 2023-09-01 |
EP3644090A1 (en) | 2020-04-29 |
US10460182B1 (en) | 2019-10-29 |
CN111098853B (zh) | 2023-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102572784B1 (ko) | 운전자 보조 시스템 및 그 제어방법 | |
US10919525B2 (en) | Advanced driver assistance system, vehicle having the same, and method of controlling the vehicle | |
CN113060141B (zh) | 高级驾驶员辅助系统、具有其的车辆及控制车辆的方法 | |
US10926764B2 (en) | Lane keeping assistance apparatus, vehicle having the same and method for controlling the same | |
US12091013B2 (en) | Advanced driver assistance system, vehicle having the same and method for controlling the vehicle | |
KR102440255B1 (ko) | 운전자 보조 시스템 및 그 제어 방법 | |
KR20200094378A (ko) | 운전자 보조 시스템 및 그 제어방법 | |
US11332131B2 (en) | Driver assistance system and control method thereof | |
US11518373B2 (en) | Vehicle and control method thereof | |
KR20200115827A (ko) | 운전자 보조 시스템 및 그 제어 방법 | |
US20200242941A1 (en) | Driver assistance system, and control method the same | |
KR20200095976A (ko) | 운전자 보조 장치 | |
US20210188259A1 (en) | Driver assistance apparatus and driver assisting method | |
US11890939B2 (en) | Driver assistance system | |
KR102356612B1 (ko) | 충돌 방지 장치, 그를 가지는 차량 및 그 제어 방법 | |
KR20210129913A (ko) | 운전자 보조 시스템 | |
KR20200094629A (ko) | 운전자 보조 시스템 및 그 제어 방법 | |
KR20210088117A (ko) | 운전자 보조 시스템 및 그 방법 | |
KR20230045381A (ko) | 차량 및 그 제어 방법 | |
KR20220092303A (ko) | 차량 및 그 제어 방법 | |
US11840220B2 (en) | Driver assistance system and control method thereof | |
KR20220145971A (ko) | 운전자 보조 시스템 및 그 제어 방법 | |
KR20220085084A (ko) | 운전자 보조 시스템 및 그 제어 방법 | |
KR20220028779A (ko) | 운전자 보조 시스템 및 그 제어 방법 | |
KR20220078833A (ko) | 운전자 보조 시스템 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right |