KR20180112336A - 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법 - Google Patents

복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법 Download PDF

Info

Publication number
KR20180112336A
KR20180112336A KR1020170043094A KR20170043094A KR20180112336A KR 20180112336 A KR20180112336 A KR 20180112336A KR 1020170043094 A KR1020170043094 A KR 1020170043094A KR 20170043094 A KR20170043094 A KR 20170043094A KR 20180112336 A KR20180112336 A KR 20180112336A
Authority
KR
South Korea
Prior art keywords
vehicle
risk
sensor
level
recognized
Prior art date
Application number
KR1020170043094A
Other languages
English (en)
Inventor
김명식
김미영
문보석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170043094A priority Critical patent/KR20180112336A/ko
Priority to US16/500,316 priority patent/US11225265B2/en
Priority to PCT/KR2018/003581 priority patent/WO2018186617A1/ko
Publication of KR20180112336A publication Critical patent/KR20180112336A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Abstract

차량이 상기 차량 주변의 객체를 인식하여 상기 차량을 제어하는 방법 및 그 장치를 개시한다. 차량 주변의 객체를 인식하여 차량을 제어하는 방법은, 제 1 센서로부터 차량 주변의 객체에 대한 제 1 센싱 데이터를 획득하는 단계, 제 2 센서로부터 객체에 대한 제 2 센싱 데이터를 획득하는 단계, 제 1 센싱 데이터 및 제 2 센싱 데이터에 기초하여, 객체에 대한 제 1 객체 인식 가능성 및 객체에 대한 제 2 객체 인식 가능성을 획득하는 단계, 제 1 객체 인식 가능성 및 제 2 객체 인식 가능성에 기초하여, 객체의 위험도를 획득하는 단계, 및 객체의 위험도에 기초하여, 차량에 대한 소정의 기능을 수행하는 단계를 포함할 수 있다.

Description

복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법{ELECTRONIC DEVICE AND METHOD FOR RECOGNIZING OBJECT BY USING A PLURALITY OF SENSES}
본 개시는 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법에 관한 것으로서, 보다 상세하게는, 복수의 센서를 통해 인식된 객체에 대한 위험도를 결정하고 위험도에 기초하여 차량의 소정의 기능을 수행하는 장치 및 방법에 관한 것이다.
종래의 객체를 인식하는 기술은 기존 센서 1 개만을 사용하였다. 단일 센서를 이용하는 경우, 센서별로 인식 정확도가 낮은 환경 이 존재하여, 단일 센서만으로 인식이 어려운 경우 (예를 들어 영상 센서의 경우 밤, 악천후 등 시야가 제한되는 경우)가 존재한다. 최근 이를 반영하여 복수의 센서를 이용하여 객체를 인식하는 방법이 제공되고 있다. 복수의 센서를 이용하여 객체를 인식하는 경우 각각의 센서 특성에 따라 각 센서의 객체 인식 여부에 따라 차량의 운전자에게 상황의 위험도가 상이해진다. 각각의 복수의 센서의 객체 인식 여부를 고려하지 않고, 일관된 기준으로 상황의 위험도를 결정하게 되는 경우 차량의 운전자에게 객체의 위험성을 효과적으로 알리기 어려운 문제가 있다.
본 개시는 제 1 센서 및 제 2 센서가 객체를 인식하였는지 여부에 기초하여 차별적으로 차량의 운전자에게 경고를 하거나 차량을 직접적으로 제어할 수 있게 하는 것을 목적으로 한다.
본 개시에 관한 차량이 차량 주변의 객체를 인식하여 차량을 제어하는 방법은 제 1 센서로부터 차량 주변의 객체에 대한 제 1 센싱 데이터를 획득하는 단계, 제 2 센서로부터 객체에 대한 제 2 센싱 데이터를 획득하는 단계, 제 1 센싱 데이터, 제 2 센싱 데이터, 및 제 1 센서 및 제 2센서의 특성에 기초하여 객체에 대한 운전자의 제 1 객체 인식 가능성 및 객체에 대한 제 2 객체 인식 가능성을 획득하는 단계, 제 1 객체 인식 가능성 및 제 2 객체 인식 가능성에 기초하여, 객체의 위험도를 획득하는 단계, 및 객체의 위험도에 기초하여, 차량에 대한 소정의 기능을 수행하는 단계를 포함하는 것이다.
또한, 본 개시에 관한 차량이 차량 주변의 객체를 인식하여 상기 차량을 제어하는 장치는 차량 주변의 객체에 대한 제 1 센싱 데이터를 획득하는 제 1 센서, 객체에 대한 제 2 센싱 데이터를 획득하는 제 2 센서, 및 제 1 센싱 데이터, 제 2 센싱 데이터, 및 제 1 센서 및 제 2 센서의 특성에 기초하여 객체에 대한 운전자의 제 1 객체 인식 가능성 및 제 2 객체 인식 가능성을 획득하고, 제 1 객체 인식 가능성 및 제 2 객체 인식 가능성에 기초하여, 객체의 위험도를 획득하며, 객체의 위험도에 기초하여 차량에 대한 소정의 기능을 수행하는 제어부를 포함하는 것이다.
본 개시에 의해, 사전 감지를 통한 경고로 운전자의 안전을 도모할 수 있고, 차량의 소정의 기능이 적절하게 수행되도록 함으로써 운전자에게 잦은 경고로 인해 발생될 수 있는 피로 및 불필요한 경고 또는 제어 등을 감소시킬 수 있다.
도 1 은 본 개시의 일 실시예에 따른 객체를 인식하는 장치를 포함하는 차량의 일례를 도시한 도면이다.
도 2 는 본 개시의 일 실시예에 따라 센싱 데이터의 객체 인식 가능성에 기초하여 객체의 위험도 레벨을 결정하고, 객체의 위험도 레벨에 기초하여 객체의 위험도를 결정하는 일례를 도시한 도면이다.
도 3 은 본 개시의 일 실시예에 따라 제 1 센서 및 제 2 센서가 모두 객체를 인식한 경우, 제 1 위험도 레벨에 기초하여 위험도를 결정하고 차량의 소정의 기능을 수행하는 일례를 도시한 도면이다.
도 4 는 본 개시의 일 실시예에 따라 제 1 센서는 객체를 인식하고 제 2 센서 (1142) 는 객체를 인식하지 못한 경우, 제 2 위험도 레벨에 기초하여 위험도를 결정하고 차량의 소정의 기능을 수행하는 일례를 도시한 도면이다.
도 5 는 본 개시의 일 실시예에 따라 제 1 센서는 객체를 인식하지 못하고 제 2 센서가 객체를 인식한 경우, 제 3 위험도 레벨에 기초하여 위험도를 결정하고 차량의 소정의 기능을 수행하는 일례를 도시한 도면이다.
도 6 은 본 개시의 일 실시예에 따라 차량의 주행 정보 및 차량 주변의 상황 정보 중 적어도 하나, 및 위험도 레벨에 기초하여, 객체의 위험도를 결정하는 일례를 도시한 도면이다.
도 7 은 본 개시의 일 실시예에 따라 차량의 소정의 기능에 포함되는 객체로부터의 위험을 알리는 알림 정보를 출력하는 기능 및 차량의 움직임을 제어하는 기능의 일례를 도시한 도면이다.
도 8 은 본 개시의 일 실시예에 따라 객체 인식 가능성에 기초하여 객체의 위험도를 획득하고, 객체의 위험도에 기초하여 차량에 대한 소정의 기능을 수행하는 방법의 흐름도이다.
도 9 는 본 개시의 일 실시예에 따라 센싱 데이터의 객체 인식 가능성에 기초하여 객체의 위험도 레벨을 결정하고, 객체의 위험도 레벨에 기초하여 객체의 위험도를 결정하는 방법의 흐름도이다.
도 10 은 본 개시의 일 실시예에 따라 각 센서의 객체 인식 여부에 따라 객체 위험도 레벨을 결정하는 방법의 흐름도이다.
도 11 은 본 개시의 일 실시예에 따른 객체를 인식하는 장치의 블록도를 도시한 도면이다.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1 은 본 개시의 일 실시예에 따른 객체를 인식하는 장치를 포함하는 차량 (1) 의 일례를 도시한 도면이다.
도 1 에 도시된 바와 같이, 본 개시의 일 실시예에 따른 장치 (1100) 는 제 1 센서 및 제 2 센서를 이용하여 장치 (1100) 를 포함하는 차량 (1) 주변의 객체를 인식할 수 있다. 한편, 장치 (1100) 는 제어부 (1110), 제 1 센서 (1141) 및 제 2 센서 (1142) 를 포함할 수 있다.
제 1 센서 (1141) 및 제 2 센서 (1142) 는 각각 제 1 센싱 데이터 및 제 2 센싱 데이터를 획득 할 수 있다. 제어부 (1110) 는 각 센서의 특성을 고려하여 제 1 센싱 데이터 및 제 2 센싱 데이터의 제 1 객체 인식 가능성 및 제 2 객체 인식 가능성을 획득할 수 있다. 제어부 (1110) 는 제 1 센싱 데이터 및 제 2 센싱 데이터의 객체 인식 가능성을 획득 할 수 있다. 제어부 (1110) 는 제 1 센싱 데이터 및 제 2 센싱 데이터의 객체 인식 가능성에 기초하여, 차량 (1) 주변에 위치한 객체의 위험도를 획득할 수 있다. 제어부 (1110) 는 획득된 객체의 위험도에 기초하여 차량 (1) 의 운전자에게 주변에 객체가 있음을 알리는 경고를 하거나 주변 객체로부터의 위험을 회피하기 위하여 차량 (1) 을 직접 제어하는 등의 소정의 기능을 수행할 수 있다.
일 실시예에 따라, 차량 (1) 이 도로를 주행하는 경우 차량 (1) 의 주변에는 사람, 과속방지턱, 가로수, 동물들이 있을 수 있고, 차량 (1) 의 내부에는 주변 객체들을 인식하는 복수의 센서가 포함되어 있을 수 있다. 센서의 종류에 따라 차량 (1) 주변 객체를 인식할 수도 있고 인식하지 못할 수도 있다.
일 실시예에 따라, 복수의 센서는 인간의 인지 지각 능력 (예를 들어, 시각 또는 청각 등) 범위 내 영역을 감지하는 제 1 센서 (1141) 또는 인간의 인지 지각 능력 범위 외 영역을 감지하는 제 2 센서 (1142) 로 분류될 수 있다. 예를 들어, 인간의 인지 지각 능력 범위 내 영역을 감지하는 제 1 센서 (1141) 는 RGB 카메라, 마이크를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 예를 들어, 인간의 인지 지각 능력 범위 외 영역을 감지하는 제 2 센서 (1142) 는 IR 카메라, 열화상 카메라, 라이다, 레이더, 초음파, IR 센서 등을 포함할 수 있으나, 이에 제한되지 않는다.
또는, 일 실시예에 따라, 복수의 센서는 이미지 센서 또는 거리 센서로 분류될 수도 있다. 이미지 센서는 물체를 가시광선, IR, 또는 온도 등을 이용하여 식별하는 센서로서, RGB 카메라, IR 카메라, 또는 열화상 카메라를 포함할 수 있으나, 이에 제한되지 않는다. RGB 카메라로부터 획득되는 데이터는 x, y 픽셀값 및 이미지 (가시광선) 일 수 있다. IR 카메라로부터 획득되는 데이터는 x, y 픽셀값 및 이미지 (IR값) 일 수 있다. 열화상 카메라로부터 획득되는 데이터는 x, y 픽셀값 및 이미지 (온도값) 일 수 있다. 또한, 거리센서는 물체와의 거리를 측정할 수 있는 센서로서, 라이다, 레이더, 초음파, 또는 IR 센서를 포함할 수 있으나, 이에 제한되지 않는다. 라이다로부터 획득되는 데이터는 거리, 방위값, 높이, 3D 이미지 (표면 특성), 또는 금속/비금속 (물성특성) 일 수 있다. 레이더로부터 획득되는 데이터는 거리, 방위각, 속도 (움직이는 속도), 금속/비금속/움직이는 물체 (물성특성) 일 수 있다. 초음파로부터 획득되는 데이터는 거리 (방위각), 물체의 유무에 대한 정보 일 수 있다. IR 센서로부터 획득되는 데이터는 거리, 물체의 유무에 대한 정보 일 수 있다.
예를 들어, 차량 (1) 이 밝은 도로를 달리고 있는 경우, 인간의 인지 지각 능력 범위 내의 영역을 감지하는 제 1 센서 (1141) 및 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서 (1142) 모두 객체를 인식할 수 있다. 이 경우는, 차량 (1) 전방에 객체가 있다 하더라도 차량 (1) 의 운전자가 객체를 인지할 수 있는바 객체의 위험도가 상대적으로 낮을 수 있다. 따라서, 객체의 위험도에 따라 차량 (1) 의 소정의 기능이 수행되는 시점을 차량 (1) 의 운전자에게 맞춰 조절할 수 있다.
장치 (1100) 는 자동차, 드론, 청소 로봇, 애완 로봇에 포함될 수 있으나, 이에 제한되지 않으며, 적어도 하나의 센서를 이용하여 객체를 인식할 수 있는 모든 종류의 기기에 포함될 수 있다. 또한, 객체는 센서가 인식할 수 있는 모든 사물들을 의미할 수 있다. 예를 들어, 보행자(어린이), 보행자(어른), 자동차(버스, 세단, SUV, 벤, 트럭, 트레일러, 포크레인, 또는 승용차), 이륜차 (자전거 타고 있는 사람, 오토바이에 탄 사람), 동물 (개, 고양이, 사슴, 새), 나무, 센서 (온도센서, 이산화탄소센서, 스프링쿨러), 벽, 과속방지턱, 변일 수 있으나, 이에 제한되지 않는다.
객체 인식 가능성은 센싱한 이미지의 형태, 또는 색상 등을 기초로 한 유사도에 결정되는 값을 의미할 수 있다. 또한, 객체 인식 가능성은 입력 데이터에서 추출된 특징과 데이터 베이스의 파라미터를 통해 결정되는 값을 의미할 수 있다. 또한, 객체 인식 가능성은 센서의 종류 및 차량 (1) 의 외부 조건에 기초하여 결정될 수 있다.
일 실시예에 따라, 객체 인식 가능성의 기준값이 센서별로 상이한 경우, 객체 인식 가능성의 기준값을 소정의 기준에 따라 보정하여, 공통 인식 가능성을 획득할 수 있다. 예를 들어, 공통 인식 가능성은 RGB 카메라, IR 카메라, 열화상 카메라, 라이다, 레이더, 초음파, IR 센서 등에 모두 동일하게 적용될 수 있는 객체 인식 가능성의 기준값을 나타낼 수 있다.
도 2 는 본 개시의 일 실시예에 따라 센싱 데이터의 객체 인식 가능성에 기초하여 객체의 위험도 레벨을 결정하고, 객체의 위험도 레벨에 기초하여 객체의 위험도를 결정하는 일례를 도시한 도면이다.
예를 들어, 차량 (1) 이 밝은 도로를 달리고 있는 경우, 인간의 인지 지각 능력 범위 내의 영역을 감지하는 제 1 센서 및 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서 모두 객체 (201) 를 인식할 수 있다.
반면, 육안으로 주변 물체를 식별하기 어려운 어두운 도로에서 차량 (1) 이 달리는 경우, 일정 범위에서는 인간의 인지 지각 능력 범위 내의 영역을 감지하는 제 1 센서 (1141) 는 차량 (1) 주변의 객체를 인식하지 못할 수 있고, 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서 모두 객체를 인식할 수 있다.
일 실시예에 따라, 제 1 센서 (1141) 로부터 획득된 제 1 센싱 데이터의 객체 인식 가능성 (211) 를 소정의 임계값 (220) 과 비교하여 제 1 센싱 데이터의 객체 인식 가능성 (211) 가 소정의 임계값 (220) 이상인 경우, 제 1 센서 (1141) 가 객체 (201) 를 인식한 것으로 판단할 수 있다. 또한, 제 2 센서 (1142) 로부터 획득된 제 2 센싱 데이터의 객체 인식 가능성 (212) 를 소정의 임계값 (220) 과 비교하여 제 2 센싱 데이터의 객체 인식 가능성 (212) 가 소정의 임계값 (220) 이상인 경우, 제 2 센서 (1142) 는 객체 (201) 를 인식한 것으로 판단 할 수 있다. 즉, 센서로부터 획득한 센싱 데이터의 객체 인식 가능성이 소정의 임계값 (220) 이상인지 여부를 판단함으로써, 객체 (201) 가 센서에 의해 인식되었는지 여부를 판단할 수 있다.
일 실시예에 따라, 객체가 센서에 의해 인식되었는지 여부가 판단된 후, 인식 여부에 기초하여 객체의 위험도 레벨 (230) 이 획득될 수 있다.
예를 들어, 제 1 객체 인식 가능성이 소정의 임계값 (220) 이상이고 제 2 객체 인식 가능성이 소정의 임계값 (220) 이상인 경우는 차량 (1) 의 운전자도 차량 (1) 주변의 객체의 존재에 대해서 인식하고 있고, 차량 (1) 의 센서 또한 객체의 존재에 대해서 인식하고 있는 상황일 수 있다. 이 경우는 차량 (1) 주변에 객체의 존재로 인한 위험도가 자명한 경우인바 상대적으로 낮은 기준, 즉 상대적으로 낮은 위험도 레벨에서 위험도가 결정될 수 있다.
또한, 제 1 객체 인식 가능성이 소정의 임계값 (220) 이상이고 제 2 객체 인식 가능성이 소정의 임계값 (220) 미만인 경우는 차량 (1) 의 운전자는 차량 (1) 주변의 객체의 존재에 대해서 인식하고 있으나, 차량 (1) 의 센서 중 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서가 차량 (1) 주변의 객체를 감지하지 못한 상황일 수 있다. 이 경우는 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서가 객체를 인지하지 못하더라도 차량 (1) 의 운전자가 직접 객체를 인지할 수 있는 상황인바 중간 정도의 기준, 즉 중간 위험도 레벨에서 위험도가 결정될 수 있다.
또한, 제 1 객체 인식 가능성이 소정의 임계값 (220) 미만이고 제 2 객체 인식 가능성이 소정의 임계값 (220) 이상인 경우는 차량 (1) 의 운전자는 차량 (1) 주변의 객체를 인지하기 어려운 상황이고, 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서가 차량 (1) 주변의 객체를 감지한 상황일 수 있다. 이 경우는 제 2 센서로 차량 (1) 주변 객체에 대한 감지가 되었음에도 운전자의 지각능력으로 객체를 확인할 수 없는 상황인바 상대적으로 높은 기준, 즉 상대적으로 높은 위험도 레벨에서 위험도가 결정될 수 있다.
일 실시예에 따라, 위험도 레벨 (230) 이 획득된 후 획득된 위험도 레벨에 기초하여 위험도 (240) 가 결정될 수 있다.
예를 들어, 같은 조건에서의 주행 환경 (예를 들어, 주행 속도, 도로 상황, 날씨, 운전자의 숙련 정도 등) 에서 위험도를 결정한다고 가정했을 때, 상대적으로 낮은 위험도 레벨에서 결정되는 위험도는 상대적으로 높은 위험도 레벨에서 결정되는 위험도 보다 낮을 수 있다. 즉, 같은 조건에서의 주변 환경 및 주행 환경 (예를 들어, 주행 속도, 도로 상황, 날씨, 운전자의 숙련 정도 등) 이라 하더라도, 센서의 인식 여부에 의해 결정되는 위험도 레벨에 따라 상이한 정도의 위험도가 결정될 수 있다.
일 실시예에 따라, 결정된 위험도에 기초하여 차량 (1) 의 소정의 기능이 수행될 수 있다. 예를 들어, 차량 (1) 의 소정의 기능은 객체로부터의 위험을 알리는 알림 정보를 출력하는 기능 및 차량 (1) 의 움직임을 제어하는 기능 중 적어도 하나를 포함할 수 있다.
일 실시예에 따라, 상대적으로 낮은 위험도로 결정된 경우, 차량 (1) 의 운전자에게 미칠 수 있는 위험이 상대적으로 낮은 경우에 해당하므로, 객체에 대한 경고 또는 차량 (1) 의 움직임 제어가 기 설정된 기준 시점에 발생되거나, 경고의 종류가 제한되어 나타나거나, 경고의 강도 또는 빈도가 상대적으로 낮을 수 있다.
예를 들어, 기 설정된 객체에 대한 경고 발생 시점이 차량 (1) 으로부터 50 m 전방이고 기 설정된 차량 (1) 제어 시점이 차량 (1) 으로부터 30 m 전방이라면, 결정된 위험도가 낮은 경우, 차량 (1) 전방 40 m 도달 시점부터 객체에 대한 경고를 발생시키고 차량 (1) 전방 20 m 도달 시점부터 차량 (1) 에 대한 제어를 시작할 수 있다. 또한, 예를 들어, 기 설정된 객체에 대한 경고 발생 시점이 전방 객체 도달 전 5 초이고 기 설정된 차량 (1) 제어 시점이 전방 객체 도달 전 4 초 라고 설정되었다면, 결정된 위험도가 낮은 경우, 전방 객체 도달 전 4 초 전부터 객체에 대한 경고를 발생시키고 전방 객체 도달 전 3 초 전부터 차량 (1) 제어를 시작할 수 있다.
반면, 일 실시예에 따라, 상대적으로 높은 위험도로 결정된 경우, 차량 (1) 의 운전자에게 미칠 수 있는 위험이 상대적으로 중대한 경우에 해당하므로, 객체에 대한 경고 또는 차량 (1) 의 움직임 제어가 기 설정된 기준 시점 보다 빠르게 발생되거나, 경고의 종류가 다양하게 나타나거나, 경고의 강도 또는 빈도가 상대적으로 강할 수 있다.
예를 들어, 기 설정된 객체에 대한 경고 발생 시점이 차량 (1) 으로부터 50 m 전방이고 기 설정된 차량 (1) 제어 시점이 차량 (1) 으로부터 30 m 전방이라면, 결정된 위험도가 높은 경우, 차량 (1) 전방 80 m 도달 시점부터 객체에 대한 경고를 발생시키고 차량 (1) 전방 50 m 도달 시점부터 차량 (1) 에 대한 제어를 시작할 수 있다. 또한, 예를 들어, 기 설정된 객체에 대한 경고 발생 시점이 전방 객체 도달 전 5 초이고 기 설정된 차량 (1) 제어 시점이 전방 객체 도달 전 4 초 라고 설정되었다면, 결정된 위험도가 높은 경우, 전방 객체 도달 전 8 초 전부터 객체에 대한 경고를 발생시키고 전방 객체 도달 전 5 초 전부터 차량 (1) 제어를 시작할 수 있다.
도 3 은 본 개시의 일 실시예에 따라 제 1 센서 및 제 2 센서가 모두 객체를 인식한 경우, 제 1 위험도 레벨 (330) 에 기초하여 위험도를 결정하고 차량 (1) 의 소정의 기능을 수행하는 일례를 도시한 도면이다.
일 실시예에 따라, 인간의 인지 지각 능력 범위 내의 영역을 감지하는 제 1 센서 (1141) 및 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서 (1142) 모두 객체 (301) 를 인식할 수 있다. 예를 들어, 차량 (1) 이 밝은 도로를 달리고 있는 경우, 차량 (1) 의 센서들은 모두 객체 (301) 를 인식할 수 있다. 예를 들어, 차량 (1) 의 센서들은 차량 (1) 전방의 다른 차량 (1) 또는 과속 방지턱을 인식하거나 차량 (1) 주변의 동물 또는 가로수를 인식할 수 있다.
일 실시예에 따라, 제 1 객체 인식 가능성 (311) 및 제 2 객체 인식 가능성 (312) 가 소정의 임계값 (320) 이상인 것으로 판단되는 것은 제 1 센서 및 제 2 센서가 객체 (301) 를 인식하는 것일 수 있다. 여기서, 소정의 임계값 (320) 은 센싱 데이터의 정확도 또는 가능성이 소정의 기준 이상임을 나타내는 값일 수 있다. 예를 들어, 센싱 데이터의 객체 인식 가능성이 소정의 임계값 (320) 이상인 경우, 장치 (1100) 의 제어부 (1110) 는 센서가 객체를 인식하지 했다고 결정할 수 있다. 한편, 소정의 임계값 (320) 은 기 설정된 값일 수 있고, 주변 상황 정보 또는 주행 정보 중 적어도 하나에 기초한 수정된 값일 수 있다.
일 실시예에 따라, 제 1 객체 인식 가능성 (311) 및 제 2 객체 인식 가능성 (312) 모두가 소정의 임계값 (320) 이상인 것으로 판단되는 경우, 차량 (1) 운전자가 차량 (1) 주변의 객체를 인식할 수 있는 확률이 상대적으로 높은바, 상대적으로 낮은 위험도 레벨 (즉, 제 1 위험도 레벨) (330) 이 결정될 수 있다. 예를 들어, 제 1 위험도 레벨 (330) 은 후술할 제 2 위험도 레벨 또는 제 3 위험도 레벨에 비하여 상대적으로 작을 수 있다.
일 실시예에 따라. 동일한 주변 상황 정보 및 주행 정보에 기초하여 위험도가 결정되는 경우, 제 1 위험도 레벨 (330) 에서 결정된 위험도는 제 2 위험도 레벨에서 결정된 위험도 보다 작을 수 있다. 다만, 제 1 위험도 레벨 (330) 에 기초하여 결정된 위험도가 제 2 위험도 레벨에 기초하여 결정된 위험도 보다 반드시 작아야만 하는 것은 아니고, 제 1 위험도 레벨에 기초하고 주변 상황 정보 및 주행 정보가 차량 (1) 에게 보다 더 위험한 경우에 결정된 위험도가 제 2 위험도 레벨에 기초하고 주변 상황 정보 및 주행 정보가 차량 (1) 에게 보다 더 안전한 경우에 결정된 위험도에 비해서 더 높을 수 있다.
일 실시예에 따라, 제 1 위험도 레벨에 기초하여 위험도가 결정되는 경우, 결정된 위험도에 따라 차량 (1) 에 대한 소정의 기능이 수행될 수 있다. 예를 들어, 결정된 위험도가 낮은 경우, 차량 (1) 또는 차량 (1) 의 운전자에 대한 위험이 긴급하지 않은 상황인바, 객체에 대한 경고 또는 차량 (1) 의 움직임 제어가 기 설정된 기준 시점에 발생되거나, 경고의 종류가 제한되어 나타나거나, 경고의 강도 또는 빈도가 상대적으로 낮을 수 있다.
도 4 는 본 개시의 일 실시예에 따라 제 1 센서 (1141) 는 객체를 인식하고 제 2 센서 (1142) 는 객체를 인식하지 못한 경우, 제 2 위험도 레벨 (430) 에 기초하여 위험도를 결정하고 차량 (1) 의 소정의 기능을 수행하는 일례를 도시한 도면이다.
일 실시예에 따라, 인간의 인지 지각 능력 범위 내의 영역을 감지하는 제 1 센서 (1141) 는 객체 (401) 를 인식하였지만, 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서 (1142) 는 객체를 인식하지 못할 수 있다. 예를 들어, 차량 (1) 이 코너영역 또는 터널을 통과하고 있는 경우, 차량 (1) 의 RGB 카메라는 객체를 인식하고 차량 (1) 의 초음파 센서는 객체를 인식하지 못할 수 있다. 또한, 예를 들어, 우천 중에 차량 (1) 을 주행하는 경우, 차량 (1) 의 RGB 카메라는 객체를 인식하고 차량 (1) 의 라이다 센서는 객체를 인식하지 못할 수 있다.
일 실시예에 따라, 제 1 객체 인식 가능성은 소정의 임계값 (420) 이상이고 제 2 객체 인식 가능성은 소정의 임계값 (420) 미만인 것으로 판단되는 것은 제 1 센서 (1141) 는 객체 (401) 를 인식하고 제 2 센서 (1142) 는 객체를 인식하지 못하는 상황을 나타는 것일 수 있다. 여기서, 소정의 임계값 (420) 은 센싱 데이터의 정확도 또는 가능성이 소정의 기준 이상임을 나타내는 값일 수 있다. 예를 들어, 센싱 데이터의 객체 인식 가능성이 소정의 임계값 (420) 미만인 경우, 장치 (1100) 의 제어부 (1110) 는 센서가 객체를 인식하지 못했다고 결정할 수 있다. 한편, 소정의 임계값 (420) 은 기 설정된 값일 수 있고, 주변 상황 정보 또는 주행 정보 중 적어도 하나에 기초한 수정된 값일 수 있다.
일 실시예에 따라, 제 1 객체 인식 가능성은 소정의 임계값 (420) 이상이고 제 2 객체 인식 가능성은 소정의 임계값 (420) 미만인 것으로 판단되는 경우, 상대적으로 낮은 위험도 레벨 (즉, 제 1 위험도 레벨) 보다는 높고 상대적으로 높은 위험도 레벨 (즉, 제 3 위험도 레벨) 보다는 낮은 중간 위험도 레벨 (즉, 제 2 위험도 레벨) (430) 이 결정될 수 있다. 예를 들어, 제 2 위험도 레벨 (430) 은 후술할 제 3 위험도 레벨 보다는 상대적으로 작을 수 있고 전술한 제 1 위험도 레벨 (330) 에 비하여 상대적으로 높을 수 있다.
일 실시예에 따라, 동일한 주변 상황 정보 및 주행 정보에 기초하여 위험도가 결정되는 경우, 제 2 위험도 레벨 (430) 에서 결정된 위험도는 제 3 위험도 레벨에서 결정된 위험도 보다 작을 수 있고 제 1 위험도 레벨 (330) 에서 결정된 위험도 보다 높을 수 있다. 다만, 제 2 위험도 레벨 (430) 에 기초하여 결정된 위험도가 제 3 위험도 레벨에 기초하여 결정된 위험도 보다 반드시 작아야만 하는 것은 아니고, 제 2 위험도 레벨 (430) 에 기초하고 주변 상황 정보 및 주행 정보가 차량 (1) 에게 보다 더 위험한 경우에 결정된 위험도가 제 3 위험도 레벨에 기초하고 주변 상황 정보 및 주행 정보가 차량 (1) 에게 보다 더 안전한 경우에 결정된 위험도에 비해서 더 높을 수 있다.
일 실시예에 따라, 제 2 위험도 레벨 (430) 에 기초하여 위험도가 결정되는 경우, 결정된 위험도에 따라 차량 (1) 에 대한 소정의 기능이 수행될 수 있다. 예를 들어, 결정된 위험도가 낮은 경우, 차량 (1) 또는 차량 (1) 의 운전자에 대한 위험이 긴급하지 않은 상황인바, 객체에 대한 경고 또는 차량 (1) 의 움직임 제어가 기 설정된 기준 시점에 발생되거나, 경고의 종류가 제한되어 나타나거나, 경고의 강도 또는 빈도가 상대적으로 낮을 수 있다. 한편, 객체에 대한 경고 또는 차량 (1) 의 움직임 제어 발생에 대한 기 설정된 기준, 경고의 종류, 경고의 강도 또는 경고의 빈도는 사용자 설정에 의해 변경될 수 있다.
도 5 는 본 개시의 일 실시예에 따라 제 1 센서 (1141) 는 객체를 인식하지 못하고 제 2 센서 (1142) 가 객체를 인식한 경우, 제 3 위험도 레벨 (530) 에 기초하여 위험도를 결정하고 차량 (1) 의 소정의 기능을 수행하는 일례를 도시한 도면이다.
일 실시예에 따라, 인간의 인지 지각 능력 범위 내의 영역을 감지하는 제 1 센서 (1141) 는 객체를 인식하지 못하고 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서 (1142) 는 객체 (501) 를 인식할 수 있다. 예를 들어, 차량 (1) 이 어두운 터널에서 밝은 곳으로 나오는 경우, 순간적인 조도의 변화로 인하여 RGB 카메라는 객체를 인식하지 못하지만 초음파 센서는 객체를 인식할 수 있다.
일 실시예에 따라, 제 1 객체 인식 가능성이 소정의 임계값 (520) 미만이고 제 2 객체 인식 가능성이 소정의 임계값 (520) 이상인 것으로 판단되는 것은 제 1 센서 (1141) 는 객체를 인식하지 못하고 제 2 센서 (1142) 는 객체를 인식하는 상황을 나태는 것일 수 있다. 여기서, 소정의 임계값 (520) 은 센싱 데이터의 정확도 또는 가능성이 소정의 기준 이상임을 나타내는 값일 수 있다. 한편, 소정의 임계값 (520) 은 기 설정된 값일 수 있고, 주변 상황 정보 또는 주행 정보 중 적어도 하나에 기초한 수정된 값일 수 있다.
일 실시예에 따라, 제 1 객체 인식 가능성 (511) 는 소정의 임계값 (520) 미만이고 제 2 객체 인식 가능성 (512) 는 소정의 임계값 (520) 이상인 것으로 판단되는 경우, 차량 (1) 운전자가 차량 (1) 주변의 객체를 인식할 수 있는 확률이 상대적으로 낮은바, 상대적으로 높은 위험도 레벨 (즉, 제 3 위험도 레벨) (530) 이 결정될 수 있다. 예를 들어, 제 3 위험도 레벨 (530) 은 전술할 제 1 위험도 레벨 및 제 2 위험도 레벨에 비하여 상대적으로 높을 수 있다.
일 실시예에 따라, 동일한 주변 상황 정보 및 주행 정보에 기초하여 위험도가 결정되는 경우, 제 3 위험도 레벨 (530) 에서 결정된 위험도는 제 1 위험도 레벨에서 결정된 위험도 보다 높을 수 있다. 다만, 제 3 위험도 레벨 (530) 에 기초하여 결정된 위험도가 제 2 위험도 레벨 (430) 에 기초하여 결정된 위험도 보다 반드시 높아야만 하는 것은 아니고, 제 2 위험도 레벨 (430) 에 기초하고 주변 상황 정보 및 주행 정보가 차량 (1) 에게 보다 더 위험한 경우에 결정된 위험도가 제 3 위험도 레벨 (530) 에 기초하고 주변 상황 정보 및 주행 정보가 차량 (1) 에게 보다 더 안전한 경우에 결정된 위험도에 비해서 더 높을 수 있다.
일 실시예에 따라, 제 3 위험도 레벨 (530) 에 기초하여 위험도가 결정되는 경우, 결정된 위험도에 따라 차량 (1) 에 대한 소정의 기능이 수행될 수 있다. 예를 들어, 결정된 위험도가 높은 경우, 차량 (1) 또는 차량 (1) 의 운전자에 대한 위험이 긴급한 상황인바, 객체에 대한 경고 또는 차량 (1) 의 움직임 제어가 기 설정된 기준 시점 보다 이전에 발생되거나, 경고의 종류가 보다 다양한 형태로 나타나거나, 경고의 강도 또는 빈도가 상대적으로 높을 수 있다.
도 2 내지 도 5 는 일 실시 예를 도시한 것으로서 이에 한정되지 않는다.
도 6 은 본 개시의 일 실시예에 따라 차량 (1) 의 주행 정보 및 차량 (1) 주변의 상황 정보 중 적어도 하나, 및 위험도 레벨에 기초하여, 객체의 위험도를 결정하는 일례를 도시한 도면이다.
일 실시예에 따라, 차량 (1) 의 장치 (1100) 의 제어부 (1110) 는 차량 (1) 의 주행 정보 (610) 및 차량 (1) 의 주변 상황 정보 (620) 중 적어도 하나를 획득할 수 있다.
예를 들어, 차량 (1) 의 주행 정보 (610) 는 차량 (1) 의 속도 (예를 들어, 차량 (1) 의 운행 속도, 운행 가속도, 급정거, 급가속 등), 차량 (1) 의 조향 (예를 들어, 운행 방향 등), 차량 (1) 의 정보 (예를 들어, 차량 (1) 의 차종, 연식, 사고율 등의 정보 등), 운전자의 평소 주행 습관 (예를 들어, 운전자의 반응 속도 등), 또는 운전자의 주의 정도 (예를 들어, 운전자가 시야, 운전자가 주시하고 있는 방향 등) 등을 포함할 수 있지만, 이에 제한되지 않는다.
또한, 예를 들어, 차량 (1) 의 주변 상황 정보 (620) 는 주행 중인 도로의 차선 형태, 주변 차선의 차량 (1) 존재 유무, 조도, 적설량, 강수량, 터널 환경 또는 코너 환경일 수 있지만, 이에 제한되지 않는다.
일 실시예에 따라, 차량 (1) 의 장치 (1100) 의 제어부 (1110) 는 차량 (1) 의 주행 정보 (610) 및 차량 (1) 주변 상황 정보 (620) 중 적어도 하나, 및 결정된 위험도 레벨에 기초하여 객체의 위험도를 결정할 수 있다.
예를 들어, 주행 정보 (610) 및 주변 상황 정보 (620) 가 동일한 경우라 하더라도, 센서의 객체 인식 여부에 의해 결정되는 위험도 레벨이 상이하다면, 상이한 위험도가 결정될 수 있다. 또한, 위험도 레벨 동일한 경우라 하더라도, 주행 정보 및 주변 상황 정보가 상이하다면, 상이한 위험도가 결정될 수 있다.
일 실시예에 따라, 제어부 (1110) 는 객체가 인식되었는지 여부에 따라 위험도 레벨을 결정할 수 있고, 결정된 위험도 레벨에 기초하여 차량 (1) 주행 정보 (610) 또는 차량 (1) 주변 상황 정보 (620) 중 적어도 하나를 고려하여 객체에 대한 위험도를 결정할 수 있다. 이와 반대로, 제어부 (111) 는 차량 (1) 주행 정보 (610) 또는 차량 (1) 주변 상황 정보 (620) 를 획득하고, 획득된 주행 정보 (610) 또는 차량 (1) 주변 상황 정보 (620) 에 기초하여 위험도 레벨을 고려하여 객체에 대한 위험도를 결정할 수 있다.
도 7 은 본 개시의 일 실시예에 따라 차량 (1) 의 소정의 기능에 포함되는 객체로부터의 위험을 알리는 알림 정보를 출력하는 기능 및 차량 (1) 의 움직임을 제어하는 기능의 일례를 도시한 도면이다.
일 실시예에 따라, 장치 (1100) 의 제어부 (1110) 는 객체에 대한 경고를 헤드 업 디스플레이 (Head-Up Display) (701), CID(Central Information Display) (702), 미러 디스플레이(mirror display) (703), 통신부를 통해 연결된 기기 (704) 의 디스플레이에 출력할 수 있다. 또한, 장치 (1100) 의 제어부 (1110) 는 음향 출력부를 통해 객체에 대한 경고를 소리 (705) 로 출력할 수 있다. 또한, 장치 (1100) 의 제어부 (1110) 는 객체에 대한 경고를 진동으로 출력할 수 있다. 예를 들어, 진동은 핸들 (706), 브레이크 패들 (707), 운전자의 좌석 (708) 등에서 발생할 수 있다.
일 실시예에 따라, 객체에 대한 정보가 디스플레이에 출력되는 경우, 객체를 인식한 센서의 종류에 따라 상이한 방법으로 출력될 수 있다. 예를 들어, RGB 센서는 객체를 인식하지 못하고 초음파 센서만이 객체를 인식한 경우, 디스플레이에 출력되는 객체에 대한 정보는 기 설정된 상이한 모양 (710) 으로 출력될 수 있다. 예를 들어, 장치 (1100) 의 제어부 (1110) 는 객체의 위험도에 따라 디스플레이 되는 형태의 색을 지정하여 출력하거나, 차량 (1) 의 위험도가 구별될 수 있도록 Heat map 으로 출력할 수 있다. 또는 예를 들어, 장치 (1100) 의 제어부 (1110) 는 객체의 위험도를 숫자로 출력할 수 있다. 예를 들어, RGB 센서는 객체를 인식하지 못하고 초음파 센서만이 객체를 인식한 경우, 디스플레이에 소리 모양 아이콘 (720) 을 나타냄으로써 소리로 경고가 발생하였음을 알릴 수 있다.
일 실시예에 따라, 차량 (1) 의 움직임을 제어하는 기능에는 차량 (1) 의 속도를 감속시키는 기능 또는 차량 (1) 의 조향을 변경하는 기능 등이 포함될 수 있으나, 이에 제한되지 않는다.
주행 가이드 정보에 기초하여, 장치 (1100) 의 제어부 (1110) 는 차량 (1) 의 주행 속도 및 주행 방향 중 적어도 하나를 포함하는 주행 동작을 제어할 수 있다. 예를 들어, 제어부 (1110) 는 충돌 위험 상황을 방지하기 위해, 브레이크를 동작시켜 차량 (1) 을 급정지시킬 수 있다. 또한, 제어부 (1110) 는 충돌 위험 상황을 방지하기 위해, 주행 방향을 전환시킬 수 있다.
도 8 은 본 개시의 일 실시예에 따라 객체 인식 가능성에 기초하여 객체의 위험도를 획득하고, 객체의 위험도에 기초하여 차량 (1) 에 대한 소정의 기능을 수행하는 방법의 흐름도이다.
단계 S810 에서, 장치 (1100) 의 제 1 센서 (1141) 는 차량 (1) 주변의 객체에 대한 제 1 센싱 데이터를 획득할 수 있다.
일 실시예에 따라, 제 1 센서 (1141) 는 인간의 인지 지각 능력 범위 내의 영역을 감지하는 센서일 수 있다. 예를 들어, 인간의 인지 지각 능력 범위 내의 영역을 감지하는 센서는 RGB 카메라 또는 음향 센서 등을 포함할 수 있으나, 이에 제한되지 않는다.
일 실시예에 따라, 차량 (1) 은 차량 (1) 주행 중에 기 설정된 주기에 따라 센서를 통해 객체의 센싱 데이터를 획득할 수 있다. 예를 들어, 차량 (1) 의 제 1 센서 (1141) 및 제 2 센서 (1142) 는 차량 (1) 이 고속도로에서 고속으로 주행하는 경우 높은 빈도로 객체에 대한 센싱 데이터를 획득하기 위해 작동될 수 있다. 또한, 예를 들어, 차량 (1) 의 제 1 센서 (1141) 및 제 2 센서 (1142) 는 차량 (1) 이 저속 주행하는 경우 낮은 빈도로 객체에 대한 센싱 데이터를 획득하기 위해 작동될 수 있다.
단계 S820 에서, 장치 (1100) 의 제 2 센서 (1142) 는 차량 (1) 주변의 객체에 대한 제 2 센싱 데이터를 획득할 수 있다.
일 실시예에 따라, 제 2 센서 (1142) 는 인간의 인지 지각 능력 범위 외의 영역을 감지하는 센서일 수 있다. 예를 들어, 인간의 인지 지각 능력 범위 외의 영역을 감지하는 센서는 IR 카메라, 열화상 카메라, 라이다, 레이더, 초음파, IR 센서 등을 포함할 수 있으나, 이에 제한되지 않는다.
일 실시예에 따라, 차량 (1) 은 차량 (1) 주행 중에 기 설정된 주기에 따라 센서를 통해 객체의 센싱 데이터를 획득할 수 있다. 예를 들어, 차량 (1) 의 제 1 센서 (1141) 및 제 2 센서 (1142) 는 차량 (1) 이 고속도로에서 고속으로 주행하는 경우 높은 빈도로 객체에 대한 센싱 데이터를 획득하기 위해 작동될 수 있다. 또한, 예를 들어, 차량 (1) 의 제 1 센서 (1141) 및 제 2 센서 (1142) 는 차량 (1) 이 저속 주행하는 경우 낮은 빈도로 객체에 대한 센싱 데이터를 획득하기 위해 작동될 수 있다.
단계S830 에서, 장치 (1100) 의 제어부 (1110) 는 획득된 제 1 센싱 데이터의 제 1 객체 인식 가능성 및 획득된 제 2 센싱 데이터의 제 2 객체 인식 가능성을 획득 할 수 있다.
일 실시예에 따라, 객체 인식 가능성은 객체가 올바르게 인식되었는지에 관한 정도를 나타내며, 센싱된 데이터로부터 식별되는 객체 및 실제 객체와의 유사도에 기초하여 결정될 수 있다. 예를 들어, 실제 객체에 대응되는 센싱 데이터가 미리 저장될 수 있으며, 센서로부터 센싱된 데이터 및 저장된 센싱 데이터를 비교함으로써, 객체 인식 가능성이 결정될 수 있다. 또한, 객체 인식 가능성은 입력 데이터에서 추출된 특징과 데이터 베이스의 파라미터를 통해 결정되는 값을 의미할 수 있다. 또한, 객체 인식 가능성은 센서의 종류 및 차량 (1) 의 외부 조건에 기초하여 결정될 수 있다.
단계 S840 에서, 장치 (1100) 의 제어부 (1110) 는 획득된 제 1 및 제 2 객체 인식 가능성에 기초하여 객체의 위험도를 결정할 수 있다.
일 실시예에 따라, 객체 인식 가능성에 기초하여 차량 (1) 주변의 객체 있는지 여부를 판단하고 객체의 위험도를 획득할 수 있다. 객체의 위험도는 인식된 객체가 차량 (1) 및 차량 (1) 의 운전자에게 미치는 영향을 나타낼 수 있다.
예를 들어, 객체 인식 가능성이 높아서 차량 (1) 의 주변에 객체가 존재함이 확실한 경우, 위험도가 높을 수 있다. 다만 인간의 인지 지각 능력 내의 영역을 감지하는 제 1 센서가 객체를 감지한 경우라면 차량 (1) 의 운전자도 객체를 감지했을 확률이 높기 때문에 위험도는 상대적으로 낮아질 수 있다. 이와는 반대로, 인간의 인지 지각 능력 내의 영역을 감지하는 제 1 센서가 객체를 감지하지 못하고 인지 지각 능력 내의 영역을 감지하는 제 2 센서만이 객체를 감지한 경우, 객체가 차량 (1) 주변에 위험 요소로서 존재함에도 불구하고 차량 (1) 의 운전자가 이를 인지하지 못한 경우이므로, 객체의 위험도는 상대적으로 높을 수 있다.
단계 S850 에서, 장치 (1100) 의 제어부 (1110) 는 획득된 객체의 위험도에 기초하여 차량 (1) 에 대한 소정의 기능을 수행하게 할 수 있다.
일 실시예에 따라, 획득된 위험도에 기초하여 차량 (1) 의 소정의 기능이 수행될 수 있다. 예를 들어, 차량 (1) 의 소정의 기능은 객체로부터의 위험을 알리는 알림 정보를 출력하는 기능 및 차량 (1) 의 움직임을 제어하는 기능 중 적어도 하나를 포함할 수 있다.
일 실시예에 따라, 상대적으로 낮은 위험도로 결정된 경우, 차량 (1) 의 운전자에게 미칠 수 있는 위험이 상대적으로 낮은 경우에 해당하므로, 객체에 대한 경고 또는 차량 (1) 의 움직임 제어가 기 설정된 기준 시점에 발생되거나, 경고의 종류가 제한되어 나타나거나, 경고의 강도 또는 빈도가 상대적으로 낮을 수 있다.
반면, 일 실시예에 따라, 상대적으로 높은 위험도로 결정된 경우, 차량 (1) 의 운전자에게 미칠 수 있는 위험이 상대적으로 중대한 경우에 해당하므로, 객체에 대한 경고 또는 차량 (1) 의 움직임 제어가 기 설정된 기준 시점 보다 빠르게 발생되거나, 경고의 종류가 다양하게 나타나거나, 경고의 강도 또는 빈도가 상대적으로 강할 수 있다.
출력되는 알림의 정보의 종류 및 제어되는 차량 (1) 의 움직임 종류는 도 7 에 대한 설명에서 상술하였는바 본 도면에 대한 설명 부분에서는 생략하도록 한다.
도 9 는 본 개시의 일 실시예에 따라 센싱 데이터의 객체 인식 가능성에 기초하여 객체의 위험도 레벨을 결정하고, 객체의 위험도 레벨에 기초하여 객체의 위험도를 결정하는 방법의 흐름도이다.
단계 S910 에서 제 1 객체 인식 가능성에 기초하여 제 1 센서에 의해 객체가 인식되었는지 판단한다.
일 실시예에 따라, 객체가 센서에 의해 인식되었는지 여부를 판단하는 것은 객체 인식 가능성이 소정의 임계값 (220) 이상인지 여부를 판단하는 것일 수 있다. 소정의 임계값 (220) 은 센싱 데이터의 정확도 또는 가능성이 소정의 기준 이상임을 나타내는 값일 수 있다. 예를 들어, 센싱 데이터의 객체 인식 가능성이 소정의 임계값 (220) 이상인 경우, 장치 (1100) 의 제어부 (1110) 는 센서가 객체를 인식하지 했다고 결정할 수 있다. 한편, 소정의 임계값 (220) 은 기 설정된 값일 수 있고, 주변 상황 정보 또는 주행 정보 중 적어도 하나에 기초한 수정된 값일 수 있다.
단계 S920 에서 제 2 객체 인식 가능성에 기초하여 제 2 센서에 의해 객체가 인식되었는지 판단한다.
일 실시예에 따라, 객체가 센서에 의해 인식되었는지 여부를 판단하는 것은 객체 인식 가능성이 소정의 임계값 (220) 이상인지 여부를 판단하는 것일 수 있다. 소정의 임계값 (220) 은 센싱 데이터의 정확도 또는 가능성이 소정의 기준 이상임을 나타내는 값일 수 있다. 예를 들어, 센싱 데이터의 객체 인식 가능성이 소정의 임계값 (220) 이상인 경우, 장치 (1100) 의 제어부 (1110) 는 센서가 객체를 인식하지 했다고 결정할 수 있다. 한편, 소정의 임계값 (220) 은 기 설정된 값일 수 있고, 주변 상황 정보 또는 주행 정보 중 적어도 하나에 기초한 수정된 값일 수 있다.
단계 S930 에서 객체가 제 1 센서에 의해 인식되었는지 여부 및 제 2 센서에 의해 인식되었는지 여부에 기초하여, 객체 위험도의 레벨을 결정한다.
일 실시예에 따라, 객체가 센서에 의해 인식되었는지 여부가 판단된 후, 인식 여부에 기초하여 객체의 위험도 레벨이 획득될 수 있다.
위험도 레벨이 획득되는 자세한 단계에 대해서는 도 10 에서 후술하도록 한다.
단계 S940 에서 결정된 객체 위험도 레벨에 기초하여 위험도를 결정한다.
일 실시예에 따라, 위험도 레벨이 결정된 후 획득된 위험도 레벨에 기초하여 위험도가 결정될 수 있다.
예를 들어, 같은 조건에서의 주행 환경 (예를 들어, 주행 속도, 도로 상황, 날씨, 운전자의 숙련 정도 등) 에서 위험도를 결정한다고 가정했을 때, 상대적으로 낮은 위험도 레벨에서 결정되는 위험도는 상대적으로 높은 위험도 레벨에서 결정되는 위험도 보다 낮을 수 있다. 즉, 같은 조건에서의 주변 환경 및 주행 환경 (예를 들어, 주행 속도, 도로 상황, 날씨, 운전자의 숙련 정도 등) 이라 하더라도, 센서의 인식 여부에 의해 결정되는 위험도 레벨에 따라 상이한 정도의 위험도가 결정될 수 있다.
도 10 은 본 개시의 일 실시예에 따라 각 센서의 객체 인식 여부에 따라 객체 위험도 레벨을 결정하는 방법의 흐름도이다.
일 실시예에 따라, 단계 S1010 에서 제 1 센서에 의해 객체가 인식된 것으로 판단되고, 단계 S1021 에서 제 2 센서에 의해 객체가 인식된 것으로 판단되는 경우, 단계 S1031 에서 객체의 위험도를 제 1 위험도 레벨로 결정한다.
예를 들어, 제 1 객체 인식 가능성이 소정의 임계값 (220) 이상이고 제 2 객체 인식 가능성이 소정의 임계값 (220) 이상인 경우는 차량 (1) 의 운전자도 차량 (1) 주변의 객체의 존재에 대해서 인식하고 있고, 차량 (1) 의 센서 또한 객체의 존재에 대해서 인식하고 있는 상황일 수 있다. 이 경우는 차량 (1) 주변에 객체의 존재로 인한 위험도가 자명한 경우인바 상대적으로 낮은 기준, 즉 상대적으로 낮은 위험도 레벨에서 위험도가 결정될 수 있다.
일 실시예에 따라, 단계 S1010 에서 제 1 센서에 의해 객체 인식된 것으로 판단되고, 단계 S1021 에서 제 2 센서에 의해 객체가 인식되지 않은 것으로 판단되는 경우, 단계 S1032 에서 객체의 위험도를 제 2 위험도 레벨로 결정한다.
예를 들어, 제 1 객체 인식 가능성이 소정의 임계값 (220) 이상이고 제 2 객체 인식 가능성이 소정의 임계값 (220) 미만인 경우는 차량 (1) 의 운전자는 차량 (1) 주변의 객체의 존재에 대해서 인식하고 있으나, 차량 (1) 의 센서 중 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서가 차량 (1) 주변의 객체를 감지하지 못한 상황일 수 있다. 이 경우는 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서가 객체를 인지하지 못하더라도 차량 (1) 의 운전자가 직접 객체를 인지할 수 있는 상황인바 중간 정도의 기준, 즉 중간 위험도 레벨에서 위험도가 결정될 수 있다.
일 실시예에 따라, 단계 S1010 에서 제 1 센서에 의해 객체가 인식되지 않은 것으로 판단되고, 단계 S1022 에서 객체가 인식된 것으로 판단되는 경우, 단계 S1033 에서 객체의 위험도를 제 3 위험도 레벨로 결정한다.
예를 들어, 제 1 객체 인식 가능성이 소정의 임계값 (220) 미만이고 제 2 객체 인식 가능성이 소정의 임계값 (220) 이상인 경우는 차량 (1) 의 운전자는 차량 (1) 주변의 객체를 인지하기 어려운 상황이고, 인간의 인지 지각 능력 범위 외의 영역을 감지하는 제 2 센서가 차량 (1) 주변의 객체를 감지한 상황일 수 있다. 이 경우는 제 2 센서로 차량 (1) 주변 객체에 대한 감지가 되었음에도 운전자의 지각능력으로 객체를 확인할 수 없는 상황인바 상대적으로 높은 기준, 즉 상대적으로 높은 위험도 레벨에서 위험도가 결정될 수 있다.
도 11 은 본 개시의 일 실시예에 따른 객체를 인식하는 장치의 일례를 도시한 블록도이다.
도 11 을 참조하면, 일부 실시예에 따른 차량 (1) 을 제어하는 장치 (1100) 는, 제어부 (1110), 사용자 입력부 (1120), 출력부 (1130), 센싱부 (1140), 통신부 (1170), A/V 입력부 (1160) 및 메모리 (1150) 을 더 포함할 수 있다.
제어부 (1110) 는 통상적으로 상술한 전자 기기 (1100) 의 전반적인 동작들을 제어할 수 있다. 예를 들어, 제어부 (1110) 는 센싱부가 획득한 센싱 데이터를 처리하여 객체 인식 가능성을 획득할 수 있고, 객체 인식 가능성에 기초하여 객체 정보를 센싱 데이터에 매칭할 수 있고, 매칭된 객체 정보를 센서의 데이터베이스에 저장할 수 있다. 또한, 제어부 (1110)는 메모리에 저장된 프로그램들을 실행함으로써, 사용자 입력부 (1120), 출력부 (1130), 센싱부 (1140), 통신부 (1170), 및 A/V 입력부 (1160) 등을 전반적으로 제어할 수 있다. 또한, 제어부 (1110)는 사용자 입력부 (1120), 출력부 (1130), 센싱부 (1140), 통신부 (1170), 및 A/V 입력부 (1160) 중 적어도 하나를 제어함으로써, 도 1 내지 도 11에서의 전자 기기 (1100) 의 동작을 수행할 수 있다.
사용자 입력부 (1120) 는, 사용자가 객체를 인식하는 전자 기기 (1100) 를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1120)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
출력부 (1130) 는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부 (1130) 는 디스플레이부 (1131), 음향 출력부 (1141), 및 진동 모터 (1133) 를 포함할 수 있다.
디스플레이부 (1131) 는 객체를 인식하는 전자 기기 (1100) 에서 처리되는 정보를 표시 출력할 수 있다. 예를 들어, 디스플레이부 (1131) 는 제 1 센싱 데이터에 매칭된 객체 정보를 제 1 센싱 데이터와 함께 디스플레이할 수 있다.
한편, 디스플레이부 (1131) 와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부 (1131) 는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부 (1131) 는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 객체를 인식하는 전자 기기 (1100) 의 구현 형태에 따라 객체를 인식하는 전자 기기 (1100) 는 디스플레이부 (1131) 를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부 (1131) 는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부 (1132) 는 객체를 인식하는 전자 기기 (1100) 에서 수행되는 기능(예를 들어, 객체 정보 알림음)과 관련된 음향 신호를 출력할 수 있다. 이러한 음향 출력부(2141)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터 (1133) 는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1133)는 매칭되는 센싱 데이터의 종류에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터 (1133) 는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
센싱부(1140)는, 객체를 인식하는 전자 기기 (1100) 주변의 상태를 감지하고, 감지된 정보를 제어부 (1110) 로 전달할 수 있다.
센싱부 (1140) 는, 지RGB 카메라, IR 카메라, 열화상 카메라, 라이다, 레이더, 초음파, 또는 IR 센서 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부 (1170) 는 객체를 인식하는 전자 기기 (1100) 와 서버 또는 주변기기 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부 (1170) 는, 근거리 통신부 (1171), 이동 통신부 (1172), 방송 수신부 (1173) 를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit) (1171) 는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부 (1172) 는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신할 수 있다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부 (1173) 는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신할 수 있다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 객체를 인식하는 전자 기기 (1100) 가 방송 수신부(1530)를 포함하지 않을 수도 있다.
A/V(Audio/Video) 입력부 (1160) 는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라 (1161) 와 마이크로폰 (1162) 등이 포함될 수 있다. 카메라 (1161) 은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1110) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라 (1161) 에서 처리된 화상 프레임은 메모리 (1150) 에 저장되거나 통신부 (1170) 를 통하여 외부로 전송될 수 있다. 카메라 (1161) 는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰 (1162) 은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리할 수 있다. 예를 들어, 마이크로폰 (1162) 은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰 (1162) 는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리 (1150) 는, 제어부 (1110) 의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 객체를 인식하는 전자 기기 (1100) 로 입력되거나 객체를 인식하는 전자 기기 (1100) 로부터 출력되는 데이터를 저장할 수도 있다.
메모리 (1150) 는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
일부 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
또한, 본 명세서에서, “부”는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 차량이 상기 차량 주변의 객체를 인식하여 상기 차량을 제어하는 방법에 있어서, 상기 차량을 제어하는 방법은,
    제 1 센서로부터 상기 차량 주변의 객체에 대한 제 1 센싱 데이터를 획득하는 단계;
    제 2 센서로부터 상기 객체에 대한 제 2 센싱 데이터를 획득하는 단계;
    상기 제 1 센싱 데이터, 상기 제 2 센싱 데이터, 및 상기 제 1 센서 및 상기 제 2 센서의 특성에 기초하여, 상기 객체에 대한 운전자의 제 1 객체 인식 가능성 및 상기 객체에 대한 제 2 객체 인식 가능성을 획득하는 단계;
    상기 제 1 객체 인식 가능성 및 상기 제 2 객체 인식 가능성에 기초하여, 상기 객체의 위험도를 획득하는 단계; 및
    상기 객체의 위험도에 기초하여, 상기 차량에 대한 소정의 기능을 수행하는 단계를 포함하는, 상기 차량을 제어하는 방법.
  2. 제 1 항에 있어서, 상기 객체의 위험도를 획득하는 단계는,
    상기 제 1 객체 인식 가능성에 기초하여 상기 제 1 센서에 의해 상기 객체가 인식되었는지를 판단하는 단계;
    상기 제 2 객체 인식 가능성에 기초하여 상기 제 2 센서에 의해 상기 객체가 인식되었는지를 판단하는 단계;
    상기 객체가 상기 제 1 센서에 의해 인식되었는지 여부 및 상기 객체가 상기 제 2 센서에 의해 인식되었는지 여부에 기초하여, 상기 객체의 위험도의 레벨을 결정하는 단계; 및
    상기 위험도의 레벨에 기초하여 상기 위험도를 결정하는 단계를 포함하는, 상기 차량을 제어하는 방법.
  3. 제 2 항에 있어서, 상기 위험도 레벨을 결정하는 단계는,
    상기 제 1 센서에 의해 상기 객체가 인식되고 상기 제 2 센서에 의해 상기 객체가 인식되었다고 판단되면, 상기 위험도 레벨을 제 1 레벨로 결정하고,
    상기 제 1 센서에 의해 상기 객체가 인식되고 상기 제 2 센서에 의해 상기 객체가 인식되지 않았고 판단되면, 상기 위험도 레벨을 제 2 레벨로 결정하고,
    상기 제 1 센서에 의해 상기 객체가 인식되지 않고, 상기 제 2 센서에 의해 상기 객체가 인식되었다고 판단되면, 상기 위험도 레벨을 제 3 레벨로 결정하는, 상기 차량을 제어하는 방법.
  4. 제 3 항에 있어서,
    상기 제 3 레벨의 위험도는 상기 제 2 레벨의 위험도보다 크며, 상기 제 2 레벨의 위험도는 상기 제 1 레벨의 위험도보다 큰 것인, 상기 차량을 제어하는 방법.
  5. 제 3 항에 있어서,
    상기 위험도 레벨에 기초하여 상기 차량의 소정 기능을 수행하는 시점을 결정하는, 상기 차량을 제어하는 방법.
  6. 제 1 항에 있어서, 상기 객체의 위험도를 획득하는 단계는,
    상기 차량의 주행 정보 및 상기 차량 주변의 상황 정보 중 적어도 하나를 획득하는 단계; 및
    상기 차량의 주행 정보 및 상기 차량 주변의 상황 정보 중 적어도 하나, 및 상기 위험도 레벨에 기초하여, 상기 객체의 위험도를 결정하는 단계를 포함하는, 상기 차량의 운전 지원 방법.
  7. 제 1 항에 있어서,
    상기 차량에 대한 소정의 기능을 수행하는 단계는, 상기 객체로부터의 위험을 알리는 알림 정보를 출력하는 기능 및 상기 차량의 움직임을 제어하는 기능 중 적어도 하나를 포함하는, 상기 차량의 운전 지원 방법.
  8. 차량이 상기 차량 주변의 객체를 인식하여 상기 차량을 제어하는 장치에 있어서, 상기 차량을 제어하는 장치는,
    상기 차량 주변의 객체에 대한 제 1 센싱 데이터를 획득하는 제 1 센서;
    상기 객체에 대한 제 2 센싱 데이터를 획득하는 제 2 센서; 및
    상기 제 1 센싱 데이터, 상기 제 2 센싱 데이터, 및 상기 제 1 센서 및 상기 제 2 센서의 특성에 기초하여, 상기 객체에 대한 운전자의 제 1 객체 인식 가능성 및 상기 객체에 대한 제 2 객체 인식 가능성을 획득하고, 상기 제 1 객체 인식 가능성 및 상기 제 2 객체 인식 가능성에 기초하여, 상기 객체의 위험도를 획득하며, 상기 객체의 위험도에 기초하여, 상기 차량에 대한 소정의 기능을 수행하는 제어부를 포함하는, 상기 차량을 제어하는 장치.
  9. 제 8 항에 있어서, 상기 제어부는,
    상기 제 1 객체 인식 가능성에 기초하여 상기 제 1 센서에 의해 상기 객체가 인식되었는지를 판단하고,
    상기 제 2 객체 인식 가능성에 기초하여 상기 제 2 센서에 의해 상기 객체가 인식되었는지를 판단하고,
    상기 객체가 상기 제 1 센서에 의해 인식되었는지 여부 및 상기 객체가 상기 제 2 센서에 의해 인식되었는지 여부에 기초하여, 상기 객체의 위험도의 레벨을 결정하며,
    상기 위험도의 레벨에 기초하여 상기 위험도를 결정하는, 상기 차량을 제어하는 장치.
  10. 제 9 항에 있어서, 상기 제어부는,
    상기 제 1 센서에 의해 상기 객체가 인식되고 상기 제 2 센서에 의해 상기 객체가 인식되었다고 판단되면, 상기 위험도 레벨을 제 1 레벨로 결정하고,
    상기 제 1 센서에 의해 상기 객체가 인식되고 상기 제 2 센서에 의해 상기 객체가 인식되지 않았고 판단되면, 상기 위험도 레벨을 제 2 레벨로 결정하며,
    상기 제 1 센서에 의해 상기 객체가 인식되지 않고, 상기 제 2 센서에 의해 상기 객체가 인식되었다고 판단되면, 상기 위험도 레벨을 제 3 레벨로 결정하는, 상기 차량을 제어하는 장치.
  11. 제 10 항에 있어서,
    상기 제 3 레벨의 위험도는 상기 제 2 레벨의 위험도보다 크며, 상기 제 2 레벨의 위험도는 상기 제 1 레벨의 위험도보다 큰 것인, 상기 차량을 제어하는 장치.
  12. 제 10 항에 있어서,
    상기 위험도 레벨에 기초하여 상기 차량의 소정 기능을 수행하는 시점을 결정하는, 상기 차량을 제어하는 장치
  13. 제 8 항에 있어서, 상기 제어부는,
    상기 차량의 주행 정보 및 상기 차량 주변의 상황 정보 중 적어도 하나를 획득하고,
    상기 차량의 주행 정보 및 상기 차량 주변의 상황 정보 중 적어도 하나, 및 상기 위험도 레벨에 기초하여, 상기 객체의 위험도를 결정하는, 상기 차량의 운전 지원 장치.
  14. 제 8 항에 있어서,
    상기 차량에 대한 소정의 기능은 상기 객체로부터의 위험을 알리는 알림 정보를 출력하는 기능 및 상기 차량의 움직임을 제어하는 기능 중 적어도 하나를 포함하는, 상기 차량의 운전 지원 장치.
  15. 제 1 항 내지 제 7 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020170043094A 2017-04-03 2017-04-03 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법 KR20180112336A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170043094A KR20180112336A (ko) 2017-04-03 2017-04-03 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
US16/500,316 US11225265B2 (en) 2017-04-03 2018-03-27 Electronic device and method for recognizing object using plurality of sensors
PCT/KR2018/003581 WO2018186617A1 (ko) 2017-04-03 2018-03-27 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170043094A KR20180112336A (ko) 2017-04-03 2017-04-03 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법

Publications (1)

Publication Number Publication Date
KR20180112336A true KR20180112336A (ko) 2018-10-12

Family

ID=63712518

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170043094A KR20180112336A (ko) 2017-04-03 2017-04-03 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법

Country Status (3)

Country Link
US (1) US11225265B2 (ko)
KR (1) KR20180112336A (ko)
WO (1) WO2018186617A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020139063A1 (ko) * 2018-12-28 2020-07-02 삼성전자주식회사 차량 주변의 위험 요소를 감지하기 위한 전자 장치 및 이를 제어하기 위한 방법
WO2020145607A1 (en) * 2019-01-07 2020-07-16 Samsung Electronics Co., Ltd. Electronic apparatus and method of assisting driving of vehicle

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113135193B (zh) * 2021-04-16 2024-02-13 阿波罗智联(北京)科技有限公司 输出预警信息的方法、设备、存储介质及程序产品
US20220028270A1 (en) * 2021-07-14 2022-01-27 Subaru Corporation Vehicle detection information sharing system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3234628B2 (ja) 1992-05-08 2001-12-04 株式会社日立製作所 三相ブラシレスモータの駆動回路
KR960032262A (ko) * 1995-02-09 1996-09-17 배순훈 차량의 주행 안전 시스템
US6388580B1 (en) * 1998-07-23 2002-05-14 Rudolph Graham Automobile unsafe following distance warning system
JP3911979B2 (ja) 2000-08-29 2007-05-09 トヨタ自動車株式会社 警報装置およびその警報装置を備えた走行制御装置
JP2002248963A (ja) * 2001-02-23 2002-09-03 Tokai Rika Co Ltd 車両用変速機制御装置
JP4615139B2 (ja) * 2001-03-30 2011-01-19 本田技研工業株式会社 車両の周辺監視装置
DE60226817D1 (de) 2001-08-23 2008-07-10 Nissan Motor Fahrassistenzsystem
JP3963119B2 (ja) 2002-05-14 2007-08-22 日産自動車株式会社 車両用運転操作補助装置
US6708099B2 (en) 2002-01-17 2004-03-16 Ford Global Technologies, Llc Stop and go adaptive cruise control system
ATE396470T1 (de) * 2004-04-08 2008-06-15 Mobileye Technologies Ltd Kollisionswarnsystem
US20060229793A1 (en) * 2005-04-11 2006-10-12 Honda Motor Co., Ltd. Vehicular travel control system
JP4970926B2 (ja) * 2006-01-16 2012-07-11 本田技研工業株式会社 車両周辺監視装置
JP2007210403A (ja) * 2006-02-08 2007-08-23 Toyota Motor Corp 車両用運転補助装置
JP4497125B2 (ja) * 2006-04-11 2010-07-07 株式会社デンソー 衝突検出装置
JP4797794B2 (ja) * 2006-05-24 2011-10-19 日産自動車株式会社 歩行者検出装置および歩行者検出方法
JP4211809B2 (ja) * 2006-06-30 2009-01-21 トヨタ自動車株式会社 物体検出装置
TWI310354B (en) * 2007-03-22 2009-06-01 Lite On Technology Corp Alarm system for a vehicle
JP2009083743A (ja) * 2007-10-02 2009-04-23 Alpine Electronics Inc 車両用警報装置
JP2010108264A (ja) * 2008-10-30 2010-05-13 Honda Motor Co Ltd 車両周辺監視装置
JP5316785B2 (ja) 2009-04-15 2013-10-16 トヨタ自動車株式会社 運転支援システムおよび運転支援方法
JP2012058827A (ja) * 2010-09-06 2012-03-22 Denso Corp 運転支援装置
KR20130026933A (ko) * 2011-09-06 2013-03-14 현대모비스 주식회사 차량 충돌 방지 장치와 방법
KR20130113088A (ko) * 2012-04-05 2013-10-15 주식회사 만도 차량의 충돌 방지 장치 및 그 제어 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020139063A1 (ko) * 2018-12-28 2020-07-02 삼성전자주식회사 차량 주변의 위험 요소를 감지하기 위한 전자 장치 및 이를 제어하기 위한 방법
US11926315B2 (en) 2018-12-28 2024-03-12 Samsung Electronics Co., Ltd. Electronic apparatus for detecting risk factors around vehicle and method for controlling same
WO2020145607A1 (en) * 2019-01-07 2020-07-16 Samsung Electronics Co., Ltd. Electronic apparatus and method of assisting driving of vehicle
US11535252B2 (en) 2019-01-07 2022-12-27 Samsung Electronics Co., Ltd. Electronic apparatus and method of assisting driving of vehicle

Also Published As

Publication number Publication date
WO2018186617A1 (ko) 2018-10-11
US11225265B2 (en) 2022-01-18
US20210101609A1 (en) 2021-04-08

Similar Documents

Publication Publication Date Title
US11231905B2 (en) Vehicle with external audio speaker and microphone
WO2022062659A1 (zh) 智能驾驶控制方法及装置、车辆、电子设备和存储介质
US20200160724A1 (en) Vehicle operation assistance
RU2656933C2 (ru) Способ и устройство для предупреждения о встречном транспортном средстве
CN107856671B (zh) 一种通过行车记录仪进行路况识别的方法和系统
EP3849865A1 (en) Inward/outward vehicle monitoring for remote reporting and in-cab warning enhancements
KR20180068578A (ko) 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
US11225265B2 (en) Electronic device and method for recognizing object using plurality of sensors
JP5601930B2 (ja) 車両用表示装置
US11485380B2 (en) Method and control device for warning a driver of a motor vehicle and motor vehicle with such a control device
CN111547043A (zh) 通过自主车辆自动响应紧急服务车辆
JP2008186416A (ja) 物体検出装置、通信システム、および車車間通信装置
JP2008114649A (ja) クラクション制御装置
KR20200107023A (ko) 차량 안전주행 지원 장치 및 방법
CN112534487A (zh) 信息处理设备、移动体、信息处理方法和程序
JP2023544641A (ja) 三次元ステレオ音を提供するための方法、装置、及びコンピュータ可読記憶媒体
US20190143893A1 (en) Alert control apparatus, alert control method, and recording medium
KR101947473B1 (ko) 후방 차량을 고려한 안전 운전 지원 장치 및 방법
CN113619483A (zh) 用于车辆的提醒方法及相应的提醒装置和车辆
KR102319383B1 (ko) 블랙박스 영상을 이용하여 교통 법규 위반 차량을 자동으로 신고하는 장치 및 방법
CN112061024A (zh) 车辆外部扬声器系统
US11724693B2 (en) Systems and methods to prevent vehicular mishaps
JP7043795B2 (ja) 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
US20190143892A1 (en) Alert control apparatus, alert control method, and recording medium
KR102531722B1 (ko) 차량 단말을 이용한 주차위치안내 서비스 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination