KR20180051838A - 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치 - Google Patents

보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치 Download PDF

Info

Publication number
KR20180051838A
KR20180051838A KR1020160148670A KR20160148670A KR20180051838A KR 20180051838 A KR20180051838 A KR 20180051838A KR 1020160148670 A KR1020160148670 A KR 1020160148670A KR 20160148670 A KR20160148670 A KR 20160148670A KR 20180051838 A KR20180051838 A KR 20180051838A
Authority
KR
South Korea
Prior art keywords
user
vehicle
subject
approaching
extracting
Prior art date
Application number
KR1020160148670A
Other languages
English (en)
Inventor
조백환
서영완
전바롬
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160148670A priority Critical patent/KR20180051838A/ko
Priority to US15/646,862 priority patent/US10604070B2/en
Publication of KR20180051838A publication Critical patent/KR20180051838A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • B60Q5/006Arrangement or adaptation of acoustic signal devices automatically actuated indicating risk of collision between vehicles or with pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/90Driver alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/90Driver alarms
    • B60Y2400/902Driver alarms giving haptic or tactile signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Multimedia (AREA)

Abstract

일 실시예에 따른 차량의 접근 여부를 알리는 방법은 촬영된 영상으로부터 사용자 장치를 사용 중인 대상자를 검출하고, 검출된 대상자에게 차량의 접근 여부를 알린다.

Description

보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치{INFORMING METHOD AND APPARATUS OF APPROACHING OF THE OTHER PARTY TO PEDESTRIAN AND PASSENGER}
아래의 실시예들은 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치에 관한 것이다.
첨단 운전자 보조 시스템(Advanced Driver Assistance System, ADAS)은 운전자의 운전에 도움을 주는 시스템이며, 자율 주행 시스템은 더 나아가서 운전자의 조작 없이 목적지까지 운행을 할 수 있도록 하는 시스템이다. 이러한 첨단 운전자 보조 시스템이나 자율 주행 시스템은 일반적으로 다양한 센서들을 이용하여 보행자나 자전거 운전자를 검출할 수 있지만, 이러한 검출이 완벽하지 않은 것이 실정이다.
보행자는 헤드폰, 이어폰 등을 이용하여 음악 등을 청취하거나, 모바일 장치를 이용하여 영상 등을 시청하는 경우에 평소보다 주위 경계가 소홀하다. 이는 헤드폰, 이어폰을 이용하여 음악 등을 청취하는 자전거 이용자도 마찬가지이며 주의력 분산으로 인한 사고 발생 위험이 크다.
일 실시예에 따르면, 차량의 접근 여부를 알리는 방법은 촬영된 영상으로부터 사용자 장치를 사용 중인 대상자를 검출하는 단계; 및 상기 검출된 대상자에게 차량의 접근 여부를 알리는 단계를 포함한다.
상기 대상자를 검출하는 단계는 상기 촬영된 영상으로부터 보행자 및 자전거 운전자를 포함하는 사용자를 검출하는 단계; 상기 사용자의 영상으로부터 상기 사용자 장치와 관련된 특징점을 추출하는 단계; 상기 추출된 특징점에 기초하여, 상기 사용자가 상기 사용자 장치를 사용 중인지 여부를 판단하는 단계; 및 상기 사용자가 상기 사용자 장치를 사용 중이라고 판단되면, 상기 사용자 장치를 사용 중인 사용자를 상기 대상자로 검출하는 단계를 포함할 수 있다.
상기 특징점을 추출하는 단계는 상기 사용자의 외향적인 특징을 포함하는 정적인 특징점을 추출하는 단계; 및 상기 사용자의 연속적인 동작들의 특징 및 상기 사용자의 주변 환경과 차별화되는 움직임 특징을 포함하는 동적인 특징점들을 추출하는 단계 중 적어도 하나를 포함할 수 있다.
상기 정적인 특징점을 추출하는 단계는 미리 학습된 제1 분류기를 이용하여 상기 사용자의 외향적인 특징을 포함하는 정적인 특징점을 추출하는 단계를 포함할 수 있다.
상기 정적인 특징점을 추출하는 단계는 미리 학습된 제2 분류기 및 광학 흐름(optical flow)에 기초한 객체 추적 방법 중 적어도 하나를 이용하여 상기 동적인 특징점들을 추출하는 단계를 포함할 수 있다.
상기 사용자가 상기 사용자 장치를 사용 중인지 여부를 판단하는 단계는 상기 정적인 특징점 및 상기 동적인 특징점들 중 적어도 하나에 기초하여, 상기 사용자가 상기 사용자 장치를 사용 중인지 여부를 판단하는 단계를 포함할 수 있다.
상기 차량의 접근 여부를 알리는 방법은 상기 대상자의 일부 신체 영역의 위치를 검출하는 단계를 더 포함할 수 있다.
상기 대상자를 검출하는 단계는 상기 촬영된 영상으로부터 보행자 및 자전거 운전자를 포함하는 사용자를 검출하는 단계; 및 상기 사용자의 영상으로부터 상기 사용자 장치와 관련된 특징점 및 상기 일부 신체 영역과 관련된 특징점 중 적어도 하나를 추출하는 단계를 포함할 수 있다.
상기 일부 신체 영역은 상기 대상자의 머리, 귀, 손 중 적어도 하나를 포함할 수 있다.
상기 검출된 대상자에게 차량의 접근 여부를 알리는 단계는 지향성 스피커를 이용하여 청각 정보를 제공함으로써 상기 검출된 대상자에게 상기 차량의 접근 여부를 알리는 단계; 차량의 헤드라이트를 이용하여 시각 정보를 제공함으로써 상기 검출된 대상자에게 상기 차량의 접근 여부를 알리는 단계; 및 상기 사용자 장치와 상기 차량 간의 무선 통신을 통해 상기 검출된 대상자의 사용자 장치에게 상기 차량의 접근 여부를 알리는 단계 중 적어도 하나를 포함할 수 있다.
상기 차량의 접근 여부를 알리는 방법은 상기 대상자가 상기 사용자 장치를 사용 중이라고 판단되면, 상기 차량의 탑승자에게 상기 대상자의 접근 여부를 알리는 단계를 더 포함할 수 있다.
상기 차량의 탑승자에게 상기 대상자의 접근 여부를 알리는 단계는 차량 내 오디오 시스템을 이용한 청각 정보, 상기 차량 내 디스플레이를 통한 시각 정보, 상기 차량의 핸들(steering handle)을 이용한 촉각 정보, 상기 탑승자 좌석의 진동 중 적어도 하나를 이용하여 상기 차량의 탑승자에게 상기 대상자의 접근 여부를 알리는 단계를 포함할 수 있다.
상기 대상자를 검출하는 단계는 상기 사용자 장치를 사용 중인 사용자의 영상들에 의해 미리 학습된 분류기를 이용하여 상기 촬영된 영상으로부터 상기 사용자 장치를 사용 중인 대상자를 검출하는 단계를 포함할 수 있다.
상기 사용자 장치는 헤드셋, 이어폰, 및 휴대용 단말 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 대상자의 접근 여부를 알리는 장치는 촬영된 영상으로부터 사용자 장치를 사용 중인 대상자를 검출하고, 상기 대상자가 검출되면 차량의 탑승자에게 상기 대상자의 접근 여부를 알리는 프로세서를 포함한다.
상기 프로세서는 상기 촬영된 영상으로부터 보행자 및 자전거 운전자를 포함하는 사용자를 검출하고, 상기 사용자의 영상으로부터 상기 사용자 장치와 관련하여 추출된 특징점에 기초하여, 상기 사용자가 사용자 장치를 사용 중인지 여부를 판단하며, 상기 사용자가 사용자 장치를 사용 중이라고 판단되면, 상기 사용자 장치를 사용 중인 사용자를 상기 대상자로 검출할 수 있다.
상기 대상자의 접근 여부를 알리는 장치는 미리 학습된 제1 분류기; 및 미리 학습된 제2 분류기를 더 포함하고, 상기 프로세서는 상기 제1 분류기를 이용하여 상기 사용자의 외향적인 특징을 포함하는 정적인 특징점을 추출하는 동작; 및 상기 제2 분류기 및 광학 흐름에 기초한 객체 추적 방법 중 적어도 하나를 이용하여 상기 사용자의 연속적인 동작들의 특징 및 상기 사용자의 주변 환경과 차별화되는 움직임 특징을 포함하는 동적인 특징점들을 추출하는 동작 중 적어도 하나를 수행할 수 있다.
상기 대상자의 접근 여부를 알리는 장치는 상기 영상을 촬영하는 비전 센서를 더 포함할 수 있다.
상기 프로세서는 상기 촬영된 영상으로부터 보행자 및 자전거 운전자를 포함하는 사용자를 검출하고, 상기 사용자의 일부 신체 영역의 위치를 검출하며, 상기 사용자의 영상으로부터 상기 사용자 장치와 관련된 특징점 및 상기 일부 신체 영역과 관련된 특징점 중 적어도 하나를 추출할 수 있다.
상기 프로세서는 차량 내 오디오 시스템을 이용한 청각 정보, 상기 차량 내 디스플레이를 통한 시각 정보, 상기 차량의 핸들을 이용한 촉각 정보, 상기 탑승자 좌석의 진동 중 적어도 하나를 이용하여 상기 차량의 탑승자에게 상기 대상자의 접근 여부를 알릴 수 있다.
상기 대상자의 접근 여부를 알리는 장치는 상기 대상자의 방향을 향하는 지향성 스피커를 더 포함하고, 상기 프로세서는 상기 지향성 스피커를 이용하여 청각 정보를 제공함으로써 상기 검출된 대상자에게 상기 차량의 접근 여부를 알릴 수 있다.
상기 대상자의 접근 여부를 알리는 장치는 상기 사용자 장치와 상기 차량 간의 무선 통신을 수행하는 통신 인터페이스를 더 포함하고, 상기 프로세서는 상기 통신 인터페이스를 통해 상기 검출된 대상자의 사용자 장치에게 상기 차량의 접근 여부를 알릴 수 있다.
도 1은 일 실시예에 따라 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법을 설명하기 위한 도면.
도 2는 일 실시예에 따른 차량의 접근 여부를 알리는 방법을 나타낸 흐름도.
도 3은 일 실시예에 따라 대상자를 검출하는 방법을 나타낸 흐름도.
도 4 내지 도 5는 다른 실시예들에 따라 대상자에게 차량의 접근 여부를 알리는 방법을 나타낸 흐름도
도 6은 일 실시예에 따라 대상자에게 차량의 접근 여부를 알리는 방법을 설명하기 위한 도면.
도 7은 일 실시예에 따른 대상자의 접근 여부를 알리는 장치의 블록도.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
하기에서 설명될 실시예들은 헤드폰, 이어폰, 모바일 장치를 이용하여 음성/영상 등을 시청하는 보행자 및/또는 자전거 운전자들을 차량 내에 설치된 카메라, 레이더(radar), 라이다(lidar), 초음파 센서 등을 이용하여 자동으로 검출하고, 보행자 및/또는 자전거 운전자들과 차량 탑승자에게 상대방의 접근 여부를 알리는 데에 사용될 수 있다. 실시예들은 예를 들어, 카메라 또는 비전 센서, 초음파 센서 등을 탑재한 자율 주행 자동차, 지능형 자동차, 웨어러블 장치, 스마트 폰, 모바일 기기 등에 적용될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따라 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법을 설명하기 위한 도면이다. 도 1을 참조하면, 차량의 전면에 위치하는 보행자 및 자전거 운전자들이 촬영된 화면이 도시된다.
일 실시예에서 차량은 예를 들어, 자율 주행 자동차, 지능형 자동차, 및 첨단 운전자 보조 시스템(Advanced Driver Assistance System, ADAS)을 포함하는 차량일 수 있다. 차량은 예를 들어, 레이더(Radar), 라이다(lidar), 초음파 센서, CIS 카메라, 적외선 카메라, 비전 센서 등을 포함할 수 있다.
보행자 및 자전거 운전자들이 헤드폰, 이어폰 등을 이용하여 음악 등을 청취하거나, 모바일 장치를 이용하여 영상 등을 시청하는 경우, 소리를 통한 차량 감지력이 평소보다 매우 늦어질 수 있다. 이 경우, 보행자 및 자전거 운전자는 자동차가 후방에 거의 다가왔을 때 비로소 소리로 감지하여 깜짝 놀랠 수 있으며, 기민한 대처가 어려워 사고를 유발할 수 있다.
또한 헤드폰, 이어폰, 모바일 장치를 이용하여 음성 및/또는 영상 등을 시청하는 보행자와 자전거 운전자들은 흥에 겨워 갑작스럽게 방향을 전환하는 등의 예측하지 못한 갑작스런 동작을 취할 수 있기 때문에, 차량 운전자 또한 긴급 상황에 대처하기 매우 어렵다.
일 실시예에 따른 알림 장치는 차량 내에 설치된 비전 센서를 포함하는 촬영 장치, 레이더(Radar), 라이다(lidar), 초음파 센서 등을 이용하여 감지 또는 촬영된 영상으로부터 사용자 장치를 이용하여 음성/영상 등을 시청하는 보행자 및/또는 자전거 운전자들을 자동으로 검출하고, 검출된 대상자 및 차량 탑승자에게 상대방의 접근 여부를 알려 미리 대비가 가능하게 함으로써 사고 위험을 줄일 수 있다. 여기서, 또한, '사용자 장치'는 예를 들어, 사용자의 이동 단말, 헤드폰(headphone), 이어폰(earphone), 헤드셋(headset), 그 밖의 모바일 장치 등과 같이 사용자가 신체 일부에 착용하거나 휴대 가능하고, 통신 가능한 형태의 전자 장치일 수 있다.
이하에서 '차량 탑승자'는 차량의 운전자 및 동승자를 모두 포함하는 의미로 이해될 수 있다.
알림 장치는 예를 들어, 보행자 및/또는 자전거 운전자들에게는 차량의 접근 여부를 알리고, 차량 탑승자에게는 사용자 장치를 사용 중인 보행자 및/또는 자전거 운전자들의 접근 여부를 알림으로써 상호 간의 사고 발생을 줄일 수 있다.
일 실시예에 따른 알림 장치는 보행자 및/또는 자전거 운전자들에게 차량의 접근 여부를 알릴 수도 있고, 차량 탑승자에게 보행자 및/또는 자전거 운전자들의 접근 여부를 알릴 수도 있다.
도 2는 일 실시예에 따른 차량의 접근 여부를 알리는 방법을 나타낸 흐름도이다. 도 2를 참조하면, 일 실시예에 따른 차량의 접근 여부를 알리는 장치(이하, '알림 장치')는 촬영된 영상으로부터 사용자 장치를 사용 중인 대상자를 검출한다(210). 알림 장치는 사용자 장치를 사용 중인 사용자의 영상들에 의해 미리 학습된 분류기를 이용하여, 촬영된 영상으로부터 사용자 장치를 사용 중인 대상자를 검출할 수 있다.
여기서, 촬영된 영상은 알림 장치에 포함된 비전 센서, CIS(CMOS Image Sensor) 카메라, 적외선 카메라, 및 그 밖의 다양한 촬영 장치들에 의해 촬영된 영상일 수 있다. 또는 촬영된 영상은 통신 인터페이스를 통해 알림 장치의 외부로부터 수신한 촬영 영상일 수 있다.
알림 장치는 촬영된 영상으로부터 사용자 장치를 이용하는 대상자와 그렇지 않은 사용자를 한번에 분류할 수 있다. 이하에서 '대상자'는 촬영된 영상에 포함된 사용자들 중 사용자 장치를 사용 중인 것으로 판단(또는 검출)된 사용자로 이해될 수 있다. 알림 장치는 예를 들어, 대상자의 영상과 사용자 장치를 이용하고 있지 않은 사용자의 영상을 각각 구분하여 서로 다른 클래스로 할당한 분류기를 이용하여 대상자를 검출할 수 있다.
알림 장치는 예를 들어, HOG(Histogram of Oriented Gradient) 및 SIFT(Scale Invariant Feature Transform) 등을 이용하여 특징점(들)을 추출하는 검출기를 이용하거나, 또는 신경망(Neural Network)에 기반한 검출기 등을 이용하여 촬영된 영상에서 사용자 장치와 관련된 특징점(들)을 추출함으로써 대상자를 검출할 수 있다.
HOG는 대상 영역을 일정 크기의 셀로 분할하고, 각 셀마다 에지(edge) 픽셀(gradient magnitude가 일정 값 이상인 픽셀)들의 방향에 대한 히스토그램을 구한 후 이들 히스토그램 빈(bin) 값들을 일렬로 연결한 벡터이다. HOG는 에지의 방향 히스토그램 템플릿으로 볼 수 있다. HOG는 템플릿 매칭과 히스토그램 매칭의 중간 단계에 있는 매칭 방법으로 볼 수 있으며 블록 단위로는 기하학적 정보를 유지하되, 각 블록 내부에서는 히스토그램을 사용함으로써 로컬한 변화에는 어느 정도 강인한 특성을 가진다.
또한, SIFT는 영상에서 코너점 등 식별이 용이한 특징점들을 선택한 후에 각 특징점을 중심으로 한 로컬 패치(local patch)에 대해 특징 벡터를 추출한 것을 말한다. SIFT 특징 벡터는 특징점 주변의 영상 패치를 4 x 4 블록으로 나누고, 각 블록에 속한 픽셀들의 그래디언트(gradient) 방향과 크기에 대한 히스토그램을 구한 후 이 히스토그램 빈(bin) 값들을 일렬로 쭉 연결한 128차원 벡터이다. SIFT는 기본적으로 특징점 주변의 로컬한 그래디언트 분포 특성(밝기 변화의 방향 및 밝기 변화의 급격한 정도)을 표현하는 특징이다.
알림 장치는 다양한 방법을 통해 촬영된 영상으로부터 사용자 장치를 사용 중인 대상자를 검출할 수 있으며, 이하의 도 3 내지 도 5를 통해 대상자를 검출하는 다양한 방법들에 대하여 살펴본다.
알림 장치는 단계(210)에서 검출된 대상자에게 차량의 접근 여부를 알린다(220). 또한, 알림 장치는 대상자 이외에 차량 탑승자에게도 대상자의 접근 여부를 알릴 수도 있다. 알림 장치가 검출된 대상자 및/또는 차량 탑승자에게 상대방의 접근 여부를 알리는 방법은 도 6을 참조하여 설명한다.
도 3은 일 실시예에 따라 대상자를 검출하는 방법을 나타낸 흐름도이다. 도 3을 참조하면, 일 실시예에 따른 알림 장치는 촬영된 영상으로부터 보행자 및 자전거 운전자를 포함하는 사용자를 검출할 수 있다(310). 알림 장치는 예를 들어, 전술한 SIFT 기법, HOG 기법 및 신경망 등을 이용하여 보행자의 다리 움직임 형상, 또는 자전거 형상을 포함하는 자전거 운전자 특유의 형상에 대응하는 특징점을 추출함으로써 사용자를 검출할 수 있다.
알림 장치는 사용자의 영상으로부터 사용자 장치와 관련된 특징점을 추출할 수 있다(320). 알림 장치는 예를 들어, 사용자의 외향적인 특징을 포함하는 정적인 특징점을 추출할 수 있다. 정적인 특징점은 예를 들어, 사용자가 시선을 아래로 향하는 경우, 아래로 향하는 머리 또는 목의 각도를 나타낼 수 있는 특정 지점(들), 이어폰 또는 헤드폰 등이 착용된 사용자의 귀의 특징 지점(들)을 포함할 수 있다. 알림 장치는 미리 학습된 제1 분류기를 이용하여 정적인 특징점을 추출할 수 있다.
또한, 알림 장치는 예를 들어, 사용자의 연속적인 동작들의 특징 및 사용자의 주변 환경과 차별화되는 움직임 특징을 포함하는 동적인 특징점들을 추출할 수 있다. 알림 장치는 미리 학습된 제2 분류기 및 광학 흐름(optical flow)에 기초한 객체 추적 방법 중 적어도 하나를 이용하여 동적인 특징점들을 추출하는 동작을 수행할 수 있다. 사용자의 연속적인 동작들은 예를 들어, 사용자가 몸을 흐느적거리거나, 춤을 추는 동작 등과 같이 사용자의 연속적인 동작들의 특징 및 사용자의 주변 환경과 차별화되는 움직임 특징을 포함할 수 있다. 또한, 사용자의 주변 환경과 차별화되는 움직임 특징은 예를 들어, 사용자가 주변의 군중들과는 다른 속도 또는 다른 제스쳐를 취하면서 걸어가는 등과 같이 사용자 주변의 사람들과 사용자를 구분할 수 있는 다양한 움직임(들)을 포함할 수 있다.
알림 장치는 단계(320)에서 추출된 특징점에 기초하여, 사용자가 사용자 장치를 사용 중인지 여부를 판단할 수 있다(330). 알림 장치는 정적인 특징점 및 동적인 특징점들 중 적어도 하나에 기초하여, 사용자가 사용자 장치를 사용 중인지 여부를 판단할 수 있다.
알림 장치는 사용자가 사용자 장치를 사용 중이라고 판단되면, 사용자 장치를 사용 중인 사용자를 대상자로 검출할 수 있다(340).
도 4는 다른 실시예에 따른 차량의 접근 여부를 알리는 방법을 나타낸 흐름도이다. 도 4를 참조하면, 일 실시예에 따른 알림 장치는 촬영된 영상으로부터 보행자 또는 자전거 운전자가 검출되는지 여부를 판단할 수 있다(410). 알림 장치는 전술한 HOG, SIFT 및 신경망 등을 이용하여 촬영된 영상으로부터 보행자 또는 자전거 운전자가 검출되는지 여부를 판단할 수 있다. 단계(410)에서 보행자 또는 자전거 운전자가 검출되지 않았다고 판단되면, 알림 장치는 동작을 종료할 수 있다.
단계(410)에서 보행자 또는 자전거 운전자가 검출되었다고 판단되면, 알림 장치는 검출 영역 내에 보행자 또는 자전거 운전자의 일부 신체 영역(예를 들어, 머리)의 위치가 검출되는지를 판단할 수 있다(420). 단계(420)에서 머리의 위치가 검출되지 않으면, 알림 장치는 동작을 종료할 수 있다.
단계(420)에서 보행자 또는 자전거 운전자의 머리의 위치가 검출되었다고 판단되면, 알림 장치는 검출 영역 내 헤드셋, 이어폰, 모바일 장치, 및 사용자의 시선 관련 특징점을 추출할 수 있다(430). 단계(430)에서 알림 장치는 예를 들어, SIFT 기법, HOG 기법 및 신경망 등을 이용하여 사용자 장치와 관련된 특징점 및 사용자의 일부 신체 영역과 관련된 특징점 중 적어도 하나를 추출할 수 있다. 이때, 사용자 장치와 관련된 특징점 및 사용자의 일부 신체 영역과 관련된 특징점 등은 정적인 특징점에 해당할 수 있다. 사용자의 일부 신체 영역은 예를 들어, 머리, 귀, 손 등을 포함할 수 있다.
사용자의 일부 신체 영역과 관련된 특징점은 예를 들어, 헤드셋, 이어폰, 헤드폰 등이 착용된 머리 또는 귀의 형태, 모바일 장치를 바라보는 사용자의 시선, 고개의 각도, 모바일 장치를 조작하는 손의 형태 등에 대응될 수 있다.
알림 장치는 사용자가 사용자 장치를 사용 중인지 여부를 판단할 수 있다(440). 단계(440)에서 사용자가 사용자 장치를 사용 중이 아니라고 판단되면, 알림 장치는 동작을 종료할 수 있다.
알림 장치는 예를 들어, 단계(430)에서 추출된 특징점을 미리 학습된 분류기에 입력하여 사용자가 사용자 장치를 사용 중인지 여부를 판단할 수 있다. 분류기는 예를 들어, 서포트 벡터 머신(Support vector machine; SVM), 랜덤 포레스트(Random Forest), 및 신경망에 기초하여 사용자가 사용자 장치를 사용 중인 형상(형태) 등을 분류하도록 미리 학습된 것일 수 있다.
서포트 벡터 머신은 기계 학습의 분야 중 하나로 패턴 인식, 자료 분석을 위한 지도 학습 모델이며, 주로 분류와 회귀 분석을 위해 사용할 수 있다. 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, 서포트 벡터 머신 알고리즘은 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만들 수 있다. 만들어진 분류 모델은 데이터가 사상된 공간에서 경계로 표현되는데 서포트 벡터 머신 알고리즘은 그 중 가장 큰 폭을 가진 경계를 찾는 알고리즘이다.
랜덤 포레스트 또한 기계 학습의 분야 중 하나로 분류, 회귀 분석 등에 사용되는 앙상블 학습 방법의 일종이다. 랜덤 포레스트는 트레이닝 과정에서 구성한 다수의 결정 트리로부터 분류 또는 평균 예측치를 출력함으로써 동작할 수 있다. 평균 예측치는 예를 들어, 회귀 분석을 통해 구할 수 있다.
단계(440)에서 사용자가 사용자 장치를 사용 중이라고 판단되면, 알림 장치는 사용자 장치를 사용 중인 사용자를 대상자로 검출할 수 있다(450).
도 5는 다른 실시예에 따른 차량의 접근 여부를 알리는 방법을 나타낸 흐름도이다. 도 5를 참조하면, 일 실시예에 따른 알림 장치는 촬영된 영상으로부터 보행자 또는 자전거 운전자가 검출되는지 여부를 판단할 수 있다(510). 단계(510)에서 보행자 또는 자전거 운전자가 검출되지 않았다고 판단되면, 알림 장치는 동작을 종료할 수 있다.
단계(510)에서 보행자 또는 자전거 운전자가 검출되었다고 판단되면, 알림 장치는 검출된 보행자 또는 자전거 운전자에 대한 객체 추적(Object Tracking)을 수행(520)하여 동적 특징점을 추출할 수 있다(530). 객체 추적은 예를 들어, 광학 흐름에 기초한 것일 수 있다. 알림 장치는 동영상에서 각 객체의 움직임을 반영하는 광학 흐름을 활용하여 정의된 에너지 함수를 이용하여 객체 추적을 수행함으로써 보행자 또는 자전거 운전자의 동적 특징점을 추출할 수 있다. 광학 흐름의 특징은 동영상에 대한 객체의 영역 분할에 효율적인 정보로 사용될 수 있다. 알림 장치는 광학 흐름에 기초한 깊이 맵을 이용하여 동적 특징점(들)을 추출할 수 있다. 객체 추적은 예를 들어, KSP(K Shortest Path) 알고리즘 등에 의해 수행될 수 있다. KSP 알고리즘은 멀티 뷰와 같은 여러 영상들의 특징 공간에서의 차원 및 깊이(depth)를 고려하여 대응점들을 찾을 수 있다. 여기서, 대응점들은 예를 들어, 동일한 대상 또는 객체에 대응되는 대응점들일 수 있다.
동적 특징점은 예를 들어, 보행자 또는 자전거 운전자의 활동 궤적(trajectory), 및 춤 동작 등과 같은 연속적인 움직임에 대응한 것일 수 있다.
알림 장치는 단계(530)에서 추출한 동적 특징점에 기초하여 사용자가 사용자 장치를 사용 중인지 여부를 판단할 수 있다(540). 단계(540)에서 사용자가 사용자 장치를 사용 중이 아니라고 판단되면, 알림 장치는 동작을 종료할 수 있다.
알림 장치는 예를 들어, 단계(530)에서 추출된 동적 특징점을 미리 학습된 분류기에 입력하여 사용자가 사용자 장치를 사용 중인지 여부를 판단할 수 있다. 분류기는 예를 들어, 서포트 벡터 머신, 랜덤 포레스트, 및 신경망에 기초한 것일 수 있다.
단계(540)에서 사용자가 사용자 장치를 사용 중이라고 판단되면, 알림 장치는 사용자 장치를 사용 중인 사용자를 대상자로 검출할 수 있다(550).
도 6은 일 실시예에 따라 대상자에게 차량의 접근 여부를 알리는 방법을 설명하기 위한 도면이다. 도 6을 참조하면, 일 실시예에 따른 알림 장치를 포함하는 차량(610) 및 검출된 대상자(630)가 도시된다.
차량(610)에 포함된 알림 장치는 차량 외부로 소리가 전달되는 오디오 시스템을 이용하여 청각적으로 대상자(630)에게 차량의 접근 여부를 알릴 수 있다. 알림 장치는 예를 들어, 지향성 스피커(directional speaker)를 이용하여 "차량 접근 중 주의!! 주의!!" 등과 같은 청각 정보를 검출된 대상자(630)에게 제공함으로써 차량의 접근 여부를 알릴 수 있다.
또는 알림 장치는 차량의 헤드라이트를 이용하여 시각 정보를 제공함으로써 검출된 대상자(630)에게 차량의 접근 여부를 알릴 수 있다. 알림 장치는 예를 들어, 헤드라이트를 짧은 시간 간격으로 점멸하거나, 또는 일정 시간 켬으로써 대상자(630)에게 차량의 접근 여부를 알릴 수 있다. 이 밖에도, 알림 장치는 사용자 장치와 차량 간의 무선 통신을 통해 검출된 대상자(630)의 사용자 장치에게 차량의 접근 여부를 알릴 수 있다.
또는 알림 장치는 대상자(630)가 사용자 장치를 사용 중이라고 판단되면, 차량의 탑승자에게 대상자(630)의 접근 여부를 알릴 수 있다. 알림 장치는 예를 들어, 차량 내 오디오 시스템을 이용한 청각 정보, 차량 내 디스플레이를 통한 시각 정보, 차량의 핸들(steering handle)을 이용한 촉각 정보, 탑승자 좌석의 진동 및 이들의 조합 등을 이용하여 차량의 탑승자에게 대상자(630)의 접근 여부를 알릴 수 있다.
알림 장치는 대상자(630)가 사용자 장치를 사용 중이라고 판단되면, 차량 내 오디오 시스템을 통해 "대상자 접근 중 주의!! 주의!!" 등과 같은 경고 메시지를 제공하거나, 차량의 핸들(steering handle)을 통한 진동 자극 또는 탑승자 좌석의 진동 자극을 제공하는 방식으로 차량의 탑승자에게 대상자의 접근 여부를 알릴 수 있다.
또는 알림 장치는 헤드업 디스플레이(Head Up Display)나 차량 내 인포테인먼트 시스템 등의 디스플레이를 통해 주위에 경계가 소홀한 대상자(630)가 있음을 탑승자에게 알릴 수 있다. 이 밖에도, 알림 장치는 가상 현실(Augmented Reality)을 이용하여 차량의 화면에 대상자 또는 경고 문구 등을 디스플레이 함으로써 대상자(630)의 접근 여부를 탑승자에게 알릴 수 있다.
도 7은 일 실시예에 따른 대상자의 접근 여부를 알리는 장치의 블록도이다. 도 7을 참조하면, 일 실시예에 따른 대상자의 접근 여부를 알리는 장치(이하, '알림 장치')는 프로세서(710), 비전 센서(720), 제1 분류기(730), 제2 분류기(740), 통신 인터페이스(750), 메모리(760), 및 지향성 스피커(770)를 포함한다. 비전 센서(720)는 CIS 카메라, 적외선 카메라 등의 다양한 종류의 촬영 장치들로 대체될 수 있다.
프로세서(710), 비전 센서(720), 제1 분류기(730), 제2 분류기(740), 통신 인터페이스(750), 메모리(760), 및 지향성 스피커(770)는 통신 버스(705)를 통해 서로 연결될 수 있다.
프로세서(710)는 촬영된 영상으로부터 사용자 장치를 사용 중인 대상자를 검출한다. 프로세서(710)는 대상자가 검출되면 차량의 탑승자에게 대상자의 접근 여부를 알린다.
프로세서(710)는 촬영된 영상으로부터 보행자 및 자전거 운전자를 포함하는 사용자를 검출할 수 있다. 프로세서(710)는 사용자의 영상으로부터 사용자 장치와 관련하여 추출된 특징점에 기초하여, 사용자가 사용자 장치를 사용 중인지 여부를 판단할 수 있다. 프로세서(710)는 사용자가 사용자 장치를 사용 중이라고 판단되면, 사용자 장치를 사용 중인 사용자를 대상자로 검출할 수 있다.
프로세서(710)는 미리 학습된 제1 분류기(730)를 이용하여 사용자의 외향적인 특징을 포함하는 정적인 특징점을 추출하는 동작을 수행할 수 있다. 정적인 특징점은 예를 들어, 사용자가 시선을 아래로 향하는 경우, 아래로 향하는 머리 또는 목의 각도를 나타낼 수 있는 특정 지점(들), 이어폰 또는 헤드폰 등이 착용된 사용자의 귀의 특징 지점(들)을 포함할 수 있다.
또한, 프로세서(710)는 미리 학습된 제2 분류기(740) 및 광학 흐름(optical flow)에 기초한 객체 추적 방법 중 적어도 하나를 이용하여 사용자의 연속적인 동작들의 특징 및 사용자의 주변 환경과 차별화되는 움직임 특징을 포함하는 동적인 특징점들을 추출하는 동작을 수행할 수 있다.
사용자의 연속적인 동작들은 예를 들어, 사용자가 몸을 흐느적거리거나, 춤을 추는 동작 등을 포함할 수 있다. 또한, 사용자의 주변 환경과 차별화되는 움직임 특징은 예를 들어, 사용자가 주변의 군중들과는 다른 속도 또는 다른 제스쳐를 취하면서 걸어가는 등과 같이 사용자 주변의 사람들과 사용자를 구분할 수 있는 다양한 움직임(들)을 포함할 수 있다.
제1 분류기(730) 및 제2 분류기(740)는 예를 들어, 서포트 벡터 머신, 랜덤 포레스트, 및 신경망 등에 기초한 것일 수 있다.
프로세서(710)는 정적인 특징점을 추출하는 동작과 동적인 특징점들을 추출하는 동작을 함께 수행할 수도 있고, 별도로 수행할 수도 있다.
프로세서(710)는 비전 센서(720) 등을 통해 촬영된 사용자의 영상으로부터 사용자의 일부 신체 영역의 위치를 검출하고, 사용자의 영상으로부터 사용자 장치와 관련된 특징점 및 일부 신체 영역과 관련된 특징점 중 적어도 하나를 추출할 수 있다.
프로세서(710)는 차량 내 오디오 시스템을 이용한 청각 정보, 차량의 핸들을 이용한 촉각 정보, 탑승자 좌석의 진동 중 적어도 하나를 이용하여 차량의 탑승자에게 대상자의 접근 여부를 알릴 수 있다.
프로세서(710)는 대상자가 사용자 장치를 사용 중이라고 판단되면, 검출된 대상자에게 차량의 접근 여부를 알릴 수 있다.
지향성 스피커(770)는 대상자의 방향을 향하는 스피커로서, 대상자의 방향으로만 원하는 음향을 제공할 수 있다. 프로세서(710)는 지향성 스피커(770)를 이용하여 청각 정보를 제공함으로써 검출된 대상자에게 차량의 접근 여부를 알릴 수 있다.
통신 인터페이스(750)는 사용자 장치와 차량 간의 무선 통신을 수행할 수 있다. 이때, 차량은 알림 장치(700)가 장착되거나, 또는 포함된 차량일 수 있다. 프로세서(710)는 통신 인터페이스(750)를 통해 검출된 대상자의 사용자 장치에게 차량의 접근 여부를 알릴 수 있다.
프로세서(710)는 이 밖에도, 도 1 내지 도 6을 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 프로세서(710)는 프로그램을 실행하고, 알림 장치(700)를 제어할 수 있다. 프로세서(710)에 의하여 실행되는 프로그램 코드는 메모리(760)에 저장될 수 있다.
메모리(760)는 저장할 수 있다. 이 밖에도, 메모리(760)는 상술한 프로세서(710)에서 생성되는 다양한 정보들을 저장할 수 있다. 또한, 메모리(760)는 통신 인터페이스(750)를 통해 수신된 정보를 저장할 수 있다.
이 밖에도, 메모리(760)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(760)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(760)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.
일 실시예에 따른 알림 장치(700)는 자율 주행 차량 또는 첨단 운전자 보조 시스템이 장착된 차량일 수도 있고, 자율 주행 차량 또는 첨단 운전자 보조 시스템이 장착된 차량에 장착(embedding)된 별도의 장치일 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (24)

  1. 촬영된 영상으로부터 사용자 장치를 사용 중인 대상자를 검출하는 단계; 및
    상기 검출된 대상자에게 차량의 접근 여부를 알리는 단계
    를 포함하는, 차량의 접근 여부를 알리는 방법.
  2. 제1항에 있어서,
    상기 대상자를 검출하는 단계는
    상기 촬영된 영상으로부터 보행자 및 자전거 운전자를 포함하는 사용자를 검출하는 단계;
    상기 사용자의 영상으로부터 상기 사용자 장치와 관련된 특징점을 추출하는 단계;
    상기 추출된 특징점에 기초하여, 상기 사용자가 상기 사용자 장치를 사용 중인지 여부를 판단하는 단계; 및
    상기 사용자가 상기 사용자 장치를 사용 중이라고 판단되면, 상기 사용자 장치를 사용 중인 사용자를 상기 대상자로 검출하는 단계
    를 포함하는, 차량의 접근 여부를 알리는 방법.
  3. 제2항에 있어서,
    상기 특징점을 추출하는 단계는
    상기 사용자의 외향적인 특징을 포함하는 정적인 특징점을 추출하는 단계; 및
    상기 사용자의 연속적인 동작들의 특징 및 상기 사용자의 주변 환경과 차별화되는 움직임 특징을 포함하는 동적인 특징점들을 추출하는 단계
    중 적어도 하나를 포함하는, 차량의 접근 여부를 알리는 방법.
  4. 제3항에 있어서,
    상기 정적인 특징점을 추출하는 단계는
    미리 학습된 제1 분류기를 이용하여 상기 사용자의 외향적인 특징을 포함하는 정적인 특징점을 추출하는 단계
    를 포함하는, 차량의 접근 여부를 알리는 방법.
  5. 제3항에 있어서,
    상기 정적인 특징점을 추출하는 단계는
    미리 학습된 제2 분류기 및 광학 흐름(optical flow)에 기초한 객체 추적 방법 중 적어도 하나를 이용하여 상기 동적인 특징점들을 추출하는 단계
    를 포함하는, 차량의 접근 여부를 알리는 방법.
  6. 제3항에 있어서,
    상기 사용자가 상기 사용자 장치를 사용 중인지 여부를 판단하는 단계는
    상기 정적인 특징점 및 상기 동적인 특징점들 중 적어도 하나에 기초하여, 상기 사용자가 상기 사용자 장치를 사용 중인지 여부를 판단하는 단계
    를 포함하는, 차량의 접근 여부를 알리는 방법.
  7. 제1항에 있어서,
    상기 대상자의 일부 신체 영역의 위치를 검출하는 단계
    를 더 포함하는, 차량의 접근 여부를 알리는 방법.
  8. 제7항에 있어서,
    상기 대상자를 검출하는 단계는
    상기 촬영된 영상으로부터 보행자 및 자전거 운전자를 포함하는 사용자를 검출하는 단계; 및
    상기 사용자의 영상으로부터 상기 사용자 장치와 관련된 특징점 및 상기 일부 신체 영역과 관련된 특징점 중 적어도 하나를 추출하는 단계
    를 포함하는, 차량의 접근 여부를 알리는 방법.
  9. 제7항에 있어서,
    상기 일부 신체 영역은
    상기 대상자의 머리, 귀, 손 중 적어도 하나를 포함하는, 차량의 접근 여부를 알리는 방법.
  10. 제1항에 있어서,
    상기 검출된 대상자에게 차량의 접근 여부를 알리는 단계는
    지향성 스피커를 이용하여 청각 정보를 제공함으로써 상기 검출된 대상자에게 상기 차량의 접근 여부를 알리는 단계;
    차량의 헤드라이트를 이용하여 시각 정보를 제공함으로써 상기 검출된 대상자에게 상기 차량의 접근 여부를 알리는 단계; 및
    상기 사용자 장치와 상기 차량 간의 무선 통신을 통해 상기 검출된 대상자의 사용자 장치에게 상기 차량의 접근 여부를 알리는 단계
    중 적어도 하나를 포함하는, 차량의 접근 여부를 알리는 방법.
  11. 제1항에 있어서,
    상기 대상자가 상기 사용자 장치를 사용 중이라고 판단되면, 상기 차량의 탑승자에게 상기 대상자의 접근 여부를 알리는 단계
    를 더 포함하는, 차량의 접근 여부를 알리는 방법.
  12. 제11항에 있어서,
    상기 차량의 탑승자에게 상기 대상자의 접근 여부를 알리는 단계는
    차량 내 오디오 시스템을 이용한 청각 정보, 상기 차량 내 디스플레이를 통한 시각 정보, 상기 차량의 핸들(steering handle)을 이용한 촉각 정보, 상기 탑승자 좌석의 진동 중 적어도 하나를 이용하여 상기 차량의 탑승자에게 상기 대상자의 접근 여부를 알리는 단계
    를 포함하는, 차량의 접근 여부를 알리는 방법.
  13. 제1항에 있어서,
    상기 대상자를 검출하는 단계는
    상기 사용자 장치를 사용 중인 사용자의 영상들에 의해 미리 학습된 분류기를 이용하여 상기 촬영된 영상으로부터 상기 사용자 장치를 사용 중인 대상자를 검출하는 단계
    를 포함하는, 차량의 접근 여부를 알리는 방법.
  14. 제1항에 있어서,
    상기 사용자 장치는
    헤드셋, 이어폰, 및 휴대용 단말 중 적어도 하나를 포함하는, 차량의 접근 여부를 알리는 방법.
  15. 하드웨어와 결합되어 제1항 내지 제14항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  16. 촬영된 영상으로부터 사용자 장치를 사용 중인 대상자를 검출하고, 상기 대상자가 검출되면 차량의 탑승자에게 상기 대상자의 접근 여부를 알리는 프로세서
    를 포함하는, 대상자의 접근 여부를 알리는 장치.
  17. 제16항에 있어서,
    상기 프로세서는
    상기 촬영된 영상으로부터 보행자 및 자전거 운전자를 포함하는 사용자를 검출하고, 상기 사용자의 영상으로부터 상기 사용자 장치와 관련하여 추출된 특징점에 기초하여, 상기 사용자가 사용자 장치를 사용 중인지 여부를 판단하며, 상기 사용자가 사용자 장치를 사용 중이라고 판단되면, 상기 사용자 장치를 사용 중인 사용자를 상기 대상자로 검출하는, 대상자의 접근 여부를 알리는 장치.
  18. 제17항에 있어서,
    미리 학습된 제1 분류기; 및
    미리 학습된 제2 분류기
    를 더 포함하고,
    상기 프로세서는
    상기 제1 분류기를 이용하여 상기 사용자의 외향적인 특징을 포함하는 정적인 특징점을 추출하는 동작; 및
    상기 제2 분류기 및 광학 흐름(optical flow)에 기초한 객체 추적 방법 중 적어도 하나를 이용하여 상기 사용자의 연속적인 동작들의 특징 및 상기 사용자의 주변 환경과 차별화되는 움직임 특징을 포함하는 동적인 특징점들을 추출하는 동작
    중 적어도 하나를 수행하는, 대상자의 접근 여부를 알리는 장치.
  19. 제16항에 있어서,
    상기 영상을 촬영하는 비전 센서
    를 더 포함하는, 대상자의 접근 여부를 알리는 장치.
  20. 제16항에 있어서,
    상기 프로세서는
    상기 촬영된 영상으로부터 보행자 및 자전거 운전자를 포함하는 사용자를 검출하고, 상기 사용자의 일부 신체 영역의 위치를 검출하며, 상기 사용자의 영상으로부터 상기 사용자 장치와 관련된 특징점 및 상기 일부 신체 영역과 관련된 특징점 중 적어도 하나를 추출하는, 대상자의 접근 여부를 알리는 장치.
  21. 제16항에 있어서,
    상기 프로세서는
    차량 내 오디오 시스템을 이용한 청각 정보, 상기 차량 내 디스플레이를 통한 시각 정보, 상기 차량의 핸들(steering handle)을 이용한 촉각 정보, 상기 탑승자 좌석의 진동 중 적어도 하나를 이용하여 상기 차량의 탑승자에게 상기 대상자의 접근 여부를 알리는, 대상자의 접근 여부를 알리는 장치.
  22. 제17항에 있어서,
    상기 프로세서는
    상기 대상자가 상기 사용자 장치를 사용 중이라고 판단되면, 검출된 대상자에게 차량의 접근 여부를 알리는, 대상자의 접근 여부를 알리는 장치.
  23. 제22항에 있어서,
    상기 대상자의 방향을 향하는 지향성 스피커
    를 더 포함하고,
    상기 프로세서는
    상기 지향성 스피커를 이용하여 청각 정보를 제공함으로써 상기 검출된 대상자에게 상기 차량의 접근 여부를 알리는, 대상자의 접근 여부를 알리는 장치.
  24. 제17항에 있어서,
    상기 사용자 장치와 상기 차량 간의 무선 통신을 수행하는 통신 인터페이스
    를 더 포함하고,
    상기 프로세서는
    상기 통신 인터페이스를 통해 상기 검출된 대상자의 사용자 장치에게 상기 차량의 접근 여부를 알리는, 대상자의 접근 여부를 알리는 장치.
KR1020160148670A 2016-11-09 2016-11-09 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치 KR20180051838A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160148670A KR20180051838A (ko) 2016-11-09 2016-11-09 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치
US15/646,862 US10604070B2 (en) 2016-11-09 2017-07-11 Method and apparatus for informing pedestrian and occupant of vehicle of each other's approach

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160148670A KR20180051838A (ko) 2016-11-09 2016-11-09 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20180051838A true KR20180051838A (ko) 2018-05-17

Family

ID=62066045

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160148670A KR20180051838A (ko) 2016-11-09 2016-11-09 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치

Country Status (2)

Country Link
US (1) US10604070B2 (ko)
KR (1) KR20180051838A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230127029A (ko) 2022-02-24 2023-08-31 주식회사 제이에스에스알 자율 주행 차량의 접근 알림 장치 및 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769453B2 (en) * 2017-05-16 2020-09-08 Samsung Electronics Co., Ltd. Electronic device and method of controlling operation of vehicle
WO2018212538A1 (en) * 2017-05-16 2018-11-22 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle
US10896514B2 (en) * 2018-06-15 2021-01-19 Aptiv Technologies Limited Object tracking after object turns off host-vehicle roadway
CN109334566B (zh) * 2018-08-31 2022-01-25 阿波罗智联(北京)科技有限公司 用于提供车外反馈的方法、装置、设备和存储介质
US11200468B2 (en) * 2018-11-15 2021-12-14 Mobileye Vision Technologies Ltd. Fast CNN classification of multi-frame semantic signals

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7848566B2 (en) 2004-10-22 2010-12-07 Carnegie Mellon University Object recognizer and detector for two-dimensional images using bayesian network based classifier
JP2007334554A (ja) 2006-06-14 2007-12-27 Nissan Motor Co Ltd 障害物検出装置および障害物検出方法
US8868288B2 (en) 2006-11-09 2014-10-21 Smartdrive Systems, Inc. Vehicle exception event management systems
JP4937844B2 (ja) 2007-06-12 2012-05-23 富士重工業株式会社 歩行者検出装置
US8639214B1 (en) * 2007-10-26 2014-01-28 Iwao Fujisaki Communication device
US8036425B2 (en) 2008-06-26 2011-10-11 Billy Hou Neural network-controlled automatic tracking and recognizing system and method
JP5343789B2 (ja) 2009-09-25 2013-11-13 トヨタ自動車株式会社 車両の走行支援システム及び方法
KR101302798B1 (ko) 2009-11-26 2013-09-02 주식회사 만도 환경정보를 이용한 능동 보행자 보호 방법 및 시스템
JP5482323B2 (ja) 2010-03-12 2014-05-07 株式会社豊田中央研究所 運転支援装置及びプログラム
US9230419B2 (en) 2010-07-27 2016-01-05 Rite-Hite Holding Corporation Methods and apparatus to detect and warn proximate entities of interest
KR101703144B1 (ko) 2012-02-09 2017-02-06 한국전자통신연구원 차량의 자율주행 장치 및 그 방법
JP5838879B2 (ja) 2012-03-22 2016-01-06 株式会社デンソー 予測システム
US9571803B2 (en) * 2012-10-22 2017-02-14 Ricky Hamilton, Sr. Cell phone video safety monitor with adjustable support arms that attaches externally to the body of a cell phone
KR101427032B1 (ko) 2013-01-28 2014-08-05 주식회사 만도 차량의 보행자 인식 장치 및 방법, 이를 이용한 차량의 보행자 충돌 경고 및 예방 장치 및 방법
KR20150002040A (ko) 2013-06-28 2015-01-07 (주) 세인 호그 연속기법에 기반한 칼만 필터와 클러스터링 알고리즘을 이용하여 실시간으로 보행자를 인식하고 추적하는 방법
KR101344034B1 (ko) 2013-08-21 2013-12-24 주식회사 넥스파시스템 보행자 인식기반 사고방지 시스템 및 그 제어 방법
US9451062B2 (en) * 2013-09-30 2016-09-20 Verizon Patent And Licensing Inc. Mobile device edge view display insert
US9354778B2 (en) * 2013-12-06 2016-05-31 Digimarc Corporation Smartphone-based methods and systems
KR101543105B1 (ko) 2013-12-09 2015-08-07 현대자동차주식회사 보행자 인식 장치 및 그의 처리 방법과 이를 지원하는 차량
CN113568509A (zh) * 2015-06-08 2021-10-29 北京三星通信技术研究有限公司 便携式电子设备及其操作方法
KR20170109408A (ko) * 2016-03-21 2017-09-29 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US9881503B1 (en) * 2016-09-08 2018-01-30 GM Global Technology Operations LLC Vehicle-to-pedestrian-communication systems and methods for using the same
JP6673191B2 (ja) * 2016-12-27 2020-03-25 トヨタ自動車株式会社 警報出力装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230127029A (ko) 2022-02-24 2023-08-31 주식회사 제이에스에스알 자율 주행 차량의 접근 알림 장치 및 방법

Also Published As

Publication number Publication date
US20180126902A1 (en) 2018-05-10
US10604070B2 (en) 2020-03-31

Similar Documents

Publication Publication Date Title
KR20180051838A (ko) 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치
KR102500760B1 (ko) 이미지 획득 장치 및 그의 제어 방법
CN110070056B (zh) 图像处理方法、装置、存储介质及设备
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
CN104573623B (zh) 人脸检测装置、方法
CN106716513B (zh) 行人信息系统
US8953841B1 (en) User transportable device with hazard monitoring
WO2019144880A1 (en) Primary preview region and gaze based driver distraction detection
US20210012126A1 (en) Detecting illegal use of phone to prevent the driver from getting a fine
US20130169536A1 (en) Control of a wearable device
US20140354684A1 (en) Symbology system and augmented reality heads up display (hud) for communicating safety information
US11109152B2 (en) Optimize the audio capture during conference call in cars
CN110730966B (zh) 用于行人检测的系统和方法
EP2629241A1 (en) Control of a wearable device
US20230400913A1 (en) Virtual models for communications between user devices and external observers
KR20170056860A (ko) 이미지 생성 방법 및 장치
JP2020126625A (ja) ディープニューラルネットワークを基盤としたイメージ分析を通じて人の状態及び走行環境を識別して自律走行を補助する自律走行補助眼鏡
KR102360181B1 (ko) 차량의 동작을 제어하는 전자 장치 및 방법
KR20180074565A (ko) 전자 장치 및 그 동작 방법
JP7161981B2 (ja) 対象追跡手段の切り替えが可能な対象追跡プログラム、装置及び方法
WO2017208601A1 (ja) 画像処理装置、外界認識装置
JP2023552105A (ja) 人間行動のオクルージョン対応予測
JP2015141553A (ja) 危険回避制御装置、危険回避制御方法およびプログラム
Nair et al. Smart System for Drowsiness and Accident Detection
JP6932269B1 (ja) 運転支援制御装置及び運転支援制御方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal