KR102371587B1 - 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법 - Google Patents

횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법 Download PDF

Info

Publication number
KR102371587B1
KR102371587B1 KR1020150072119A KR20150072119A KR102371587B1 KR 102371587 B1 KR102371587 B1 KR 102371587B1 KR 1020150072119 A KR1020150072119 A KR 1020150072119A KR 20150072119 A KR20150072119 A KR 20150072119A KR 102371587 B1 KR102371587 B1 KR 102371587B1
Authority
KR
South Korea
Prior art keywords
crosswalk
vehicle
image
recognition result
delete delete
Prior art date
Application number
KR1020150072119A
Other languages
English (en)
Other versions
KR20160137247A (ko
Inventor
이한우
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020150072119A priority Critical patent/KR102371587B1/ko
Priority to US15/157,364 priority patent/US9851208B2/en
Priority to CN201910276113.7A priority patent/CN110160536B/zh
Priority to CN201811219834.6A priority patent/CN109506664B/zh
Priority to CN201620454996.8U priority patent/CN205992300U/zh
Priority to CN201610331093.5A priority patent/CN106169244B/zh
Publication of KR20160137247A publication Critical patent/KR20160137247A/ko
Priority to US15/816,866 priority patent/US10551198B2/en
Priority to KR1020210187786A priority patent/KR102441085B1/ko
Application granted granted Critical
Publication of KR102371587B1 publication Critical patent/KR102371587B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams

Abstract

횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법이 개시된다. 안내 정보 제공 장치는 안전 운전을 유도하기 정보로서 차량 주위의 횡단보도 인식 결과에 대한 안내 정보를 제공하되, 횡단보도 안내 정보를 차량의 전방 주행과 관련된 주변 상황에 따라 다르게 제공할 수 있다.

Description

횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법{APPARATUS AND METHOD FOR PROVIDING GUIDANCE INFORMATION USING CROSSWALK RECOGNITION RESULT}
본 발명의 실시예들은 차량의 안전한 주행을 위해 차량 주변의 상황 정보를 안내하는 기술에 관한 것이다.
차량의 주행 시 가장 중요한 것 중 하나는 교통 사고의 예방을 비롯한 안정성이다. 안정성을 위해 차량의 자세를 제어하거나, 차량의 구성 장치들의 기능을 제어하는 다양한 보조 장치가 차량에 장착되고, 안전 벨트 및 에어백 등과 같은 안전 장치가 차량에 장착된다. 또한, 블랙박스(black box)가 차량 내에 설치된 경우, 차량의 각종 센서들로부터 전송되는 데이터가 블랙박스 내에 저장될 수 있다. 차량의 사고가 발생한 경우 차량에서 블랙박스를 회수하고, 회수된 블랙박스 내에 저장된 데이터를 분석함으로써 사고의 원인이 규명될 수 있다.
안전한 주행을 위해, 운전자는 주행 중 전방에 위치한 사람 및 사물을 신속하게 인식하고, 차량의 운행을 조절할 필요가 있다. 내비게이션(navigation)이나 블랙 박스와 같은 차량에 장착된 전자 기기는 차량의 주변을 계속적으로 촬영할 수 있다. 상기의 전자 기기는 컴퓨터 비젼 알고리즘 등을 사용함으로써 영상 내에서 차량 주변의 상황을 계속 모니터링 할 수 있으며, 특정한 상황이 검출된 경우 검출된 상황에 관련된 정보를 운전자에게 알릴 수 있다.
차량에서 촬영된 영상을 분석하는 장치의 일 예로서, 한국공개특허 제10-2007-0082980호(공개일 2007년 08월 23일)에는 차량에 설치된 카메라를 통해 수집된 영상을 분석하여, 영상 내에서 객체(즉, 차량 번호)를 인식하는 이동식 위법 차량 단속 장치가 개시되어 있다.
횡단보도 인식 결과를 바탕으로 자차의 안전 주행을 유도하기 위한 안내 정보를 제공하는 장치 및 방법을 제공한다.
횡단보도 인식 결과를 이용하여 자차에 대한 맵 매칭 위치를 보정하는 장치 및 방법을 제공한다.
횡단보도 상의 보행자나 전방 차량, 신호등의 신호 상태 등에 대한 인식 결과에 따라 안내 정보를 구분하여 제공하는 장치 및 방법을 제공한다.
컴퓨터로 구현되는 안내 정보 제공 방법에 있어서, 차량의 주위에 위치한 횡단보도에 대해 인식된 횡단보도 인식 결과를 확인하는 단계; 상기 횡단보도 인식 결과와 상기 차량에 대한 GPS 수신 위치의 맵 데이터를 비교하는 단계; 및 상기 비교 결과에 따라 상기 GPS 수신 위치에 대한 맵 매칭 위치를 보정하는 단계를 포함하는 안내 정보 제공 방법을 제공한다.
컴퓨터로 구현되는 안내 정보 제공 방법에 있어서, 차량의 주위에 위치한 횡단보도에 대해 인식된 횡단보도 인식 결과를 확인하는 단계; 상기 차량의 전방 주행과 관련된 주변 상황에 대해 인식된 주변 상황 인식 결과를 확인하는 단계; 및 상기 횡단보도 인식 결과에 대한 안내 정보를 상기 주변 상황 인식 결과에 따라 구분하여 제공하는 단계를 포함하는 안내 정보 제공 방법을 제공한다.
컴퓨터로 구현되는 안내 정보 제공 방법에 있어서, 차량의 주위에 위치한 횡단보도에 대해 인식된 횡단보도 인식 결과를 확인하는 단계; 상기 차량의 전방 주행과 관련된 주변 상황에 대해 인식된 주변 상황 인식 결과를 확인하는 단계; 및 상기 주변 상황 인식 결과에 대한 안내 정보를 상기 횡단보도 인식 결과에 따라 구분하여 제공하는 단계를 포함하는 안내 정보 제공 방법을 제공한다.
적어도 하나의 프로그램이 로딩된 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라, 차량의 주위에 위치한 횡단보도에 대해 인식된 횡단보도 인식 결과를 확인하는 과정; 상기 횡단보도 인식 결과와 상기 차량에 대한 GPS 수신 위치의 맵 데이터를 비교하는 과정; 및 상기 비교 결과에 따라 상기 GPS 수신 위치에 대한 맵 매칭 위치를 보정하는 과정을 처리하는 안내 정보 제공 장치를 제공한다.
적어도 하나의 프로그램이 로딩된 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라, 차량의 주위에 위치한 횡단보도에 대해 인식된 횡단보도 인식 결과를 확인하는 과정; 상기 차량의 전방 주행과 관련된 주변 상황에 대해 인식된 주변 상황 인식 결과를 확인하는 과정; 및 상기 횡단보도 인식 결과에 대한 안내 정보를 상기 주변 상황 인식 결과에 따라 구분하여 제공하는 과정을 처리하는 안내 정보 제공 장치를 제공한다.
적어도 하나의 프로그램이 로딩된 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라, 차량의 주위에 위치한 횡단보도에 대해 인식된 횡단보도 인식 결과를 확인하는 과정; 상기 차량의 전방 주행과 관련된 주변 상황에 대해 인식된 주변 상황 인식 결과를 확인하는 과정; 및 상기 주변 상황 인식 결과에 대한 안내 정보를 상기 횡단보도 인식 결과에 따라 구분하여 제공하는 과정을 처리하는 안내 정보 제공 장치를 제공한다.
본 발명의 실시예에 따르면, 전방의 횡단보도를 인식하여 횡단보도 인식 결과를 시청각적으로 표출함으로써 횡단보도의 식별과 주의 환기를 통해 운전자의 안전 운전을 유도할 수 있다.
본 발명의 실시예에 따르면, 횡단보도 인식 결과를 맵 데이터와 비교하여 자차에 대한 맵 매칭 위치를 보정함으로써 내비게이션의 맵 매칭 오류를 최소화 하여 위치 안내에 대한 사용자의 신뢰도를 높일 수 있다.
본 발명의 실시예에 따르면, 횡단보도 상의 보행자나 전방 차량, 신호등의 신호 상태 등에 대한 인식 결과에 따라 안내 정보를 구분하여 제공함으로써 주변 상황을 정확하고 구체적으로 알려 운전자를 환기시키고 운전자의 안전 주행과 함께 횡단보도에서의 보행자 안전을 보장할 수 있다.
도 1는 본 발명의 일 실시예에 있어서, 안내 정보 제공 장치의 내부 구성의 일 예를 설명하기 위한 블록도이다.
도 2 내지 도 7은 본 발명의 일 실시예에 있어서, 횡단보도 인식 방법을 설명하기 위한 예시 도면이다.
도 8은 본 발명의 일 실시예에 있어서, 보행자 인식 방법을 설명하기 위한 예시 도면이다.
도 9는 본 발명의 일 실시예에 있어서, 전방 차량 인식 방법을 설명하기 위한 예시 도면이다.
도 10 내지 도 14는 본 발명의 일 실시예에 있어서, 횡단보도 인식 결과를 이용한 안내 정보 제공 방법을 설명하기 위한 예시 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 실시예들은 카메라 영상을 이용하여 영상 내에서 횡단보도를 인식하고 주행 안내 환경에서 횡단보도 인식 결과를 활용하여 안내 정보를 제공하는 장치 및 방법에 관한 것이다.
본 발명에 따른 안내 정보 제공 장치 및 방법은 내비게이션 시스템에 적용될 수 있으며, 일 예로 증강 현실(Augmented Reality) 모드가 탑재된 내비게이션 시스템에 적용될 수 있다. 본 실시예들은 스마트폰(smart phone), 태블릿(tablet), 웨어러블 컴퓨터(wearable computer) 등 모바일 단말 전용의 어플리케이션으로 구현되는 것 또한 가능하다.
도 1는 본 발명의 일 실시예에 있어서, 안내 정보 제공 장치의 내부 구성의 일 예를 설명하기 위한 블록도이다.
도 1에 도시한 바와 같이, 안내 정보 제공 장치(100)는 컴퓨터 시스템으로서, 적어도 하나의 프로세서(processor)(110), 메모리(memory)(120), 주변장치 인터페이스(peripheral interface)(130), 입/출력 서브시스템(I/O subsystem)(140), 전력 회로(150) 및 통신 회로(140)를 적어도 포함할 수 있다.
도 1에서 화살표는 컴퓨터 시스템의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있음을 의미하며, 이는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.
메모리(120)는 운영체제(121) 및 주행 안내 제어루틴(122)을 포함할 수 있다. 일 예로, 메모리(120)는 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(120)는 운영체제(121)와 주행 안내 제어루틴(122)을 위한 프로그램 코드가 저장될 수 있으며, 다시 말해 안내 정보 제공 장치(100)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다. 이때, 프로세서(110)나 주변장치 인터페이스(130) 등의 다른 컴포넌트에서 메모리(120)에 액세스하는 것은 프로세서(110)에 의해 제어될 수 있다.
주변장치 인터페이스(130)는 안내 정보 제공 장치(100)의 입력 및/또는 출력 주변장치를 프로세서(110) 및 메모리(120)에 결합시킬 수 있다. 그리고, 입/출력 서브시스템(140)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(130)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(140)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 카메라, 각종 센서 등의 주변장치를 주변장치 인터페이스(130)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(140)을 거치지 않고 주변장치 인터페이스(130)에 결합될 수도 있다.
전력 회로(150)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(150)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.
통신 회로(140)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨터 시스템과 통신을 가능하게 할 수 있다. 또는 상술한 바와 같이 필요에 따라 통신 회로(140)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨터 시스템과 통신을 가능하게 할 수도 있다.
프로세서(110)는 메모리(120)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 안내 정보 제공 장치(100)를 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다. 다시 말해, 프로세서(110)는 기본적인 산술, 로직 및 컴퓨터 시스템의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 프로세서(110)는 인식부(111) 및 제공부(112)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(120)와 같은 기록 장치에 저장될 수 있다.
인식부(111) 및 제공부(112)는 이하에서 설명하게 될 안내 정보 제공 방법을 수행하기 위해 구성될 수 있다.
이러한 도 1의 실시예는, 안내 정보 제공 장치(100)의 일 예일 뿐이고, 안내 정보 제공 장치(100)는 도 1에 도시된 일부 컴포넌트가 생략되거나, 도 1에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨터 시스템은 도 1에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(140)에 다양한 통신 방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 안내 정보 제공 장치(100)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.
상기한 구성의 안내 정보 제공 장치(100)는 카메라(미도시)로부터 영상(이하, '카메라 영상'이라 칭함)을 입력 받아 카메라 영상 내에서 횡단보도를 인식할 수 있고 자차의 안전 운전을 유도하기 위한 주행 안내 환경에서 횡단보도 인식 결과를 바탕으로 다양한 안내 정보를 제공할 수 있다.
상기한 카메라는 자차의 전방을 촬영한 영상을 제공하는 것으로, 일 예로 안내 정보 제공 장치(100)가 적용된 차량용 내비게이션에 일체형으로 구성될 수 있으며, 차량의 전방을 촬영할 수 있도록 내비게이션 본체의 뒤인, 차량의 앞 유리를 바라보는 위치에 장착된 것일 수 있다. 다른 예로, 안내 정보 제공 장치(100)와 연동 가능한 다른 시스템이나 외부의 별개 구성으로 설치된, 차량의 전방을 촬영하는 카메라를 이용하는 것 또한 가능하다.
특히, 본 발명에서는 안전 운전을 유도하는 안내 정보를 제공하기 위하여 (1) 횡단보도를 인식하는 기술, (2) 횡단보도 상의 보행자를 인식하는 기술, (3) 전방 차량(앞차)을 인식하는 기술, (4) 신호등의 교통 신호를 인식하는 기술을 적용할 수 있다.
먼저, 횡단보도를 인식하는 기술에 대해 설명하기로 한다.
도 2는 본 발명의 일 실시예에 있어서, 횡단보도 인식 방법을 도시한 순서도이다. 일 실시예에 따른 횡단보도 인식 방법은 도 1을 통해 설명한 인식부(111)에 의해 각각의 단계가 수행될 수 있다.
단계(210)에서 인식부(111)는 카메라 영상을 입력 받아 입력된 카메라 영상을 그레이(흑백) 영상으로 변환한다. 카메라 영상은 일정 크기(예를 들어, 640*480)의 영상으로, RGB(Red Green Blue) 영상과 같은 컬러 영상일 수 있다.
도 3을 참조하면, 제1 영상(310)은 카메라에 의해 촬영된 컬러 영상을 나타낼 수 있고, 제2 영상(320)은 인식부(111)에 의해 컬러 영상이 그레이 스케일(gray scale)로 변환됨으로써 생성된 그레이 영상을 나타낼 수 있다.
컬러 영상 내의 각 픽셀들은 픽셀의 컬러를 나타내는 컬러 값을 가질 수 있다. 컬러 값은 적색 값, 녹색 값 및 청색 값을 포함할 수 있다. 즉, 컬러 영상은 RGB 컬러 영상일 수 있다. 흑백 영상 내의 각 픽셀들은 픽셀의 명암을 나타내는 컬러 값을 가질 수 있다. 컬러 값은 0 이상 n(n 은 1 이상의 정수) 이하의 정수 값일 수 있다. 예컨대, 특정한 픽셀이 흑색을 나타낼 경우, 특정한 픽셀의 컬러 값이 0일 수 있다. 또한, 특정한 픽셀이 백색을 나타낼 경우 특정한 픽셀의 컬러 값은 n일 수 있다.
이와 같이, 인식부(111)는 그레이 스케일 변환을 통해 카메라 영상을 그레이 영상으로 변환할 수 있다. 또한, 인식부(111)는 그레이 영상이 일정한 명암값 분포를 갖도록 그레이 영상의 명암 값에 대한 평활화를 수행할 수 있다.
도로의 일부분이 그림자 영향을 받으면 전방 차량이나 전방 차량과의 거리를 잘못 인식할 수 있기 때문에 그림자 영향을 최소화 하기 위하여, 본 실시예에서는 광원을 보정할 수 있는 방법을 적용할 수 있다. 일 예로, 카메라에서 촬영에 사용할 광원을 보정한 후 보정된 광원으로 차량의 전방을 촬영하여 RGB 영상을 얻을 수 있다. 다른 예로, 인식부(111)에서 RGB 영상에 대하여 광원 보정 알고리즘을 적용하여 RGB 영상의 광원을 보정한 후, 보정된 RGB 영상을 그레이 영상으로 변경할 수 있다. 한편, 차량 내부 유리에 반사된 피사체의 영향으로 영상의 특정 부분에서 횡단보도를 인식하지 못하는 경우가 발생할 수 있다. 이와 같은 문제를 개선하고 반사에 의한 영향을 최소화 하기 위하여, 카메라의 렌즈 앞 단에 반사 억제 상자를 부착함으로써 보정된 영상을 얻을 수 있다.
다시 도 2에서, 단계(220)에서 인식부(111)는 그레이 영상에서 횡단보도를 검출하기 위한 관심 영역(ROI: Region of Interest)을 설정할 수 있다. 카메라 영상 중 일부분은 하늘, 지평선 또는 건물 등 횡단보도가 위치할 수 있는 도로 외의 다른 영역을 나타낼 수 있다. 영상의 모든 영역에서 횡단보도를 검출하려고 시도할 경우, 횡단보도 외의 다른 객체가 횡단보도로서 잘못 검출될 가능성이 높아질 수 있기 때문에 영상 중 횡단보도를 검출하기 위한 일부 영역을 설정할 필요가 있다.
일 예로, 인식부(111)는 그레이 영상 내에서 특정한 조건에 의해 결정된 관심 영역을 설정할 수 있다. 여기서, 특정한 조건은 카메라의 설치 각도와 시야각, 그리고 영상의 해상도 등을 의미할 수 있다. 즉, 인식부(111)는 영상 중 일부를 관심 영역으로 설정할 수 있고, 영상 또는 영상 중 일부를 향상시킬 수 있다. 도 4는 관심 영역이 향상된 영상(410)과 관심 영역이 향상된 영상(410) 중 관심 영역(420)을 나타내고 있다. 인식부(111)는 관심 영역(420)이 설정된 경우 관심 영역(420)을 횡단보도를 검출하기 위한 검출 영역으로 결정할 수 있다.
다른 예로, 인식부(111)는 그레이 영상 내에서 차선을 검출한 후 차선을 기준으로 하여 관심 영역을 설정할 수 있다. 예를 들어, 인식부(111)는 캐니(Canny) 알고리즘을 사용하여 영상 내에서 에지(edge)를 검출한 에지 영상을 생성한 후, 에지 영상에 허프 변환 알고리즘을 적용함으로써 에지 영상 내에서 직선으로서 표시되는 에지를 검출하고 직선의 위치에 대응하는 영역을 차선으로서 인식할 수 있다. 이때, 인식부(111)는 허프 변환을 통해 에지 영상 내에 포함된 하나 이상의 직선 후보들을 검출할 수 있고, 하나 이상의 직선 후보들 중 영상의 중심으로부터의 거리가 최소인 직선 후보를 차선으로 판단할 수 있다. 또한, 인식부(111)는 복수 개의 직선 후보들 중 차량의 주행 방향에 대해서 일정한 차선의 폭을 가지는 직선 후보를 차선으로 판단할 수 있다. 일반적으로 차선은 도로 면에 존재하며 일정한 폭을 가지며, 운전자의 시점에서 보았을 때 수평 선 상으로는 나타나지 않고 차량의 진행 방향에 대응하는 선 상에 나타난다. 따라서, 인식부(111)는 차량의 진행 방향에 대응되는 복수 개의 직선 후보들 중 일정한 폭을 갖는 직선 후보를 차선으로 인식할 수 있다. 또한, 인식부(111)는 복수 개의 직선 후보들 중에서 영상의 수직 중심 선을 기준으로 서로 대칭을 이루는 직선 후보들을 차선으로 판단할 수 있다. 이와 같이, 인식부(111)는 영상에서 검출된 차선에 기반하여 관심 영역을 설정할 수 있다. 예컨대, 인식부(111)는 영상 내에서 차선이 시작되는 위치를 기점으로 y축 방향으로 일정 거리만큼의 영역을 관심 영역으로 설정할 수 있다. 이때, 관심 영역이 결정되는 조건인, 차선이 시작되는 위치와 일정 거리는 차로의 폭과 카메라의 시야각으로 추정할 수 있다.
횡단보도에는 그림자로 인한 음영이 드리워지거나 횡단보도를 표시하기 위한 페인트가 마모될 수 있으며, 스티커 또는 종이와 같은 작은 객체가 횡단보도 위에 위치하고 있을 경우 횡단보도의 모양이 가려질 수 있다. 또한, 횡단보도를 촬영한 영상 내에서 노이즈가 존재할 수도 있다. 이러한 문제를 고려하여, 인식부(111)는 관심 영역 내의 노이즈를 제거하고 횡단보도의 파손된 형태를 정규화하기 위해 관심 영역에 사각형 요소를 이용하는 닫힘 영상을 적용할 수 있다. 사각형 영상을 사용하는 것은 횡단보도가 일반적으로 흑색 또는 백색의 사각형이 연속되는 형태를 갖는다는 것에 기인한 것일 수 있다. 상기의 닫힘 영상에 의해 횡단보도를 나타내는 영역이 더 선명하게 될 수 있다.
다시 도 2에서, 단계(230)에서 인식부(111)는 관심 영역에 대한 영상 분석을 통해 관심 영역 내에서 횡단보도를 검출할 수 있다. 일 예로, 인식부(111)는 관심 영역의 수평선에 최소-최대 필터를 적용함으로써 관심 영역이 이진화 된 이진화(binary) 영상을 생성할 수 있다. 이에, 인식부(111)는 이진화 영상 내에서 횡단보도를 나타내는 패턴을 검출함으로써 관심 영역 내에서 횡단보도를 검출할 수 있다.
예를 들어, 도 5는 영상(510) 및 영상 내의 수평 선(520)을 나타내고 있다. 그리고, 영상(510)의 하단에는 수평선의 컬러 값의 변화를 나타내는 그래프(530)가 도시되어 있다. 변화 선(540)은 수평 선 내의 픽셀들 각각의 컬러 값의 변화를 나타낸다. 연속되는 픽셀들의 컬러 값들이 상대적으로 일정할 경우(예컨대, 모든 컬러 값들이 백색에 가까운 값이거나, 흑색에 가까운 값일 경우), 변화 선(540) 중 상기의 연속되는 픽셀들에 대응하는 부분은 높은 값들을 갖는다. 반면, 연속되는 픽셀들의 컬러 값들이 상대적으로 급격하게 변화할 경우(예컨대, 흑색에서 백색으로 변화하거나 백색에서 흑색으로 변화하는 경우), 변화 선(540) 중 상기의 연속되는 픽셀들에 대응하는 부분은 낮은 값들을 갖는다. 따라서 변화 선(540) 중 높은 값에서 낮은 값으로 내려가고, 다시 낮은 값에서 높은 값으로 올라가는 구간이 짧을수록, 수평 선이 흑색 선 및 백색 선으로 분명하게 구분되는 것으로 간주할 수 있다. 그러나, 실제의 횡단보도가 백색 및 흑색으로 명확하게 구분되지 않은 경우 또는 촬영된 영상 내에 노이즈가 존재하는 경우, 수평 선이 흑색 및 백색으로 분명하게 구분되지 않을 수 있다. 예컨대, 영상 내에서 횡단보도를 나타내는 영역 중 일부에 노이즈가 있을 경우, 상기의 노이즈는 변화 선(540) 내에서 이상 점(550)으로서 나타난다. 노이즈는 흑색 또는 백색이 아닌 중간 단계의 회색으로 나타날 수 있으며, 특정한 경계를 중심으로 컬러가 분명하게 변하지 않을 수 있다. 따라서, 변화 선(540) 중 이상 점(550) 주위의 일부는 값이 상대적으로 완만하게 변화할 수 있으며, 중간 단계의 값을 가질 수 있다. 이에, 인식부(111)가 수평 선 내의 픽셀들의 컬러 값들 각각을 직접 이진화하는 것에 비해, 픽셀들의 컬러 값들에게 특정한 필터를 적용한 후, 필터가 적용된 컬러 값들을 이진화하는 것이 횡단보도를 검출함에 있어서 더 나은 결과를 도출할 수 있다.
도 6은 최소-최대 필터의 적용을 설명하기 위한 예시 도면으로, 그래프(600)의 가로 축은 수평 선 내의 픽셀들을 나타낸다. 즉, 가로 축의 특정한 좌표는 수평 선 내의 특정한 픽셀을 가리킨다. 그래프(600)의 세로 축은 픽셀의 컬러 값을 나타낸다. 컬러 값은 그레이-스케일 값일 수 있다. 예컨대, 큰 값은 백색에 가까운 색을 나타내는 값이고, 작은 값은 흑색에 가까운 색을 나타내는 값일 수 있다.
인식부(111)는 영상의 수평 선 내의 픽셀들 각각에 최소-최대 필터를 적용함으로써, 픽셀들 각각을 이진화할 수 있다. 여기서, 픽셀의 이진화란 픽셀이 컬러 값이 제1 이진 값 또는 제2 이진 값 중 하나가 된다는 것을 의미할 수 있다. "0"(또는, 참) 또는 "1"(또는, 거짓) 중 하나가 제1 이진 값일 수 있으며, 다른 하나는 제2 이진 값일 수 있다. 수평 선의 이진화란, 수평 선 내의 픽셀들이 각각 이진화된다는 것을 의미할 수 있다. 인식부(111)는 수평 선 내의 픽셀들 각각을 이진화하고, 영상(또는, 설정 영역) 내의 수평 선들을 각각 이진화함으로써 영상(또는 설정 영역)을 이진화할 수 있다.
인식부(111)는 수평 선 중 특정한 픽셀(610)을 기준으로 일정한 범위 내에 있는 픽셀들의 컬러 값들 중 가장 작은 값을 상기의 특정한 픽셀(610)에 대한 최대-최소 필터의 최소 값으로 설정할 수 있다. 또한, 인식부(111)는 수평 선 중 특정한 픽셀(610)을 기준으로 일정한 범위 내에 있는 픽셀들의 컬러 값들 중 가장 큰 값을 상기의 특정한 픽셀(610)에 대한 최대-최소 필터의 최대 값으로 설정할 수 있다. 즉, 특정한 픽셀(610)에 대한 최소-최대 필터의 최소 값은 특정한 픽셀(610)을 기준으로 일정한 범위 내에 있는 픽셀들의 컬러 값들 중 가장 작은 값이고, 특정한 픽셀(610)에 대한 최소 최대 필터의 최대 값은 픽셀들의 컬러 값들 중 가장 큰 값일 수 있다.
도 6에서, 특정한 픽셀(610)을 기준으로 일정한 범위 내에 있는 픽셀들 중 가장 큰 컬러 값을 갖는 픽셀(620) 및 가장 작은 컬러 값을 갖는 픽셀(630)이 도시되어 있고, 픽셀(620)의 컬러 값 및 픽셀(630)의 컬러 값의 평균(640)이 수평 선으로서 도시되어 있다. 도 6에서, 일정한 범위는 특정한 픽셀(610), 특정한 픽셀(610)을 중심으로 좌측의 3 개의 픽셀들 및 특정한 픽셀(610)을 중심으로 우측의 3 개의 픽셀들을 포함한다. 상기의 일정한 범위는 예시적인 것이다. 특정한 픽셀(610)은 일정한 범위의 중심일 수 있으며, 좌측 말단 또는 우측 말단일 수 있다. 일정한 범위의 길이는 고정된 값일 수 있으며, 동적으로 변경되는 값일 수도 있다. 예컨대, 일정한 범위의 길이는 수평 선의 전체 길이의 1/n일 수 있다. 여기서, n은 1 이상의 실수일 수 있다. 또한, 일정한 범위는 m 개의 픽셀들을 나타낼 수 있다. 여기서, m은 1 이상의 자연수일 수 있다. 적절한 n의 값 또는 m의 값은 실험에 의해 결정될 수 있다. 예컨대, 인식부(111)는 실제 횡단보도의 반복되는 백색 영역 및 흑색 영역이 영상 내에서 얼마만큼의 크기로 나타나는가에 따라 n의 값 또는 m의 값을 결정할 수 있다. 최소-최대 필터는 특정한 픽셀(610)의 컬러 값을 특정한 픽셀(610)에 대한 최대 값 및 최소 값의 평균 값과 비교할 수 있다. 최소-최대 필터는 상기의 비교의 결과에 따라 특정한 픽셀(610)의 컬러 값의 이진 값을 제1 이진 값 및 제2 이진 값 중 하나로 결정할 수 있다. 예컨대, 인식부(111)는 특정한 픽셀(610)의 컬러 값이 평균 값 이상인 경우 특정한 픽셀(610)의 컬러 값의 이진 값을 제2 이진 값으로 결정할 수 있고, 특정한 픽셀(610)의 컬러 값이 평균 값보다 작은 경우 특정한 픽셀(610)의 컬러 값의 이진 값을 제1 이진 값으로 결정할 수 있다. 또는, 인식부(111)는 특정한 픽셀(610)의 컬러 값이 나타내는 제1 밝기와 평균 값이 나타내는 제2 밝기를 비교할 수 있다. 인식부(111)는 제1 밝기가 제2 밝기 이상인 경우 특정한 픽셀(610)의 컬러 값의 이진 값을 백색을 나타내는 이진 값으로 설정할 수 있고, 제1 밝기가 제2 밝기 보다 작은 경우 특정한 픽셀(610)의 컬러 값의 이진 값을 흑색을 나타내는 이진 값으로 설정할 수 있다.
도 7은 최소-최대 필터를 적용함으로써 생성된 패턴을 설명하기 위한 예시 도면이다. 도 7의 그래프(700)에서, 중심 선(710), 수평 선 내의 픽셀들 각각의 컬러 값을 나타내는 제1 선(720), 수평 선 내의 픽셀들 각각에 대한 최소-최대 필터의 평균 값을 나타내는 제2 선(730), 수평 선 내의 픽셀들 각각의 이진화된 컬러 값을 나타내는 제3 선(740)이 도시되어 있다. 제3 선(740) 내의 각 점들은 제1 이진 값 및 제2 이진 값 중 하나의 이진 값을 가질 수 있다. 제1 선(720)의 각 점들은 제3 선(740) 내의 동일한 좌표를 갖는 점에 대응할 수 있다. 제1 선(720)의 각 점은 수평 선 내의 픽셀들 각각의 컬러 값을 나타낼 수 있다. 제3 선(740) 내의 각 점은 수평 선 내의 픽셀들 각각의 이진화된 컬러 값을 나타낼 수 있다. 제2 선(730)의 각 점은 수평 선 내의 픽셀들 각각에 대한 최소-최대 필터의 컬러 값을 나타낼 수 있다. 제1 선(720), 제2 선(730) 및 제3 선(740) 각각 내의 점은 상기 점의 수평 좌표에 대응하는 픽셀을 나타낼 수 있다. 점의 그래프(700) 내에서의 높이는 대응하는 픽셀의 컬러 값을 나타낼 수 있다. 최소-최대 필터가 적용됨에 따라, 제1 선(720)의 각 점 중 제2 선(730)의 대응하는 점보다 더 높게 위치한 점은 이진화에 의해 제3 선(740) 내에서 제2 이진 값을 갖는 점이 된다. 또한, 제1 선(720)의 각 점 중 제2 선(730)의 대응하는 점보다 더 낮게 위치한 점은 이진화에 의해 제3 선(740) 내에서 제1 이진 값을 갖는 점이 된다. 제1 선(720)의 각 점 중 도 5을 참조하여 전술된 이상 점(550)에 대응하는 이상 점(750)이 도시되어 있다. 최소-최대 필터가 적용됨으로써 이상 점(750)은 상대적으로 높은 컬러 값을 가짐에도 불구하고, 최소-최대 필터의 평균 값보다는 낮은 값을 갖게 된다. 따라서, 제3 선(740) 내에서 이상 점(750)에 대응하는 점은 제1 이진 값을 갖는다. 결과적으로, 제3 선(740)은 일정 폭을 갖는 제1 이진 값들과 일정 폭을 갖는 제2 이진 값들이 주기적으로 반복되는 파형을 가질 수 있다. 제1 이진 값들의 폭을 폭 1로 명명하고, 제2 이진 값들의 폭을 폭 2로 명명한다. 또한, 인식부(111)는 주기적으로 반복되는 파형의 전체 크기를 인식할 수 있다.
따라서, 인식부(111)는 이진화된 수평선 내에서 횡단보도를 나타내는 패턴을 검출할 수 있다. 여기서, 이진화 된 수평선이란 수평선 내의 픽셀들 각각이 이진화된 것을 의미할 수 있다. 즉, 이진화 된 수평선은 전술된 제3 선(740)일 수 있다. 상기의 패턴은 특정한 제1 설정 값 이상의 폭을 가질 수 있으며, 특정한 제2 설정 값 이상의 횟수로 반복되는 사각 파형의 형태를 가질 수 있다. 여기서, 폭은 폭 1 및 폭 2 중 하나 이상을 의미할 수 있다. 반복은 연속된 제1 이진 값들 및 연속된 제2 이진 값들로 이루어진 주기의 반복을 의미할 수 있다. 제3 선(740)에서 주기는 6 번 반복된 것으로 도시되었다. 예컨대, 인식부(111)는 이진화된 수평선 내에서 10 개 이상의 제1 이진 값을 갖는 픽셀들 및 10 개 이상의 제2 이진 값을 픽셀들로 구성된 주기가 4 회 이상 반복된 경우, 상기의 이진화된 수평 선이 횡단보도를 나타낸다는 것을 인식할 수 있고, 횡단보도를 검출할 수 있다. 전술된 수평 선은 검출 영역 내의 복수 개의 수평 선들일 수 있다. 인식부(111)는 복수 개의 수평 선들을 각각 이진화함으로써 복수 개의 이진화된 수평 선들을 생성할 수 있고, 복수 개의 이진화된 수평 선들을 사용함으로써 영상 내에서 횡단보도를 검출할 수 있다. 복수 개의 이진화된 수평 선들 내에서, 횡단보도는 사각형의 흑색 블록 및 백색 블록이 반복되는 형태로서 나타날 수 있다. 따라서, 횡단보도를 검출하기 위해 사용되는 패턴은 제1 이진 값 및 제2 이진 값으로 구성된 2차원 평면 패턴일 수 있다. 패턴은 제3 설정 값 이상의 높이 및 제2 설정 값 이상의 폭을 가질 수 있으며, 제5 설정 값 이상의 횟수로 반복되는 흑색 및 백색의 사각 파형의 형태를 가질 수 있다.
다음으로, 횡단보도 상의 보행자를 인식하는 기술에 대해 설명하기로 한다.
도 8은 본 발명의 일 실시예에 있어서, 보행자 인식 방법을 도시한 순서도이다. 일 실시예에 따른 보행자 인식 방법은 도 1을 통해 설명한 인식부(111)에 의해 각각의 단계가 수행될 수 있다.
단계(810)에서 인식부(111)는 카메라 영상을 보행자 인식을 위한 입력 영상으로 입력 받을 수 있다. 그리고, 인식부(111)는 입력 영상에 대하여 보행자 인식을 위한 변수를 초기화 할 수 있다.
단계(820)에서 인식부(111)는 입력 영상에서 보행자 인식을 위한 관심 영역으로서 보행자 인식 영역을 설정할 수 있다. 여기서, 보행자 인식 영역은 보행자를 인식할 수 있는 거리를 의미하는 보행자 인식 가능 거리에 기초하여 설정될 수 있다. 일 예로, 인식부(111)는 3 차원의 실제 공간에서 보행자를 인식할 수 있는 최대의 거리(예를 들어, 30 m)를 H-매트릭스(Matrix)를 이용하여 카메라로부터 입력된 영상으로 투영하여 보행자 인식 영역을 생성할 수 있다. 여기서, H-매트릭스는 내부 파라미터(intrinsic parameter)와 외부 파라미터(extrinsic parameter)로 구성되는 3×4 매트릭스일 수 있으며, 여기서 내부 파라미터는 영상을 촬영하는 카메라의 내부적인 정보 및 오차 등의 정보에 관한 파라미터를 의미할 수 있고, 외부 파라미터는 입력된 영상을 촬영하는 카메라가 3 차원의 실제 좌표계에서 원점으로부터 거리 및 회전 등의 정보에 관한 파라미터를 의미할 수 있다. 예를 들어, 내부 파라미터는 렌즈 왜곡(distortion), 초점 거리(focal length), 이미지 중심(image center) 등이 포함될 수 있고, 외부 파라미터는 3 차원의 실제 좌표계에서 카메라의 이동 거리, 회전 각도 등이 포함될 수 있다.
단계(830)에서 인식부(111)는 보행자 인식 영역에서 보행자를 나타내는 특징 벡터를 추출할 수 있다. 영상 내의 관심 객체가 보행자인지 여부를 판별하는 방법은 다양하며, 대표적인 영상 특징들은 HOG(Histogram of Oriented Gradient), LBP(Local Binary Pattern), Haar-like, SIFT(Scale Invariant Feature Transform), MCT(Modified Census Transform) 등이 있다. 예를 들어, HOG 특징 추출 방법은 보행자 인식 영역을 블록(block)으로 구성하여 블록 내에 구획된 다수의 셀(cell)로 분할한 후 각 셀 내에서 각 픽셀들의 간의 기울기를 계산하여 기울기에 관한 히스토그램을 통해 HOG 특징 벡터가 만들어진다. 만들어진 HOG 특징 벡터들 중 가장 우세한 기울기를 분석하고 분석된 가장 우세한 기울기들이 사람의 형상을 갖는다면 해당 블록에는 보행자가 존재하는 것으로 판단할 수 있다.
단계(840)에서 인식부(111)는 특징 벡터를 적용한 머신 러닝 알고리즘을 이용하여 보행자 인식 영역에서 보행자를 인식할 수 있다. 일 예로, 인식부(111)는 특징 벡터가 적용되는 아다부스트(adaboost) 알고리즘 및 SVM(support vector machine) 알고리즘을 이용하여 보행자를 검출할 수 있다. 이와 같이, 보행자 인식을 위한 방법으로서 학습 데이터 추출 과정을 적용할 수 있다. 이때, 학습 데이터 추출 과정이란, 인식하고자 하는 물체에 대한 데이터(positive data)에서 물체를 대표할 수 있는 정보(주변과의 밝기 차이, 경계값의 분포 등), 즉 특징 벡터(feature vector)를 추출하여 학습시키는 과정을 말한다. 보행자를 검출하기 위해서는 미리 정해진 크기의 블록을 영상 전체에서 움직여 가며 미리 학습된 보행자 블록의 특징 벡터와 비교한다. 미리 학습된 보행자 블록의 특징 벡터와 영상 내 블록의 특징 벡터가 유사하다면 이는 보행자라고 검출될 수 있다. 기존에 많이 사용되는 인식 및 분류 알고리즘인 아다부스트 학습 분류 방법은 보행자, 차량, 얼굴 같은 블록 형태의 모습을 지니는 물체를 검출하는 분야에서 널리 사용되는 알고리즘이다.
그리고, 인식부(111)는 보행자 인식 영역에서 검출된 보행자에 대해 칼만 필터(kalman filter)를 적용하여 보행자를 추적할 수 있다. 칼만 필터는 대상 시스템의 확률적인 모델과 측정 값을 이용하여 시스템의 상태 변수를 찾아내는 최적 추정 기법이다. 관심 객체를 칼만 필터로 추적한 후 서로 가까이 위치한 윈도우에 클러스터링 기법을 적용하여 중복 영역을 제거하여 하나의 윈도우로 처리하는 방법을 적용할 수 있다.
다음으로, 전방 차량(앞차)을 인식하는 기술에 대해 설명하기로 한다.
도 9는 본 발명의 일 실시예에 있어서, 전방 차량 인식 방법을 도시한 순서도이다. 일 실시예에 따른 전방 차량 인식 방법은 도 1을 통해 설명한 인식부(111)에 의해 각각의 단계가 수행될 수 있다.
단계(910)에서 인식부(111)는 카메라 영상을 입력 받아 입력된 카메라 영상을 그레이(흑백) 영상으로 변환한다. 그레이 영상 변환 과정은 도 2와 도 3을 통해 설명한 단계(210)의 세부 과정과 동일하므로 구체적인 설명은 생략하기로 한다.
단계(920)에서 인식부(111)는 그레이 영상에서 전방 차량을 검출하기 위한 관심 영역(ROI)을 설정할 수 있다. 관심 영역 설정 과정 또한 도 2와 도 4를 통해 설명한 단계(220)의 세부 과정과 동일하므로 구체적인 설명은 생략하기로 한다.
단계(930)에서 인식부(111)는 차량에 대한 학습 데이터를 이용하여 관심 영역에서 전방 차량을 인식할 수 있다. 전방 차량 검출을 위한 학습 패턴을 생성하기 위해서는, 카메라에서 촬영된 영상에서 차량의 뒷모습이 양호하게 나타나는 영상을 포지티브(positive) 영상으로 수집하고, 차량과 관련 없는 영상을 네가티브(negative) 영상으로 수집할 수 있다. 예컨대, 아다부스트 알고리즘을 적용하여 포지티브 영상과 네가티브 영상으로 분류된 훈련 데이터를 학습시키고, 훈련된 학습 결과를 XML 파일로 변경한 후 이를 전방 차량을 검출하기 위한 자동차 검출 패턴으로 이용할 수 있다. 인식부(111)는 관심 영역에서 아다부스트 알고리즘을 적용하여 적어도 하나의 차량 후보 영역을 검출한 후, 차량 후보 영역을 검증하는 과정을 통해 전방 차량을 검출할 수 있다.
일 예로, 인식부(111)는 영상에서 차량의 경우 시간 경과에 따라 명암 누적 값이 쌓이면 밝아진다는 점을 기반으로 차량 후보 영역을 검증할 수 있다. 다시 말해, 인식부(111)는 차량 후보 영역 별로 시간에 따른 명암 누적 값을 산출하여 명암 누적 값이 일정 임계치를 초과하는 차량 후보 영역을 전방 차량인 것으로 판단하고 그렇지 않은 영역의 경우 차량 후보 영역에서 제외시킬 수 있다.
다른 예로, 인식부(111)는 한 장의 영상의 공간 영역에서 전방 차량과의 거리 비율을 이용하여 차량 후보 영역을 검증할 수 있다. 전방 차량의 경우 차간 거리가 멀어질수록 차량의 좌우 폭이 줄어들고 차간 거리가 가까워질수록 차량의 좌우 폭이 넓어지는 특성인 공간적 비율 특성을 이용하여 차량 위치에 따른 거리 비율의 실험치를 구할 수 있다. 즉, 인식부(111)는 차량 후보 영역 별로 크기 비율을 각각 산출한 후, 차량 후보 영역의 크기 비율이 차량 위치에 따른 거리 비율의 실험치와 대응되면 전방 차량인 것으로 판단하고 그렇지 않은 영역의 경우 차량 후보 영역에서 제외시킬 수 있다.
또 다른 예로, 인식부(111)는 관심 영역에서 차선을 검출한 후 검출된 차선을 기준으로 한 전방 차량과의 거리 비율을 통해 차량 후보 영역을 검증할 수 있다. 이를 위하여, 인식부(111)는 관심 영역에 해당되는 그레이 영상에 캐니 알고리즘을 적용하여 에지를 검출한 에지 영상을 얻을 수 있다. 그리고, 인식부(111)는 에지 영상에 대하여 허프 변환 알고리즘을 적용하여 직선을 나타내는 에지를 검출하고 검출된 직선의 위치를 차선으로 인식할 수 있다. 이때, 인식부(111)는 차량 후보 영역 중 차선의 위치에 있는 차량 후보 영역을 선별한 후, 선별된 차량 후보 영역의 크기 비율이 차량 위치에 따른 거리 비율의 실험치와 대응되면 전방 차량인 것으로 판단할 수 있다.
또 다른 예로, 인식부(111)는 차량 후보 영역으로 검출된 위치에서 이전 영상들과 현재 영상의 차량 검출 빈도를 적용하여 전방 차량을 검출할 수 있다. 다시 말해, 인식부(111)는 차량 후보 영역을 이전 영상과 비교하여 차량 후보 영역이 전방 차량으로 검출된 검출 빈도에 따라 전방 차량의 유무를 판단할 수 있다.
그리고, 인식부(111)는 검출된 전방 차량에 대해 칼만 필터를 적용하여 전방 차량의 추적을 통해 출발 여부를 인식할 수 있다. 이때, 인식부(111)는 전방 차량을 칼만 필터로 추적한 후 서로 가까이 위치한 윈도우에 클러스터링 기법을 적용하여 중복 영역을 제거하면서 하나의 윈도우로 처리하는 방법을 적용할 수 있다.
마지막으로, 신호등의 교통 신호를 인식하는 기술은 다음과 같다.
인식부(111)는 자차 전방에 위치한 신호등과 신호등의 교통 신호를 인식할 수 있다. 일 예로, 인식부(111)는 앞서 설명한 횡단보도, 차선, 보행자, 전방 차량 등을 인식하기 위한 영상 분석 기술을 이용하는 것으로, 카메라 영상을 이용하여 영상 내 신호등과 신호등의 점등 상태를 인식할 수 있다. 신호등의 점등 상태는 차량의 정차를 위한 적색 및 황색 신호, 차량의 주행 시작을 위한 녹색 신호 등으로 구분될 수 있다. 다른 예로, 예로, 인식부(111)는 빛의 파장을 인식하는 방법으로 신호등의 교통 신호를 인식할 수 있다. 예를 들어, 인식부(111)는 가시광선 영역 내의 고유 파장을 감지하는 센서를 통해 신호등의 적색 파장신호 및 청색 파장신호를 감지할 수 있다. 감지된 신호등의 파장 신호를 고유의 디지털 값으로 변환한 후 변환된 디지털 값과 사전에 정의된 파장대역 설정 값을 비교함으로써 신호등의 점등 상태를 판단할 수 있다. 비교한 결과 감지된 파장 신호가 65에서 70의 파장 대역에 해당하는 경우 현재 인식된 신호등은 적색 신호로 판단하고, 45에서 55 파장 대역에 해당하는 경우 녹색 신호로 판단할 수 있다.
상기에서는 (1) 횡단보도 인식 방법, (2) 보행자 인식 방법, (3) 전방 차량 인식 방법, (4) 신호등 인식 방법에 대하여 구체적인 실시예들을 설명하였으나, 이러한 것으로만 한정되지 않으며 영상에서 관심 객체를 인식하거나 추적하기 위해 널리 사용되고 있는 다양한 알고리즘들을 적용할 수 있다.
도 1에서는 안내 정보 제공 장치(100)의 내부에 인식부(111)를 포함하는 것으로 설명하고 있으나, 이러한 것으로만 한정되는 것은 아니며 별개의 구성으로 구축된 영상 분석 장치로부터 안내 정보를 제공하는데 필요한 인식 결과를 획득하여 활용하는 것 또한 가능하다.
본 실시예에서는 차량 주변의 상황에 따른 안내 정보를 제공하기 위하여 횡단보도 인식 결과, 보행자 인식 결과, 전방 차량 인식 결과, 신호등 인식 결과 중 전부 또는 일부가 이용될 수 있다. 이때, 일부의 인식 결과에는 횡단보도 인식 결과가 기본적으로 포함될 수 있다.
도 10은 본 발명의 일 실시예에 있어서, 횡단보도 인식 결과를 이용한 맵 매칭 방법을 도시한 순서도이다. 일 실시예에 따른 맵 매칭 방법은 도 1을 통해 설명한 제공부(112)에 의해 각각의 단계가 수행될 수 있다.
본 발명에서는 횡단보도 인식 결과를 이용하여 GPS 위치에 대한 안내 정보를 제공할 수 있다.
단계(1010)에서 제공부(112)는 횡단보도 인식 결과로부터 자차의 전방에 횡단보도가 존재하는지 여부를 확인할 수 있다.
단계(1020)에서 제공부(112)는 자차의 전방에 횡단보도가 존재하는 경우 해당 인식 결과를 내비게이션의 실제 맵 데이터 정보와 비교할 수 있다. 일 예로, 제공부(112)는 내비게이션에서 인식된 현재 위치의 맵 데이터에서 임계 범위(예컨대, 30m) 이내에 횡단보도가 존재하는지 여부를 판단할 수 있다.
단계(1030)에서 제공부(112)는 횡단보도 인식 결과와 맵 데이터 정보의 비교 결과로부터 맵 매칭 보정 여부를 판단할 수 있다. 다시 말해, 제공부(112)는 카메라 영상으로부터 횡단보도가 인식되었음에도 현재 자차 위치로 매칭된 맵 데이터의 임계 범위 이내에 횡단보도가 존재하지 않으면 현재 시점에 맵 매칭 보정이 필요하다고 판단할 수 있다.
단계(1040)에서 제공부(112)는 횡단보도 인식 결과를 이용하여 자차의 현재 위치에 대한 맵 매칭 위치를 보정할 수 있다. 횡단보도 인식 결과를 기준으로 자차의 위치에 대해 GPS 신호를 수신한 GPS 수신 위치가 오차 범위를 벗어나는 경우 GPS 수신 위치에 대한 맵 매칭을 다시 수행할 수 있다. 예컨대, 제공부(112)는 카메라 영상으로부터 횡단보도가 인식되었음에도 맵 데이터 상의 임계 범위 이내에 횡단보도가 존재하지 않으면 GPS의 방향 벡터에 가장 가까운 위치로 자차에 대한 GPS 위치 정보를 보정할 수 있다.
현재 내비게이션은 GPS를 이용하여 지도 상에 자차의 현재 위치를 안내하고 있다. 그러나, 자차가 높은 빌딩이 밀집된 곳이나 터널 등 음영 지역에 위치하거나, GPS 자체 성능에 따라 GPS 거리 오차가 발생하여 내비게이션에서 정확한 위치 안내를 못 하는 경우가 발생할 수 있다. 이러한 GPS 거리 오차는 약 30m가까이 발생하게 되는데, 본 발명에서는 횡단보도 인식 결과를 내비게이션의 맵 데이터 정보와 비교하여 GPS 위치에 대한 안내 정보를 보정할 수 있다.
도 11은 본 발명의 일 실시예에 있어서, 횡단보도와 관련된 안내 정보를 제공하는 방법의 일 예를 도시한 순서도이다. 일 실시예에 따른 안내 정보 제공 방법은 도 1을 통해 설명한 제공부(112)에 의해 각각의 단계가 수행될 수 있다.
본 발명에서는 횡단보도 인식 결과를 이용하여 자차의 안전 주행을 유도하기 위한 안내 정보를 제공할 수 있다.
단계(1110)에서 제공부(112)는 횡단보도 인식 결과로부터 자차의 전방에 횡단보도가 존재하는지 여부를 확인할 수 있다.
단계(1120)에서 제공부(112)는 자차의 전방에 횡단보도가 존재하는 경우 GPS 기반의 위치 정보를 이용하여 자차의 현재 위치를 기준으로 기 설정된 특정 구역 내에 있거나 특정 구역에 인접한 횡단보도인지 여부를 확인할 수 있다. 예컨대, 특정 구역은 어린이 보호 구역, 버스 전용 차로 구역 등을 포함할 수 있다.
단계(1130)에서 제공부(112)는 전방의 횡단보도가 기 설정된 특정 구역과 무관한 횡단보도인 경우, 횡단보도에 대한 일반적인 안내 정보로서 전방에 횡단보도가 인식되었음을 나타내는 정보와 횡단보도에서의 주의를 유도하는 정보를 제공할 수 있다.
단계(1140)에서 제공부(112)는 전방의 횡단보도가 특정 구역 내에 있거나 특정 구역에 인접한 횡단보도인 경우, 일반적인 안내 정보와는 구분되는 보다 강력한 안내 정보로서 전방에 횡단보도는 물론 특정 구역이 인식되었음을 나타내는 정보를 제공할 수 있다. 특히, 제공부(112)는 전방의 횡단보도에서 일시 정차 후 출발을 유도하는 정보(예컨대, '스쿨존입니다. 횡단보도 앞에서 3초간 정차하여 주변을 확인한 후 출발하세요.'의 알림)를 제공할 수 있다.
현재 특정 구역(예컨대, 스쿨존 등)의 횡단보도에서 사고를 줄이기 위해 시선 유도등, 방지턱, 지그재그 차선 등 다양한 방법을 적용하고 있다. 그러나 이러한 방법들은 시각적인 정보로 운전자가 직접 분석 및 인지해야 하는 문제점을 가지고 있다. 이에, 본 발명에서는 보다 효율적으로 운전자의 판단을 보조하기 위해 내비게이션의 위치 정보와 카메라 영상에서 분석한 횡단보도 인식 정보를 융합하여 특정 구역의 횡단보도인 경우 정차 후 출발 알림을 제공하여 안전 운전을 유도할 수 있다.
그리고, 제공부(112)는 전방에 횡단보도가 인식되었음을 나타내는 정보를 제공하는 방법으로 전방에 횡단보도가 있음을 알리는 음성 안내와 함께, 내비게이션 화면 상에 점멸이나 강조 등의 시각적인 형태로 횡단보도 정보를 표출할 수 있다. 따라서, 주간 및 야간에 횡단보도가 있는 곳에서 안전 운전을 위해 운전자에게 주의 환기되도록 내비게이션에 직접 횡단보도 표출 및 주의 안내를 제공할 수 있으며, 이를 통해 야간 주행 시에도 운전자가 횡단보도 식별이 용이하여 횡단보도에서 부주의로 인한 사고를 미연에 방지할 수 있다.
도 12는 본 발명의 일 실시예에 있어서, 횡단보도와 관련된 안내 정보를 제공하는 방법의 다른 예를 도시한 순서도이다. 일 실시예에 따른 안내 정보 제공 방법은 도 1을 통해 설명한 제공부(112)에 의해 각각의 단계가 수행될 수 있다.
본 발명에서는 횡단보도 인식 결과와 보행자 인식 결과를 이용하여 자차의 안전 주행을 유도하기 위한 안내 정보를 제공할 수 있다.
단계(1210)에서 제공부(112)는 횡단보도 인식 결과로부터 자차의 전방에 횡단보도가 존재하는지 여부를 확인할 수 있다.
단계(1220)에서 제공부(112)는 자차의 전방에 횡단보도가 존재하는 경우 보행자 인식 결과로부터 횡단보도에 보행자가 존재하는지 여부를 확인할 수 있다.
단계(1230)에서 제공부(112)는 전방의 횡단보도에 보행자가 존재하지 않는 경우, 횡단보도에 대한 일반적인 안내 정보로서 전방에 횡단보도가 인식되었음을 나타내는 정보와 횡단보도에서의 주의를 유도하는 정보를 제공할 수 있다.
단계(1240)에서 제공부(112)는 전방의 횡단보도에 보행자가 존재하는 경우, 보다 강력한 안내 정보로서 전방에 횡단보도가 인식되었음을 나타내는 정보와 횡단보도에 보행자가 있음을 나타내는 정보를 제공할 수 있다. 특히, 제공부(112)는 보행자에 대한 강력한 주의를 유도하는 정보로서 일반적인 안내 정보와 구분되는 형태의 안내 정보를 출력할 수 있다. 이때, 제공부(112)는 횡단보도에서 보행자가 인식되면 보행자에 대한 안내 정보로서 강력한 경고음과 함께 내비게이션 화면 상에 점멸이나 강조 등의 시각적인 형태로 보행자가 있음을 표출할 수 있다.
또한, 본 발명의 다른 실시예로서, 단계(1240)에서 제공부(112)는 횡단보도에서 보행자가 검출될 경우, 차량의 가속/감속 및 제동 등을 제어할 수 있는 ECU(Electronic Control Unit)(미도시)로 신호를 전송함으로써 차량을 제동시키거나 감속시킬 수 있다. 상기한 ECU는 본 발명의 프로세서(110)가 될 수도 있다.
더 나아가, 제공부(112)는 횡단보도에서 인식된 보행자뿐만 아니라 자차 전방에서 인식된 모든 보행자에 대하여 안내 정보를 제공할 수 있고, 이때 기타 도로(예컨대, 보행 도로)에서의 보행자와 횡단보도에서의 보행자에 대한 안내 정보를 구분하여 제공할 수 있다. 일 예로, 제공부(112)는 보행 도로에서의 보행자보다 횡단보도에서의 보행자에 대해 보다 강력한 안내 정보를 제공할 수 있다.
도 13은 본 발명의 일 실시예에 있어서, 횡단보도와 관련된 안내 정보를 제공하는 방법의 또 다른 예를 도시한 순서도이다. 일 실시예에 따른 안내 정보 제공 방법은 도 1을 통해 설명한 제공부(112)에 의해 각각의 단계가 수행될 수 있다.
본 발명에서는 횡단보도 인식 결과와 전방 차량 인식 결과를 이용하여 자차의 안전 주행을 유도하기 위한 안내 정보를 제공할 수 있다.
단계(1310)에서 제공부(112)는 자차의 현재 위치나 센서 감지 값 등을 이용하여 자차의 정차 여부를 확인할 수 있다.
단계(1320)에서 제공부(112)는 자차가 현재 정차 상태에 있는 경우 전방 차량 인식 결과로부터 자차의 전방에 전방 차량 유무를 확인할 수 있다.
단계(1330)에서 제공부(112)는 전방 차량 인식 결과에 포함된 전방 차량의 추적 결과에 따라 전방 차량의 출발 여부를 확인할 수 있다.
단계(1340)에서 제공부(112)는 전방 차량의 출발이 인식되면 횡단보도 인식 결과로부터 자차의 전방에 횡단보도가 존재하는지 여부를 확인할 수 있다.
단계(1350)에서 제공부(112)는 자차의 전방에 횡단보도가 없는 경우 전방 차량 출발 알림을 통해 전방 차량 출발에 대한 일반적인 안내 정보로서 전방 차량의 출발을 나타내는 정보를 제공할 수 있다.
단계(1360)에서 제공부(112)는 자차의 전방에 횡단보도가 있는 경우 전방 차량 출발 알림을 해제하거나, 혹은 보다 강력한 안내 정보로서 전방에 횡단보도가 인식되었음을 나타내는 정보를 제공할 수 있다. 일 예로, 제공부(112)는 자차의 전방에 횡단보도가 있는 경우 알림 해제를 통해 전방 차량이 출발하더라도 전방 차량의 출발에 대한 알림을 제공하지 않는다. 다른 예로, 제공부(112)는 횡단보도에 대한 강력한 주의를 유도하는 정보로서 일반적인 안내 정보와 구분되는 형태의 안내 정보를 출력할 수 있다. 이때, 제공부(112)는 전방 차량이 출발하더라도 전방에 횡단보도가 인식되면 횡단보도에 대한 안내 정보로서 강력한 경고음과 함께 내비게이션 화면 상에 점멸이나 강조 등의 시각적인 형태로 횡단보도가 있음을 표출할 수 있다.
따라서, 본 발명은 자차 정차 환경에서 전방 차량의 출발에 대해 안내 정보를 제공하는 경우 횡단보도가 있을 때와 횡단보도가 없을 때 양간의 안내 정보를 다르게 표현하여 제공할 수 있다. 이는 자차와 전방 차량 사이의 횡단보도에서 보행자의 안전을 보정하기 위함이다.
도 14는 본 발명의 일 실시예에 있어서, 횡단보도와 관련된 안내 정보를 제공하는 방법의 또 다른 예를 도시한 순서도이다. 일 실시예에 따른 안내 정보 제공 방법은 도 1을 통해 설명한 제공부(112)에 의해 각각의 단계가 수행될 수 있다.
본 발명에서는 횡단보도 인식 결과와 신호등 인식 결과를 이용하여 자차의 안전 주행을 유도하기 위한 안내 정보를 제공할 수 있다.
단계(1410)에서 제공부(112)는 자차의 현재 위치나 센서 감지 값 등을 이용하여 자차의 정차 여부를 확인할 수 있다.
단계(1420)에서 제공부(112)는 자차가 현재 정차 상태에 있는 경우 신호등 인식 결과로부터 신호등의 신호 변경 여부를 확인할 수 있다.
단계(1430)에서 제공부(112)는 신호등의 신호 변경이 인식되면 횡단보도 인식 결과로부터 자차의 전방에 횡단보도가 존재하는지 여부를 확인할 수 있다.
단계(1440)에서 제공부(112)는 자차의 전방에 횡단보도가 없는 경우 신호등 변경 알림을 통해 신호등 변경에 대한 일반적인 안내 정보로서 신호등의 교통 신호가 변경되었음을 나타내는 정보를 제공할 수 있다.
단계(1450)에서 제공부(112)는 자차의 전방에 횡단보도가 있는 경우 보다 강력한 안내 정보로서 전방에 횡단보도가 인식되었음을 나타내는 정보를 제공할 수 있다. 특히, 제공부(112)는 횡단보도에 대한 강력한 주의를 유도하는 정보로서 일반적인 안내 정보와 구분되는 형태의 안내 정보를 출력할 수 있다. 이때, 제공부(112)는 신호등의 교통 신호 변경이 인식되더라도 전방에 횡단보도가 인식되면 횡단보도에 대한 안내 정보로서 강력한 경고음과 함께 내비게이션 화면 상에 점멸이나 강조 등의 시각적인 형태로 횡단보도가 있음을 표출할 수 있다.
더 나아가, 제공부(112)는 횡단보도 인식 결과와 신호등 인식 결과를 바탕으로 자차가 횡단보도 앞에서 정차 후 신호등의 신호 변경 전에 출발하는 경우 부주의에 대한 경고성 안내 정보를 제공할 수 있다.
따라서, 본 발명은 자차 정차 환경에서 신호등의 신호 변경에 대해 안내 정보를 제공하는 경우 횡단보도가 있을 때와 횡단보도가 없을 때 양간의 안내 정보를 다르게 표현하여 제공할 수 있다. 이를 통해, 신호등의 교통 신호에 먼저 반응하는 운전자에게 횡단보도 주변에서의 안전 운전에 보다 주의하도록 강한 알림을 제공할 수 있다.
횡단보도를 비롯한 각종 인식 결과를 바탕으로 한 안내 정보들은 음성 멘트나 부저음 등의 청각적인 출력 형태는 물론, 내비게이션 화면 상의 시각적인 출력 형태 등으로 제공될 수 있으며, 하나 이상의 출력 요소를 조합하는 형태로 제공되거나 출력 요소들을 가변하는 방식으로 주변 상황에 따라 정보를 구분하여 제공할 수 있다.
본 발명의 실시예에 따른 방법들은 다양한 컴퓨터 시스템을 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다.
이와 같이, 본 발명의 실시예에 따르면, 전방의 횡단보도를 인식하여 횡단보도 인식 결과를 시청각적으로 표출함으로써 횡단보도의 식별과 주의 환기를 통해 운전자의 안전 운전을 유도할 수 있다. 그리고, 본 발명의 실시예에 따르면, 횡단보도 인식 결과를 맵 데이터와 비교하여 자차에 대한 맵 매칭 위치를 보정함으로써 내비게이션의 맵 매칭 오류를 최소화 하여 위치 안내에 대한 사용자의 신뢰도를 높일 수 있다. 더욱이, 본 발명의 실시예에 따르면, 횡단보도 상의 보행자나 전방 차량, 신호등의 신호 상태 등에 대한 인식 결과에 따라 안내 정보를 구분하여 제공함으로써 주변 상황을 정확하고 구체적으로 알려 운전자를 환기시키고 운전자의 안전 주행과 함께 횡단보도에서의 보행자 안전을 보장할 수 있다.
본 발명의 실시예에 따른 방법들은 다양한 컴퓨터 시스템을 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
100: 안내 정보 제공 장치
111: 인식부
112: 제공부

Claims (20)

  1. 컴퓨터로 구현되는 안내 정보 제공 방법에 있어서,
    차량의 주위에 위치한 횡단보도에 대해 인식된 횡단보도 인식 결과를 확인하는 단계;
    상기 횡단보도 인식 결과와 상기 차량에 대한 GPS 수신 위치의 맵 데이터를 비교하는 단계; 및
    상기 비교 결과에 따라 상기 GPS 수신 위치에 대한 맵 매칭 위치를 보정하는 단계;
    를 포함하고,
    상기 비교하는 단계는,
    상기 맵 데이터에서 상기 GPS 수신 위치를 기준으로 임계 범위 이내에 실제 횡단보도가 존재하는지 여부를 확인하고,
    상기 보정하는 단계는,
    상기 실제 횡단보도의 존재 여부가 상기 횡단보도 인식 결과와 일치하지 않으면 상기 맵 매칭 위치를 보정하는 것을 특징으로 하는 안내 정보 제공 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제1항에 있어서,
    상기 차량의 주위를 촬영한 영상을 분석함으로써 상기 영상 내에서 횡단보도를 인식하는 단계
    를 더 포함하고,
    상기 인식하는 단계는,
    상기 영상의 수평 선에 최소-최대 필터를 적용함으로써 상기 영상이 이진화 된 이진화 영상을 생성한 후, 상기 이진화 영상 내에서 상기 횡단보도를 나타내는 패턴을 검출함으로써 상기 영상 내에서 상기 횡단보도를 인식하는 것
    을 특징으로 하는 안내 정보 제공 방법.
  10. 삭제
  11. 삭제
  12. 적어도 하나의 프로그램이 로딩된 메모리; 및
    적어도 하나의 프로세서;
    를 포함하고,
    상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라,
    차량의 주위에 위치한 횡단보도에 대해 인식된 횡단보도 인식 결과를 확인하는 과정;
    상기 횡단보도 인식 결과와 상기 차량에 대한 GPS 수신 위치의 맵 데이터를 비교하는 과정; 및
    상기 비교 결과에 따라 상기 GPS 수신 위치에 대한 맵 매칭 위치를 보정하는 과정;
    을 처리하고,
    상기 비교하는 과정은,
    상기 맵 데이터에서 상기 GPS 수신 위치를 기준으로 임계 범위 이내에 실제 횡단보도가 존재하는지 여부를 확인하고,
    상기 보정하는 과정은,
    상기 실제 횡단보도의 존재 여부가 상기 횡단보도 인식 결과와 일치하지 않으면 상기 맵 매칭 위치를 보정하는 것을 특징으로 하는 안내 정보 제공 장치.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 제12항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라,
    상기 차량의 주위를 촬영한 영상을 분석함으로써 상기 영상 내에서 횡단보도를 인식하는 과정
    을 처리하고,
    상기 인식하는 과정은,
    상기 영상의 수평 선에 최소-최대 필터를 적용함으로써 상기 영상이 이진화 된 이진화 영상을 생성한 후, 상기 이진화 영상 내에서 상기 횡단보도를 나타내는 패턴을 검출함으로써 상기 영상 내에서 상기 횡단보도를 인식하는 것
    을 특징으로 하는 안내 정보 제공 장치.
KR1020150072119A 2015-05-22 2015-05-22 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법 KR102371587B1 (ko)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR1020150072119A KR102371587B1 (ko) 2015-05-22 2015-05-22 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법
US15/157,364 US9851208B2 (en) 2015-05-22 2016-05-17 Apparatus and method for providing guidance information using crosswalk recognition result
CN201910276113.7A CN110160536B (zh) 2015-05-22 2016-05-18 利用人行横道识别结果的引导信息提供装置及方法
CN201811219834.6A CN109506664B (zh) 2015-05-22 2016-05-18 利用人行横道识别结果的引导信息提供装置及方法
CN201620454996.8U CN205992300U (zh) 2015-05-22 2016-05-18 用于提供利用人行横道识别结果的引导信息的电子装置
CN201610331093.5A CN106169244B (zh) 2015-05-22 2016-05-18 利用人行横道识别结果的引导信息提供装置及方法
US15/816,866 US10551198B2 (en) 2015-05-22 2017-11-17 Apparatus and method for providing guidance information using crosswalk recognition result
KR1020210187786A KR102441085B1 (ko) 2015-05-22 2021-12-24 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150072119A KR102371587B1 (ko) 2015-05-22 2015-05-22 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210187786A Division KR102441085B1 (ko) 2015-05-22 2021-12-24 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20160137247A KR20160137247A (ko) 2016-11-30
KR102371587B1 true KR102371587B1 (ko) 2022-03-07

Family

ID=57324738

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020150072119A KR102371587B1 (ko) 2015-05-22 2015-05-22 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법
KR1020210187786A KR102441085B1 (ko) 2015-05-22 2021-12-24 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210187786A KR102441085B1 (ko) 2015-05-22 2021-12-24 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법

Country Status (3)

Country Link
US (2) US9851208B2 (ko)
KR (2) KR102371587B1 (ko)
CN (4) CN205992300U (ko)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6780609B1 (en) 1998-10-23 2004-08-24 Genome Therapeutics Corporation High bone mass gene of 1.1q13.3
US9846969B2 (en) 2014-12-01 2017-12-19 Thinkware Corporation Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
CN106600955A (zh) * 2015-10-14 2017-04-26 富士通株式会社 检测交通状态的方法、装置和电子设备
US10325163B2 (en) * 2016-11-22 2019-06-18 Ford Global Technologies, Llc Vehicle vision
KR102619326B1 (ko) * 2016-12-01 2024-01-02 주식회사 에이치엘클레무브 이미지 피라미드를 이용한 차량 인식 장치 및 방법
US10198657B2 (en) * 2016-12-12 2019-02-05 National Chung Shan Institute Of Science And Technology All-weather thermal-image pedestrian detection method
JP6497818B2 (ja) * 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
DE102017211605A1 (de) * 2017-07-07 2019-01-10 Robert Bosch Gmbh Verfahren zur Lokalisierung eines höher automatisierten Fahrzeugs (HAF), insbesondere eines hochautomatisierten Fahrzeugs, und ein Fahrerassistenzsystem
CN107733755B (zh) * 2017-09-30 2020-05-26 联想(北京)有限公司 处理方法及其系统和计算系统
CN108776767B (zh) * 2018-04-18 2019-12-17 福州大学 一种有效判别车辆压线及预先提示系统
CN109334566B (zh) * 2018-08-31 2022-01-25 阿波罗智联(北京)科技有限公司 用于提供车外反馈的方法、装置、设备和存储介质
CN109214334B (zh) * 2018-09-03 2020-12-29 百度在线网络技术(北京)有限公司 车道线处理方法和装置
US10915762B1 (en) * 2018-12-07 2021-02-09 Waymo Llc Sidewalk detection for pedestrian behavior modeling
US11435751B2 (en) 2018-12-28 2022-09-06 Beijing Voyager Technology Co., Ltd. Vehicle-based road obstacle identification system
WO2020139392A1 (en) * 2018-12-28 2020-07-02 Didi Research America, Llc Vehicle-based road obstacle identification system
US10990105B2 (en) 2018-12-28 2021-04-27 Beijing Voyager Technology Co., Ltd. Vehicle-based virtual stop and yield line detection
US10991244B2 (en) 2018-12-28 2021-04-27 Beijing Voyager Technology Co., Ltd. On-board vehicle stop cause determination system
CN113748448B (zh) * 2018-12-28 2023-03-07 北京航迹科技有限公司 基于车辆的虚拟停止线和让行线检测
CN111698459B (zh) * 2019-04-26 2021-07-27 广东邦盛北斗科技股份公司 对象参数实时解析方法
CN112446231A (zh) * 2019-08-27 2021-03-05 丰图科技(深圳)有限公司 一种人行横道检测方法、装置、计算机设备及存储介质
KR102186349B1 (ko) 2020-06-10 2020-12-03 주식회사 월드씨앤에스 Cctv 카메라와 안내방송을 이용한 신호등 없는 횡단보도에서의 보행자 안내 시스템 및 방법
KR102497246B1 (ko) * 2020-12-31 2023-02-07 재단법인 경북아이티융합 산업기술원 특징점을 이용한 차선 검출 장치
CN112800989A (zh) * 2021-02-02 2021-05-14 上海博泰悦臻电子设备制造有限公司 一种检测斑马线的方法及装置
WO2024050320A1 (en) * 2022-08-28 2024-03-07 Fleetmind Seon Solutions Inc. Computer-based tools and techniques for vehicle detection

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120065811A1 (en) * 2009-03-31 2012-03-15 Aisin Aw Co., Ltd. Map data update system, map data update method, computer-readable storage medium storing map data update program

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3471003B2 (ja) * 2000-02-02 2003-11-25 松下電器産業株式会社 交差点表示方法およびその地図表示装置並びに記録媒体
JP3872638B2 (ja) * 2000-08-29 2007-01-24 株式会社日立製作所 クルーズコントロールシステムおよびそれが搭載された車両
EP1751499B1 (en) * 2004-06-03 2012-04-04 Making Virtual Solid, L.L.C. En-route navigation display method and apparatus using head-up display
JP2006177862A (ja) * 2004-12-24 2006-07-06 Aisin Aw Co Ltd ナビゲーション装置
CN101030256B (zh) * 2006-02-28 2010-05-12 东软集团股份有限公司 车辆图像分割方法和装置
JP4381465B2 (ja) * 2006-04-20 2009-12-09 パイオニア株式会社 経路誘導装置、経路誘導方法、経路誘導プログラムおよびコンピュータに読み取り可能な記録媒体
JP4680131B2 (ja) * 2006-05-29 2011-05-11 トヨタ自動車株式会社 自車位置測定装置
US8085140B2 (en) * 2006-09-04 2011-12-27 Panasonic Corporation Travel information providing device
JP4783431B2 (ja) * 2006-09-28 2011-09-28 パイオニア株式会社 交通情報検出装置、交通情報検出方法、交通情報検出プログラムおよび記録媒体
JP4437556B2 (ja) * 2007-03-30 2010-03-24 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
JP4453046B2 (ja) * 2007-03-30 2010-04-21 アイシン・エィ・ダブリュ株式会社 車両挙動学習装置及び車両挙動学習プログラム
JP4831434B2 (ja) * 2007-12-27 2011-12-07 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集プログラム、並びに自車位置認識装置及びナビゲーション装置
US8031062B2 (en) * 2008-01-04 2011-10-04 Smith Alexander E Method and apparatus to improve vehicle situational awareness at intersections
JP4614005B2 (ja) * 2009-02-27 2011-01-19 トヨタ自動車株式会社 移動軌跡生成装置
US20110130956A1 (en) * 2009-11-30 2011-06-02 Nokia Corporation Method and apparatus for presenting contextually appropriate navigation instructions
WO2012068331A1 (en) * 2010-11-19 2012-05-24 Magna Electronics Inc. Lane keeping system and lane centering system
JP5569365B2 (ja) * 2010-11-30 2014-08-13 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、及び案内プログラム
CN102670383B (zh) * 2011-03-05 2013-11-06 山东申普交通科技有限公司 基于图像识别技术的全自动可载人导盲车及控制方法
US9145140B2 (en) * 2012-03-26 2015-09-29 Google Inc. Robust method for detecting traffic signals and their associated states
US9269178B2 (en) * 2012-06-05 2016-02-23 Apple Inc. Virtual camera for 3D maps
CN102693637B (zh) * 2012-06-12 2014-09-03 北京联合大学 十字路口处右转车辆避让行人提示信号灯
US20150141043A1 (en) * 2013-08-23 2015-05-21 Cellepathy Ltd. Corrective navigation instructions
US20150168174A1 (en) * 2012-06-21 2015-06-18 Cellepathy Ltd. Navigation instructions
JP5926645B2 (ja) * 2012-08-03 2016-05-25 クラリオン株式会社 カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法
KR101338124B1 (ko) * 2012-11-09 2013-12-06 재단법인대구경북과학기술원 스마트 교통 제어 시스템
KR101344034B1 (ko) * 2013-08-21 2013-12-24 주식회사 넥스파시스템 보행자 인식기반 사고방지 시스템 및 그 제어 방법
CN103465857A (zh) * 2013-09-17 2013-12-25 上海羽视澄蓝信息科技有限公司 一种基于手机的汽车主动安全的预警方法
JP6325806B2 (ja) * 2013-12-06 2018-05-16 日立オートモティブシステムズ株式会社 車両位置推定システム
CN103700280A (zh) * 2013-12-19 2014-04-02 广西大学 一种智能引导停车场管理系统
KR101895485B1 (ko) * 2015-08-26 2018-09-05 엘지전자 주식회사 운전 보조 장치 및 그 제어 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120065811A1 (en) * 2009-03-31 2012-03-15 Aisin Aw Co., Ltd. Map data update system, map data update method, computer-readable storage medium storing map data update program

Also Published As

Publication number Publication date
US20180073877A1 (en) 2018-03-15
US10551198B2 (en) 2020-02-04
CN106169244A (zh) 2016-11-30
KR20220000977A (ko) 2022-01-04
US20160341558A1 (en) 2016-11-24
CN109506664A (zh) 2019-03-22
CN110160536B (zh) 2024-02-20
CN205992300U (zh) 2017-03-01
KR20160137247A (ko) 2016-11-30
CN110160536A (zh) 2019-08-23
CN106169244B (zh) 2019-04-30
CN109506664B (zh) 2022-08-30
KR102441085B1 (ko) 2022-09-06
US9851208B2 (en) 2017-12-26

Similar Documents

Publication Publication Date Title
KR102441085B1 (ko) 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법
CN106485233B (zh) 可行驶区域检测方法、装置和电子设备
KR101517181B1 (ko) 차선 이탈 경보 시스템 및 방법
Rezaei et al. Robust vehicle detection and distance estimation under challenging lighting conditions
US8611598B2 (en) Vehicle obstacle detection system
US8184159B2 (en) Forward looking sensor system
US8890951B2 (en) Clear path detection with patch smoothing approach
CN106647776B (zh) 车辆变道趋势的判断方法、判断装置和计算机存储介质
CN102997900A (zh) 外界识别方法、装置以及车辆系统
US9286512B2 (en) Method for detecting pedestrians based on far infrared ray camera at night
KR20130094997A (ko) 장애물 검출 및 충돌 경보 장치 및 방법
Ding et al. Fast lane detection based on bird’s eye view and improved random sample consensus algorithm
WO2008020544A1 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
Suzuki et al. Sensor fusion-based pedestrian collision warning system with crosswalk detection
EP2741234B1 (en) Object localization using vertical symmetry
JP2015153162A (ja) 境界線認識装置
KR20160065703A (ko) 야간 환경에서의 운전자 보조 시스템을 위한 위험 보행자 검출 방법 및 시스템
KR101687094B1 (ko) 교통 표지판 인식 장치 및 교통 표지판 인식 방법
KR101178508B1 (ko) 차량 충돌 경보 시스템 및 방법
KR20120086892A (ko) 차량용 내비게이션의 차선 이탈 알림 시스템 및 방법
KR101374653B1 (ko) 차량의 움직임을 검출하는 장치 및 방법
KR20140104516A (ko) 차선 인식 방법 및 장치
Álvarez et al. Perception advances in outdoor vehicle detection for automatic cruise control
Dai et al. A driving assistance system with vision based vehicle detection techniques
KR20210081887A (ko) 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 장치 및 출력 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant