KR101534056B1 - 교통 신호 맵핑 및 검출 - Google Patents

교통 신호 맵핑 및 검출 Download PDF

Info

Publication number
KR101534056B1
KR101534056B1 KR1020127021883A KR20127021883A KR101534056B1 KR 101534056 B1 KR101534056 B1 KR 101534056B1 KR 1020127021883 A KR1020127021883 A KR 1020127021883A KR 20127021883 A KR20127021883 A KR 20127021883A KR 101534056 B1 KR101534056 B1 KR 101534056B1
Authority
KR
South Korea
Prior art keywords
images
traffic signal
traffic
yellow
red
Prior art date
Application number
KR1020127021883A
Other languages
English (en)
Other versions
KR20120118478A (ko
Inventor
나다니엘 페어필드
크리스토퍼 엄슨
세바스티안 스런
Original Assignee
구글 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 인코포레이티드 filed Critical 구글 인코포레이티드
Publication of KR20120118478A publication Critical patent/KR20120118478A/ko
Application granted granted Critical
Publication of KR101534056B1 publication Critical patent/KR101534056B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/07Controlling traffic signals
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Instructional Devices (AREA)

Abstract

시스템 및 방법은 신호등들의 3차원 위치를 식별하는 지도를 제공한다. 신호등의 장소, 위치, 및 방향은 둘 또는 그 이상의 영상들에 의하여 자동으로 추정된다. 그리고 지도들은 교통 신호의 상태 및 위치를 식별하기 위하여 로봇 차량이나 인간 운전자를 보조하는데 사용된다.

Description

교통 신호 맵핑 및 검출{TRAFFIC SIGNAL MAPPING AND DETECTION}
본 출원은, 2010년 1월 22일에 출원된 미국 가출원 제61/297,468호에 대한 우선권을 주장하며, 그 명칭이 “교통 신호 맵핑 및 검출”인 2010년 6월 21일에 출원된 미국 출원 제12/819,575호에 대한 우선권을 주장하며, 해당 출원의 모든 개시 내용은 참조로서 본 출원에 포함된다.
본 발명은 일반적으로 교통 신호들의 지도들을 만드는 것에 관련된다. 더욱 구체적으로, 이들 지도들은 실시간 교통 신호 검출을 수행하는데 사용될 수 있다.
차량의 중요한 요소는 인식(perception) 시스템으로, 차량이 운행 중 그 주변의 인식 및 해석이 가능하도록 한다. 인간은 이러한 운행의 문제를 쉽게 하도록 설계하여 왔다. 예를 들어, 도로에 칠해진 차선들에 의하여 구획되는 차로, 교차로에서 우선 순위(precedence)를 위한 신호등, 브레이크 신호들 및 회전 신호들은 모두 인식 작업을 단순화하기 위하여 의도된 것들이다. 로봇들은 이들 운행 보조들을 사용할 수 있으나, 많은 경우에 로봇들은 비전 대신에 레이더나 라이더(lidar)와 같은 감지 양식들(sensing modalities)을 선택적으로 사용할 수도 있다. 이들 다른 감지 양식들에 더하여, 로봇들은 종종 온라인 인식을 단순화하기 위하여 이전 지도들을 레버리징(leverage) 한다. 정지 신호들, 속도 제한들, 차선들, 등등을 포함하는 이전 지도를 사용하여, 로봇 차량은 상기 지도에 대한 자신의 장소를 추정(위치 추정(localization))하는 문제, 및 다른 차량들과 같은 동적인 장애물들을 다루는 문제에 대하여 탑재된 인식 요구조건들(onboard perception requirements)을 크게 간략화할 수 있다.
교통 신호들은 로봇 차량들에 있어서 주요 과제이다. 라디오를 통하여 신호등의 상태를 방송하기 위한 노력이 이루어져 왔으나, 이는 인프라구조에 현저한 투자를 요한다. 로봇들은 종종 자신들의 주변을 인식하기 위하여 레이더나 라이더와 같은 능동 센서를 사용할 수 있는 반면, 교통 신호들의 상태는 시각적으로만 인식할 수 있다. 비록 외부 조건의 다양성 때문에 어떤 시각적 작업은 쉽지 않으나, 신호등들은 잘 보이도록 설계되었다.
본 발명은 일반적으로 교통 신호들의 지도들을 만드는 것에 관련된다. 더욱 구체적으로, 이들 지도들은 실시간 교통 신호들의 상태 검출을 수행하는데 사용될 수 있다.
본 발명의 일 측면은 교통 신호들의 3차원 위치를 결정하는 방법을 제공한다. 상기 방법은 복수의 영상들을 수신하며, 상기 복수의 영상들 각각은 지리적 위치 및 방향 정보와 연관되는 단계; 교차로에 근접한 상기 지리적 위치와 연관된 상기 복수의 영상들 중 하나 또는 그 이상의 영상들을 컴퓨터에 의하여 선택하는 단계; 각 선택된 영상에 대하여, 상기 컴퓨터로 상기 선택된 영상 내에 적색, 황색, 및 녹색 물체들을 식별하는 단계; 둘 또는 그 이상의 상기 선택된 영상들 내에서, 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보에 기초하여, 적색, 황색, 및 녹색 물체들 중 연관된 물체들을 식별하는 단계; (1) 상기 둘 또는 그 이상의 상기 선택된 영상들 사이의 상기 식별된 연관성들 및 (2) 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보,에 기초하여 교통 신호들의 3차원 위치들을 결정하는 단계; 및 상기 교통 신호들의 상기 3차원 위치들을 상기 컴퓨터로 접근 가능한 메모리에 저장하는 단계;를 포함한다.
여기서 논의되듯이, 다른 특징들이 어떤 조합 어떤 실시 예로든 사용될 수 있을 것이다. 예를 들어, 상기 방법은 상기 교통 신호들의 상기 3차원 위치들을 포함하는 지도를 생성하는 단계를 포함한다.
또 다른 예로서, 상기 복수의 영상들 각각은 하나 또는 그 이상의 카메라들에 의하여 수집되며, 각 카메라는 차량에 연관된다. 선택적으로, 상기 하나 또는 그 이상의 카메라들 각각은 차량에 장착된다. 다른 선택으로서, 각 영상과 연관된 상기 지리적 위치 및 방향 정보는 상기 지리적 위치 장치(geographic position device)에 의하여 결정되는 상기 카메라의 상기 지리적 위치 및 방향 정보에 기초하여 생성된다.
또 다른 예로서, 각 영상과 연관된 상기 지리적 위치 및 방향 정보는 레이저 장소측정 장치(laser positioning device)에 의하여 결정된다.
또 다른 예로서, 각 영상과 연관된 상기 지리적 위치 및 방향 정보는 GPS 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 각 영상과 연관된 상기 지리적 위치 및 방향 정보는 관성(inertial) 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 지리적 위치 정보는 GPS 위도 및 경도 좌표이다.
또 다른 예로서, 상기 복수의 영상들 각각이 하나 또는 그 이상의 카메라들에 의하여 수집될 때, 각 카메라는 차량과 연관되며, 상기 하나 또는 그 이상의 카메라들 각각은 교통 신호 불빛의 포화를 피하도록 설정되는 셔터 스피드 및 게인에 연관된다.
또 다른 예로서, 상기 복수의 영상들 각각이 하나 또는 그 이상의 카메라들에 의하여 수집될 때, 각 카메라는 차량과 연관되며, 상기 복수의 영상들의 각 영상은 상기 하나 또는 그 이상의 카메라들로부터 네트워크를 통하여 상기 장치로 업로드 된다.
또 다른 예로서, 상기 복수의 영상들 각각이 하나 또는 그 이상의 카메라들에 의하여 수집될 때, 각 카메라는 차량과 연관되며, 상기 하나 또는 그 이상의 카메라들 각각은 상기 차량의 운전자의 시야를 최소한으로 방해하도록 위치한다.
또 다른 예로서, 상기 식별된 적색, 황색, 및 녹색 물체들은 교통 신호들에 대응하는 적절한 크기 및 종횡비(aspect ratios)이다. 더욱 추가적인 예로서, 둘 또는 그 이상의 선택된 영상들의 상기 적색, 황색, 및 녹색 물체들 중 상기 연관된 물체들을 식별하는 것은 상기 둘 또는 그 이상의 선택된 영상들의 식별된 물체들 사이의 연관 거리에 기초한다.
또 다른 예로서, 둘 또는 그 이상의 선택된 영상들의 상기 적색, 황색, 및 녹색 물체들 중 상기 연관된 물체들을 식별하는 것은 교통 신호의 물리적 크기에 기초한다.
또 다른 예로서, 둘 또는 그 이상의 선택된 영상들의 상기 연관된 적색, 황색, 및 녹색 물체들을 식별하는 것은 상기 선택된 영상들 사이의 직접 움직임 보상(direct motion compensation)에 기초하고, 각 선택된 영상은 움직이는 차량에 장착된 카메라에 의하여 촬영된다.
또 다른 예로서, 상기 방법은 상기 직접 움직임 보상에 기초하여, 선택된 영상 내의 적색, 황색, 및 녹색 물체들 중 상기 식별된 물체를 교통 신호 불빛이 아닌 물체로 식별하는 단계를 포함한다.
또 다른 예로서, 상기 방법은 상기 결정한 상기 특정 교통 신호의 상기 3차원 위치를 교차로에 걸친 차선들의 지도에 비교하는 것에 기초하여 상기 특정 교통 신호에 연관된 차선을 결정하는 단계를 포함한다.
또 다른 예로서, 상기 방법이 상기 교통 신호들의 상기 3차원 위치들을 포함하는 지도를 생성하는 단계를 포함할 때, 상기 방법은 차량의 제2 컴퓨터로 상기 지도를 다운로드 하는 단계를 포함한다.
또 다른 예로서, 상기 방법이 상기 교통 신호들의 상기 3차원 위치들을 포함하는 지도를 생성하는 단계를 포함할 때, 상기 방법은 상기 지도를 클라이언트 장치로 다운로드 하는 단계를 포함한다.
또 다른 예로서, 상기 방법이 상기 교통 신호들의 상기 3차원 위치들을 포함하는 지도를 생성하는 단계를 포함할 때, 상기 방법은 클라이언트 장치로부터 지리적 위치를 수신하는 단계 및 상기 수신한 지리적 위치에 기초하여 상기 지도의 부분을 상기 클라이언트 장치로 전송하는 단계를 포함한다.
본 발명의 다른 측면은 교통 신호들의 3차원 위치들을 결정하는 장치를 제공한다. 상기 장치는 프로세서 및 메모리를 포함한다. 상기 프로세서는 복수의 영상들을 수신하며, 상기 복수의 영상들 각각은 지리적 위치 및 방향 정보와 연관되며; 교차로에 근접한 상기 지리적 위치와 연관된 상기 복수의 영상들 중 하나 또는 그 이상의 영상들을 선택하고; 각 선택된 영상에 대하여, 상기 선택된 영상 내에 적색, 황색, 및 녹색 물체들을 식별하고; 둘 또는 그 이상의 상기 선택된 영상들 내에서, 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보에 기초하여, 적색, 황색, 및 녹색 물체들 중 연관된 물체들을 식별하고; (1) 상기 둘 또는 그 이상의 상기 선택된 영상들 사이의 상기 식별된 연관성들 및 (2) 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보,에 기초하여 교통 신호들의 3차원 위치들을 결정하고; 그리고 교통 신호들의 상기 3차원 위치들을 상기 장치로 접근 가능한 메모리에 저장하도록 구성된다.
여기서 논의되듯이, 다른 특징들이 어떤 조합 어떤 실시 예로든 사용될 수 있을 것이다. 예를 들어, 상기 프로세서는 교통 신호들의 상기 3차원 위치들을 포함하는 지도를 생성하도록 구성될 수 있을 것이다.
또 다른 예로서, 상기 복수의 영상들 각각은 하나 또는 그 이상의 카메라들에 의하여 수집되며, 각 카메라는 차량에 연관된다. 선택적으로, 상기 하나 또는 그 이상의 카메라들 각각은 차량에 장착된다. 다른 선택으로서, 각 영상과 연관된 상기 지리적 위치 및 방향 정보는 상기 지리적 장소 장치에 의하여 결정되는 상기 카메라의 상기 지리적 위치 및 방향 정보에 기초하여 생성된다.
또 다른 예로서, 각 영상과 연관된 상기 지리적 위치 및 방향 정보는 레이저 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 각 영상과 연관된 상기 지리적 위치 및 방향 정보는 GPS 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 각 영상과 연관된 상기 지리적 위치 및 방향 정보는 관성 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 지리적 위치 정보는 GPS 위도 및 경도 좌표이다.
또 다른 예로서, 상기 복수의 영상들 각각이 하나 또는 그 이상의 카메라들에 의하여 수집될 때, 상기 하나 또는 그 이상의 카메라들 각각은 교통 신호 불빛의 포화를 피하도록 설정되는 셔터 스피드 및 게인에 연관된다.
또 다른 예로서, 상기 복수의 영상들 각각이 하나 또는 그 이상의 카메라들에 의하여 수집될 때, 상기 복수의 영상들의 각 영상은 상기 하나 또는 그 이상의 카메라들로부터 네트워크를 통하여 상기 장치로 업로드 된다.
또 다른 예로서, 상기 복수의 영상들 각각이 하나 또는 그 이상의 카메라들에 의하여 수집될 때, 상기 하나 또는 그 이상의 카메라들 각각은 상기 차량의 운전자의 시야를 최소한으로 방해하도록 위치한다.
또 다른 예로서, 상기 식별된 적색, 황색, 및 녹색 물체들은 교통 신호들에 대응하는 적절한 크기 및 종횡비이다.
또 다른 예로서, 둘 또는 그 이상의 선택된 영상들의 상기 적색, 황색, 및 녹색 물체들 중 상기 연관된 물체들을 식별하는 것은 상기 둘 또는 그 이상의 선택된 영상들의 식별된 물체들 사이의 연관 거리에 기초한다.
또 다른 예로서, 둘 또는 그 이상의 선택된 영상들의 상기 적색, 황색, 및 녹색 물체들 중 상기 연관된 물체들을 식별하는 것은 교통 신호의 물리적 크기에 기초한다.
또 다른 예로서, 둘 또는 그 이상의 선택된 영상들의 상기 연관된 적색, 황색, 및 녹색 물체들을 식별하는 것은 상기 선택된 영상들 사이의 직접 움직임 보상에 기초하고, 각 선택된 영상은 움직이는 차량에 장착된 카메라에 의하여 촬영된다.
또 다른 예로서, 상기 프로세서는 상기 직접 움직임 보상에 기초하여, 선택된 영상 내의 적색, 황색, 및 녹색 물체들 중 상기 식별된 물체를 교통 신호 불빛이 아닌 물체로 식별하도록 더욱 구성된다.
또 다른 예로서, 상기 프로세서는 상기 결정한 상기 특정 교통 신호의 상기 3차원 위치를 교차로에 걸친 차선들의 지도에 비교하는 것에 기초하여 상기 특정 교통 신호에 연관된 차선을 결정하도록 더욱 구성된다.
또 다른 예로서, 상기 프로세서는 차량에 연관된 제2 컴퓨터로 상기 지도를 다운로드 하도록 더욱 구성된다.
또 다른 예로서, 상기 프로세서는 상기 지도를 클라이언트 장치로 다운로드 하도록 더욱 구성된다.
또 다른 예로서, 상기 프로세서가 상기 교통 신호들의 상기 3차원 위치들을 포함하는 지도를 생성하도록 구성되었을 때, 상기 프로세서는 클라이언트 장치로부터 지리적 위치를 수신하고 및 상기 수신한 지리적 위치에 기초하여 상기 지도의 부분을 상기 클라이언트 장치로 전송하도록 더욱 구성된다.
본 발명의 추가적인 측면은 교통 신호의 상태를 결정하는 방법을 제공한다. 상기 방법은 클라이언트 장치의 현재 위치를 반복적으로 결정하는 단계; 상기 클라이언트 장치의 상기 현재 위치를 교통 신호들의 3차원 위치들의 지도에 비교하는 것에 기초하여 교통 신호의 경계의 추정된 위치를 결정하는 단계; 상기 추정된 위치의 영상들을 수집하는 단계; 각 수집된 영상에 대하여, 상기 클라이언트 장치에 의하여 상기 교통 신호의 상기 추정된 위치의 상기 경계 내의 적색, 황색, 및 녹색 물체들을 식별하는 단계; 및 상기 식별된 물체의 색상에 기초하여 상기 교통 신호의 상태를 결정하는 단계;를 포함한다.
여기서 논의되듯이, 다른 특징들이 어떤 조합 어떤 실시 예로든 사용될 수 있을 것이다. 예를 들어, 상기 영상들은 상기 클라이언트 장치의 카메라에 의하여 수집될 수 있다.
또 다른 예로서, 상기 클라이언트 장치의 상기 현재 위치는 레이저 기반 장소측정 장치에 의하여 결정된다. 또 다른 예로서, 상기 클라이언트 장치의 상기 현재 위치는 레이저 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 클라이언트 장치의 상기 현재 위치는 GPS 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 클라이언트 장치의 상기 현재 위치는 관성 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 클라이언트 장치의 카메라에 의하여 상기 영상들이 수집될 때, 상기 카메라는 교통 신호 불빛의 포화를 피하도록 설정되는 셔터 스피드 및 게인에 연관된다.
또 다른 예로서, 상기 클라이언트 장치의 카메라에 의하여 상기 영상들이 수집될 때, 상기 방법은 상기 클라이언트 장치의 메모리로부터 상기 교통 신호들의 3차원 위치들의 지도에 접근하는 단계를 포함한다.
또 다른 예로서, 상기 식별된 적색, 황색, 및 녹색 물체들은 교통 신호들에 대응하는 적절한 크기 및 종횡비이다.
또 다른 예로서, 상기 교통 신호의 상태를 결정하는 것은 상기 추정된 위치의 경계 내의 상기 식별된 물체의 위치에 기초한다.
또 다른 예로서, 상기 추정된 위치의 경계는 크기와 연관되며, 상기 크기는 상기 교통 신호의 크기보다 더 크다.
또 다른 예로서, 상기 방법은 상기 클라이언트 장치의 상기 현재 위치를 교차로에 걸친 교통 차선의 지도에 비교하는 것에 기초하여 상기 클라이언트 장치에 연관된 교통 차선을 결정하는 단계를 포함한다.
선택적으로, 상기 교통 신호의 경계의 추정된 위치를 결정하는 것은 상기 클라이언트 장치에 연관된 상기 교통 차선에 기초한다.
또 다른 예로서, 상기 방법은 네트워크를 통하여 컴퓨터로부터 교통 신호들의 3차원 위치들의 지도를 요청하는 단계를 포함하는 단계를 포함하며, 상기 요청은 상기 클라이언트 장치의 상기 현재 위치를 포함한다.
또 다른 예로서, 상기 방법은 네트워크를 통하여 컴퓨터로부터 교통 신호들의 3차원 위치들의 지도를 수신하는 단계를 포함한다.
또 다른 예로서, 상기 방법은 상기 교통 신호의 상태가 디폴트 상태(default status)로부터 변경되었는지를 결정하는 단계를 포함한다. 선택적으로, 상기 교통 신호의 상기 추정된 위치의 상기 경계 내에 식별된 물체가 없는 경우, 상기 방법은 상기 교통 신호의 상태가 상기 디폴트 상태라고 결정하는 단계를 포함한다. 또한 선택적으로, 상기 디폴트 상태는 황색 불빛이다. 더욱 선택적으로, 상기 디폴트 상태는 적색 불빛이다.
또 다른 예로서, 상기 방법은 차량에 연관된 컴퓨터로 상기 교통 신호의 상태를 전송하는 단계를 포함한다.
또 다른 예로서, 상기 방법은 상기 불빛의 상태가 적색 또는 황색일 경우 상기 차량을 감속하는 단계를 포함한다. 또 다른 예로서, 상기 방법은 상기 교통 신호의 상태를 청각적으로 식별하는 단계를 포함한다.
또 다른 예로서, 상기 방법은 상기 교통 신호의 상기 상태에 기초하여 운전 명령(instruction)을 제공하는 단계를 포함한다.
또 다른 예로서, 상기 클라이언트 장치는 전자 디스플레이를 포함하고, 상기 방법은 상기 전자 디스플레이에 상기 교통 신호의 상태를 식별하는 단계를 더 포함한다.
본 발명의 또 다른 측면은 교통 신호들의 3차원 위치들을 결정하는 장치를 제공한다. 상기 장치는 프로세서 및 2차 리소스 파일들(resource files)을 저장하기 위한 제1 부분을 포함하는 메모리를 포함한다. 상기 프로세서는 클라이언트 장치의 현재 위치를 반복적으로 결정하고; 상기 클라이언트 장치의 상기 현재 위치를 교통 신호들의 3차원 위치들의 지도에 비교하는 것에 기초하여 교통 신호의 경계의 추정된 위치를 결정하고; 상기 추정된 위치의 영상들을 수집하고; 각 수집된 영상에 대하여, 상기 클라이언트 장치에 의하여 상기 교통 신호의 상기 추정된 위치의 상기 경계 내의 적색, 황색, 및 녹색 물체들을 식별하고; 상기 식별된 물체의 색상에 기초하여 상기 교통 신호의 상태를 결정하도록 구성된다.
여기서 논의되듯이, 다른 특징들이 어떤 조합 어떤 실시 예로든 사용될 수 있을 것이다. 예를 들어, 상기 장치는 상기 추정된 위치의 상기 영상들을 수집하기 위한 카메라를 포함할 수 있다.
또 다른 예로서, 상기 클라이언트 장치의 상기 위치는 레이저 장소측정 장치에 의하여 결정될 수 있다.
또 다른 예로서, 상기 장치는 레이저 기반 장소측정 장치를 포함하고, 상기 클라이언트 장치의 상기 현재 위치는 레이저 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 장치는 GPS 기반 장소측정 장치를 포함하고, 상기 클라이언트 장치의 상기 현재 위치는 GPS 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 장치는 관성 기반 장소측정 장치를 포함하고, 상기 클라이언트 장치의 상기 현재 위치는 관성 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 카메라는 교통 신호 불빛의 포화를 피하도록 설정되는 셔터 스피드 및 게인에 연관된다.
또 다른 예로서, 상기 프로세서는 상기 클라이언트 장치의 메모리로부터 상기 교통 신호들의 3차원 위치들의 지도에 접근하도록 구성된다.
또 다른 예로서, 상기 식별된 적색, 황색, 및 녹색 물체들은 교통 신호들에 대응하는 적절한 크기 및 종횡비이다.
또 다른 예로서, 상기 프로세서는 상기 추정된 위치의 경계 내의 상기 식별된 물체의 위치에 기초하여 상기 교통 신호의 상태를 결정한다.
또 다른 예로서, 상기 추정된 위치의 경계는 크기와 연관되며, 상기 크기는 상기 교통 신호의 크기보다 더 크다.
또 다른 예로서, 상기 프로세서는 상기 클라이언트 장치의 상기 현재 위치를 교차로에 걸친 교통 차선의 지도에 비교하는 것에 기초하여 상기 클라이언트 장치에 연관된 교통 차선을 결정하도록 더욱 구성된다.
또 다른 예로서, 상기 프로세서는 상기 클라이언트 장치에 연관된 상기 교통 차선에 기초하여 상기 교통 신호의 경계의 추정된 위치를 결정한다.
또 다른 예로서, 상기 프로세서는 네트워크를 통하여 컴퓨터로부터 상기 교통 신호들의 3차원 위치들의 지도를 요청하도록 더욱 구성되고, 상기 요청은 상기 클라이언트 장치의 상기 현재 위치를 포함한다.
또 다른 예로서, 상기 프로세서는 상기 교통 신호의 상기 경계들의 추정된 위치를 결정하며, 프로세서는 네트워크를 통하여 컴퓨터로부터 상기 교통 신호들의 3차원 위치들의 지도를 수신하도록 더욱 구성된다.
또 다른 예로서, 상기 프로세서는 상기 교통 신호의 상태가 디폴트 상태로부터 변경되었는지를 결정하도록 더욱 구성된다. 선택적으로, 상기 프로세서는 상기 교통 신호의 상기 추정된 위치의 상기 경계 내에 식별된 물체가 없는 경우, 상기 교통 신호의 상태가 상기 디폴트 상태라고 결정하도록 더욱 구성된다. 선택적으로, 상기 디폴트 상태는 황색 불빛이다. 더욱 선택적으로, 상기 디폴트 상태는 적색 불빛이다.
또 다른 예로서, 상기 프로세서는 차량에 연관된 컴퓨터로 상기 교통 신호의 상태를 전송하도록 더욱 구성된다.
또 다른 예로서, 상기 프로세서는 상기 불빛의 상태가 적색 또는 황색일 경우 상기 차량을 감속하도록 더욱 구성된다. 또 다른 예로서, 상기 프로세서는 상기 교통 신호의 상태를 청각적으로 식별하도록 더욱 구성된다.
또 다른 예로서, 상기 프로세서는 상기 교통 신호의 상기 상태에 기초하여 운전 명령을 제공하도록 더욱 구성된다.
또 다른 예로서, 상기 장치는 차량에 장착된다.
또 다른 예로서, 상기 장치는 휴대용 장치이다. 또 다른 예로서, 상기 장치는 전자 디스플레이를 포함하며, 상기 프로세서는 상기 전자 디스플레이에 상기 교통 신호의 상태를 식별하도록 더욱 구성된다.
본 발명의 추가적인 측면은 교통 신호의 상태를 결정하는 방법을 제공한다. 상기 방법은 클라이언트 장치의 현재 위치를 반복적으로 결정하는 단계; 상기 클라이언트 장치의 상기 현재 위치를 교통 신호들의 3차원 위치들의 지도에 비교하는 것에 기초하여 교통 신호의 경계의 추정된 위치를 결정하는 단계; 상기 추정된 위치의 영상들을 수집하는 단계; 각 수집된 영상에 대하여, 상기 클라이언트 장치에 의하여 상기 교통 신호의 상기 추정된 위치의 상기 경계 내의 적색, 황색, 및 녹색 물체들을 식별하는 단계; 및 상기 식별된 물체의 색상에 기초하여 상기 교통 신호의 상태를 결정하는 단계;를 포함한다.
여기서 논의되듯이, 다른 특징들이 어떤 조합 어떤 실시 예로든 사용될 수 있을 것이다. 예를 들어, 상기 장소측정 장치는 레이저 장소측정 장치이다.
또 다른 예로서, 상기 장소측정 장치는 GPS 장소측정 장치이다.
또 다른 예로서, 상기 장소측정 장치는 관성 장소측정 장치이다.
또 다른 예로서, 상기 방법은 상기 차량의 정면을 곧장 향하도록 상기 차량에 상기 카메라를 위치시키는 단계를 포함한다.
또 다른 예로서, 상기 방법은 상기 카메라를 백미러(rear-view mirror)의 오른쪽에 위치시키는 단계를 포함한다.
또 다른 예로서, 상기 방법은 상기 카메라를 운전자의 시야의 방해를 제한하도록 위치시키는 단계를 포함한다.
또 다른 예로서, 상기 메모리는 상기 카메라의 로컬 메모리이다.
또 다른 예로서, 상기 지리적 위치들은 GPS 위도 및 경도 좌표에 의하여 정의된다.
또 다른 예로서, 상기 방법은 상기 복수의 영상들 및 상기 연관된 지리적 위치 및 방향 정보를 수신하는 단계; 교통 교차로들에 근접한 지리적 위치들에 연관된 상기 복수의 영상들 중 하나 또는 그 이상의 영상들을 선택하는 단계; 각 선택된 영상에 대하여, 상기 선택된 영상 내의 적색, 황색, 및 녹색 물체들을 식별하는 단계; 둘 또는 그 이상의 상기 선택된 영상들 내에서, 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보에 기초하여, 상기 적색, 황색, 및 녹색 물체들 중 연관된 물체들을 식별하는 단계; (1) 상기 둘 또는 그 이상의 상기 선택된 영상들 사이의 상기 식별된 연관성들 및 (2) 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보,에 기초하여 교통 신호들의 3차원 위치들을 결정하는 단계; 및 교통 신호들의 상기 3차원 위치들을 상기 컴퓨터로 접근 가능한 메모리에 저장하는 단계;를 포함한다. 선택적으로, 상기 방법은 교통 신호들의 상기 3차원 위치들을 포함하는 지도를 생성하는 단계를 포함한다.
또 다른 예로서, 상기 방법이 둘 또는 그 이상의 상기 선택된 영상들 내에 상기 적색, 황색, 및 녹색 물체들 중 연관된 물체를 식별하는 단계를 포함할 때, 상기 식별된 적색, 황색, 및 녹색 물체들은 교통 신호들에 대응하는 적절한 크기 및 종횡비이다.
또 다른 예로서, 상기 방법이 둘 또는 그 이상의 상기 선택된 영상들 내에 상기 적색, 황색, 및 녹색 물체들 중 연관된 물체를 식별하는 단계를 포함할 때, 둘 또는 그 이상의 선택된 영상들의 상기 적색, 황색, 및 녹색 물체들 중 상기 연관된 물체들을 식별하는 것은 상기 둘 또는 그 이상의 선택된 영상들의 식별된 물체들 사이의 연관 거리에 기초한다.
또 다른 예로서, 상기 방법이 둘 또는 그 이상의 상기 선택된 영상들 내에 상기 적색, 황색, 및 녹색 물체들 중 연관된 물체를 식별하는 단계를 포함할 때, 둘 또는 그 이상의 선택된 영상들의 상기 적색, 황색, 및 녹색 물체들 중 상기 연관된 물체들을 식별하는 것은 교통 신호의 물리적 크기에 기초한다.
또 다른 예로서, 상기 방법이 둘 또는 그 이상의 상기 선택된 영상들 내에 상기 적색, 황색, 및 녹색 물체들 중 연관된 물체를 식별하는 단계를 포함할 때, 둘 또는 그 이상의 선택된 영상들의 상기 연관된 적색, 황색, 및 녹색 물체들을 식별하는 것은 상기 선택된 영상들 사이의 직접 움직임 보상에 기초한다.
또 다른 예로서, 상기 방법이 상기 선택된 영상 내의 적색, 황색, 및 녹색 물체들을 식별하는 단계를 포함할 때, 상기 방법은 상기 직접 움직임 보상에 기초하여, 선택된 영상 내의 적색, 황색, 및 녹색 물체들 중 상기 식별된 물체를 교통 신호 불빛이 아닌 물체로 식별하는 단계를 포함한다.
또 다른 예로서, 상기 방법이 상기 선택된 영상 내의 적색, 황색, 및 녹색 물체들을 식별하는 단계를 포함할 때, 상기 방법은 상기 결정한 상기 특정 교통 신호의 상기 3차원 위치를 교차로에 걸친 차선들의 지도에 비교하는 것에 기초하여 상기 특정 교통 신호에 연관된 차선을 결정하는 단계를 포함한다.
또한 본 발명의 다른 측면은 교통 신호들의 영상들을 수집하는 장치를 제공한다. 상기 장치는 차량; 교통 신호 불빛의 포화를 피하도록 설정되는 셔터 스피드 및 게인을 갖는 카메라로서, 상기 카메라는 상기 차량에 장착되는 카메라; 장소측정 장치; 상기 차량에 연결된 프로세서; 및 영상들을 저장하는 제1 부분을 포함하는 메모리;를 포함한다. 상기 프로세서는 상기 카메라로부터 영상들을 수신하고; 상기 수신한 영상들의 각 영상에 연관된 지리적 장소를 식별하고; 상기 영상들, 지리적 장소들, 및 연관성들을 상기 메모리에 저장하고; 상기 영상들, 지리적 장소들, 및 연관성들을 네트워크를 통하여 컴퓨터로 전송하도록 구성된다.
여기서 논의되듯이, 다른 특징들이 어떤 조합 어떤 실시 예로든 사용될 수 있을 것이다. 예를 들어, 상기 차량의 정면을 곧장 향하도록 상기 차량에 상기 카메라가 위치한다. 또 다른 예로서 상기 카메라는 백미러의 오른쪽에 위치한다. 또 다른 예로서, 상기 카메라는 운전자의 시야의 방해를 제한하도록 위치한다. 또 다른 예로서, 상기 메모리는 상기 카메라의 로컬 메모리이다.
본 발명의 또 다른 측면은 프로세서 및 컴퓨터를 포함하는 클라이언트 장치를 제공한다. 상기 컴퓨터는 메모리 및 프로세서를 포함한다. 상기 프로세서는 복수의 영상들을 수신하며, 상기 복수의 영상들 각각은 지리적 위치 및 방향 정보와 연관되며; 교차로에 근접한 상기 지리적 위치와 연관된 상기 복수의 영상들 중 하나 또는 그 이상의 영상들을 선택하고; 각 선택된 영상에 대하여, 상기 선택된 영상 내에 적색, 황색, 및 녹색 물체들을 식별하고; 둘 또는 그 이상의 상기 선택된 영상들 내에서, 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보에 기초하여, 적색, 황색, 및 녹색 물체들 중 연관된 물체들을 식별하고; (1) 상기 둘 또는 그 이상의 상기 선택된 영상들 사이의 상기 식별된 연관성들 및 (2) 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보,에 기초하여 교통 신호들의 3차원 위치들을 결정하고; 교통 신호들의 상기 3차원 위치들의 지도를 생성하고; 상기 클라이언트 장치로부터 상기 지도의 부분에 대한 요청을 수신하고, 상기 요청은 지리적 위치를 식별하는 것이며; 상기 식별한 지리적 위치에 기초하여 상기 지도의 관련 부분을 식별하고; 상기 클라이언트 장치로 상기 지도의 상기 관련된 부분을 전송한다. 제2 장치의 상기 프로세서는 클라이언트 장치의 현재 위치를 반복적으로 결정하고; 상기 클라이언트 장치의 상기 현재 위치를 포함하는 요청을 전송하며; 상기 지도의 상기 관련된 부분을 수신하며; 상기 클라이언트 장치의 상기 현재 위치를 상기 지도의 관련된 부분에 비교하는 것에 기초하여 교통 신호의 경계의 추정된 위치를 결정하고; 상기 추정된 위치의 영상들을 수집하고; 각 수집된 영상에 대하여, 상기 교통 신호의 상기 추정된 위치의 상기 경계 내의 적색, 황색, 및 녹색 물체들을 식별하고; 상기 교통 신호의 상기 추정된 위치의 상기 경계 내의 상기 식별된 물체들의 색상에 기초하여 상기 교통 신호의 상태를 결정하도록 구성된다.
여기서 논의되듯이, 다른 특징들이 어떤 조합 어떤 실시 예로든 사용될 수 있을 것이다. 예를 들어, 상기 복수의 영상들 각각은 하나 또는 그 이상의 카메라들에 의하여 수집되고, 각 카메라는 차량에 연관된다.
또 다른 예로서, 상기 복수의 영상들의 각 영상에 연관된 상기 지리적 위치 및 방향 정보는 상기 차량에 연관된 지리적 장소 장치에 의하여 결정되는 것처럼 상기 카메라의 상기 지리적 위치 및 방향에 기초하여 생성된다.
또 다른 예로서, 각 영상에 연관된 상기 지리적 위치 및 방향 정보는 레이저 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 각 영상에 연관된 상기 지리적 위치 및 방향 정보는 GPS 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 각 영상에 연관된 상기 지리적 위치 및 방향 정보는 관성 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 지리적 위치 정보는 GPS 위도 및 경도 좌표이다. 또 다른 예로서, 상기 복수의 영상들 각각은 하나 또는 그 이상의 카메라들에 의하여 수집되고, 상기 하나 또는 그 이상의 카메라들 각각은 교통 신호 불빛의 포화를 피하도록 설정되는 셔터 스피드 및 게인에 연관된다.
또 다른 예로서, 상기 복수의 영상들 각각이 하나 또는 그 이상의 카메라들에 의하여 수집될 때, 상기 복수의 영상들의 각 영상은 상기 하나 또는 그 이상의 카메라들로부터 네트워크를 통하여 상기 장치로 업로드 된다.
또 다른 예로서, 상기 복수의 영상들 각각이 하나 또는 그 이상의 카메라들에 의하여 수집될 때, 상기 하나 또는 그 이상의 카메라들 각각은 상기 차량의 운전자의 시야를 최소한으로 방해하도록 위치한다.
또 다른 예로서, 상기 컴퓨터의 상기 프로세서에 의하여 식별된 상기 적색, 황색, 및 녹색 물체들은 교통 신호들에 대응하는 적절한 크기 및 종횡비이다.
또 다른 예로서, 상기 컴퓨터의 상기 프로세서에 의하여 둘 또는 그 이상의 선택된 영상들의 상기 적색, 황색, 및 녹색 물체들 중 상기 연관된 물체들을 식별하는 것은 상기 둘 또는 그 이상의 선택된 영상들의 식별된 물체들 사이의 연관 거리에 기초한다.
또 다른 예로서, 상기 컴퓨터의 상기 프로세서에 의하여 둘 또는 그 이상의 선택된 영상들의 상기 적색, 황색, 및 녹색 물체들 중 상기 연관된 물체들을 식별하는 것은 교통 신호의 물리적 크기에 기초한다.
또 다른 예로서, 상기 컴퓨터의 상기 프로세서에 의하여 둘 또는 그 이상의 선택된 영상들의 상기 연관된 적색, 황색, 및 녹색 물체들을 식별하는 것은 상기 선택된 영상들 사이의 직접 움직임 보상에 기초한다.
또 다른 예로서, 상기 제1 컴퓨터의 상기 프로세서는 상기 직접 움직임 보상에 기초하여, 선택된 영상 내의 적색, 황색, 및 녹색 물체들 중 상기 식별된 물체를 교통 신호 불빛이 아닌 물체로 식별하도록 더욱 구성된다.
또 다른 예로서, 상기 제1 컴퓨터의 상기 프로세서는 상기 결정한 상기 특정 교통 신호의 상기 3차원 위치를 교차로에 걸친 차선들의 지도에 비교하는 것에 기초하여 상기 특정 교통 신호에 연관된 차선을 결정하도록 더욱 구성된다.
또 다른 예로서, 상기 클라이언트 장치는 전자 디스플레이를 포함하고, 상기 클라이언트 장치의 프로세서는 상기 전자 디스플레이에 상기 교통 신호의 상태를 식별하도록 더욱 구성된다.
또 다른 예로서, 상기 클라이언트 장치의 상기 현재 위치는 레이저 장소측정 장치에 의하여 결정된다. 또 다른 예로서, 상기 클라이언트 장치의 상기 현재 위치는 GPS 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 클라이언트 장치의 상기 현재 위치는 관성 장소측정 장치에 의하여 결정된다.
또 다른 예로서, 상기 수집된 영상들은 상기 클라이언트 장치의 클라이언트 카메라에 의하여 수집된다.
또 다른 예로서, 상기 클라이언트 카메라는 교통 신호 불빛의 포화를 피하도록 설정되는 셔터 스피드 및 게인에 연관된다.
또 다른 예로서, 상기 클라이언트 장치는 상기 클라이언트 장치의 메모리에 상기 지도의 수신된 부분을 저장하고, 상기 메모리로부터 수신된 부분에 접근하도록 더욱 구성된다.
또 다른 예로서, 상기 클라이언트 장치의 상기 프로세서에 의하여 식별된 상기 적색, 황색, 및 녹색 물체들은 교통 신호들에 대응하는 적절한 크기 및 종횡비이다.
또 다른 예로서, 상기 교통 신호의 상태를 결정하는 것은 상기 추정된 위치의 상기 경계 내의 상기 식별된 물체의 위치에 기초한다.
또 다른 예로서, 상기 추정된 위치의 상기 경계는 크기와 연관되며, 상기 크기는 상기 교통 신호의 크기보다 크다.
또 다른 예로서, 상기 클라이언트 장치는 상기 클라이언트 장치의 상기 현재 위치를 교차로에 걸친 교통 차선의 지도에 비교하는 것에 기초하여 상기 클라이언트 장치에 연관된 교통 차선을 결정하도록 더욱 구성된다. 선택적으로, 상기 클라이언트 장치의 상기 프로세서는 상기 클라이언트 장치에 연관된 상기 교통 차선에 기초하여 상기 교통 신호의 경계의 추정된 위치를 결정하도록 더욱 구성된다.
또 다른 예로서, 상기 클라이언트 장치의 상기 프로세서는 상기 교통 신호의 상태가 디폴트 상태로부터 변경되었는지를 결정하도록 더욱 구성된다.
또 다른 예로서, 상기 클라이언트 장치의 상기 프로세서는 상기 교통 신호의 상기 추정된 위치의 상기 경계 내에 식별된 물체가 없는 경우, 상기 교통 신호의 상태가 상기 디폴트 상태라고 결정하도록 더욱 구성된다. 선택적으로, 상기 디폴트 상태는 황색 불빛이다. 또 다른 선택으로, 상기 디폴트 상태는 적색 불빛이다.
또 다른 예로서, 상기 클라이언트 장치는 차량에 연관된 컴퓨터로 상기 교통 신호의 상태를 전송하도록 더욱 구성된다.
또 다른 예로서, 상기 클라이언트 장치의 상기 프로세서는 상기 불빛의 상태가 적색 또는 황색일 경우 상기 차량을 감속하는 명령을 전송하도록 더욱 구성된다.
또 다른 예로서, 상기 클라이언트 장치는 하나 또는 그 이상의 스피커를 포함하고, 상기 클라이언트 장치의 상기 프로세서는 상기 교통 신호의 상태를 청각적으로 식별하도록 더욱 구성된다.
또 다른 예로서, 상기 클라이언트 장치의 상기 프로세서는 상기 교통 신호의 상기 상태에 기초하여 운전 명령을 제공하도록 더욱 구성된다.
교통 신호들의 지도들을 생성하고, 이들 지도들을 실시간 교통 신호들의 상태 검출을 수행하는데 사용할 수 있게 된다.
도 1A는 본 발명의 일 측면에 따른 시스템의 기능 도면이다.
도 1B는 본 발명의 일 측면에 따른 시스템의 그림 도면이다.
도 2는 본 발명의 일 측면에 따른 교통 신호 및 신호등의 예시적인 이미지를 나타내는 도면이다.
도 3은 본 발명의 일 측면에 따른 흐름도이다.
도 4는 본 발명의 일 측면에 따른 흐름도이다.
도 5는 본 발명의 일 측면에 따른 교통 교차로를 나타내는 도면이다.
도 6은 본 발명의 일 측면에 따른 실험 데이터의 히스토그램의 일 예이다.
도 7은 본 발명의 일 측면에 따른 실험 데이터의 복합 매트릭스(confusion matrix)를 나타내는 일 예이다.
본 발명의 측면들, 특징들 및 이점들은 수반된 도면들과 실시 예들의 설명을 참고하여 고려할 때 잘 파악될 것이다. 서로 다른 도면에 사용된 동일한 참조 번호들은 동일하거나 유사한 요소를 나타낸다. 또한 이하의 설명들은 본 발명의 범위를 한정하는 것은 아니며 첨부된 특허청구범위 및 그와 대등한 내용에 의하여 정의될 것이다.
고정된 노출과 조리개를 갖는 카메라들은 신호등 색상 레벨들의 영상들을 수집하기 위하여 직접 조정될 것이다. 신호등의 장소(position), 위치(location), 및 방향(orientation)은 둘 또는 그 이상의 상기와 같은 영상들에 의하여 자동으로 추정(extrapolated)될 것이다. 그리고 이 정보는 신호등들의 3차원 위치를 식별하는 지도들을 생성하는데 사용될 것이다. 이들 신호등들의 3차원 지도들은 클라이언트 장치가 교통 신호들을 예상 및 예측하도록 할 수 있을 것이다.
도 1A 및 도 1B에 나타낸 바와 같이, 본 발명의 일 측면에 따른 시스템(100)은 프로세서(120), 메모리(130), 및 상용 컴퓨터들에 전형적으로 존재하는 다른 구성들을 포함하는 컴퓨터(110)를 포함한다.
메모리(130)는, 프로세서(120)에 의하여 접근 가능하며 프로세서(120)에 의하여 수행되거나 또는 그렇지 않다면 사용될 수 있는 데이터(134) 및 명령들(132)을 포함하는 정보를 저장한다. 메모리(130)는 하드 드라이브, 메모리 매체(memory vehicled), ROM, RAM, DVD 또는 다른 광학 디스크뿐만 아니라 다른 쓰기 가능한 메모리(write-capable memory)나 읽기만 가능한 메모리(read-only memory)들과 같은 전자 장치의 도움으로 읽을 수 있는 컴퓨터-독출 가능한 매체(computer-readable medium), 또는 데이터를 저장하는 다른 매체를 포함하여, 프로세서에 의하여 접근 가능한 정보를 저장할 수 있는 어떠한 형태라도 좋다. 시스템들 및 방법들은 상술한 매체들의 서로 다른 조합들을 포함할 수 있으며, 데이터 및 명령들의 다른 부분들은 다른 형태의 매체에 저장될 수 있다.
명령들(132)은 (기계 코드(machine code)와 같이) 직접적으로 또는 (스크립트(scripts)와 같이) 간접적으로 프로세서에 의하여 실행되는 명령들의 모든 세트일 수 있다. 예를 들어, 명령들은 컴퓨터-독출 가능한 매체에 컴퓨터 코드로서 저장될 수 있다. 이와 관련하여, 여기서 “명령들” 및 “프로그램들”이라는 용어는 서로 혼용될 수 있다. 명령들은 프로세서에 의하여 직접 처리되기 위한 오브젝트 코드 포맷(object code format)이나, 미리 컴파일 되거나 요구에 의하여 인터프리티드(interpreted) 되는 독립 소스 코드 모듈(independent source code modules)의 수집(collection)이나 스크립트(scripts)를 포함하는 다른 어떠한 컴퓨터 언어로서 저장될 수 있다. 명령들의 기능들, 방법들, 및 루틴들은 아래에서 더욱 자세히 설명된다.
데이터(134)는 명령(132)에 따라서 프로세서(120)에 의하여 인출되거나(retrieved), 저장되거나 또는 수정될 수 있다. 예를 들어, 비록 시스템 및 방법은 어떤 특정한 데이터 구조로 한정되는 것은 아니며, 데이터는 컴퓨터 레지스터에, 복수의 서로 다른 필드와 기록들을 갖는 테이블, XML 문서들, 또는 플랫 파일(flat file)로서 관련된 데이터베이스에 저장될 수 있다. 데이터는 어떠한 컴퓨터-독출 가능한 형태로 포맷될 수 있다. 추가적인 예시로서, 영상 데이터는 도면 그래픽용 컴퓨터 명령뿐만 아니라, 압축 또는 비압축, 무손실(예를 들어, BMP) 또는 손실(예를 들어, JPEG), 및 비트맵 또는 벡터 기반(예를 들어, SVG) 등의 형태에 따라서 저장되는 픽셀의 위치들로 이루어진 비트맵들로서 저장될 수 있다. 데이터는 관련 데이터를 계산하기 위한 기능에 의하여 사용되는 정보, (다른 네트워크 위치들을 포함한) 다른 메모리들이나 같은 메모리의 다른 영역에 저장된 데이터의 참조들이나 소유 코드들(proprietary codes), 설명 텍스트(descriptive text), 숫자들과 같은 관련 정보를 식별하는데 충분한 모든 정보를 포함할 수 있다.
프로세서(120)는 인텔이나 AMD 등에 의한 프로세서들과 같은 모든 일반적인 프로세서일 수 있다. 선택적으로, 프로세서는 ASIC과 같은 전용 장치일 수도 있다. 비록 도 1은 프로세서 및 메모리를 같은 블록 안에 존재하는 것처럼 기능적으로 도시하였으나, 본 기술 분야의 통상의 기술자라면 프로세서 및 메모리는 실제로는 같은 물리적인 하우징 내에 보관되거나 또는 보관되지 않을 수 있는 복수의 프로세서들 및 메모리들을 포함하는 것으로 이해할 수 있을 것이다. 예를 들어, 메모리는 데이터 센터의 서버 팜(server farm)에 위치한 하드 드라이브 또는 저장 매체일 수 있다. 따라서, 프로세서나 컴퓨터에 대한 참조번호들은 병렬로 동작할 수 있거나 병렬로 동작하지 않을 수 있는 메모리들 또는 컴퓨터들 또는 프로세서들의 집합들에 대한 참조번호들을 포함하는 것으로 이해되어야 할 것이다.
컴퓨터(110)는 네트워크(150)의 일 노드에 위치할 수 있으며, 네트워크의 다른 노드들과 직접 및 간접적으로 통신할 수 있다. 예를 들어, 컴퓨터(110)는 클라이언트 장치들(170-172)과 네트워크(150)를 통하여 통신할 수 있는 웹 서버를 포함할 수 있어, 서버(110)는 네트워크(150)를 사용하여 도 1B의 사람(191,192)과 같은 사용자에게 정보를 전송 및 디스플레이하거나 또는 제공한다. 서버(110)는 또한 클라이언트 장치들로의 데이터의 수신, 처리 및 전송을 위하여 네트워크의 서로 다른 노드들과 정보의 교환을 수행하는 복수의 컴퓨터들을 포함할 수 있다. 이때, 클라이언트 장치들은 서버(110)를 포함하는 어떤 컴퓨터들과도 다른 네트워크의 노드들에 있을 수 있다.
네트워크(150), 및 서버(110) 및 클라이언트 장치들 사이의 매게 노드(intervening node)들은 다양한 구성들을 포함할 수 있으며, 인터넷, 월드 와이드 웹(World Wide Web), 인트라넷(intranets), 가상 사설망(virtual private networks), 로컬 이더넷(local Ethernet) 네트워크, 하나 또는 그 이상의 회사들에 소유되는 통신 프로토콜을 사용한 전용 네트워크, 셀룰러 및 무선 네트워크(예를 들어, WiFi), 인스턴트 메시지, HTTP 및 SMTP, 및 이들의 다양한 조합을 포함하는 다양한 프로토콜을 사용할 수 있다. 따라서 오직 몇몇 컴퓨터들이 도 1 내지 도 2에 도시되었으나, 전형적인 시스템은 많은 수의 연결된 컴퓨터들을 포함할 수 있다는 것을 알 수 있을 것이다.
각각의 클라이언트 장치는 프로세서(120), 메모리 및 명령들(132)를 갖는 서버(110)와 유사하게 구성될 것이다. 각 클라이언트 장치(170-172)는 사람(191-192)에 의하여 사용되도록 의도된 장치일 수 있으며, 중앙 처리 장치(CPU), 웹 브라우저와 같은 명령들 및 데이터(162)를 저장하는 메모리(예를 들어, RAM 및 내부 하드 드라이브들), 전자 디스플레이(164)(예를 들어, 스크린을 갖는 모니터, 소형 LCD 터치 스크린, 프로젝터, 텔레비전, 컴퓨터 프린터, 또는 정보를 디스플레이 하도록 동작하는 모든 다른 전자 장치), 및 사용자 입력부(166)(예를 들어, 마우스, 키보드, 터치 스크린 및/또는 마이크)와 같이 컴퓨터와 관련되어 사용되는 일반적인 모든 구성 요소를 포함할 수 있다. 클라이언트 장치는 또한 카메라(176), 지리적 장소 컴포넌트(geographic position component)(168), 하나 또는 그 이상의 스피커들(174), 네트워크 인터페이스 장치와 이들 요소들을 서로 연결하기 위한 모든 구성 요소들을 포함할 수 있다.
비록 클라이언트 장치들(170-172)은 각각 풀 사이즈 개인 컴퓨터를 포함할 수 있으나, 그들은 선택적으로 인터넷과 같은 네트워크를 통하여 서버와 데이터를 무선을 교환할 수 있거나 혹은 교환할 수 없는 휴대용 장치들을 포함할 수도 있다. 단지 예로서, 클라이언트 장치(172)는 차량의 컴퓨터와 정보를 교환할 수 있도록 차량에 탑재된 장치 또는 차량에 연결된 장치일 수 있다. 다른 예로서, 클라이언트 장치(171)는 인터넷을 통하여 정보를 획득할 수 있는 휴대폰 또는 무선 PDA일 수 있다. 사용자는 (블랙베리 폰의 경우) 작은 키보드, (전형적인 휴대폰의 경우) 키패드, 또는 (PDA의 경우) 터치 스크린를 사용하여 정보를 입력할 수 있다. 실제로, 여기서 설명되는 방법들 및 장치들에 따른 클라이언트 장치들은 명령들을 처리하고, 상용 장치들, 로컬 저장 능력이 결여된 네트워크 컴퓨터들, 기타 등등의 다른 컴퓨터들 및 인간과 데이터를 주고 받을 수 있는 모든 장치를 포함할 수 있다.
클라이언트 장치들은 장치의 지리적 위치 및 방향을 결정하기 위한 지리적 장소 컴포넌트를 포함할 수 있다. 예를 들어, 클라이언트 장치(170)는 장치의 위도, 경도, 및/또는 고도 위치를 결정하는 GPS 수신기를 포함할 수 있다. 레이저 기반 장소 추정 시스템들, 관성 보조(inertial-aided) GPS, 또는 카메라 기반 장소 추적기와 같은 다른 장소 추정 시스템이 사용될 수 있다. 또한, 지리적 장소 컴포넌트는, 만약 클라이언트 장치가 휴대폰인 경우, 하나 또는 그 이상의 셀룰러 타워로부터 휴대폰의 안테나에서 수신한 신호들과 같이 클라이언트 장치(171)에서 수신한 신호들에 기초하여 장치의 장소를 결정하는 소프트웨어를 포함할 수도 있다.
클라이언트 장치(171)는 또한 장치가 향하고 있는 방향을 결정하는 가속도계, 자이로스코프 또는 다른 가속 장치(168)와 같은 다른 특징 구성들을 포함할 수도 있다. 단지 예로서, 가속 장치는 중력 방향 또는 그 장치에 직교하는 평면에 대한 그 피치(pitch), 요(yaw), 또는 롤(roll) (또는 그로부터의 변화)를 결정할 수 있다. 이에 대하여, 여기에 개시된 것과 같이 클라이언트 장치에 의한 방향 및 위치 데이터의 제공은 사용자, 서버 또는 모두에게 자동으로 제공될 것이다.
도 1A로 돌아와서, 데이터(134)는 교통 신호들의 영상과 같은 영상 데이터를 포함할 수 있다. 영상들은 영상이 촬영된 시점에서의 카메라 또는 차량의 장소, 위치, 및 방향을 포함하는 다양한 정보와 연관된다. 영상 데이터는 영상에서 교통 신호의 장소 및 위치를 나타내는 라벨들과도 연관될 수 있다. 이들 라벨들은 다양한 방법들로 생성될 수 있다. 예를 들어, 라벨이 부여된 영상들을 생성하는 한 방법은 인간 분류자(human labeler) 팀을 이용하는 것이다. 그러나, 인간 분류자는 전형적인 도시 환경에서 고밀도 신호들에 대하여 작업이 요구될 때, 상대적으로 느리다. 더욱이, 최고의 인간 분류자 조차도 항상 그들의 라벨 부착이 항상 정확하지는 않다. 아래에 더욱 자세하게 설명되는 다른 예로서, 라벨은 교통 신호 분류자(140)를 사용하여 자동으로 생성될 수 있다.
영상 데이터(134)는 또한 다른 영상들과의 연관성을 포함할 수도 있다. 예를 들어, 서로 다른 두 개의 영상들에 있는 두 개의 라벨들이 동일한 교통 신호를 식별할 때, 이들 라벨들(또는 영상들)은 서로 연관될 수 있다. 아래에 더욱 구체적으로 설명되듯이, 이들 영상들 사이의 연관성 및 라벨들은 교통 신호들의 추정 3차원 장소를 식별하는 교통 신호 지도들(138)을 생성하는데 사용될 수 있다.
이들 영상들은 교차로를, 예를 들어 GPS, 관성, 및/또는 레이저 시스템들과 같은 네비게이션 시스템들 및 카메라가 장착된 차량을 직접 운전함으로써 수집될 수 있으며, 정확한 시간이 찍힌 카메라 영상들 및 레이저 범위를 수집할 수 있다. 차량들(180-181)과 같은 차량들은 신호등 영상들을 수집하기 위하여 다양한 구성으로 장착된 다양한 형태의 카메라(182)들을 사용할 수 있다. 예를 들어, Piont Grey grasshopper 5 MP 카메라가 운전자의 시야를 최소한으로 방해하는 백미러(rear-view mirror)의 오른쪽에 장착되어 앞을 똑바로 향하도록 자리잡을 수 있다. 30도의 시야각을 갖는 고정 렌즈들을 갖는 카메라의 2040x1080 영역과 같은 특별 관심 영역이 카메라에 대하여 선택될 수 있다. 예를 들어, 카메라는 합리적인 제동 거리를 확보하기 위하여 55MPH로 운행할 때 150m에서 교통 신호들을 검출할 수 있도록 조정된다.
차량들(180-181) 또는 카메라(182)는 또한 상술한 바와 같은 지리적 장소 컴포넌트(178)를 포함할 수 있다. 지리적 장소 컴포넌트는 특정 영상이 촬영되었을 때의 차량 또는 카메라의 지리적 위치, 방향, 및 장소를 식별하는데 사용될 수 있다.
차량들(180-181)은 서버(110)에서 사용하기 위하여 영상들을 기록한다. 영상들 및 연관 정보는 차량으로부터 네트워크(150)를 통하여 서버(110)로 업로드 될 수도 있으며, 또는 직접 서버(110)로 로드될 수도 있다.
저녁에 신호등 빛의 영상들을 수집하기 위하여 게인 및 셔터 스피드가 신호등, 특히 LED 기반의 밝은 녹색 불빛의 포화(saturation)를 피하도록 설정될 수 있다. 이들 설정들은 낮 동안에도 상대적으로 어두운 영상을 요구할 때 사용될 수 있다.
도 2는 아래 구체적으로 설명될 일 실시 예(200)를 나타낸다. 동작은 아래에 설명된 정확한 순서에 따라서 수행되어야만 하는 것은 아니라는 점은 이해될 수 있을 것이다. 오히려, 다양한 단계들이 동시에 또는 다른 순서로 처리될 수 있다.
도 2의 블록 210에서 나타내듯이, 영상 데이터를 서버(110)로부터 수신한다. 그리고, 블록 220에서, 서버는 수신한 영상들을 가장 관련된 것, 즉, 신호등들을 포함할 것 같은 영상들로 필터링한다. 일반적으로, 신호등들은 교차로에 위치할 것이며, 따라서 지리-공간적인(geo-spatial) 쿼리들(quaries)이 교차로가 보이지 않을 때 촬영된 영상들을 제거하는데 사용될 수 있을 것이다.
차량이 교차로로 접근하는 동안 촬영된 영상들로 영상들의 세트를 솎아낸(winnowing) 후, 블록들 230 및 240과 같이 영상들은 분류 및 라벨화된다. 서버(110)는 같은 크기 및 종횡비들을 갖는 밝은 색상의 적색, 황색 및 녹색 색영역(blob)을 탐색하는 교통 신호 분류자를 사용할 수 있으며, 이들 색영역은 장소 추정 과정을 위한 잠정적인 교통 신호 라벨들로 사용될 수 있다. 비록 본 발명은 적색, 황색, 및 녹색 빛의 세트를 갖는 전형적인 수직방향의 신호등과 연관하여 설명하였으나, 이러한 특정 구조는 예로서 사용된 것으로 이해될 수 있을 것이다. 교통 신호들은 변경될 수 있으며, 때때로 복합 도형일 수도 있으며, 본 발명은 모든 개수의 이들 추가적인 도형에서 동작할 수 있다.
도 3은 교통 신호들을 인간이 라벨한 예를 나타낸다. 각각의 포지티브 예에 대하여 8개의 추가적인 네거티브 예들이 생성된다. 만약, 새로 생성된 예들이 포지티브 예에서 겹치는 경우, 예를 들어 두 개의 교통 신호들이 서로 매우 가까운 경우, 새로 생성된 예들은 제거된다.
라벨링 단계의 출력은 매우 많은 수의 라벨들일 수 있으며, 그러나 상기 라벨은, 어느 라벨이 어느 교통 신호에 속하는지에 대한 정보를 갖지 않는다. 3차원에서 물체의 장소를 추정하기 위하여는 서로 다른 영상들로부터의 적어도 두 개의 라벨들을 요구하며, 장소 추정은 일반적으로 더 많은 라벨들을 이용할 수 있으면 개선된다. 그러나, 특정 교통 신호와 같이 동일한 대상(subject matter)을 포함하는 둘 또는 그 이상의 영상들을 식별하기 위하여, 영상들의 라벨들은 서로 연관되어야 한다. 두 개의 영상들은, 이들 영상들에 연관된 라벨들이 서로 연관 거리 내에 있을 때, 연관될 수 있다. 예를 들어, 각 라벨은 직경 d를 갖는다. 만약 두 라벨들의 중심이 서로 d 또는 10d와 같이 상대적으로 작은 거리 이내이면, 이들 라벨들은 서로 연관될 수 있다. 다른 예로서, 만약 두 라벨들이 서로 겹치면, 라벨들은 서로 연관될 수 있다. 연관성은 영상 시퀀스들에서의 라벨들 사이에서, 장소 추정이 한번 수행된 3차원 물체들 사이에서, 또는 두 타입의 연관성을 결합한 반복 접근(iterative approach)을 사용하여 결정될 수 있다.
연관성을 식별하기 위하여, 서버는 촬영된 교통 신호들의 종류에 대하여 몇 가지 추정을 할 수 있다. 예를 들어, 신호가 단연 가장 일반적인 구성으로서, 표준의 세로 방향 적(red)-황(yellow)-녹(green) 구조를 가진다고 가정함으로써 교통 신호의 풀 사이즈가 추정될 수 있다. 이러한 풀 사이즈 교통 신호 라벨은 색을 더욱 단순하게 변경한 교통 신호들로부터 도출된 연관 라벨을 생성한다.
영상들 사이의 라벨 연관은 다양한 방법으로 수행될 수 있다. 예를 들어, 근사 아핀 모션(near-affine motion) 및/또는 높은 프레임 레이트의 경우, 한 영상의 라벨을 다음 영상의 라벨과 연관시키는데 탬플릿 추적기(template trackers)가 사용될 수 있다. 다른 예로서, 카메라의 프레임 레이트가 4fps와 같이 낮으면, 물체 움직임이 완전히 사영되고(projective), 직접 움직임 보상(direct motion compensation)이 사용될 수 있다.
상기와 같이, 정확한 카메라 자세, 또는 장소/위치/방향이 각 영상에 대하여 알려진다. 만약 카메라가 이동하는 차량에 장착되면, 수초의 시구간 동안 상기 자세에서의 누적 에러는, 예를 들어 주행한 거리의 1%로 상대적으로 낮을 것이다. 다른 예로서, 차량의 장소 추정은 0.15m 이내의 장소 정확도를 얻기 위하여 오프라인 최적화 방법에 의하여 개선될 것이다.
도 2의 블록 250으로 돌아가서, 서버(110)는 서로 다른 영상들의 라벨들 사이의 연관성을 식별하기 위하여 직접 움직임 보상을 사용한다. 롤, 피치, 및 요의 변화에 의한 물체의 겉보기 움직임(apparent motion)은 고유의 카메라 모델(intrinsic camera model)을 사용하여 수정하는 것이 간단하나, 차량의 전진 동작에 의한 물체의 겉보기 움직임을 수정하기 위하여 몇몇 물체 장소의 추정이 필요하다. 영상에서의 물체의 겉보기 장소는 광선(ray) 위의 어딘가로 그 장소를 제한하며, 상기 물체가 특정 크기의 교통 신호라고 가정함으로써 물체 거리의 대략적인 추정이 이루어진다. 초점 거리가
Figure 112012067102980-pct00001
인 카메라에 의하여 촬영된 영상에서 실제 폭이 w 이고, 겉보기 폭이
Figure 112012067102980-pct00002
인 물체까지의 거리 d는:
Figure 112012067102980-pct00003
이다.
방향 벡터
Figure 112012067102980-pct00004
는 지름방향 왜곡을 보정하는 카메라 모델을 사용하여 계산될 것이며, 물체의 대략적인 3차원 장소는:
Figure 112012067102980-pct00005
Figure 112012067102980-pct00006
Figure 112012067102980-pct00007
이다.
T1 및 T2가 차량의 프레임으로부터 지엽적으로 부드러운 좌표 프레임으로의 두 개의 서로 다른 시간 사이의 4x4 변환 행이고, C가 차량 프레임으로부터 카메라 프레임으로의 변환이면, 한 영상에서 다른 영상으로의 물체의 상대적 움직임(relative motion)은 다음과 같이 수정된다:
Figure 112012067102980-pct00008
왜곡된 영상의 좌표들은 카메라의 고유 모델을 사용하여 계산될 수 있다. 상기와 같이, (두 개의 영상들에서의 교통 신호의) 두 개의 라벨들은, 만약 상기 라벨들이 서로 연관 거리 내에 있으면, 연관될 것이다. 따라서, 라벨들의 긴 시퀀스는 그들 모두가 특정 교통 신호의 영상들과 연관되었다는 것을 나타내면서 연관될 것이다.
다른 예로서, 라벨은 다른 종류의 물체, 예를 들어 다른 차량의 꼬리등(tail lights)에 대응할 수 있다. 이러한 경우들에서, 대략적인 거리 추정 및 이어지는 움직임 보상은 부정확할 것이며, 교통 신호로 잘못 분류된 물체들 사이의 라벨 연관의 가능성은 감소될 것이다.
만약 움직임 보정된 라벨이 다른 라벨과 겹치면, 이들 라벨들은 동일한 물체에 대응될 가능성이 높다. 물체의 3차원 장소는 대응되는 라벨들의 시퀀스로부터 추정될 것이다.
블록 260에서 나타내듯이, 서버(110)는 교통 신호의 3차원 위치를 결정하기 위하여 상기 연관성을 사용할 것이다. 구체적으로, 3차원 물체의 자세는 둘 또는 그 이상의 영상들에서의 연관된 라벨들에 기초하여 추정될 것이다. 예를 들어, 최적 삼각 측량법(optimal triangulation method)이 사용될 수 있으며, 그러나 이 방법은 많아야 세 개의 라벨들로 사용될 것이며, 동일한 교통 신호에 대하여 많은 라벨 라벨들이 존재할 때에는 덜 유용할 것이다. 다른 예로서, 상기 자세는 선형 삼각 측량 및 DLT(direct linear transform), 최소 자승법(least-squares method)을 사용하여 추정될 수 있을 것이다.
최소 자승법을 사용하여 사전에 분류된 각 영상 라벨은 영상 좌표
Figure 112012067102980-pct00009
와 연관될 것이다. 이들 영상 좌표들은 지름 방향 왜곡 등을 보정하는 카메라의 고유 모델을 사용하여 방향 벡터 x로 변환될 것이다.
3차원 점 X는 각각의 라벨 방향 벡터
Figure 112012067102980-pct00010
및 카메라 사영 매트릭스
Figure 112012067102980-pct00011
에 대하여 다음과 같도록 추정될 것이다,
Figure 112012067102980-pct00012
이들 방정식은 다음 식에 결합될 것이다:
AX = 0
상기 식은 X의 선형 방정식이다. 사영 기하학(projective geometry)에 고유한 호머지니어스 스케일 팩터(homogeneous scale factor)를 제거하기 위해, 3n x 4 매트릭스 A가 특정 물체에 대한 영상 라벨들 {x1, x2, …} 각각의 외적으로부터 만들어질 수 있다.
Figure 112012067102980-pct00013
외적 매트릭스는:
Figure 112012067102980-pct00014
이고,
Figure 112012067102980-pct00015
이다.
Figure 112012067102980-pct00016
인 A에 대하여 특이값 분해(singular value decomposition)를 수행하면, X의 해는 A의 가장 작은 특이값(smallest singular value) 또는 A의 가장 우측값(right-most value)에 대응하는 비균질화된(de-homogenized) 특이 벡터(singular vector)이다.
신호의 방향은 교통 신호 장소를 추정하는데 사용되는 모든 영상들의 라벨들에 걸쳐 평균적인 차량 방향에 반대인 방향으로 추정된다.
위에서 생성된 정보는 블록 270에 나타낸 것과 같이 교통 신호들의 3차원 위치 및 구조(geometries)를 묘사하는 지도 정보를 생성하는데 사용될 수 있다. 지도 정보의 정확도는 카메라의 외부 파라미터, 즉 차량의 좌표 프레임에 대한 카메라의 장소 및 방향을 나타내는 변환(transform)에 민감하다. 외부 파라미터들의 합리적인 초기 추정을 가정할 때, 이들 파라미터들은 좌표 하강(coordinate descent)을 사용하여 교통 신호들의 재사영 노력을 최소화하여 조정될 수 있다:
Figure 112012067102980-pct00017
여기서, Xe는 외부 파라미터 e를 사용한 맵핑 파이프라인(pipeline)에 의하여 추정된 교통 신호 장소들이다. 비록 하드웨어의 시간 스탬프 또한 사용될 수 있지만, 유사한 공정이 영상이 카메라에 의하여 촬영될 때와 그것이 컴퓨터로 전송될 때 사이의 시간 지연을 추정하는데 사용될 것이다. 이 시간 지연은 카메라의 프레임 레이트 및 파이어와이어(Firewire) 버스 스케줄링 할당에 의존하여 변하나, 주어진 구성에 대하여 수백 초 내에서는 안정적일 것이다. 렌즈의 왜곡을 결정하는 카메라의 내부 파라미터들은 체크보드(checkboard)의 모서리 추출 공정을 사용하여 표준 래디얼 렌즈 모델(standard radial lens model)용으로 조정될 수 있다.
교통 신호들은 또한 그들이 적용되는 실제 차선이 식별될 것이다. 예를 들어, 어떤 교통 신호들은 좌회전 또는 우회전 차선들에만 적용될 수 있을 것이다. 이 정보는 교차로에 걸쳐서 서로 다른 허용 경로들과 교통 신호 사이의 연관성으로 표현될 것이다. 교통 신호 방향 및 평균 교차로 폭에 기초한 단순한 체험적 방법(heuristics)이 이들 연관성에 관해 추정을 만드는데 사용될 수 있을 것이다. 이들 추정들은 그 후 수동으로 확인될 것이다. 이는 특히 복잡한 다차선 교차로에 필요할 것이다.
새로운 라벨들이 지속적으로 추가되어 분류자(classifier)를 최적화하는데 사용될 수 있을 것이다. 격자 탐색(grid search) 및 힐 클라이밍(hill climbing)을 포함한 다양한 최적화 방법들이 사용될 수 있을 것이다. 예를 들어, 격자 탐색에서는, 파라미터 공간의 각 축을 이산화시키고(discretize), 이들 이산화된 좌표들의 모든 조합들이 평가된다. 코스 격자는 최적화되는 공간의 구조에 대한 통찰(insight)을 제공한다.
비록 도 2의 단계들이 하나의 중앙 서버 컴퓨터를 사용한 과정으로 설명되었으나, 영상들은 각 컴퓨터가 작은 세트의 영상들을 RAM에 로드하고, 그리고는 그들 캐쉬된 이미지들(cached images)의 현재의 최적화 상태에 따라서 분류자를 반복적으로 평가하도록 컴퓨터들의 세트에 걸쳐서 분산될 수도 있을 것이다. 특정 분류자 구성은 수백 개의 컴퓨터들에 의하여 1초 이내에 한 세트, 예를 들어 10,000개 영상들 이상이 평가될 수 있을 것이다. 이는 짧은 시구간 내에 분류자를 최적화하기 위하여 좌표 상승(coordinate ascent)과 같은 반복적인 힐 클라이밍 접근의 사용을 허용한다. 또한 하나의 최적화 단계 내에서 평가될 모든 상태들을 하나로 묶는 것에 의하여 병렬화(parallelization)가 가능할 것이다. 만약 자동으로 생성된 네거티브 예들(negative examples)이 훨씬 많으면, 포지티브 예들(positive examples)의 출력은 10배 높은 가중치가 매겨질 수 있을 것이다.
일단 지도 정보가 생성되면, 상기 정보는 로봇 차량이나 운전자를 보조하는데 사용될 수 있을 것이다. 교통 신호들(적색, 황색, 또는 녹색)을 식별하고 해석하는데 교통 신호 지도가 사용될 수 있을 것이다. 도 4는 이 과정의 예시적인 흐름도(400)를 나타낸다. 블록 410에 나타내듯이, 클라이언트 장치는 교통 신호 지도의 관련 부분에 대한 클라이언트 장치의 위치를 지속적으로 결정한다. 예를 들어, 차량에 장착된 또는 휴대용 장치는 교통 신호 지도로 직접 접근되거나, 또는 상기 장치(또는 차량)의 위치에 기초하여 서버로부터 지도의 부분을 자동으로 수신하거나 요청할 수 있을 것이다.
블록 420에 나타낸 것과 같이, 그리고는 클라이언트 장치는 클라이언트 장치가 교차로(또는 교통 신호) 방향으로 이동하는지를 결정한다. 만약 클라이언트 장치가 교차로로 접근하고 있으면, 블록 430에 나타낸 것과 같이, 클라이언트 장치는 교통 신호 지도 및 클라이언트 장치의 위치에 기초하여 교차로에서의 교통 신호의 3차원 위치를 예측할 수 있다.
차량의 자세 및 교통 신호 지도를 사용하여, 영상 프레임 내에 교통 신호들이 언제 보일 것인지 및 어디서 그들이 나타날 것인지 예측이 이루어진다. 교통 신호 지도에 대한 차량 또는 장치의 장소는 GPS, 레이저 기반 장소 추적 시스템(laser-based localization systems), 또는 라이더(lidar) 장소 추적 시스템 중 하나 또는 그 이상으로부터 추정될 수 있을 것이다. Kd 트리(tree) 또는 S2 구면기하학 셀(spherical geometry cell) 및 차량 방향뿐만 아니라 교통 신호의 방향을 포함하는 단순 가시성 모델(simple visibility model)이 주변 불빛들의 장소를 예측하는데 사용될 수 있을 것이다. 예측된 장소들은 카메라 모델을 사용하여 축에 정렬된 바운딩 박스(axis-aligned bounding box)로서 영상 프레임에 사영될 수 있을 것이다. 바운딩 박스의 구조는 지도 정보에 의하여 설명되는 것과 같은 교통 신호의 구조에 기초하여 결정될 수 있을 것이다. 예측에서의 부정확성을 없애기 위하여, 일 예로, 바운딩 박스가 각 축에서 실제 예측보다 3배 크게 설정될 수 있을 것이다.
클라이언트 장치는 블록 440 및 450에서, 영상들을 수집하기 위하여 카메라를 사용할 수 있을 것이며, 이들 영상들에서의 적색, 황색, 또는 녹색 색영역을 검출하기 위하여 분류자를 사용한다.
클라이언트 장치는 각각의 예측된 바운딩 박스들 내에서 적절한 크기의 밝은 색을 띠는 적색, 황색, 및 녹색 색영역을 찾기 위하여 상기 설명한 것과 같은 분류자를 사용할 수 있을 것이다. 신호등들의 구조가 서로 다른 신호등들끼리를 구분하는데 사용될 수 있을 것이다. 예를 들어, 만약 특정 교통 신호가 녹색 빛을 가지면, 녹색등이 좌측 화살표 또는 둥근 빛을 나타내는지 여부를 결정하기 위하여 교통 신호의 대략적인 위치, 형태(shape) 및 모양(design)이 사용될 수 있을 것이다. 그 결과는 교통 신호의 상태를 식별하는데 사용될 수 있는 각 교통 신호에 대한 가능한 분류(classification)의 세트이다.
만약 블록 460에서 예측된 위치 내에서 검출된 관련된 색영역이 없을 경우, 클라이언트 장치는 블록 480에서 교통 신호의 어떤 디폴트 상태(default state)를 가정한다. 클라이언트 장치는 황색 빛과 같은 디폴트 상태를 가정한다. 황색을 디폴트로 선택하는 것은 차량이 감속할 필요를 나타내는 안전 메커니즘으로서 역할을 할 수 있을 것이다. 교통 신호의 상태를 계속해서 분류하기 위하여는 교차로에 접근할 때 차량을 감속하도록 하는 것이 항상 대부분 안전하다고 가정할 수 있을 것이다. 만약, 새로운 분류가 없으면, 클라이언트 장치는 교통 신호의 상태가 변경되지 않았으며, 불빛이 아직 황색이라고 결정할 수 있을 것이다.
더욱이, 클라이언트 장치는 예측된 바운딩 박스 내에서 구조적으로 가장 높은 분류를 선택할 것이다. 예를 들어, 창 내에서. 예를 들어, 주어진 바운딩 박스에서, 몇 개의 불빛이 검출될 수 있다. 클라이언트 장치는 가장 높은 물리적인 불빛이 교통 신호에 대응된다고 결정할 것이다. 이는 흔히 녹색 불빛들 바로 아래에 위치하지만, 예측된 바운딩 박스 내에 위치하는 오렌지 색의 보행자 횡단보도 불빛들과 같은 물체들의 오분류를 방지한다(도 5의 '건너지 마시오' 표시(550) 참조).
도 4의 블록 470으로 돌아가서, 만약 분류자에 의하여 검출된 관련된 색영역들이 있으면, 클라이언트 장치는 교통 신호에 상태 변화가 존재하는지 여부를 결정할 것이다. 만약 상태 변화가 없으면, 블록 480에서 클라이언트 장치는 교통 신호의 디폴트 상태를 다시 가정할 것이다. 만약 어떤 상태 변화가 존재하면, 블록 490에서 클라이언트 장치는 변화의 종류를 결정할 것이다. 마지막으로, 블록 495에서 교통 신호의 상태가 결정되며, 차량이나 사용자를 보조하는데 사용될 준비가 된다.
다음으로 교통 신호의 장소 및 상태가 운전자나 로봇 차량을 보조하는데 사용될 것이다. 장치가 사람에 의하여 운행되는 차량 내에서 사용되면, 장치는 교통 신호의 상태에 대한 정보를 제공할 것이다. 예를 들어, 장치는 불빛이 적색, 황색 또는 녹색임을 나타내는 “신호등이 녹색입니다”와 같은 시각적 또는 청각적 표시를 제공할 것이다. 다른 예로서, 장치는 “브레이크를 밟으세요, 신호등이 적색입니다” 또는 “신호등이 적색입니다, 차량을 정지시키십시오”와 같은 청각적 표시나 경고를 제공할 수 있을 것이다. 다른 예로서, 장치는 좌회전 신호와 같은 정확한 신호가 녹색이 아님을 알려줄 수 있을 것이다. 장치는 브레이크가 적용되어야 하는 차량에 명령을 전송하는데 사용될 수 있을 것이다. 만약 장치가 내비게이션 시스템과 결합되어 사용되면, “다음 교차로에서 멈추십시오, 신호등이 적색입니다”와 같은 추가적인 명령을 포함할 수 있을 것이다.
도 5의 예에서, 차량(510)의 운전자는 교차로에 접근하고 있다. 교통 신호(540)에 대한 운전자의 시야는 차량(520)에 의하여 제한되어 있거나 완전히 차단될 것이다. 차량(510) 내의 클라이언트 장치는 카메라에 의하여 촬영된 영상들에서 교통 신호가 보이는지를 결정할 것이며, 예를 들어 황색 빛인 교통 신호 불빛(545)이 비추어지고 있는지를 결정할 것이다. 클라이언트 장치는 예를 들어 “감속하시오, 신호등이 노란색입니다”라고 명시하거나 또는 차량의 컴퓨터에 브레이크를 작동시킬 필요를 통지하는, 시각적 또는 청각적 신호를 사용하여 운전자에게 이 정보를 건네줄 수 있을 것이다. 만약 클라이언트 장치가 교통 신호의 상태들을 식별할 수 없다면, 장치는 디폴트를 사용할 것이며, 다시 어떤 시각적 또는 청각적 명령을 사용자에게 제공할 것이다. 다른 예로서, 차량은 교통 신호의 적색 불빛에 대하여 정지될 것이다. 불빛이 녹색으로 변경될 때, 클라이언트 장치는 교통 신호의 상태의 변화를 식별하고, 이 정보를 사용자 또는 차량의 컴퓨터로 제공한다. 정보를 수신한 후에, 예를 들어 운전자 또는 컴퓨터는 차량을 가속하기 시작할 것이다.
또 다른 예로서, 차량은 특정 경로를 주행할 수 있으며, 클라이언트 장치는 교차로에 걸친 주행 차선을 결정하기 위하여 그 장소를 사용할 수 있을 것이다. 이 정보에 기초하여, 클라이언트 장치는 교차로와 연관된 어떤 교통 신호들이 의도한 경로에 관련된 것인지를 결정할 수 있으며, 차량의 컴퓨터 또는 사용자에 대하여 관련 교통 신호들의 상태를 갱신한다.
차량이 자동으로 동작할 때, 장치는 예측된 바운딩 박스 내에서 적색 또는 황색 불빛이 검출되지 않았고 적어도 하나의 녹색 불빛이 검출되었음이 틀림없다고 결정함으로써 교차로에 걸쳐서 특정 경로를 결정할 것이다. 일반적으로 의미적으로(semantically) 동일한 복수의 불빛들이 교차로에 존재할 때, 장치는 통과할지 여부를 결정하기 위하여 단지 이들 불빛들 중 하나를 식별하면 된다.
도 6은 도심 도로 및 고속도로의 32km의 실험 주행 중의 예측치 및 검출된 불빛의 거리 히스토그램으로, 그 동안 자동차의 교차로의 통과를 제어하는데 상기 장치가 사용되었다. 이 예에서, 교통 신호들은 200m 밖까지 검출되었으며, 이는 장치가 교통 신호들이 보여야 한다고 예측하기 시작한 때이다. 따라서 교통 신호들은 교통 신호들과 차량 내의 장치 사이에 장애물이 존재하는 경우에도 예측되었다(도 4 및 위의 관련 설명을 참조).
도 7은 실험 주행 세션에 대한 교통 신호 복합 매트릭스를 나타낸다. 매트릭스는 각 포지티브 예의 8 이웃으로부터 생성된 네거티브 예들을 포함한다. 황색 신호 예들은 실측 자료(ground truth)에 포함되지 않았다.
아래의 표 1은 교통 신호 복합 매트릭스로부터 긍정 참(true positive, tp), 부정 참(true negative, tn), 긍정 오류(false positive, fp), 및 부정 오류(false negative, fn)를 포함한다.
긍정 검출 부정 검출
긍정 856 (tp) 57 (fn)
부정 3 (fp) 6938 (tn)
표 1에 기초하여, 실험 장치의 정확도는 99%(851/859=0.99)였고, 반면 리콜(recall)은 62%(851/1387=0.62)였다. 실험 장치로의 영상의 전송에 대한 약 0.12s의 대기 시간(latency)에 기인하여, 주로 약 0.2s의 대기시간이 경험되었다. 카메라 대역폭 제한에 기초하여, 검출 파이프라인의 프레임 레이트는 4Hs였다. 프로세서 부하는 하나의 CPU(central processing unit, 중앙 처리 유닛)의 25% 미만이었으며, 주로 영상들의 고해상도로부터 기인하였다. 실험 장치는 카메라가 와이퍼에 의하여 닦이는 영역 뒤에 장착되고, 보통의 비가 내리는 저녁에 가장 잘 동작하였다.
비록 상술한 바와 같이 정보가 전송되거나 수신될 때 특정 이점을 얻을 수 있으나, 본 발명의 측면들은 정보의 전송의 어떤 특정 방법에 한정되는 것은 아니다. 예를 들어, 어떤 측면에서는, 정보는 광 디스크 또는 휴대용 드라이브와 같은 매체를 통하여 보내질 수 있을 것이다. 다른 측면으로, 정보는 비 전자적(non-electronic) 형태로 전송되고, 수동으로 시스템에 입력될 수 있을 것이다. 또한 추가로, 비록 몇몇 함수들은 서버 및 다른 클라이언트에서 수행되는 것으로 설명되었으나, 본 시스템 및 방법의 다양한 측면들이 하나의 프로세서를 갖는 하나의 컴퓨터에 의하여 수행될 수도 있을 것이다.
또한 도면들에서 설명되고 도시된 데이터의 예시적인 값들이나 종류들 및 구성들은 단지 설명을 위한 것임을 이해할 수 있을 것이다. 이와 관련하여, 본 발명의 측면들에 따른 시스템들 및 방법들은 다른 속성(attributes), 데이터 값들, 데이터 종류들 및 구성들을 포함할 수 있으며, 다른 시간에 다른 엔티티(entities)(예를 들어, 어떤 값들은 다른 소스들로부터 미리 제안되거나 제공될 것이다.)로 제공되거나 수신될 수 있을 것이다.
상술한 특징들의 이들 및 다른 변화 및 조합이 청구항들에 의하여 정의된 것과 같은 본 발명으로부터 분리되지 않으면서 사용될 수 있는 것과 같이, 상술한 실시 예들은 청구항들에 의하여 정의된 것과 같은 본 발명을 제한하는 방법이 아니라 설명하는 것으로 간주되어야 할 것이다. 또한 본 발명의 예들의 제공(또한 “~와 같은”, “예를 들어”, “포함하는” 등의 구문의 절)은 본 발명을 특정 예로 제한하는 것으로 해석되어서는 안 될 것이며, 오히려 예들은 단지 다양한 가능한 측면들의 예를 설명하기 위한 것이다.
반대 의사를 명시적으로 나타내지 않은 경우라면, 주어진 실시 예, 선택적 사항 또는 예시에서의 모든 특징은 여기에 포함된 다른 어떤 실시 예, 선택적 사항 또는 예시에도 사용될 수 있을 것이다. 예를 들어, 카메라 또는 특정 영상에 연관된 방향 및 지리적 위치를 결정하는 모든 기술은 본 상세한 설명의 모든 구성에 적용될 수 있을 것이다. 교통 신호의 위치나 교통 신호의 상태를 식별하거나 통신하는 각 방법은 본 상세한 설명의 모든 구성에 사용될 수 있을 것이다.
본 발명은 일반적으로 교통 신호들의 지도를 만드는 것에 관련된다. 더욱이, 이들 지도들은 실시간 교통 신호 검출을 수행하는데 사용될 수 있을 것이다.

Claims (32)

  1. 교통 신호들의 3차원 위치들을 결정하는 방법으로서,
    복수의 영상들을 수신하며, 상기 복수의 영상들 각각은 지리적 위치 및 방향 정보와 연관되는 단계;
    교차로에 근접한 상기 지리적 위치와 연관된 상기 복수의 영상들 중 하나 또는 그 이상의 영상들을 컴퓨터에 의하여 선택하는 단계;
    각 선택된 영상에 대하여, 상기 컴퓨터로 상기 선택된 영상 내에 적색, 황색, 및 녹색 물체들을 식별하는 단계;
    둘 또는 그 이상의 상기 선택된 영상들 내에서, 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보에 기초하여, 적색, 황색, 및 녹색 물체들 중 연관된 물체들을 식별하는 단계;
    식별된 밝은 색상의 상기 적색, 황색, 및 녹색 물체들에 기초하여 교통 신호 라벨들의 세트를, 하나 이상의 상기 컴퓨터에 의해 생성하는 단계;
    교통 신호 불빛 이외의 물체들에 대응하는 밝은 색상의 적색, 황색, 또는 녹색 물체들에 대한 라벨들을 제거하기 위해 상기 교통 신호 라벨들의 세트를, 하나 이상의 상기 컴퓨터에 의해 필터링하는 단계;
    (1) 필터링된 상기 교통 신호 라벨들의 세트 및 (2) 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보,에 기초하여 교통 신호들의 3차원 위치들을 결정하는 단계; 및
    상기 교통 신호들의 상기 3차원 위치들을 상기 컴퓨터로 접근 가능한 메모리에 저장하는 단계;를 포함하는 방법.
  2. 청구항 1에 있어서,
    상기 교통 신호들의 상기 3차원 위치들을 포함하는 지도를 생성하는 단계를 더 포함하는 방법.
  3. 청구항 2에 있어서,
    상기 복수의 영상들 각각은 하나 또는 그 이상의 카메라들에 의하여 수집되며, 각 카메라는 차량에 연관되는 방법.
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 교통 신호들의 3차원 위치들을 결정하는 장치로서,
    프로세서; 및
    메모리;를 포함하고, 그리고
    상기 프로세서는:
    복수의 영상들을 수신하며, 상기 복수의 영상들 각각은 지리적 위치 및 방향 정보와 연관되며;
    교차로에 근접한 상기 지리적 위치와 연관된 상기 복수의 영상들 중 하나 또는 그 이상의 영상들을 선택하고;
    각 선택된 영상에 대하여, 상기 선택된 영상 내에 적색, 황색, 및 녹색 물체들을 식별하고;
    둘 또는 그 이상의 상기 선택된 영상들 내에서, 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보에 기초하여, 적색, 황색, 및 녹색 물체들 중 연관된 물체들을 식별하고;
    식별된 밝은 색상의 상기 적색, 황색, 및 녹색 물체들에 기초하여 교통 신호 라벨들의 세트를 생성하며;
    교통 신호 불빛 이외의 물체들에 대응하는 밝은 색상의 적색, 황색, 또는 녹색 물체들에 대한 라벨들을 제거하기 위해 상기 교통 신호 라벨들의 세트를 필터링하고;
    (1) 필터링된 상기 교통 신호 라벨들의 세트 및 (2) 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보,에 기초하여 교통 신호들의 3차원 위치들을 결정하고;
    교통 신호들의 상기 3차원 위치들을 상기 장치로 접근 가능한 메모리에 저장하도록 구성되는 장치.
  11. 청구항 10에 있어서,
    상기 복수의 영상들 각각은 하나 또는 그 이상의 카메라들에 의하여 수집되며, 각 카메라는 차량과 연관되며, 교통 신호 불빛의 포화를 피하도록 설정되는 각자의 셔터 스피드 및 게인을 갖는 장치.
  12. 청구항 10에 있어서,
    상기 복수의 영상들 각각은 하나 또는 그 이상의 카메라들에 의하여 수집되며, 각 카메라는 차량과 연관되며, 상기 복수의 영상들의 각 영상은 상기 하나 또는 그 이상의 카메라들로부터 네트워크를 통하여 상기 장치로 업로드 되는 장치.
  13. 청구항 10에 있어서,
    상기 복수의 영상들 각각은 하나 또는 그 이상의 카메라들에 의하여 수집되며, 각 카메라는 차량과 연관되며, 상기 차량의 운전자의 시야를 최소한으로 방해하도록 위치하는 장치.
  14. 청구항 10에 있어서,
    상기 식별된 적색, 황색, 및 녹색 물체들은 교통 신호들에 대응하는 크기 및 종횡비(aspect ratios)인 장치.
  15. 청구항 10에 있어서,
    둘 또는 그 이상의 선택된 영상들의 상기 적색, 황색, 및 녹색 물체들 중 상기 연관된 물체들을 식별하는 것은 상기 둘 또는 그 이상의 선택된 영상들의 식별된 물체들 사이의 연관 거리에 기초하는 장치.
  16. 청구항 10에 있어서,
    둘 또는 그 이상의 선택된 영상들의 상기 적색, 황색, 및 녹색 물체들 중 상기 연관된 물체들을 식별하는 것은 교통 신호의 물리적 크기에 기초하는 장치.
  17. 청구항 10에 있어서,
    둘 또는 그 이상의 선택된 영상들의 상기 연관된 적색, 황색, 및 녹색 물체들을 식별하는 것은 상기 선택된 영상들 사이의 직접 움직임 보상(direct motion compensation)에 기초하고, 각 선택된 영상은 움직이는 차량에 장착된 카메라에 의하여 촬영되는 장치.
  18. 청구항 17에 있어서,
    상기 직접 움직임 보상에 기초하여, 선택된 영상 내의 적색, 황색, 및 녹색 물체들 중 상기 식별된 물체들을 교통 신호 불빛 이외의 물체로 식별하도록, 상기 프로세서가 더 구성되는 장치.
  19. 청구항 10에 있어서,
    상기 프로세서는, 상기 결정한 상기 교통 신호의 상기 3차원 위치를 교차로에 걸친 차선들의 지도에 비교하는 것에 기초하여 상기 교통 신호에 연관된 차선을 결정하도록 더욱 구성되는 장치.
  20. 교통 신호의 상태를 결정하는 방법으로서,
    클라이언트 장치의 현재 위치를 반복적으로 결정하는 단계;
    상기 클라이언트 장치의 상기 현재 위치를 교통 신호들의 3차원 위치들의 지도에 비교하는 것에 기초하여 교통 신호의 경계의 추정된 위치를 결정하는 단계;
    상기 추정된 위치의 영상들을 수집하는 단계;
    각 수집된 영상에 대하여, 상기 클라이언트 장치에 의하여 상기 교통 신호의 상기 추정된 위치의 상기 경계 내의 적색, 황색, 및 녹색 물체들을 식별하는 단계; 및
    식별된 밝은 색상의 상기 적색, 황색, 및 녹색 물체들에 기초하여 교통 신호 라벨들의 세트를 생성하는 단계;
    상기 교통 신호의 추정된 위치의 경계 내에서 교통 신호 불빛 이외의 물체에 대응하는 밝은 색상의 적색, 황색, 또는 녹색 물체들에 대한 라벨들을 제거하기 위해 상기 교통 신호 라벨들의 세트를 필터링하는 단계;
    필터링된 상기 교통 신호 라벨들의 세트로부터, 상기 식별된 물체의 색상에 기초하여 상기 교통 신호의 상태를 결정하는 단계;를 포함하는 방법.
  21. 청구항 20에 있어서,
    상기 교통 신호의 상태가 디폴트 상태(default status)로부터 변경되었는지를 결정하는 단계;를 더 포함하는 방법.
  22. 청구항 20에 있어서,
    상기 교통 신호의 상기 추정된 위치의 상기 경계 내에 식별된 물체가 없는 경우, 상기 교통 신호의 상태가 디폴트 상태라고 결정하는 방법.
  23. 청구항 21에 있어서,
    상기 디폴트 상태는 황색 불빛인 방법.
  24. 청구항 22에 있어서,
    상기 디폴트 상태는 적색 불빛인 방법.
  25. 청구항 20에 있어서,
    차량에 연관된 컴퓨터로 상기 교통 신호의 상태를 전송하는 단계를 더 포함하는 방법.
  26. 삭제
  27. 청구항 20에 있어서,
    상기 교통 신호의 상기 상태에 기초하여 운전 명령(instruction)을 제공하는 단계를 더 포함하는 방법.
  28. 교통 신호들의 3차원 위치들을 결정하는 장치로서,
    프로세서; 및
    2차 리소스 파일들(resource files)을 저장하기 위한 제1 부분을 포함하는 메모리;를 포함하고,
    상기 프로세서는:
    클라이언트 장치의 현재 위치를 반복적으로 결정하고;
    상기 클라이언트 장치의 상기 현재 위치를 교통 신호들의 3차원 위치들의 지도에 비교하는 것에 기초하여 교통 신호의 경계의 추정된 위치를 결정하고;
    상기 추정된 위치의 영상들을 수집하고;
    각 수집된 영상에 대하여, 상기 클라이언트 장치에 의하여 상기 교통 신호의 상기 추정된 위치의 상기 경계 내의 적색, 황색, 및 녹색 물체들을 식별하고;
    식별된 밝은 색상의 상기 적색, 황색, 및 녹색 물체들에 기초하여 교통 신호 라벨들의 세트를 생성하며;
    상기 교통 신호의 추정된 위치의 경계 내에서 교통 신호 불빛 이외의 물체에 대응하는 밝은 색상의 적색, 황색, 또는 녹색 물체들에 대한 라벨들을 제거하기 위해 상기 교통 신호 라벨들의 세트를 필터링하고;
    필터링된 상기 교통 신호 라벨들의 세트로부터, 상기 교통 신호의 상태를 결정하도록 구성되는 장치.
  29. 청구항 28에 있어서,
    상기 장치는 디스플레이 장치를 포함하고, 상기 프로세서는 상기 디스플레이 장치에 상기 교통 신호의 상태를 식별하도록 더 구성되는 장치.
  30. 교통 신호들의 영상들을 수집하는 방법으로서,
    교통 신호 불빛의 포화를 피하도록 카메라의 셔터 스피드 및 게인을 설정하는 단계;
    차량에 상기 카메라를 장착하는 단계;
    교통 교차로를 통해 상기 차량을 주행시키는(maneuvering) 단계;
    상기 교통 교차로의 복수의 영상들을 수집하는 단계;
    위치측정 장치에 기초하여 지리적 위치 및 방향 정보를 상기 복수의 영상들 각각과 연관시키는 단계;
    상기 복수의 영상들 및 연관된 지리적 위치들을 메모리에 저장하는 단계;
    네트워크를 통해 컴퓨터로 상기 복수의 영상들 및 상기 연관된 지리적 위치들을 전송하는 단계;
    상기 복수의 영상들 및 상기 연관된 지리적 위치 및 방향 정보를 수신하는 단계;
    교통 교차로들에 근접한 지리적 위치들에 연관된 상기 복수의 영상들 중 하나 또는 그 이상의 영상들을 선택하는 단계;
    각 선택된 영상에 대하여, 상기 선택된 영상 내의 적색, 황색, 및 녹색 물체들을 식별하는 단계;
    둘 또는 그 이상의 상기 선택된 영상들 내에서, 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보에 기초하여, 상기 적색, 황색, 및 녹색 물체들 중 연관된 물체들을 식별하는 단계;
    식별된 밝은 색상의 상기 적색, 황색, 및 녹색 물체들에 기초하여 교통 신호 라벨들의 세트를 생성하는 단계;
    교통 신호 불빛 이외의 물체들에 대응하는 밝은 색상의 적색, 황색, 또는 녹색 물체들에 대한 라벨들을 제거하기 위해 상기 교통 신호 라벨들의 세트를 필터링하는 단계;
    (1) 필터링된 상기 교통 신호 라벨들의 세트 및 (2) 상기 둘 또는 그 이상의 선택된 영상들의 상기 지리적 위치 및 방향 정보,에 기초하여 교통 신호들의 3차원 위치들을 결정하는 단계; 및
    교통 신호들의 상기 3차원 위치들을 상기 컴퓨터로 접근 가능한 메모리에 저장하는 단계;를 포함하는 방법.
  31. 삭제
  32. 청구항 30에 있어서,
    상기 결정된 상기 교통 신호의 상기 3차원 위치를 교차로에 걸친 차선들의 지도에 비교하는 것에 기초하여 상기 교통 신호에 연관된 차선을 결정하는 단계;를 더 포함하는 방법.
KR1020127021883A 2010-01-22 2011-01-20 교통 신호 맵핑 및 검출 KR101534056B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US29746810P 2010-01-22 2010-01-22
US61/297,468 2010-01-22
US12/819,575 2010-06-21
US12/819,575 US8559673B2 (en) 2010-01-22 2010-06-21 Traffic signal mapping and detection
PCT/US2011/021797 WO2011091099A1 (en) 2010-01-22 2011-01-20 Traffic signal mapping and detection

Publications (2)

Publication Number Publication Date
KR20120118478A KR20120118478A (ko) 2012-10-26
KR101534056B1 true KR101534056B1 (ko) 2015-07-06

Family

ID=43983606

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127021883A KR101534056B1 (ko) 2010-01-22 2011-01-20 교통 신호 맵핑 및 검출

Country Status (6)

Country Link
US (3) US8559673B2 (ko)
EP (1) EP2526508B1 (ko)
JP (3) JP6006641B2 (ko)
KR (1) KR101534056B1 (ko)
CN (1) CN102792316B (ko)
WO (1) WO2011091099A1 (ko)

Families Citing this family (157)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9377313B2 (en) * 2009-06-16 2016-06-28 Tomtom North America Inc. Methods and systems for creating digital street network database
US9566982B2 (en) 2009-06-16 2017-02-14 Tomtom North America, Inc. Methods and systems for generating a horizon for use in an advanced driver assistance system (ADAS)
US8948794B2 (en) 2011-03-14 2015-02-03 Nokia Corporation Methods and apparatuses for facilitating provision of a map resource
US8620032B2 (en) * 2011-05-10 2013-12-31 GM Global Technology Operations LLC System and method for traffic signal detection
JP5386539B2 (ja) * 2011-05-12 2014-01-15 富士重工業株式会社 環境認識装置
US9031948B1 (en) 2011-07-06 2015-05-12 Shawn B. Smith Vehicle prediction and association tool based on license plate recognition
US8768009B1 (en) 2011-07-26 2014-07-01 Shawn B. Smith Locating persons of interest based on license plate recognition information
WO2013060323A1 (de) * 2011-10-28 2013-05-02 Conti Temic Microelectronic Gmbh Gitterbasiertes umfeldmodell für ein fahrzeug
JP5480925B2 (ja) * 2012-03-05 2014-04-23 本田技研工業株式会社 車両周辺監視装置
US9145140B2 (en) * 2012-03-26 2015-09-29 Google Inc. Robust method for detecting traffic signals and their associated states
DE102012006708A1 (de) * 2012-03-29 2012-10-18 Daimler Ag Kraftfahrzeug, mit dem eine optimale Durchschnittsgeschwindigkeit zum Erreichen eines grünen Lichtzeichens einer Lichtzeichenanlage empfangbar ist
US8761991B1 (en) 2012-04-09 2014-06-24 Google Inc. Use of uncertainty regarding observations of traffic intersections to modify behavior of a vehicle
US10068157B2 (en) * 2012-05-10 2018-09-04 Apple Inc. Automatic detection of noteworthy locations
JP2013242763A (ja) * 2012-05-22 2013-12-05 Clarion Co Ltd 対話装置、対話システム、および対話制御方法
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US10163348B2 (en) * 2012-08-01 2018-12-25 Toyota Jidosha Kabushiki Kaisha Drive assist device
US9158980B1 (en) 2012-09-19 2015-10-13 Google Inc. Use of relationship between activities of different traffic signals in a network to improve traffic signal state estimation
US9720412B1 (en) 2012-09-27 2017-08-01 Waymo Llc Modifying the behavior of an autonomous vehicle using context based parameter switching
US9214021B2 (en) * 2012-10-09 2015-12-15 The Boeing Company Distributed position identification
US8855904B1 (en) * 2012-10-10 2014-10-07 Google Inc. Use of position logs of vehicles to determine presence and behaviors of traffic controls
GB201219742D0 (en) 2012-11-02 2012-12-12 Tom Tom Int Bv Methods and systems for generating a horizon for use in an advanced driver assistance system (adas)
CN103065465B (zh) * 2012-12-26 2016-07-06 招商局重庆交通科研设计院有限公司 基于物联网和动态3d gis的交通管理系统及其方法
CN103101497A (zh) * 2013-01-25 2013-05-15 深圳市保千里电子有限公司 汽车摄像系统及其视角与车速同步变化的数据处理方法
BR112015024721B1 (pt) * 2013-04-04 2022-01-18 Nissan Motor Co., Ltd Aparelho de reconhecimento de sinal de trânsito
CN104280036B (zh) * 2013-07-05 2017-11-17 北京四维图新科技股份有限公司 一种交通信息的检测与定位方法、装置及电子设备
DE102013220662A1 (de) * 2013-10-14 2015-04-16 Continental Teves Ag & Co. Ohg Verfahren zur Erkennung von Verkehrssituationen beim Betrieb eines Fahrzeugs
US9558408B2 (en) * 2013-10-15 2017-01-31 Ford Global Technologies, Llc Traffic signal prediction
EP3761223A1 (en) 2013-12-04 2021-01-06 Mobileye Vision Technologies Ltd. Adjusting lane offset autonomously
CN103729863B (zh) * 2013-12-06 2016-05-25 南京金智视讯技术有限公司 基于自主学习的交通信号灯全自动定位识别的方法
EP3100206B1 (en) 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systems and methods for lane end recognition
DE102014202503A1 (de) * 2014-02-12 2015-08-13 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen eines Abstands eines Fahrzeugs zu einem verkehrsregelnden Objekt
US9142127B1 (en) 2014-04-29 2015-09-22 Maxwell Consulting, LLC Systems and methods for traffic guidance nodes and traffic navigating entities
DE102014209281A1 (de) * 2014-05-16 2015-11-19 Robert Bosch Gmbh Verfahren und System zum Ermitteln zumindest einer straßenbezogenen Information
KR102233391B1 (ko) * 2014-06-16 2021-03-29 팅크웨어(주) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
US9707960B2 (en) 2014-07-31 2017-07-18 Waymo Llc Traffic signal response for autonomous vehicles
US9558411B1 (en) 2014-08-29 2017-01-31 Google Inc. Plane estimation for contextual awareness
DE102014013829A1 (de) 2014-09-23 2016-03-24 Daimler Ag Verfahren zur Kennzeichnung von Bildbereichen
US9305224B1 (en) * 2014-09-29 2016-04-05 Yuan Ze University Method for instant recognition of traffic lights countdown image
US9586585B2 (en) * 2014-11-20 2017-03-07 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to traffic officer presence
CN104494598B (zh) * 2014-11-23 2017-03-29 北京联合大学 一种用于智能车辆的路口行驶控制方法
EP3032454B1 (en) * 2014-12-10 2018-09-26 Honda Research Institute Europe GmbH Method and system for adaptive ray based scene analysis of semantic traffic spaces and vehicle equipped with such system
US9551591B2 (en) * 2015-03-03 2017-01-24 Verizon Patent And Licensing Inc. Driving assistance based on road infrastructure information
CN104851288B (zh) * 2015-04-16 2017-02-22 宁波中国科学院信息技术应用研究院 一种交通灯定位方法
US9616773B2 (en) 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
US10023231B2 (en) 2015-08-12 2018-07-17 Madhusoodhan Ramanujam Parking autonomous vehicles
US10220705B2 (en) 2015-08-12 2019-03-05 Madhusoodhan Ramanujam Sharing autonomous vehicles
US9805605B2 (en) 2015-08-12 2017-10-31 Madhusoodhan Ramanujam Using autonomous vehicles in a taxi service
US9805519B2 (en) 2015-08-12 2017-10-31 Madhusoodhan Ramanujam Performing services on autonomous vehicles
US10005464B2 (en) * 2015-08-27 2018-06-26 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation at multi-stop intersections
CN106503011A (zh) * 2015-09-07 2017-03-15 高德软件有限公司 一种地图数据处理方法及装置
US11295612B2 (en) 2015-10-20 2022-04-05 Stc, Inc. Systems and methods for roadway management including feedback
US9958864B2 (en) 2015-11-04 2018-05-01 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
US10000124B2 (en) 2015-11-04 2018-06-19 Zoox, Inc. Independent steering, power, torque control and transfer in vehicles
US9878664B2 (en) 2015-11-04 2018-01-30 Zoox, Inc. Method for robotic vehicle communication with an external environment via acoustic beam forming
US9720415B2 (en) 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
US9734455B2 (en) 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US9630619B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
US9804599B2 (en) 2015-11-04 2017-10-31 Zoox, Inc. Active lighting control for communicating a state of an autonomous vehicle to entities in a surrounding environment
US9494940B1 (en) 2015-11-04 2016-11-15 Zoox, Inc. Quadrant configuration of robotic vehicles
US9517767B1 (en) 2015-11-04 2016-12-13 Zoox, Inc. Internal safety systems for robotic vehicles
US9910441B2 (en) 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
US9916703B2 (en) 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US10248119B2 (en) 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
US9632502B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US9754490B2 (en) 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US10496766B2 (en) 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
WO2017079341A2 (en) 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US10401852B2 (en) 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US10745003B2 (en) 2015-11-04 2020-08-18 Zoox, Inc. Resilient safety system for a robotic vehicle
US9802661B1 (en) 2015-11-04 2017-10-31 Zoox, Inc. Quadrant configuration of robotic vehicles
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US10334050B2 (en) 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9507346B1 (en) 2015-11-04 2016-11-29 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9746853B2 (en) * 2015-11-30 2017-08-29 Nissan North America, Inc. Traffic signal timing estimation using a support vector regression model
US10018472B2 (en) 2015-12-10 2018-07-10 Uber Technologies, Inc. System and method to determine traction of discrete locations of a road segment
US10119827B2 (en) 2015-12-10 2018-11-06 Uber Technologies, Inc. Planning trips on a road network using traction information for the road network
US10712160B2 (en) 2015-12-10 2020-07-14 Uatc, Llc Vehicle traction map for autonomous vehicles
CN105608417B (zh) * 2015-12-15 2018-11-06 福州华鹰重工机械有限公司 交通信号灯检测方法及装置
US10126135B2 (en) 2015-12-15 2018-11-13 Nissan North America, Inc. Traffic signal timing estimation using an artificial neural network model
US9841763B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9840256B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US10460600B2 (en) 2016-01-11 2019-10-29 NetraDyne, Inc. Driver behavior monitoring
US20170256096A1 (en) * 2016-03-07 2017-09-07 Google Inc. Intelligent object sizing and placement in a augmented / virtual reality environment
US9990548B2 (en) * 2016-03-09 2018-06-05 Uber Technologies, Inc. Traffic signal analysis system
US10343620B2 (en) * 2016-04-22 2019-07-09 Uber Technologies, Inc. External sensor assembly for vehicles
US10459087B2 (en) 2016-04-26 2019-10-29 Uber Technologies, Inc. Road registration differential GPS
US9672446B1 (en) 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US9891628B2 (en) * 2016-06-06 2018-02-13 GM Global Technology Operations LLC Sensor-based association of traffic control devices to traffic lanes for autonomous vehicle navigation
US10719083B2 (en) 2016-07-01 2020-07-21 Uatc, Llc Perception system for autonomous vehicle
KR101729444B1 (ko) * 2016-07-04 2017-04-24 강래호 신호등 정보 획득 장치 및 방법
WO2018026733A1 (en) 2016-07-31 2018-02-08 Netradyne Inc. Determining causation of traffic events and encouraging good driving behavior
US9977975B2 (en) 2016-08-18 2018-05-22 Toyota Motor Engineering & Manufacturing North America, Inc. Traffic light detection using multiple regions of interest and confidence scores
JP6402756B2 (ja) * 2016-09-21 2018-10-10 トヨタ自動車株式会社 運転支援装置
US10115305B2 (en) 2016-09-30 2018-10-30 Nissan North America, Inc. Optimizing autonomous car's driving time and user experience using traffic signal information
US10366286B2 (en) 2016-12-13 2019-07-30 Google Llc Detection of traffic light signal changes
US10139832B2 (en) * 2017-01-26 2018-11-27 Intel Corporation Computer-assisted or autonomous driving with region-of-interest determination for traffic light analysis
US10614326B2 (en) * 2017-03-06 2020-04-07 Honda Motor Co., Ltd. System and method for vehicle control based on object and color detection
US10380438B2 (en) * 2017-03-06 2019-08-13 Honda Motor Co., Ltd. System and method for vehicle control based on red color and green color detection
US10338594B2 (en) * 2017-03-13 2019-07-02 Nio Usa, Inc. Navigation of autonomous vehicles to enhance safety under one or more fault conditions
US10423162B2 (en) 2017-05-08 2019-09-24 Nio Usa, Inc. Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking
US10525903B2 (en) * 2017-06-30 2020-01-07 Aptiv Technologies Limited Moving traffic-light detection system for an automated vehicle
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10839303B2 (en) * 2017-08-21 2020-11-17 Sap Se Automatic detection and correction of license plate misidentification
WO2019068042A1 (en) 2017-09-29 2019-04-04 Netradyne Inc. MULTIPLE EXPOSURE EVENT DETERMINATION
EP3695666B1 (en) 2017-10-12 2023-11-29 Netradyne, Inc. Detection of driving actions that mitigate risk
US11260875B2 (en) 2017-12-07 2022-03-01 Uatc, Llc Systems and methods for road surface dependent motion planning
EP3719692A4 (en) * 2017-12-21 2020-12-30 Huawei Technologies Co., Ltd. INFORMATION DETECTION METHOD AND MOBILE DEVICE
US11022971B2 (en) 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
EP3759560B8 (en) 2018-02-28 2022-03-30 Nissan North America, Inc. Transportation network infrastructure for autonomous vehicle decision making
GB201804194D0 (en) 2018-03-15 2018-05-02 Blue Vision Labs Uk Ltd Urban Environmrnt labeling
US10503760B2 (en) 2018-03-29 2019-12-10 Aurora Innovation, Inc. Use of relative atlas in an autonomous vehicle
US11256729B2 (en) 2018-03-29 2022-02-22 Aurora Operations, Inc. Autonomous vehicle relative atlas incorporating hypergraph data structure
US10521913B2 (en) 2018-03-29 2019-12-31 Aurora Innovation, Inc. Relative atlas for autonomous vehicle and generation thereof
US11334753B2 (en) 2018-04-30 2022-05-17 Uatc, Llc Traffic signal state classification for autonomous vehicles
EP3865822A1 (en) * 2018-05-15 2021-08-18 Mobileye Vision Technologies Ltd. Systems and methods for autonomous vehicle navigation
DE102018210125A1 (de) * 2018-06-21 2019-12-24 Volkswagen Aktiengesellschaft Zuordnung von Ampel zu zugehörigen Fahrstreifen
US10373502B1 (en) 2018-07-26 2019-08-06 Fca Us Llc Techniques for detecting multiple turn lane driving scenarios and suppressing blind spot monitoring warnings
US11068627B2 (en) * 2018-08-09 2021-07-20 Zoox, Inc. Procedural world generation
US11532228B2 (en) * 2018-08-22 2022-12-20 Starship Technologies Oü Method and system for traffic light signal detection and usage
CN109271892A (zh) * 2018-08-30 2019-01-25 百度在线网络技术(北京)有限公司 一种物体识别方法、装置、设备、车辆和介质
CN109035831B (zh) * 2018-09-07 2021-07-27 百度在线网络技术(北京)有限公司 交通指示灯的识别方法、装置、设备、存储介质及车辆
US11282225B2 (en) 2018-09-10 2022-03-22 Mapbox, Inc. Calibration for vision in navigation systems
WO2020055767A1 (en) * 2018-09-10 2020-03-19 Mapbox, Inc. Mapping objects detected in images to geographic positions
WO2020057754A1 (en) * 2018-09-21 2020-03-26 Toyota Motor Europe Systems and methods for traffic light identification
US11202302B2 (en) 2018-10-09 2021-12-14 Stc, Inc Systems and methods for traffic priority systems
JP7172441B2 (ja) * 2018-10-25 2022-11-16 トヨタ自動車株式会社 進行可能方向検出装置及び進行可能方向検出方法
JP7044038B2 (ja) 2018-11-21 2022-03-30 トヨタ自動車株式会社 地図情報システム
US11016492B2 (en) * 2019-02-28 2021-05-25 Zoox, Inc. Determining occupancy of occluded regions
US11250700B2 (en) 2019-03-13 2022-02-15 Stc, Inc. Protected turns
US11010641B2 (en) 2019-03-14 2021-05-18 Mapbox, Inc. Low power consumption deep neural network for simultaneous object detection and semantic segmentation in images on a mobile computing device
US10957066B2 (en) 2019-03-19 2021-03-23 General Electric Company Systems and methods for locating humans using dynamic field robotic-sensor network of human robot team
DE102019211100A1 (de) * 2019-07-25 2021-01-28 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und Computerprogramm zum Aufbereiten von Daten über eine Ampelanlage
CN110687514B (zh) * 2019-10-16 2022-03-15 电子科技大学 一种非线性判别学习真假目标一维距离像特征提取方法
US11390300B2 (en) * 2019-10-18 2022-07-19 Uatc, Llc Method for using lateral motion to optimize trajectories for autonomous vehicles
DE102019130947A1 (de) * 2019-11-15 2021-05-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Zuordnen einer Verkehrsampel zu einer entsprechenden Fahrspur
US20210211568A1 (en) * 2020-01-07 2021-07-08 Motional Ad Llc Systems and methods for traffic light detection
US11854212B2 (en) * 2020-02-26 2023-12-26 Motional Ad Llc Traffic light detection system for vehicle
US11568651B2 (en) * 2020-03-23 2023-01-31 Pony Ai Inc. System and method for localization of traffic signs
CN115485526A (zh) 2020-03-28 2022-12-16 德卡产品有限公司 用于自主车辆的交叉路口管理的系统和方法
CN111597986B (zh) * 2020-05-15 2023-09-29 北京百度网讯科技有限公司 用于生成信息的方法、装置、设备和存储介质
US11900689B1 (en) 2020-06-04 2024-02-13 Aurora Operations, Inc. Traffic light identification and/or classification for use in controlling an autonomous vehicle
US11938939B1 (en) 2020-06-04 2024-03-26 Aurora Operations, Inc. Determining current state of traffic light(s) for use in controlling an autonomous vehicle
US11527156B2 (en) * 2020-08-03 2022-12-13 Toyota Research Institute, Inc. Light emitting component-wise traffic light state, signal, and transition estimator
US11935309B2 (en) 2020-08-25 2024-03-19 Ford Global Technologies, Llc Determining traffic light labels and classification quality from infrastructure signals
TWI793454B (zh) * 2020-09-30 2023-02-21 緯創資通股份有限公司 交通狀態顯示系統及其相關交通狀態顯示方法
US11681780B2 (en) 2020-09-30 2023-06-20 Nissan North America, Inc. Annotation and mapping for vehicle operation in low-confidence object detection conditions
CN112489466B (zh) * 2020-11-27 2022-02-22 恒大新能源汽车投资控股集团有限公司 交通信号灯识别方法和装置
US11767028B2 (en) 2020-12-11 2023-09-26 Aptiv Technologies Limited Change detection criteria for updating sensor-based reference maps
US11562572B2 (en) 2020-12-11 2023-01-24 Argo AI, LLC Estimating auto exposure values of camera by prioritizing object of interest based on contextual inputs from 3D maps
CN112507956A (zh) * 2020-12-21 2021-03-16 北京百度网讯科技有限公司 信号灯识别方法、装置、电子设备、路侧设备和云控平台
US11731630B2 (en) 2021-04-27 2023-08-22 Ford Global Technologies, Llc Methods and systems for asserting right of way for traversing an intersection
DE102021128785A1 (de) * 2021-11-05 2023-05-11 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Ermittlung der Entfernung eines Lichtsignalgebers
US20230169780A1 (en) * 2021-12-01 2023-06-01 Motional Ad Llc Automatically detecting traffic signals using sensor data
CN115116250B (zh) * 2022-06-20 2023-08-25 广州小鹏汽车科技有限公司 交通灯信息显示方法及其装置、车辆和存储介质
CN115294766B (zh) * 2022-07-31 2023-06-23 东风汽车集团股份有限公司 虚拟红绿灯构建方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1220182A2 (en) * 2000-12-25 2002-07-03 Matsushita Electric Industrial Co., Ltd. Image detection apparatus, program, and recording medium
US20070047809A1 (en) * 2005-08-24 2007-03-01 Denso Corporation Environment recognition device
WO2007102065A1 (en) * 2006-03-06 2007-09-13 Toyota Jidosha Kabushiki Kaisha Image processing system and method
WO2007148546A1 (ja) * 2006-06-21 2007-12-27 Toyota Jidosha Kabushiki Kaisha 測位装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4814765A (en) * 1987-06-12 1989-03-21 Econolite Control Products, Inc. Method and apparatus for displaying the status of a system of traffic signals
US5796094A (en) * 1993-02-26 1998-08-18 Donnelly Corporation Vehicle headlight control using imaging sensor
US5633629A (en) * 1995-02-08 1997-05-27 Hochstein; Peter A. Traffic information system using light emitting diodes
JP4800455B2 (ja) * 1999-02-19 2011-10-26 富士通株式会社 車速計測方法および装置
JP2001052297A (ja) * 1999-08-06 2001-02-23 Fujitsu Ltd 安全走行支援装置、その方法及び記録媒体
JP3621065B2 (ja) * 2000-12-25 2005-02-16 松下電器産業株式会社 画像検出装置、プログラムおよび記録媒体
JP3994858B2 (ja) * 2002-11-15 2007-10-24 松下電器産業株式会社 ナビゲーション装置
JP2005004516A (ja) * 2003-06-12 2005-01-06 Nec Commun Syst Ltd 進路確認システム
JP4253275B2 (ja) * 2003-08-11 2009-04-08 株式会社日立製作所 車両制御システム
JP4483305B2 (ja) * 2004-01-16 2010-06-16 トヨタ自動車株式会社 車両周辺監視装置
JP2005216086A (ja) * 2004-01-30 2005-08-11 Nissan Motor Co Ltd 運転支援装置
US20050187701A1 (en) * 2004-02-23 2005-08-25 Baney Douglas M. Traffic communication system
JP2005346287A (ja) * 2004-06-01 2005-12-15 Denso Corp 画像認識方法および装置
JP4423114B2 (ja) * 2004-06-02 2010-03-03 アルパイン株式会社 ナビゲーション装置およびその交差点案内方法
JP4507815B2 (ja) * 2004-07-09 2010-07-21 アイシン・エィ・ダブリュ株式会社 信号情報作成方法、信号案内情報提供方法及びナビゲーション装置
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
JP2006131055A (ja) * 2004-11-04 2006-05-25 Denso Corp 車両走行制御装置
JP4595759B2 (ja) * 2005-09-09 2010-12-08 株式会社デンソー 環境認識装置
US7573402B2 (en) * 2005-08-25 2009-08-11 Herbert William J Dual laser beam guidance and parking device
JP2007263737A (ja) * 2006-03-28 2007-10-11 Clarion Co Ltd ナビゲーション装置、方法及びプログラム
JP2007320458A (ja) * 2006-06-01 2007-12-13 Toyota Motor Corp 車間距離制御装置
JP4241834B2 (ja) * 2007-01-11 2009-03-18 株式会社デンソー 車載霧判定装置
WO2008130219A1 (en) * 2007-04-19 2008-10-30 Tele Atlas B.V. Method of and apparatus for producing road information
JP4915281B2 (ja) * 2007-05-24 2012-04-11 アイシン・エィ・ダブリュ株式会社 信号機検出装置、信号機検出方法及びプログラム
CN201153280Y (zh) * 2008-01-28 2008-11-19 中兴通讯股份有限公司 一种具有红绿灯识别功能的手机

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1220182A2 (en) * 2000-12-25 2002-07-03 Matsushita Electric Industrial Co., Ltd. Image detection apparatus, program, and recording medium
US20070047809A1 (en) * 2005-08-24 2007-03-01 Denso Corporation Environment recognition device
WO2007102065A1 (en) * 2006-03-06 2007-09-13 Toyota Jidosha Kabushiki Kaisha Image processing system and method
WO2007148546A1 (ja) * 2006-06-21 2007-12-27 Toyota Jidosha Kabushiki Kaisha 測位装置

Also Published As

Publication number Publication date
US8818043B2 (en) 2014-08-26
KR20120118478A (ko) 2012-10-26
US20140016826A1 (en) 2014-01-16
EP2526508A1 (en) 2012-11-28
JP6494719B2 (ja) 2019-04-03
JP2017004558A (ja) 2017-01-05
JP2013518298A (ja) 2013-05-20
US20110182475A1 (en) 2011-07-28
US8559673B2 (en) 2013-10-15
CN102792316B (zh) 2016-05-18
US8712104B2 (en) 2014-04-29
CN102792316A (zh) 2012-11-21
JP2018013497A (ja) 2018-01-25
WO2011091099A1 (en) 2011-07-28
JP6230673B2 (ja) 2017-11-15
US20140185880A1 (en) 2014-07-03
EP2526508B1 (en) 2018-04-04
JP6006641B2 (ja) 2016-10-12

Similar Documents

Publication Publication Date Title
KR101534056B1 (ko) 교통 신호 맵핑 및 검출
US9990732B2 (en) Entity recognition system
US10849543B2 (en) Focus-based tagging of sensor data
CN113196103A (zh) 用于自主车辆的对象动作分类
US11294387B2 (en) Systems and methods for training a vehicle to autonomously drive a route
US11361201B2 (en) Systems and methods for determining an object type and an attribute for an observation based on fused sensor data
CN116710976A (zh) 用于对用于训练远程机器学习模型的数据进行智能机载选择的自主交通工具系统
KR20220054743A (ko) 서브시스템 성능 평가를 위한 메트릭 역전파
US11673581B2 (en) Puddle occupancy grid for autonomous vehicles
CN111860198A (zh) 用于自主驾驶车辆adv的处理点云数据的方法、装置和系统、及计算机可读介质
US20230230330A1 (en) Synthesizing three-dimensional visualizations from perspectives of onboard sensors of autonomous vehicles
WO2022108744A1 (en) On-board feedback system for autonomous vehicles
CN116569070A (zh) 用于分析动态LiDAR点云数据的方法和系统
US20230084623A1 (en) Attentional sampling for long range detection in autonomous vehicles
US20230194301A1 (en) High fidelity anchor points for real-time mapping with mobile devices
US20220067399A1 (en) Autonomous vehicle system for performing object detections using a logistic cylinder pedestrian model
KR20230068350A (ko) 3차원 물체들을 위치 파악하기 위한 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180622

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190625

Year of fee payment: 5