KR20080037712A - 대상물 인식 장치 - Google Patents

대상물 인식 장치 Download PDF

Info

Publication number
KR20080037712A
KR20080037712A KR1020087006354A KR20087006354A KR20080037712A KR 20080037712 A KR20080037712 A KR 20080037712A KR 1020087006354 A KR1020087006354 A KR 1020087006354A KR 20087006354 A KR20087006354 A KR 20087006354A KR 20080037712 A KR20080037712 A KR 20080037712A
Authority
KR
South Korea
Prior art keywords
recognition
vehicle
host vehicle
positioning
recognized
Prior art date
Application number
KR1020087006354A
Other languages
English (en)
Other versions
KR101018620B1 (ko
Inventor
기요카즈 오카다
모토히로 나카무라
마사키 나카무라
마코토 하스누마
Original Assignee
도요다 지도샤 가부시끼가이샤
아이신에이더블류 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 도요다 지도샤 가부시끼가이샤, 아이신에이더블류 가부시키가이샤 filed Critical 도요다 지도샤 가부시끼가이샤
Publication of KR20080037712A publication Critical patent/KR20080037712A/ko
Application granted granted Critical
Publication of KR101018620B1 publication Critical patent/KR101018620B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • G01C7/04Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

GPS 나 차속, 타각 등에 의한 주행 궤적에 기초하여 자차량의 위치를 측위함과 함께, 카메라 촬상 화상을 사용한 대상물의 인식 결과에 기초하여 자차량의 위치를 측위한다. 또, 주로 차량의 이동 거리가 길어질수록 저하되는 자차량의 위치를 측위하는 데 있어서의 측위 정밀도를 산출한다. 미리 지도 데이터베이스에 자차량이 인식해야 하는 도로상의 대상물의 위치 데이터를 저장한다. 그리고, 측위되는 자차량의 위치, 지도 데이터베이스에 저장되어 있는 인식해야 하는 대상물의 위치, 및 산출되는 자차 위치의 측위 정밀도에 기초하여, 대상물을 인식해야 하는 도로의 인식 범위를 설정한다. 이 설정된 인식 범위에 있어서 카메라 촬상 화상을 처리하여 대상물을 인식한다.
Figure P1020087006354
측위 정밀도 산출 수단, 저장 수단, 인식 범위 설정 수단, 대상물 인식 수단

Description

대상물 인식 장치{OBJECT RECOGNITION DEVICE}
본 발명은, 대상물 인식 장치에 관련하며, 특히, 자차량에 있어서 도로상의 대상물을 인식하는 데 바람직한 대상물 인식 장치에 관한 것이다.
종래, 이동체인 차량에 있어서 도로 표지 등의 정지 대상물을 인식하는 대상물 인식 장치가 알려져 있다 (예를 들어, 특허 문헌 1 참조). 이 대상물 인식 장치는, 차량 주위의 도로를 촬영하는 카메라를 구비하고 있고, 이러한 카메라가 촬영한 화상 정보에 기초하여 도로상의 정지 대상물을 인식하는 것으로 하고 있다.
특허 문헌 1 : 일본 공개특허공보 제2000-346653호
발명의 개시
발명이 해결하고자 하는 과제
그런데, 상기와 같이 카메라 촬상 화상으로부터 인식되는 정지 대상물은, 도로상에 설치되거나 혹은 그려진 도로 표지나 노면 표시로서, 도로상에 점재 (點在) 한다. 또, 그 정지 대상물의 위치는, 절대적으로 혹은 교차점 등의 지도상 고정물에 대해 상대적으로 정해지는 경우가 많다. 이런 점에서, 차량이 인식해야 하는 정지 대상물의 위치 정보를 미리 저장한 데이터베이스를 갖는 차재측에서 도로상의 대상물을 인식할 때에, 항상 카메라에 의해 차량 주위의 도로를 촬영하거나 그 촬상 화상을 처리하는 것으로 하면, 그 인식 처리 부하가 증대되게 되고, 그 결과, 대상물의 인식에 시간이 걸리거나, 혹은, 고속 처리 가능한 고가의 장치가 필요해진다는 문제가 생겨 버린다.
본 발명은, 상기 서술한 점을 감안하여 이루어진 것이며, 도로상의 대상물의 인식에 필요한 처리 부하를 경감시킨 대상물 인식 장치를 제공하는 것을 목적으로 한다.
과제를 해결하기 위한 수단
상기의 목적은, 소정의 수법에 따라 자차량의 위치를 측위하는 측위 수단과, 자차량의 위치를 측위한 후의 측위 정밀도를 산출하는 측위 정밀도 산출 수단과, 미리 자차량이 인식해야 하는 도로상의 대상물의 위치 정보를 저장하는 저장 수단과, 상기 측위 수단에 의해 측위된 자차량의 위치, 상기 저장 수단에 저장된 상기 대상물의 위치, 및 상기 측위 정밀도 산출 수단에 의해 산출된 상기 측위 정밀도 에 기초하여, 그 대상물을 인식해야 하는 도로의 인식 범위를 설정하는 인식 범위 설정 수단과, 상기 인식 범위 설정 수단에 의해 설정된 상기 인식 범위에 있어서 상기 대상물을 인식하는 대상물 인식 수단을 구비하는 대상물 인식 장치에 의해 달성된다.
이 양태의 발명에 있어서는, 자차량의 위치, 대상물의 위치, 및 자차량의 위치를 측위한 후의 측위 정밀도에 기초하여, 자차량에 있어서 대상물을 인식해야 하는 도로의 인식 범위가 설정된다. 그리고, 그 설정된 인식 범위에 있어서 대상물의 인식 처리가 실시된다. 이러한 구성에 있어서는, 설정된 인식 범위 이외에 있어서 대상물의 인식 처리는 실시되지 않는다. 이 때문에, 본 발명에 의하면, 대상물의 인식 처리를 항상 실시하는 구성에 비해, 대상물의 인식에 필요로 하는 처리 부하를 경감할 수 있다.
또, 대상물의 위치는, 미리 저장 수단에 그 정보가 저장되어 있기 때문에 어느 정도 정확한 한편, 자차량의 위치는, 소정의 수법에 따라 측위되기 때문에 그 측위 정밀도에 따른 오차를 갖게 된다. 이 점, 측위 오차가 생기지 않으면, 측위된 자차량의 위치가 대상물의 위치에 일치했을 때에 그 대상물의 인식 처리를 실시하는 것으로 하면 되나, 실제로는 측위 오차가 발생하기 때문에, 측위된 자차량의 위치가 대상물의 위치에 일치했을 때에만 그 대상물의 인식 처리를 실시하는 것으로 하면, 인식 처리를 실시했을 때에는 이미 자차량이 그 대상물을 통과한 사태도 생길 수 있고, 대상물을 인식할 수 없는 경우가 일어날 수 있다. 이에 대하여, 상기한 양태의 발명에 있어서는, 자차량 위치의 측위 정밀도를 고려하여 대상물을 인식해야 하는 인식 범위가 설정되기 때문에, 자차량이 인식해야 하는 대상물을 인식할 수 없게 되는 것을 방지할 수 있다.
자차 위치의 측위 오차의 범위는, 측위 정밀도가 높을 때에는 작지만, 측위 정밀도가 낮을 때에는 커진다. 따라서, 상기한 대상물 인식 장치에 있어서, 상기 인식 범위 설정 수단은, 상기 측위 정밀도 산출 수단에 의해 산출되는 상기 측위 정밀도가 낮을수록 보다 넓은 상기 인식 범위를 설정하는 것으로 하면 된다.
또, 예를 들어 차속, 타각 등에 의한 주행 궤적에 기초하여 자차량의 위치가 측위되는 경우, 주행 거리가 길어질수록, 측위 오차가 커져, 측위 정밀도가 낮아진다. 따라서, 상기한 대상물 인식 장치에 있어서, 상기 인식 범위 설정 수단은, 상기 측위 수단에 의해 측위된 자차량의 위치로부터 상기 저장 수단에 정보 저장된 상기 대상물의 위치까지의 거리가 길수록 보다 넓은 상기 인식 범위를 설정하는 것으로 하면 된다.
또한, 상기한 대상물 인식 장치에 있어서, 상기 측위 수단은, 상기 대상물 인식 수단에 의해 상기 인식 범위에 있어서 상기 대상물이 인식되는 경우, 그 인식 결과에 기초하여, 자차량의 위치를 GPS 또는 자차량의 주행 궤적에 기초한 것으로부터 보정하는 것으로 하면, 인식한 대상물을 사용함으로써, 자차량의 위치를 정확하게 측위하는 것이 가능해진다.
이 경우, 상기한 대상물 인식 장치에 있어서, 상기 측위 정밀도 산출 수단은, 상기 측위 정밀도를, 상기 측위 수단에 의해 상기 대상물의 인식 결과에 기초한 자차량 위치의 보정을 실시한 시점에서의 것으로부터, 이후 적어도 주행 거리에 따라 저하되도록 산출하는 것으로 하면, 적어도 주행 거리에 따라 저하되는 측위 정밀도를 대상물의 인식 결과에 기초한 자차량 위치의 보정마다 높이는 것이 가능해진다.
또, 상기한 대상물 인식 장치에 있어서, 상기 저장 수단에 위치 정보가 저장되는 전체 대상물 중 자차량의 주행 경로 상에 존재하는 특정 대상물을, 인식해야 하는 대상물로서 설정하는 인식 대상물 설정 수단을 구비하고, 상기 대상물 인식 수단은, 상기 인식 대상물 설정 수단에 의해 설정되는 인식해야 하는 대상물만을 인식하는 것으로 해도 되고, 또, 자차량 위치에 따른 지원 제어를 실행하는 지원 제어 장치에 요구되는 상기 측위 정밀도를 그 지원 제어의 실행시에 만족할 필요가 있는 경우, 상기 저장 수단에 위치 정보가 저장되는 전체 대상물 중, 상기 측위 수단에 의한 인식 결과에 기초한 자차량 위치의 보정에 의해 상기 지원 제어 장치에 요구되는 상기 측위 정밀도를 상기 지원 제어의 실행시에 만족하는 것이 가능해지는 자차량의 주행 경로 상에 존재하는 대상물을, 인식해야 하는 대상물로서 설정하는 인식 대상물 설정 수단을 구비하고, 상기 대상물 인식 수단은, 상기 인식 대상물 설정 수단에 의해 설정되는 인식해야 하는 대상물만을 인식하는 것으로 해도 된다.
또한, 상기한 대상물 인식 장치에 있어서, 상기 대상물 인식 수단은, 자차량의 소정 위치에 배치 형성된 촬상 수단에 의해 촬영되는 상기 인식 범위 설정 수단 에 의한 상기 인식 범위에 있어서의 화상 정보를 이용하고, 상기 대상물을 인식하는 것으로 하면 된다.
발명의 효과
본 발명에 의하면, 도로상의 대상물의 인식에 필요로 하는 처리 부하를 경감할 수 있다
도 1 은 본 발명의 일 실시예인 차량에 탑재되는 시스템의 구성도이다.
도 2 는 차량의 이동 거리와 측위 오차의 관계를 나타낸 도면이다.
도 3 은 측위되는 자차 위치와 실제 도로상에 있어서의 자차 위치에 발생되 는 오차를 설명하기 위한 도면이다.
도 4 는 본 실시예의 시스템에 있어서 자차 위치의 측위 정밀도에 따라 대상물을 인식해야 하는 도로의 인식 범위를 설정하는 수법을 설명하기 위한 도면이다.
도 5 는 본 실시예의 시스템에 있어서 자차량과 대상물의 상대 거리에 따라 대상물을 인식해야 하는 도로의 인식 범위를 설정하는 수법을 설명하기 위한 도면이다.
도 6 은 본 실시예의 시스템에 있어서 대상물을 인식해야 하는 도로의 인식 범위를 설정하는 데 사용되는 맵을 나타낸 도면이다.
도 7 은 본 실시예의 시스템에 있어서 실행되는 제어 루틴의 일례의 플로우 차트이다.
부호의 설명
12 측위부
14 지원 제어부
16 GPS 수신기
18 방위 센서
20 G 센서
22 차속 센서
24 추측 항법부
28 맵 매칭부
30 지도 데이터베이스
32 백 카메라
발명을 실시하기 위한 최선의 형태
이하, 본 발명의 바람직한 실시예를 설명한다.
도 1 은, 본 발명의 일 실시예인 차량에 탑재되는 시스템의 구성도를 나타낸다. 도 1 에 나타내는 바와 같이, 본 실시예의 시스템은, 자차량의 위치를 측위하기 위한 측위부 (12) 와, 자차량의 주행 등을 제어하기 위한 지원 제어부 (14) 를 구비하고 있고, 자차량의 위치를 측위부 (12) 에서 측위함과 함께, 그 측위되는 자차량의 위치에 따라 자차량을 주행시킨 후의 소정의 지원 제어를 지원 제어부 (14) 에서 실행하는 시스템이다.
측위부 (12) 는, GPS (Global Positioning System) 위성으로부터 송신되는 GPS 신호를 수신하여 자차량이 존재하는 위치의 위도 및 경도를 검지하는 GPS 수신기 (16), 선회각(旋回角)이나 지자기(地磁氣)를 이용하여 자차량의 요각 (방위) 을 검지하는 방위 센서 (18), 가감 속도를 검지하는 G 센서 (20), 차속을 검지하는 차속 센서 (22), 그리고, 그들 각 수신기나 센서 (16 ∼ 22) 의 출력이 접속되어 있는 주로 마이크로컴퓨터에 의해 구성된 추측 항법부 (24) 를 갖고 있다. 각 수신기나 센서 (16 ∼ 22) 의 출력 신호는 각각, 추측 항법부 (24) 에 공급된다. 추측 항법부 (24) 는, GPS 수신기 (16) 로부터의 정보에 기초하여 자차량 위치의 위도 및 경도 (초기 좌표) 를 검출함과 함께, 센서 (18 ∼ 22) 로부터의 정보에 기초하여 자차량의 진행 방위, 차속, 및 가감 속도의 주행 상태를 검출하여, 자차량 위치의 초기 좌표로부터의 차량의 주행 궤적 (추측 궤적) 을 작성한다.
측위부 (12) 는, 또, 상기한 추측 항법부 (24) 에 접속되어 있는 주로 마이크로컴퓨터에 의해 구성된 맵 매칭부 (28) 를 갖고 있다. 맵 매칭부 (28) 에는, 또, 지도 데이터베이스 (30) 가 접속되어 있다. 지도 데이터베이스 (30) 는, 차량에 탑재되거나 혹은 센터에 형성된 하드 디스크 (HDD) 나 DVD, CD 등에 의해 구성되어 있고, 경로 안내나 지도 표시에 필요한 도로 자체의 링크 데이터 등이나 도로에 그려지거나 혹은 설치되는 정지 대상물이나 차선 레인의 위치 정보 등을 저장하고 있다.
구체적으로는, 이 지도 데이터베이스 (30) 에는, 도로를 나타내는 위도·경도나 곡률, 구배, 차선 수, 차선 폭, 코너 유무 등의 레인 형상이나 도로 종별의 데이터나, 각 교차점이나 노드점에 관한 정보, 지도 표시를 실시하기 위한 건물 등에 관한 정보 등이 저장됨과 함께, 도로 노면 상에 그려진 횡단보도나 일시 정지선, 진행 방향 화살표, 「횡단보도 있음」의 마름모꼴 표시, 최고 속도 표시, 회전 금지 표시 등의 정지 대상물마다, 형상 데이터나 페인트 데이터, 위치 데이터, 특징량의 크기, 전후에 있는 다른 대상물과의 거리 데이터, 스치기 쉬운 정도를 나타내는 데이터, 차량 진행 방향의 목표가 되는 대상물과의 거리 데이터 등이 저장된다. 또, 이 지도 데이터베이스 (30) 는, 디스크의 교환이나 갱신 조건의 성립에 의해 저장되는 지도 데이터를 최신의 것으로 갱신할 수 있다.
맵 매칭부 (28) 에는, 추측 항법부 (24) 에 있어서 검출·작성된 자차량 위치의 초기 좌표 및 그 초기 좌표로부터의 추측 궤적의 정보가 공급된다. 맵 매 칭부 (28) 는, 추측 항법부 (24) 로부터 정보 공급되는 자차량의 GPS 에 기초하는 초기 좌표 및 추측 궤적에 기초하여, 자차량의 위치를 지도 데이터베이스 (30) 에 저장되어 있는 도로 자체의 링크 정보를 이용하여 그 도로 링크 상에 보정하는 맵 매칭 (제 1 맵 매칭) 을 실시함과 함께, 그 제 1 맵 매칭의 결과로서 검출된 자차량의 위치의 정밀도를 나타내는 위치 정밀도 레벨을 산출하는 기능을 갖고 있다.
맵 매칭부 (28) 는, 상기와 같이 제 1 맵 매칭의 결과 얻어진 자차량의 현재 위치로부터 소정 범위 내의 도로 노면 상에 있는 대상물 데이터를 지도 데이터베이스 (30) 로부터 판독함과 함께, 그 자차 위치로부터 소정 도로 범위 내에 있는 대상물을 자차량에 있어서 인식해야 하는 대상물로서 설정한다. 그리고, 그 설정 후, 측위 검출되는 자차량의 위치에 기초하여, 후술하는 백 카메라 (32) 에 의한 촬상 화상을 이용하여 그 설정된 대상물을 인식해야 하는지의 여부를 판별한다.
측위부 (12) 는, 또, 맵 매칭부 (28) 에 접속하는 백 카메라 (32) 를 갖고 있다. 백 카메라 (32) 는, 차량 후부 범퍼 등에 배치 형성되어 있고, 그 배치 형성 위치로부터 차량 후방의 도로 노면을 포함하는 소정 영역의 외계를 촬영할 수 있다. 백 카메라 (32) 의 촬상 화상은, 맵 매칭부 (28) 에 공급된다.
맵 매칭부 (28) 는, 백 카메라 (32) 에 의한 촬상 화상의 인식을 실시해야 하는 것으로 판별하는 경우에 있어서, 백 카메라 (32) 로부터 촬상 화상이 공급된 때, 그 촬상 화상에 대해 에지 추출 등의 화상 처리를 실시함으로써, 도로 노면에 그려진 상기의 대상물이나 주행 레인을 검출함과 함께, 그들 대상물이나 주행 레인과 자차량의 상대 위치 관계를 파악한다.
맵 매칭부 (28) 는, 백 카메라 (32) 의 촬상 화상으로부터의 주행 레인의 검출 결과에 기초하여, 자차량이 실제로 주행하는 도로상에 있어서의 자차량에 대한 자기 레인의 위치를 산출한다. 또, 대상물의 검출 결과에 기초하여, 자차량과 자차량의 도로 후방에 존재하는 인식된 대상물과의 상대 관계 (구체적으로는, 자차량으로부터 인식 대상물까지의 거리) 를 측정함과 함께, 그 측정 결과와 지도 데이터베이스 (30) 에 저장되어 있는 그 인식 대상물의 위치 데이터에 기초하여, 자차량의 위치 (특히 차량 전후 방향의 위치) 를 인식 대상물에 대해 그 상대 위치 관계에 있는 위치에 보정하는 맵 매칭 (제 2 맵 매칭) 을 실시한다.
이와 같이, 맵 매칭부 (28) 는, 상기와 같이, 추측 항법부 (24) 로부터 추측 궤적의 정보가 공급될 때마다, 자차량의 현재 위치를 지도 데이터베이스 (30) 에 저장되어 있는 도로 링크 상에 보정하는 제 1 맵 매칭을 실시함과 함께, 추가로, 백 카메라 (32) 의 촬상 화상으로부터 인식해야 하는 대상물이 인식되었을 때에도, 그 인식 결과에 의한 인식 대상물에 기초하는 위치로 자차량의 위치를 보정하는 제 2 맵 매칭을 실시한다. 맵 매칭부 (28) 는, 상기한 맵 매칭의 결과로서 측위 되는 자차량의 현재 위치의 정밀도를 나타내는 정확성 (즉 자신도) 을 산출한다.
맵 매칭부 (28) 는, 또, 맵 매칭에 의해 측위된 자차량의 위치를 지도 데이터베이스 (30) 에 저장되어 있는 지도 데이터와 대조함으로써, 자차량의 진행 방향의 소정 범위 전방으로 지원 제어를 실행하는 데 필요한 제어 대상인 목표의 대상물 (예를 들어, 정지선이나 교차점, 커브 진입구 등) 이 존재하게 될 때에는, 이후, 측위마다, 측위된 자차량의 위치와 지도 데이터베이스 (30) 에 저장되어 있는 그 목표 대상물 위치와의 관계에 기초하여, 자차량으로부터 진행 방향 전방의 목표 대상물까지의 주행 레인의 중심선을 따른 거리 (이하, 진행 도로 잔거리라고 한다) 를 산출한다.
측위부 (12) 와 지원 제어부 (14) 는, 서로 접속되어 있다. 측위부 (12) 에서 측위 검지된 자차량의 위치나 진행 도로 잔거리의 정보는, 예를 들어 차 내에 형성된 탑승자가 관찰할 수 있는 표시 디스플레이에 공급되어, 화면상에 투영되고 있는 도로 지도에 모식적으로 중첩 표시됨과 함께, 지원 제어부 (14) 에 공급된다.
지원 제어부 (14) 는, 마이크로컴퓨터를 주체로 구성된 전자 제어 유닛 (이하, 지원 ECU 라고 한다)(40) 을 구비하고 있고, 지원 ECU (40) 에 의해 자차량을 도로상에서 주행시킨 후의 운전자의 조작을 지원하기 위한 지원 제어를 실행한다. 이 지원 제어는, 자차량의 위치에 따라 구체적으로는 상기한 자차량으로부터 목표 대상물까지의 진행 도로 잔거리에 따라 실행되는 예를 들어, 특히 운전자에 의한 브레이크 조작이 실시되지 않을 때나 지연되었을 때 등에 자차량을 도로상의 목표 대상물인 일시 정지선이나 건널목선 등의 바로 앞에서 정차시키기 위한 운전 지원 제어인 일시 정지 제어, 자차량을 도로상의 목표 대상물이 되는 교차점에서 교차될 것으로 예측되는 타차량과 교착(交錯)시키지 않기 위한 운전 지원 제어인 교차점 제어, 자차량을 대상물인 커브 (코너) 에 대해 적절한 속도로 주행시키기 위한 속도 제어, 목표 대상물까지의 상대 거리에 대해 음성에 의한 경로 안내를 실시하기 위한 안내 제어 등이다.
지원 ECU (40) 에는, 자차량에 적당한 제동력을 발생시키기 위한 브레이크 액추에이터 (42), 자차량에 적당한 구동력을 부여하기 위한 스로틀 액추에이터 (44), 자차량의 자동 변속기의 변속단을 전환하기 위한 시프트 액추에이터 (46), 자차량에 적당한 조타각(操舵角)을 부여하기 위한 스티어링 액추에이터 (48; steering actuator), 및 차 실내용 버저 소리나 경보 출력, 스피커 출력을 실행하기 위한 버저 경보기 (50) 가 접속되어 있다. 지원 ECU (40) 은, 상기한 지원 제어를 실행하기 위하여, 측위부 (12) 에서 측위된 자차량의 위치나 자차량과 목표 대상물의 상대 관계에 기초하여, 각 액추에이터 (42 ∼ 50) 에 대해 적당한 구동 지령을 실시한다. 각 액추에이터 (42 ∼ 50) 는, 지원 ECU (40) 으로부터 공급되는 구동 지령에 따라 구동된다.
다음으로, 본 실시예의 시스템에 있어서의 구체적인 동작에 대해 설명한다. 차량 운전자는, 지원 제어부 (14) 에 의한 지원 제어의 실행을 희망하는 경우, 본 실시예의 시스템을 작동할 수 있는 상태로 조작한다. 본 실시예의 시스템 에 있어서, 측위부 (12) 는, 추측 항법부 (24) 에 있어서, 소정 시간마다, 각 수신기나 센서 (16 ∼ 22) 의 출력 신호에 기초하여, 자차량의 초기 좌표로부터의 주행 궤적을 작성한다. 그리고, 맵 매칭부 (28) 에 있어서, 추측 항법부 (24) 에 의한 자차량의 초기 좌표 위치 및 추측 궤적을, 지도 데이터베이스 (30) 에 지도 데이터로서 저장되어 있는 도로의 링크 정보와 대조함으로써, 자차량의 위치를 그 도로 링크 상에 보정하는 제 1 맵 매칭을 실시한다.
맵 매칭부 (28) 는, 자차 위치를 검출한 경우, 그 자차 위치를 탑승자가 관찰할 수 있는 표시 디스플레이의 표시 화면상의 도로 지도에 중첩하여 표시함과 함 께, 추가로, 그 자차 위치로부터 자차량이 이후 소정 시간 혹은 소정 거리만큼 주행했을 때의 위치까지 또는 지원 제어의 제어 대상인 목표 대상물의 위치까지의 도로 범위 (복수 레인일 때에는 모든 레인) 의 대상물의 데이터를 지도 데이터베이스 (30) 로부터 판독한다. 그리고, 그 소정 도로 범위에 있어서의 대상물을 백 카메라 (32) 에 의해 인식해야 하는 대상물로서 설정하고, 그 후에는, 이 후에 상세하게 서술하는 바와 같이, 그 설정된 인식해야 하는 대상물 위치와 항상 갱신되는 자차량의 위치에 기초하여, 자차 위치가 그 인식해야 하는 대상물의 위치 근방에 도달하는지의 여부를 판별함으로써, 백 카메라 (32) 의 촬상 화상을 처리하여 그 설정된 인식해야 하는 대상물의 인식을 실시해야 하는지의 여부를 판별한다.
맵 매칭부 (28) 는, 상기 판별의 결과, 인식해야 하는 대상물의 인식을 실시해야 하는 때에는, 백 카메라 (32) 에 의해 촬상되는 차량 후방의 촬상 화상의 공급을 받아, 그 촬상 화상에 대해 에지 추출 등의 화상 처리를 실시한다. 그리고, 그 화상 처리의 결과와 인식해야 하는 대상물의 형상 데이터나 위치 데이터 등의 특징 데이터를 비교하여, 그 인식해야 하는 대상물이 화상 처리에 의해 인식되는지를 판정한다.
맵 매칭부 (28) 는, 인식해야 하는 대상물을 인식했을 때에는, 그 화상 처리에 의해 특정되는 자차량과 인식 대상물의 상대 관계에 기초하여, 자차량으로부터 차량 후방에 존재하는 인식 대상물까지의 상대 위치 및 거리를 검출함과 함께, 지도 데이터베이스 (30) 에 액세스하여 그 인식 대상물의 위치 데이터를 판독한다. 그리고, 인식 대상물까지의 상대 거리와 그 인식 대상물의 위치 데이터에 기초하 여, 자차량의 위치 (특히 차량 전후 방향의 위치) 를 인식 대상물의 위치와 검출 상대 관계에 있는 위치로 보정하는 제 2 맵 매칭을 실시한다.
맵 매칭부 (28) 는, 상기의 제 2 맵 매칭을 실시하면, 지도 데이터베이스 (30) 에 액세스하여 그 인식 대상물로부터 지원 제어의 대상인 목표 대상물까지의 도로 주행 상의 거리를 취득하고, 그리고, 자차량의 위치와 인식 대상물로부터 목표 대상물까지의 거리에 기초하여, 자차량으로부터 목표 대상물까지의 진행 도로 잔거리의 초기값을 산출한다.
또, 맵 매칭부 (28) 는, 소정 도로 범위 내의 인식해야 하는 대상물을 인식했을 때에는, 백 카메라 (32) 로부터의 촬상 화상의 화상 처리를 실시함으로써 도로상의 주행 레인의 정보를 취득·인식하고, 그 주행 레인의 자차량에 대한 상대 관계를 파악한다. 그리고, 지도 데이터베이스 (30) 에 액세스하여 자차 위치 근방에서의 주행 레인의 레인 폭이나 레인 수, 형상 등을 취득하여, 자차량에 대한 주행 레인의 상대 관계나 지도 데이터베이스 (30) 로부터 취득한 레인 수 등에 기초하여, 자차량이 현시점에서 주행하는 도로에서의 자기 레인의 위치를 특정한다. 목표 대상물은 주행 레인마다 상이한 경우가 있는데, 상기와 같이 자기 레인의 위치가 특정되면, 자기 레인 상에 존재하는 자차량이 통과해야 하는 진행 방향 전방의 목표 대상물이 구체적으로 특정되므로, 자기 레인 상의 목표 대상물을 기준으로 한 상기의 진행 도로 잔거리를 산출할 수 있게 된다.
추측 항법부 (24) 는, 소정 시간마다, GPS 수신기 (16) 그리고 각종 센서 (18 ∼ 22) 를 이용하여 자차 위치의 추측 궤적을 작성하고, 그 궤적 정보를 맵 매 칭부 (28) 에 대해 송신한다. 맵 매칭부 (28) 는, 상기와 같이 대상물 인식에 수반하는 제 2 맵 매칭을 실시하면, 이후, 추측 항법부 (24) 로부터의 추측 궤적 정보를 수신할 때마다, 먼저, 그 제 2 맵 매칭 시점으로부터의 추측 궤적과 자기 레인의 위치에 기초하여 자기 레인의 중심선 상에서의 인식 대상물의 위치 좌표에 대한 자차량의 위치 (특히 전후 방향의 거리) 를 산출한다. 그리고, 그 전후 방향 거리, 및, 자기 레인 상에서의 상기한 인식 대상물과 목표 대상물의 거리에 기초하여, 자차량의 현재 위치로부터 그 목표 대상물까지의 진행 도로 잔거리를 산출한다.
측위부 (12) 에 있어서 검지된 자차 위치의 정보 및 진행 도로 잔거리의 정보는, 표시 디스플레이에 공급됨과 함께, 지원 제어부 (14) 에 공급된다. 표시 디스플레이는, 측위부 (12) 로부터의 정보에 따라, 표시 화면 상에 투영된 도로 지도에 중첩하여 그 자차 위치나 진행 도로 잔거리를 모식적으로 표시한다.
지원 제어부 (14) 의 지원 ECU (40) 은, 측위부 (12) 로부터 공급되는 지원 제어의 제어 대상인 일시 정지선이나 교차점 등의 목표 대상물까지의 도로 주행 상의 거리에 기초하여, 지원 제어마다 그 제어에 정해져 있는 제어 개시 조건이 성립하는지의 여부를 각각 판별한다. 그리고, 제어 개시 조건이 성립된 경우에는 그 지원 제어를 개시한다.
예를 들어 일시 정지 제어에 있어서는, 측위되는 자차량으로부터 목표 대상물인 일시 정지선까지의 거리가 예를 들어 30 미터 (자차속에 따라 변화되는 거리이어도 된다.) 가 된 시점에서 브레이크 액추에이터 (42) 에 의한 자동 브레이크를 개시하고, 자차량을 그 일시 정지선으로 정차시킨다. 또한, 이 때, 브레이크 액추에이터 (42) 에 의한 자동적인 제동 브레이크를 개시하기 전에, 운전자에 대해 그 자동적인 제동 브레이크가 실시되는 것을 알리는 음성 안내 등을 실시하는 것으로 해도 된다. 또, 음성에 의한 경로 안내 제어에 있어서는, 측위되는 자차량으로부터 교차점 등의 목표 대상물까지의 거리가 예를 들어 100 미터가 된 시점에서 버저 경보기 (50) 에 의한 스피커 출력에 의해, 운전자에게 차량 전방에 목표 대상물이 존재하는 것을 알리는 안내를 실시한다.
이와 같이, 본 실시예의 시스템에 있어서는, 측위부 (12) 에 있어서 GPS 수신기 (16) 에 수신되는 GPS 신호나 각종 센서 (18 ∼ 22) 의 출력을 사용한 추측 궤적에 기초하여 자차량의 위치를 지도 데이터베이스 (30) 에 저장되어 있는 지도 데이터의 도로 링크 상에 측위할 수 있다. 또, 백 카메라 (32) 가 촬영하는 화상의 처리에 의해 도로에 그려지거나 혹은 설치되는 대상물을 인식함과 함께, 그 인식 대상물의 지도 데이터베이스 (30) 에 미리 정보 저장되어 있는 위치 및 자차량과 그 인식 대상물의 상대 관계에 기초하여 자차량의 위치를 측위할 수 있다.
여기에서, 상기한 자차 위치의 측위나 자차량으로부터 목표 대상물까지의 진행 도로 잔거리의 산출에는, GPS 수신기 (16) 나 방위 센서 (18), G 센서 (20), 차속 센서 (22), 백 카메라 (32) 가 사용된다. 그러나, 이 측위 계산에는, 수신기나 각종 센서 (16 ∼ 22), 카메라 (32) 에 있어서의 검출 파라미터의 오차나 측위시의 각종 계산에 포함되는 오차 (예를 들어 타이밍의 라운딩 오차) 등이 발생하므로, 차량 위치의 측위 결과에 오차가 발생한다. 이 측위 오차에는 차량의 이 동에 수반하여 적산되는 것이 포함되어 있으므로, 차량의 이동 거리가 길어질수록 자차 위치를 측위하는 데 있어서의 오차가 커져, 측위 정밀도가 저하된다 (도 2 참조). 한편, 지도 데이터베이스 (30) 에 저장되어 있는 대상물의 위치 정보는 일반적으로 실측된 것으로서 매우 높은 정밀도를 가지므로, 이러한 대상물의 위치 정보를 이용하면, 자차 위치를 측위하는 데 있어서의 오차는 작아져, 그 측위 정밀도가 높아진다.
따라서, 본 실시예의 시스템에 의하면, 자차 위치의 측위를 상기한 수법에 따라 실시함으로써, 구체적으로는, 통상은 GPS 나 센서 출력을 사용한 차량의 추측 궤적에 기초하여 제 1 맵 매칭을 실시하고, 한편, 카메라 촬상 화상을 사용한 대상물의 인식시에는 그 인식 결과에 기초하여 제 2 맵 매칭을 실시함으로써, 도로에 그려지거나 혹은 설치되는 대상물을 백 카메라 (32) 에 의한 촬상 화상에 의해 인식하기 전에는 자차량의 이동량이 많아질수록, 측위되는 자차 위치의 정밀도는 저하되지만, 그 대상물을 인식할 때마다, 측위되는 자차 위치의 정밀도를 향상시킬 수 있다.
또, 본 실시예의 시스템에 있어서는, 측위부 (12) 에서 측위된 자차 위치 (구체적으로는 자차량으로부터 지원 제어의 대상인 목표 대상물까지의 거리) 에 따라 지원 제어를 실행할 수 있다. 위치 측위의 결과로서 자차량이 목표 대상물 에 대해 소정의 상대 위치 관계에 도달하기 전에는 지원 제어를 실시하지 않는데, 그 상대 위치 관계에 도달한 경우에는 지원 제어를 실행할 수 있다. 이 때문에, 본 실시예의 시스템에 의하면, 자차량의 측위 결과에 따른 일시 정지 제어나 교차점 제어, 속도 제어, 안내 제어를 실시하고, 자차량을 도로상에서 주행시키는 데 있어서의 운전자의 조작을 지원함으로써, 자차량을 안전하고 적절히 주행시킬 수 있다.
그런데, 본 실시예에 있어서는, 자차 위치를 보정하기 위해 백 카메라 (32) 의 촬상 화상의 처리에 의해 도로상의 대상물이 인식되는데, 그 대상물은 정지선이나 횡단보도, 화살표, 회전 금지, 마름모꼴 표시, 문자열, 감속 구간 등으로서 도로상에 점재하는 것이므로, 항상 그 대상물 인식 처리를 실시할 필요는 없다. 또, 인식해야 하는 대상물의 위치 정보는 미리 지도 데이터베이스 (30) 에 저장되어 있고, 그 위치는 어느 정도의 정확성을 갖는 한편, 자차량의 위치는 상기의 수법에 따라 측위되므로, 측위 정밀도에 따른 오차를 갖는 것이 된다. 이 점, 자차 위치의 측위 오차가 생기지 않으면, 측위된 자차 위치가 지도 데이터베이스 (30) 에 저장되어 있는 대상물의 위치에 일치했을 때 혹은 그 위치 근방에 도달했을 때의 타이밍으로 카메라 촬상 화상을 사용한 대상물의 인식 처리를 실시하는 것으로 하면 충분하지만, 실제로는 상기와 같이 자차 위치에 도 3 에 나타내는 바와 같이 측위 오차가 발생하기 때문에, 상기한 타이밍에서만 대상물의 인식 처리를 실시하는 것으로 하면, 그 인식 처리시에는 이미 자차량이 그 대상물을 통과하고 있는 경우도 있어, 대상물을 인식할 수 없는 사태가 일어날 수 있다.
또, 자차 위치의 측위는, GPS 수신기나 각종 센서 (16 ∼ 22) 의 출력을 사용한 추측 궤적에 기초하여 실시될 수 있으므로, 자차 위치의 측위 오차는 차량의 이동 거리가 길어질수록 커진다. 그러나, 이러한 구성에 있어서, 자차 위치와 대상물 위치의 주행 레인 상의 상대 관계를 고려하지 않고 대상물을 인식해야 하는 범위를 설정하는 것으로 하면, 그 설정 후, 위치 측위된 자차량이 그 설정 범위에 들었다고 판단될 때에도, 실제로는 차량 이동에 수반하여 증대된 측위 오차에 의해 그 설정 범위에 들지 않은 사태도 일어날 수 있고, 그 결과, 대상물이 인식되지 않을 우려도 있다.
그래서, 본 실시예의 시스템은, 자차 위치와 인식해야 하는 대상물의 위치의 상대 관계 및 자차 위치의 측위 정밀도에 기초하여, 대상물을 인식해야 하는 인식 범위 (본 실시예에 있어서는, 구체적으로는, 차량측에 있어서 그 대상물을 인식하여 자차 위치의 보정을 실시하기 전에 측위되는 자차 위치를 기준으로 하여 추측되는 도로의 위치 범위로서, 측위되는 자차 위치에 허용되는 최대의 측위 오차가 생겨도 그 범위 내에서 인식 처리를 실시하면 확실하게 대상물을 인식할 수 있는 영역 범위이다.) 를 설정하는 것으로 하고 있다. 이하, 도 4 내지 도 7 을 참조하여, 본 실시예의 특징부에 대해 설명한다.
도 4 는, 본 실시예의 시스템에 있어서 자차 위치의 측위 정밀도에 따라 대상물을 인식해야 하는 도로의 인식 범위를 설정하는 수법을 설명하기 위한 도면을 나타낸다. 도 5 는, 본 실시예의 시스템에 있어서 자차량과 대상물의 상대 거리에 따라 대상물을 인식해야 하는 도로의 인식 범위를 설정하는 수법을 설명하기 위한 도면을 나타낸다. 도 6 은, 본 실시예의 시스템에 있어서 대상물을 인식해야 하는 도로의 인식 범위를 설정한 후에 사용되는 맵을 나타낸 도면을 나타낸다. 또, 도 7 은, 본 실시예의 시스템에 있어서 맵 매칭부 (28) 가 실행하는 제어 루틴의 일례의 플로우 차트를 나타낸다.
일반적으로, 자차 위치의 측위 정밀도가 매우 높을 때에는, 측위되는 자차 위치가 정확하기 때문에, 그 측위 위치와 지도 데이터베이스 (30) 에 저장되어 있는 인식해야 하는 대상물의 위치와의 관계로부터, 실제 도로상에서 자차량이 인식해야 하는 대상물을 인식할 수 있을 때까지의 타이밍을 정확하게 파악할 수 있고, 이 점에서, 백 카메라 (32) 의 촬상 화상을 이용하여 인식해야 하는 대상물을 인식하는 데 있어서는, 그 인식을 위한 도로 인식 범위가 매우 좁아도 충분하다. 한편, 자차 위치의 측위 정밀도가 낮을수록, 측위되는 자차 위치의 오차는 커지기 때문에, 그 측위 위치로부터는, 실제 도로상에서 자차량이 인식해야 하는 대상물을 인식할 수 있을 때까지의 타이밍을 정확하게 파악할 수 없고, 이 점에서, 백 카메라 (32) 의 촬상 화상을 이용하여 인식해야 하는 대상물을 인식하는 데 있어서는, 그 인식을 위한 도로 인식 범위를 넓게 하는 것이 필요하다 (도 4 참조).
또, 자차 위치의 측위 오차가 차량의 이동 거리가 길어질수록 커지면, 어느 시점에서의 자차 위치의 측위 정밀도가 동일해도, 그 시점에서의 자차 위치가 주행 레인 상에 있어서의 전방의 대상물의 위치로부터 먼 것일수록, 자차량이 그 대상물에 접근할 때까지 측위 오차는 커진다. 이 점에서, 백 카메라 (32) 의 촬상 화상을 이용하여 인식해야 하는 대상물을 인식할 때에는, 그 인식을 위한 도로 인식 범위를, 자차 위치와 대상물 위치의 주행 레인 상에서의 상대 거리 (도로의 주행 거리) 가 작을 (짧을) 수록 좁게 하고, 그 상대 거리가 클 (길) 수록 넓게 하는 것이 적절하다 (도 5 참조).
본 실시예의 시스템에 있어서, 측위부 (12) 의 맵 매칭부 (28) 는, GPS 나 센서 출력을 사용한 차량의 추측 궤적에 기초하여 혹은 카메라 촬상 화상을 사용한 대상물의 인식 결과에 기초하여 자차 위치를 측위하고, 자차량의 위치를 취득한다 (단계 100). 그리고, 그 자차 위치로부터 자차량이 향후 소정 시간 혹은 소정 거리만큼 주행하는 데 있어서의 위치까지 또는 자차량에 있어서 실행할 수 있는 지원 제어의 제어 대상인 최근의 목표 대상물의 위치까지의 도로 범위 상의 모든 대상물 후보의 데이터를 지도 데이터베이스 (30) 로부터 판독하고, 그 도로 범위에 있어서의 대상물을 백 카메라 (32) 에 의해 인식해야 하는 대상물로서 설정한다 (단계 102).
또한, 이 때, 전체 대상물 후보 중에서 설정되는 카메라 (32) 를 이용하여 인식해야 하는 대상물은, 지도 데이터베이스 (30) 에 위치 데이터가 저장되어 있는 그 도로 범위 상의 모든 대상물일 필요는 없고, 예를 들어, 지원 제어의 목표 대상물로부터 그 바로 앞 소정 거리 (예를 들어 1km 나 700m) 의 범위 내에 있는 것으로 한정하는 것으로 해도 되고, 카메라 촬상 화상으로부터 형상이 특정되기 쉬운 것이나 표시 스침이 생기기 어려운 것, 자차 위치로부터 지원 제어의 목표 대상물까지의 주행 도로의 종류에 따른 배치 패턴에 따른 것만이어도 되거나, 혹은, 그 대상물을 카메라 촬상 화상에 의해 인식하여 자차 위치의 보정을 실시하면 자차량에 있어서 실행될 수 있는 지원 제어에 요구되는 측위 정밀도를 유지하면서 그 지원 제어의 실행에 의해 자차량을 그 목표 대상물에 도달시킬 수 있는 것만이어도 된다. 이 경우, 예를 들어, 일시 정지 제어에 의해 자차량을 목표 대상물인 일 시 정지선에 정차시키는 데 있어서 요구되는 일시 정지선 도달시에 있어서의 측위 정밀도를 만족시키는 데, 자차 위치의 보정을 실시해야 하는, 그 일시 정지선 전의 주행 레인 상에 존재하는 대상물을, 그 지원 제어를 적절히 실행하는 데 요구되는 측위 정밀도, 그리고 현상황의 측위 정밀도, 자차량의 상대 거리, 및 목표 대상물의 상대 거리에 기초하여 선정한다.
맵 매칭부 (28) 는, 상기 단계 102 에서 백 카메라 (32) 에 의해 인식해야 하는 대상물을 설정하면, 그 인식해야 하는 대상물의 위치 데이터를 지도 데이터베이스 (30) 로부터 취득한다 (단계 104). 또한, 설정된 인식해야 하는 대상물이 복수 있을 때에는, 적어도 자차 위치에서 가장 가까운 대상물의 위치 데이터를 취득한다. 그리고, 상기 단계 100 에서 취득한 자차 위치와 이러한 단계 104 에서 취득한 인식해야 하는 대상물의 위치와의 주행 레인을 따른 도로의 상대 거리를 산출한다 (단계 106).
맵 매칭부 (28) 는, 자차 위치를 측위하는 데 있어서의 현재의 측위 정밀도를 산출한다 (단계 108). 이 산출은, 미리 실험적으로 정해진 소정의 식에 파라미터를 대입하는 것이면 되고, 예를 들어, 초기값을 차량의 이동 거리에 따라 누적되지 않는 GPS 의 정밀도 오차 등에 대응한 것으로 하는 데 있어서, 카메라 촬상 화상에서의 대상물 인식에 기초한 자차 위치의 보정 (제 2 맵 매칭) 이 실시될 때마다 가장 높은 정밀도가 얻어지고, 그 제 2 맵 매칭 후의 차량의 이동 거리에 따라 소정 구배 (미리 정해진 것이면 된다.) 로 저하되어 그 이동 거리가 길어질수록 낮아지는 정밀도가 얻어지는 것으로 하면 된다.
맵 매칭부 (28) 는, 상기 단계 106 에서 산출된 자차량과 인식해야 하는 대상물의 상대 거리 및 상기 단계 108 에서 산출된 자차 위치의 측위 정밀도에 기초하여, 백 카메라 (32) 를 이용하여 도로상의 대상물을 인식해야 하는 도로의 인식 범위를 설정한다 (단계 110).
맵 매칭부 (28) 는, 미리, 자차량과 인식해야 하는 대상물의 상대 거리 및 측위 정밀도로부터 대상물을 인식해야 하는 도로의 인식 범위를 설정하는 데 있어서 사용되는 도 6 에 나타낸 바와 같은 맵을 기억하고 있다. 이 맵은, 자차 위치의 측위 정밀도가 높을수록 도로의 인식 범위가 좁고, 그 측위 정밀도가 낮을수록 도로의 인식 범위가 넓어지도록, 또한, 자차량과 인식해야 하는 대상물의 주행 레인 상의 상대 거리가 짧을수록 도로의 인식 범위가 좁고, 그 상대 거리가 길수록 도로의 인식 범위가 넓어지도록 설정되어 있다. 또한, 이 설정되는 도로의 인식 범위의 넓이는, 측위 정밀도에 대응한 측위 오차에 대응한 것이면 되고, 또, 자차량이 인식해야 하는 대상물과의 상대 거리를 주행했을 때에 발생할 수 있는 최대의 측위 오차에 대응한 것이면 된다. 맵 매칭부 (28) 는, 상기 도 6 에 나타나는 바와 같이 맵을 참조하여 상기 단계 110 에 있어서의 도로의 인식 범위의 설정을 실시한다.
맵 매칭부 (28) 는, 상기와 같이 단계 110 에 있어서 대상물을 인식해야 하는 도로의 인식 범위를 설정한 경우, 그 후에는, 갱신되는 자차 위치와 그 설정된 인식 범위를 비교하여, 자차량이 그 설정 도로 인식 범위에 진입했는지의 여부를 판별하고, 긍정 판정이 이루어질 때까지 반복하여 이러한 판별을 실시한다. 그 리고, 자차량이 설정 도로 인식 범위에 진입했다고 판별한 경우에는, 인식해야 하는 대상물을 백 카메라 (32) 의 촬상 화상의 처리에 의해 인식해야 하는 상황에 있다고 판단하여, 이후, 백 카메라 (32) 로부터 촬상되는 차량 후방의 촬상 화상의 공급을 받아, 그 촬상 화상에 대해 에지 추출 등의 화상 처리를 실시하고 (단계 112), 그 화상 처리 결과와 인식해야 하는 대상물의 특징 데이터를 비교하여 그 인식해야 하는 대상물을 인식하는 처리를 실시한다 (단계 114).
그 처리의 결과, 맵 매칭부 (28) 는, 자차량이 설정 도로 인식 범위 내에 위치하는 상황에 있어서 인식해야 하는 대상물을 인식했을 때 (단계 114 에 있어서의 긍정 판정시) 에는, 도로의 인식 범위 내에 인식해야 하는 대상물이 존재한 것으로 판단하고 (단계 116), 그 화상 처리에 의해 특정되는 자차량과 인식 대상물의 상대 관계를 파악하여, 그 인식 대상물의 위치에 대해 그 상대 관계에 있는 위치로 자차 위치를 보정하는 제 2 맵 매칭을 실시한다.
한편, 맵 매칭부 (28) 는, 자차량이 설정 도로 인식 범위 내에 위치하는 상황에 있어서 인식해야 하는 대상물을 인식하지 않고, 갱신되는 자차 위치와 그 설정된 도로의 인식 범위의 비교 결과에 기초하여 자차량이 그 설정 도로 인식 범위로부터 진출한 것으로 판별했을 때 (단계 114 에 있어서의 부정 판정시) 에는, 도로의 인식 범위 내에 인식해야 하는 대상물이 존재하지 않은 것으로 판단하여 (단계 118), 상기의 제 2 맵 매칭을 실시하지 않고 처리를 종료한다.
이후, 맵 매칭부 (28) 는, 자차량이 지원 제어의 목표 대상물 또는 그 근방에 도달할 때까지, 설정된 인식해야 하는 대상물마다 위치 데이터를 취득하여, 그 인식 처리를 실시해야 하는 도로의 인식 범위를 설정한 후 상기 처리와 동일한 처리를 실행한다.
이와 같이, 본 실시예의 시스템에 의하면, 자차 위치의 측위 정밀도, 그리고, 실제로 측위되는 자차 위치 및 미리 지도 데이터베이스 (30) 에 저장되어 있는 인식해야 하는 대상물의 위치 (구체적으로는, 자차량과 인식해야 하는 대상물의 주행 레인 상에서의 상대 거리) 에 기초하여, 백 카메라 (32) 의 촬상 화상을 이용하여 인식해야 하는 도로상의 대상물의 인식 처리를 실시해야 하는 도로의 인식 범위를 설정할 수 있다. 구체적으로는, 측위 정밀도가 높을수록 보다 좁은 도로의 인식 범위를 설정하고, 측위 정밀도가 낮을수록 보다 넓은 도로의 인식 범위를 설정한다. 또, 자차량과 인식해야 하는 대상물의 주행 레인 상의 상대 거리가 짧을수록 보다 좁은 도로의 인식 범위를 설정하고, 그 상대 거리가 길수록 보다 넓은 도로의 인식 범위를 설정한다. 그리고, 그 도로 인식 범위에 있어서 백 카메라 (32) 의 촬상 화상을 사용한 대상물의 인식 처리를 실시한다.
즉, 본 실시예의 시스템에 있어서, 백 카메라 (32) 의 촬상 화상을 이용하여 대상물의 인식 처리를 실시하는 것은, 상기와 같이 자차량과 인식해야 하는 대상물의 상대 거리 및 자차 위치의 측위 정밀도에 기초하여 설정되는 소정의 도로 인식 범위 내를 차량이 주행할 때에 한정되고, 그 범위 이외에서는 이러한 대상물의 인식 처리는 실시되지 않는다. 이로 인해, 본 실시예의 시스템에 의하면, 백 카메라 (32) 의 촬상 화상을 사용한 대상물의 인식 처리를 항상 실시하는 시스템에 비해, 그 대상물의 인식에 필요로 하는 처리 부하를 경감하는 것이 가능해지고 있 다.
또한, 자차 위치의 측위 오차의 범위는, 측위 정밀도가 높을 때에는 작지만, 측위 정밀도가 낮을 때에는 커진다. 또, 차속, 타각 등에 의한 주행 궤적에 기초하여 자차량의 위치가 측위되는 경우, 차량의 주행 이동 거리가 길어질수록 측위 정밀도가 낮아져, 측위 오차의 범위는 넓어지고 커진다. 따라서, 본 실시예의 시스템과 같이, 자차 위치의 측위 정밀도가 낮을수록 보다 넓은 도로의 인식 범위를 설정하고, 또, 자차량과 인식해야 하는 대상물의 주행 레인 상의 상대 거리가 길수록 보다 넓은 도로의 인식 범위를 설정하는 것으로 하면, 대상물의 인식 처리가 항상 실시되는 것이 아니고 그 타이밍이 한정되는 것이어도, 자차량이 인식해야 하는 대상물이 인식할 수 없게 되는 것을 방지할 수 있어, 대상물 인식의 성능 저하를 억제할 수 있다.
또, 본 실시예에 있어서는, 설정된 도로 인식 범위에 있어서 백 카메라 (32) 의 촬상 화상을 사용한 인식 처리에 의해 대상물이 인식되면, 미리 지도 데이터베이스 (30) 에 저장되어 있는 그 대상물의 위치 데이터를 이용하여 자차량의 위치를 보정하는 제 2 맵 매칭이 실행된다. 지도 데이터베이스 (30) 에 저장되어 있는 대상물의 위치 데이터는, 매우 정밀도가 높고, 그 오차가 거의 생기지 않는 데이터이다. 따라서, 본 실시예의 시스템과 같이 인식 대상물에 기초한 위치로 자차 위치를 보정하는 것으로 하면, 그 보정시에 백 카메라 (32) 의 촬상 화상으로부터 인식한 대상물의 위치 데이터를 사용하는 것이 되므로, 자차량의 위치를 정확하게 측위할 수 있게 되어, 대상물의 인식마다 자차 위치의 측위 정밀도를 높일 수 있게 된다.
또, 본 실시예에 있어서는, 자차량이 향후 주행하는 목표 대상물까지의 도로상의 전체 대상물을 그 때마다 백 카메라 (32) 의 촬상 화상의 처리에 의해 인식하여 그 전체 대상물의 인식마다 자차 위치 보정을 실시하는 것으로 해도 되는데, 이것 대신에, 그 전체 대상물 중 특정 일부 대상물만을 화상 처리에 의해 인식하고 그 특정 대상물의 인식마다에만 자차 위치 보정을 실시하는 것으로 해도 된다.
예를 들어, 자차량에 있어서 실행할 수 있는 지원 제어를 적절히 실시하는 데 있어서 요구되는 측위 정밀도를 확보하는 데 필요한 대상물을, 그 지원 제어를 적절히 실행하는 데 요구되는 측위 정밀도, 그리고 현상의 측위 정밀도, 자차량과의 상대 거리, 및 목표 대상물과의 상대 거리에 기초하여 선정한 후, 그 선정 대상물을 화상 처리에 의해 인식하여 자차 위치 보정 (제 2 맵 매칭) 을 실시한 후의 기준으로 한다. 이러한 구성에 의하면, 카메라 촬상 화상으로부터의 대상물 인식을 실시하는 횟수나 그 인식 대상물에 기초하는 자차 위치 보정을 실시하는 횟수를 삭감할 수 있고, 대상물 인식이나 자차 위치 보정을 실시한 후의 처리 부담을 경감할 수 있음과 함께, 추가로, 자차 위치의 정밀도를 어느 정도 고정밀도로 유지하여 자차 위치에 따른 지원 제어를 적절히 실행할 수 있는 것이 가능해진다.
또한, 상기 실시예에 있어서는, 측위부 (12) 가 특허 청구 범위에 기재된 「대상물 인식 장치」에 기초하고, 대상물의 위치 데이터를 저장하는 지도 데이터베이스 (30) 가 특허 청구 범위에 기재된 「저장 수단」에 기초하고, 백 카메라 (32) 가 특허 청구 범위에 기재된 「촬상 수단」에 기초하고, GPS 및 자차량의 주행 궤 적의 쌍방에 기초하여 그리고 카메라 촬상 화상을 사용한 대상물의 인식 결과에 기초하여 자차 위치를 측위하는 것이 특허 청구 범위에 기재된 「소정의 수법」에, 각각 상당한다.
또, 상기 실시예에 있어서는, 맵 매칭부 (28) 가, 도 7 에 나타나는 루틴 중 단계 100 의 처리를 실행함으로써 특허 청구 범위에 기재된 「측위 수단」이, 단계 108 의 처리를 실행함으로써 특허 청구 범위에 기재된 「측위 정밀도 산출 수단」이, 단계 110 의 처리를 실행함으로써 특허 청구 범위에 기재된 「인식 범위 설정 수단」이, 단계 112 에 있어서 설정된 도로 범위에 있어서 인식해야 하는 대상물을 인식함으로써 특허 청구 범위에 기재된 「대상물 인식 수단」이, 단계 102 의 처리를 실행함으로써 특허 청구 범위에 기재된 「인식 대상물 설정 수단」이 각각 실현되고 있다.
그런데, 상기 실시예에 있어서는, 차량의 후부에 배치 형성된 백 카메라 (32) 의 촬상 화상을 이용하여 도로상의 대상물을 인식하는 것으로 하고 있으나, 본 발명은 이것에 한정되는 것이 아니고, 이러한 대상물의 인식을, 차량의 전방부에 배치 형성된 카메라의 촬상 화상이나 외부 인프라로부터 보내져 오는 정보에 기초하여 실시하는 것으로 해도 된다.
또, 상기 실시예에 있어서는, 백 카메라 (32) 의 촬상 화상을 이용하여 인식해야 하는 대상물의 인식 처리를 실시해야 하는 도로의 인식 범위의 설정을, 어느 시점에서 산출되는 자차 위치의 측위 정밀도, 그리고, 측위되는 자차 위치 및 미리 지도 데이터베이스 (30) 에 저장되어 있는 인식해야 하는 대상물의 위치 (구체적으 로는, 양자의 주행 레인 상에서의 상대 거리) 에 기초하여 실시하는 것으로 하고, 그 설정 후에는 자차량이 그 인식 범위 내에 진입하기 전이어도, 그 인식 범위의 재설정을 실시하는 것은 하고 있지 않지만, 그 설정 후, 자차량이 그 설정된 인식 범위 내에 진입할 때까지 예를 들어 소정 시간마다, 갱신되는 자차 위치의 측위 정밀도, 갱신되는 자차 위치, 및 대상물의 위치에 기초하여 상기한 인식 범위를 재설정하는 것으로 해도 된다. 이러한 구성에 있어서는, 측위 정밀도가 전회 설정시의 것으로부터 저하되는 한편, 자차량과 대상물의 상대 거리가 전회 설정시에서의 것으로부터 짧아지기 때문에, 이번 설정시와 전회 설정시에서, 설정되는 도로의 인식 범위가 크게 변화되는 것은 거의 없고, 거의 일치한 것이 된다. 또한, 차량 이동에 수반하여 측위 정밀도가 저하될 때에는, 그 이동 거리만큼 자차량과 인식해야 하는 대상물의 상대 거리가 짧아지지만, 반대로 상기의 작용을 효과적으로 실현하기 위해서는, 상기한 현상의 발생 전후에 대상물의 인식 처리를 실시해야 하는 도로의 인식 범위가 너무 크게 변화되지 않도록 도 6 에 나타낸 바와 같이 맵을 설정하는 것이 적절하다.
또, 상기 실시예에 있어서는, 자차량이 향후 주행하는 도로상의 대상물을 자차 위치 보정을 위해 인식해야 하는 대상물로서 설정하는데, 이 자차 위치 보정을 위한 인식 대상물 설정에 대해, 도로 주행 레인을 따른 전후 방향의 보정과, 도로 주행 레인에 수직인 좌우 방향의 보정을 각각 별개로 나누어 독립적으로 실시하는 것으로 해도 된다. 자차 위치의 전후 방향의 보정을 실시한 후에 유효해지는 대상물의 종류와 좌우 방향의 보정을 실시한 후에 유효해지는 대상물의 종류는, 상 이한 경우가 많다. 따라서, 이와 같이 전후 방향 보정과 좌우 방향 보정을 구별하여 자차 위치 보정을 위한 인식 대상물 설정을 실시하는 것으로 하면, 자차 위치 보정을 실시한 후의 효율화나 처리 부담의 경감을 도모할 수 있게 된다.
또, 상기 실시예에 있어서는, 카메라 촬상 화상을 이용하여 인식한 도로상의 대상물을, 자차 위치를 GPS 나 차속, 타각 등에 의한 주행 궤적에 기초한 것으로부터 보정하는 제 2 맵 매칭에 필요한 것으로서 이용하는 것으로 하고 있는데, 본 발명은 이것에 한정되는 것이 아니고, 예를 들어 그 대상물이 차량의 진입을 금지하는 구역을 나타내는 도로 표시로서 설치되어 있는 경우에 있어서 차량이 그 구역에 진입하면 차량 경보를 발하는 시스템 등, 맵 매칭 이외의 다른 용도로 이용하는 것이어도 된다.
또, 상기 실시예에 있어서는, 지도 데이터베이스 (30) 를 차량에 탑재하는 것으로 하였는데, 센터에 형성하는 것으로 하고, 차량이 그 때마다 통신 액세스하여 그 지도 데이터베이스에 저장하는 데이터를 판독할 수 있도록 해도 된다.
또한, 상기 실시예에 있어서는, 지원 제어로서 일시 정지 제어, 교차점 제어, 속도 제어, 안내 제어를 들었는데, 자차량의 위치에 따라 실행되는 다른 제어를 실시하는 시스템에 적용하는 것도 가능하다.
또한, 본 국제 출원은 2006년 5월 17일에 출원한 일본 특허 출원 제2006-138256호에 기초하는 우선권을 주장하는 것으로서, 그 일본국 특허 출원의 전체 내용을 본 국제 특허 출원에 참조에 의해 원용한다.

Claims (8)

  1. 소정의 수법에 따라 자차량의 위치를 측위하는 측위 수단과,
    상기 자차량의 위치를 측위한 후의 측위 정밀도를 산출하는 측위 정밀도 산출 수단과,
    미리 상기 자차량이 인식해야 하는 도로상의 대상물의 위치 정보를 저장하는 저장 수단과,
    상기 측위 수단에 의해 측위된 상기 자차량의 위치, 상기 저장 수단에 저장된 상기 대상물의 위치, 및 상기 측위 정밀도 산출 수단에 의해 산출된 상기 측위 정밀도에 기초하여, 그 대상물을 인식해야 하는 상기 도로의 인식 범위를 설정하는 인식 범위 설정 수단과,
    상기 인식 범위 설정 수단에 의해 설정된 상기 인식 범위에 있어서 상기 대상물을 인식하는 대상물 인식 수단을 구비하는 것을 특징으로 하는 대상물 인식 장치.
  2. 제 1 항에 있어서,
    상기 인식 범위 설정 수단은, 상기 측위 정밀도 산출 수단에 의해 산출되는 상기 측위 정밀도가 낮을수록 보다 넓은 상기 인식 범위를 설정하는 것을 특징으로 하는 대상물 인식 장치.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 인식 범위 설정 수단은, 상기 측위 수단에 의해 측위된 상기 자차량의 위치로부터 상기 저장 수단에 정보 저장된 상기 대상물의 위치까지의 거리가 길수록 보다 넓은 상기 인식 범위를 설정하는 것을 특징으로 하는 대상물 인식 장치.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 측위 수단은, 상기 대상물 인식 수단에 의해 상기 인식 범위에 있어서 상기 대상물이 인식되는 경우, 그 인식 결과에 기초하여, 상기 자차량의 위치를 GPS 또는 상기 자차량의 주행 궤적에 기초한 것으로부터 보정하는 것을 특징으로 하는 대상물 인식 장치.
  5. 제 4 항에 있어서,
    상기 측위 정밀도 산출 수단은, 상기 측위 정밀도를, 상기 측위 수단에 의해 상기 대상물의 인식 결과에 기초한 상기 자차량 위치의 보정을 실시한 시점에 있어서의 것으로부터, 이후 적어도 주행 거리에 따라 저하되도록 산출하는 것을 특징으로 하는 대상물 인식 장치.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 저장 수단에 위치 정보가 저장되는 전체 대상물 중 상기 자차량의 주행 경로 상에 존재하는 특정 대상물을, 인식해야 하는 대상물로서 설정하는 인식 대상 물 설정 수단을 구비하고,
    상기 대상물 인식 수단은, 상기 인식 대상물 설정 수단에 의해 설정되는 상기 인식해야 하는 대상물만을 인식하는 것을 특징으로 하는 대상물 인식 장치.
  7. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 자차량 위치에 따른 지원 제어를 실행하는 지원 제어 장치에 요구되는 상기 측위 정밀도를 그 지원 제어의 실행시에 만족할 필요가 있는 경우, 상기 저장 수단에 위치 정보가 저장되는 전체 대상물 중, 상기 측위 수단에 의한 인식 결과에 기초한 상기 자차량 위치의 보정에 의해 상기 지원 제어 장치에 요구되는 상기 측위 정밀도를 상기 지원 제어의 실행시에 만족할 수 있게 되는 상기 자차량의 주행 경로 상에 존재하는 대상물을, 인식해야 하는 대상물로서 설정하는 인식 대상물 설정 수단을 구비하고,
    상기 대상물 인식 수단은, 상기 인식 대상물 설정 수단에 의해 설정되는 상기 인식해야 하는 대상물만을 인식하는 것을 특징으로 하는 대상물 인식 장치.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    상기 대상물 인식 수단은, 상기 자차량의 소정 위치에 배치 형성된 촬상 수단에 의해 촬영되는 상기 인식 범위 설정 수단에 의한 상기 인식 범위에 있어서의 화상 정보를 이용하여, 상기 대상물을 인식하는 것을 특징으로 하는 대상물 인식 장치.
KR1020087006354A 2006-05-17 2007-05-15 대상물 인식 장치 KR101018620B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2006-00138256 2006-05-17
JP2006138256A JP4724043B2 (ja) 2006-05-17 2006-05-17 対象物認識装置

Publications (2)

Publication Number Publication Date
KR20080037712A true KR20080037712A (ko) 2008-04-30
KR101018620B1 KR101018620B1 (ko) 2011-03-03

Family

ID=38693949

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087006354A KR101018620B1 (ko) 2006-05-17 2007-05-15 대상물 인식 장치

Country Status (6)

Country Link
US (1) US7898437B2 (ko)
EP (1) EP2019288B1 (ko)
JP (1) JP4724043B2 (ko)
KR (1) KR101018620B1 (ko)
CN (1) CN101346603B (ko)
WO (1) WO2007132860A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180097698A (ko) * 2016-01-29 2018-08-31 닛산 지도우샤 가부시키가이샤 차량의 주행 제어 방법 및 차량의 주행 제어 장치
US10145692B2 (en) 2015-06-26 2018-12-04 Nissan Motor Co., Ltd. Vehicle position determination apparatus and vehicle position determination method

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009915A (ja) * 2006-06-30 2008-01-17 Pioneer Electronic Corp 道路標識判定装置、方法及びプログラム
JP4724079B2 (ja) * 2006-09-13 2011-07-13 トヨタ自動車株式会社 対象物認識装置
US20110161174A1 (en) * 2006-10-11 2011-06-30 Tagmotion Pty Limited Method and apparatus for managing multimedia files
JP4980118B2 (ja) * 2007-04-06 2012-07-18 アルパイン株式会社 車載用ナビゲーション装置
JP2009043186A (ja) * 2007-08-10 2009-02-26 Denso Corp 情報記憶装置、及び走行環境情報認識装置
JP2009180631A (ja) * 2008-01-31 2009-08-13 Denso It Laboratory Inc ナビゲーション装置、ナビゲーション方法およびプログラム
EP2264679A4 (en) 2008-03-11 2013-08-21 Panasonic Corp TAG SENSOR SYSTEM AND SENSOR DEVICE, AND OBJECT POSITION ESTIMATING DEVICE, AND OBJECT POSITION ESTIMATING METHOD
JP5001911B2 (ja) * 2008-06-30 2012-08-15 アイシン・エィ・ダブリュ株式会社 停止義務地点学習装置及び停止義務地点学習プログラム、並びにこれを用いたナビゲーション装置
DE112009002300B4 (de) * 2008-10-17 2020-06-18 Mitsubishi Electric Corporation Navigationsgerät
TWI387775B (zh) * 2008-12-18 2013-03-01 Ind Tech Res Inst 定位系統與定位方法
US8744131B2 (en) * 2009-09-29 2014-06-03 Panasonic Corporation Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device
JP5062497B2 (ja) 2010-03-31 2012-10-31 アイシン・エィ・ダブリュ株式会社 風景画像認識を用いた自車位置検出システム
US9140792B2 (en) * 2011-06-01 2015-09-22 GM Global Technology Operations LLC System and method for sensor based environmental model construction
JP5742559B2 (ja) * 2011-08-01 2015-07-01 アイシン・エィ・ダブリュ株式会社 位置判定装置およびナビゲーション装置並びに位置判定方法,プログラム
EP2749468B1 (en) * 2011-08-25 2019-02-27 Nissan Motor Co., Ltd Autonomous driving control system for vehicle
US9235766B2 (en) 2011-10-20 2016-01-12 International Business Machines Corporation Optimizing the detection of objects in images
KR101919366B1 (ko) * 2011-12-22 2019-02-11 한국전자통신연구원 차량 내부 네트워크 및 영상 센서를 이용한 차량 위치 인식 장치 및 그 방법
US9043133B2 (en) * 2011-12-29 2015-05-26 Intel Corporation Navigation systems and associated methods
JP2013217799A (ja) * 2012-04-10 2013-10-24 Honda Elesys Co Ltd 物体検知装置、物体検知方法、物体検知プログラム、及び動作制御システム
US9111173B2 (en) 2012-04-23 2015-08-18 Honda Motor Co., Ltd. Learning part-based models of objects
US9123152B1 (en) * 2012-05-07 2015-09-01 Google Inc. Map reports from vehicles in the field
JP5957359B2 (ja) * 2012-10-19 2016-07-27 日立オートモティブシステムズ株式会社 ステレオ画像処理装置及びステレオ画像処理方法
JP5895815B2 (ja) * 2012-10-30 2016-03-30 トヨタ自動車株式会社 残距離算出装置、残距離算出方法及び運転支援装置
US9495602B2 (en) * 2013-10-23 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Image and map-based detection of vehicles at intersections
DE102014002150B3 (de) * 2014-02-15 2015-07-23 Audi Ag Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit
US9720410B2 (en) 2014-03-03 2017-08-01 Waymo Llc Remote assistance for autonomous vehicles in predetermined situations
US9465388B1 (en) 2014-03-03 2016-10-11 Google Inc. Remote assistance for an autonomous vehicle in low confidence situations
US9547989B2 (en) 2014-03-04 2017-01-17 Google Inc. Reporting road event data and sharing with other vehicles
JP6496982B2 (ja) * 2014-04-11 2019-04-10 株式会社デンソー 認知支援システム
WO2015177864A1 (ja) * 2014-05-20 2015-11-26 日産自動車株式会社 信号機認識装置及び信号機認識方法
US9767372B2 (en) 2014-05-20 2017-09-19 Nissan Motor Co., Ltd. Target detection apparatus and target detection method
JP5984154B2 (ja) * 2014-09-24 2016-09-06 三菱電機株式会社 運転支援装置
JP6304393B2 (ja) * 2014-10-22 2018-04-04 日産自動車株式会社 走行経路演算装置
JP6399100B2 (ja) * 2014-10-22 2018-10-03 日産自動車株式会社 走行経路演算装置
US9569693B2 (en) * 2014-12-31 2017-02-14 Here Global B.V. Method and apparatus for object identification and location correlation based on received images
KR102534792B1 (ko) * 2015-02-10 2023-05-19 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
US20160259034A1 (en) * 2015-03-04 2016-09-08 Panasonic Intellectual Property Management Co., Ltd. Position estimation device and position estimation method
MX364590B (es) * 2015-05-28 2019-05-02 Nissan Motor Dispositivo de estimacion de posicion y metodo de estimacion de posicion.
JP6376059B2 (ja) * 2015-07-06 2018-08-22 トヨタ自動車株式会社 自動運転車両の制御装置
CA2992405A1 (en) * 2015-07-13 2017-01-19 Nissan Motor Co., Ltd. Traffic light recognition device and traffic light recognition method
CN106569245B (zh) * 2015-10-10 2021-01-05 腾讯科技(深圳)有限公司 一种车辆定位方法及装置
CN105355071B (zh) * 2015-11-16 2017-09-29 北京握奇智能科技有限公司 一种车载终端实路动态定位精度的自动化评估系统和方法
US9494438B1 (en) 2015-12-15 2016-11-15 Honda Motor Co., Ltd. System and method for verifying map data for a vehicle
CN106996785B (zh) * 2016-01-25 2019-12-10 北京四维图新科技股份有限公司 一种对导航数据进行更新的方法及装置
RU2719497C2 (ru) * 2016-01-29 2020-04-20 Ниссан Мотор Ко., Лтд. Способ для управления движением транспортного средства и устройство для управления движением транспортного средства
US10670418B2 (en) * 2016-05-04 2020-06-02 International Business Machines Corporation Video based route recognition
DE102016208488A1 (de) * 2016-05-18 2017-11-23 Robert Bosch Gmbh Verfahren und Vorrichtung zur Lokalisierung eines Fahrzeugs
JP6432116B2 (ja) * 2016-05-23 2018-12-05 本田技研工業株式会社 車両位置特定装置、車両制御システム、車両位置特定方法、および車両位置特定プログラム
JP6645910B2 (ja) * 2016-05-31 2020-02-14 株式会社デンソー 位置推定装置
DE102016211420A1 (de) * 2016-06-27 2017-12-28 Robert Bosch Gmbh Verfahren zum Bereitstellen einer Lokalisierungsinformation zum Lokalisieren eines Fahrzeugs an einem Lokalisierungsort und Verfahren zum Bereitstellen zumindest einer Information zum Lokalisieren eines Fahrzeugs durch ein anderes Fahrzeug
EP3481661A4 (en) 2016-07-05 2020-03-11 Nauto, Inc. AUTOMATIC DRIVER IDENTIFICATION SYSTEM AND METHOD
EP3497405B1 (en) * 2016-08-09 2022-06-15 Nauto, Inc. System and method for precision localization and mapping
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
EP3535646A4 (en) 2016-11-07 2020-08-12 Nauto, Inc. SYSTEM AND METHOD FOR DETERMINING DRIVER DISTRACTION
DE102016015513A1 (de) * 2016-12-23 2018-06-28 Lucas Automotive Gmbh Fahrassistenz-System eines Kraftfahrzeugs
DE112017006904T5 (de) * 2017-01-24 2019-10-02 Fujitsu Limited Informationsverarbeitungsvorrichtung, Merkmalspunkteextraktionsprogramm undMerkmalspunkteextraktionsverfahren
JP6579119B2 (ja) * 2017-01-24 2019-09-25 トヨタ自動車株式会社 車両制御装置
GB2559196B (en) * 2017-01-31 2021-11-17 Sony Europe Bv Determining a position of a vehicle on a track
CN108303103B (zh) * 2017-02-07 2020-02-07 腾讯科技(深圳)有限公司 目标车道的确定方法和装置
JP6589926B2 (ja) * 2017-04-07 2019-10-16 トヨタ自動車株式会社 物体検出装置
DE102018108572B4 (de) * 2017-04-12 2023-05-04 Toyota Jidosha Kabushiki Kaisha Spurwechselunterstützungsvorrichtung für ein fahrzeug
US10262234B2 (en) * 2017-04-24 2019-04-16 Baidu Usa Llc Automatically collecting training data for object recognition with 3D lidar and localization
US11519727B2 (en) 2017-05-19 2022-12-06 Pioneer Corporation Measurement device, measurement method and program
JPWO2018221453A1 (ja) * 2017-05-31 2020-03-26 パイオニア株式会社 出力装置、制御方法、プログラム及び記憶媒体
JP2018203017A (ja) * 2017-06-02 2018-12-27 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US10453150B2 (en) 2017-06-16 2019-10-22 Nauto, Inc. System and method for adverse vehicle event determination
CN107339996A (zh) * 2017-06-30 2017-11-10 百度在线网络技术(北京)有限公司 车辆自定位方法、装置、设备及存储介质
EP3428577A1 (en) * 2017-07-12 2019-01-16 Veoneer Sweden AB A driver assistance system and method
KR102138094B1 (ko) * 2017-07-27 2020-07-27 닛산 지도우샤 가부시키가이샤 운전 지원 차량의 자기 위치 보정 방법 및 자기 위치 보정 장치
JP7013727B2 (ja) * 2017-08-25 2022-02-01 株式会社デンソー 車両制御装置
JP6533269B2 (ja) * 2017-10-27 2019-06-19 三菱電機株式会社 車両走行制御装置および車両走行制御方法
JP6859927B2 (ja) * 2017-11-06 2021-04-14 トヨタ自動車株式会社 自車位置推定装置
CN108010355B (zh) * 2018-01-02 2020-08-04 湖北汽车工业学院 交通灯匹配过程中运动车辆定位滤波及预测方法
WO2019169031A1 (en) 2018-02-27 2019-09-06 Nauto, Inc. Method for determining driving policy
JP6881369B2 (ja) * 2018-03-26 2021-06-02 トヨタ自動車株式会社 自車位置推定装置
JP7054878B2 (ja) * 2018-03-28 2022-04-15 パナソニックIpマネジメント株式会社 管理装置、管理システム、および位置補正方法
US12060074B2 (en) * 2018-03-30 2024-08-13 Toyota Motor Europe System and method for adjusting external position information of a vehicle
CN110553639B (zh) * 2018-06-04 2021-04-27 百度在线网络技术(北京)有限公司 用于生成位置信息的方法和装置
JP2019212187A (ja) * 2018-06-08 2019-12-12 スズキ株式会社 車両用運転支援装置
CN110717350B (zh) * 2018-07-11 2024-07-26 沈阳美行科技股份有限公司 一种行车轨迹的校正方法及校正装置
US11829143B2 (en) * 2018-11-02 2023-11-28 Aurora Operations, Inc. Labeling autonomous vehicle data
CN110379191B (zh) * 2018-11-08 2020-12-22 北京京东尚科信息技术有限公司 一种为无人设备推送道路信息的方法和装置
CN111212375B (zh) * 2018-11-20 2021-08-03 华为技术有限公司 定位位置调整方法及其装置
US11630197B2 (en) * 2019-01-04 2023-04-18 Qualcomm Incorporated Determining a motion state of a target object
JP7120036B2 (ja) * 2019-01-16 2022-08-17 トヨタ自動車株式会社 自動駐車管理装置
JP6947316B2 (ja) * 2019-01-30 2021-10-13 日本電気株式会社 劣化診断装置、劣化診断システム、劣化診断方法、プログラム
JP2020138653A (ja) * 2019-02-28 2020-09-03 本田技研工業株式会社 車両の車線逸脱防止支援装置
CN112149659B (zh) * 2019-06-27 2021-11-09 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN112229417B (zh) * 2019-07-17 2023-03-24 北京国家新能源汽车技术创新中心有限公司 车辆定位方法、装置、计算机设备和存储介质
KR102332494B1 (ko) 2019-09-11 2021-11-30 한국도로공사 영상과 정밀지도에 기반한 정밀 측위정보와 gnss 측위정보 간의 측위차이에 대한 배포정보 생성 장치 및 방법
EP3825731B1 (de) * 2019-11-21 2022-01-05 Sick Ag Optoelektronischer sicherheitssensor und verfahren zur sicheren bestimmung der eigenen position
EP3875908B1 (de) * 2020-03-05 2022-02-23 Sick Ag Navigieren eines fahrzeugs und virtuelle spurführungsvorrichtung
JP7384131B2 (ja) * 2020-08-31 2023-11-21 トヨタ自動車株式会社 車両の運転支援装置、車両の運転支援方法、およびプログラム
JP7467299B2 (ja) 2020-09-17 2024-04-15 株式会社東芝 位置管理システム、位置特定装置、および、位置特定方法
JP7287373B2 (ja) * 2020-10-06 2023-06-06 トヨタ自動車株式会社 地図生成装置、地図生成方法及び地図生成用コンピュータプログラム
CN113096150A (zh) * 2021-03-31 2021-07-09 北京万集科技股份有限公司 行驶轨迹的生成方法和系统、存储介质及电子装置
CN118155166B (zh) * 2024-02-28 2024-10-01 小米汽车科技有限公司 减速带识别方法、装置、存储介质及车辆

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69219006T2 (de) * 1991-05-21 1997-11-13 Matsushita Electric Ind Co Ltd Fahrzeugpositionsbestimmungsvorrichtung
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
KR100224326B1 (ko) * 1995-12-26 1999-10-15 모리 하루오 차량용 네비게이션장치
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
JPH1137776A (ja) * 1997-07-24 1999-02-12 Denso Corp 車両用ナビゲーション装置
JPH11137776A (ja) 1997-11-08 1999-05-25 Takasago Electric Ind Co Ltd スロットマシン
DE19842176A1 (de) * 1998-09-15 2000-03-16 Bosch Gmbh Robert Verfahren und Vorrichtung zur Verkehrszeichenerkennung und Navigation
DE19855400A1 (de) * 1998-12-01 2000-06-15 Bosch Gmbh Robert Verfahren und Vorrichtung zur Bestimmung eines zukünftigen Kursbereichs eines Fahrzeugs
US6246363B1 (en) * 1998-12-10 2001-06-12 Hughes Electronics Corporation Method and system for incorporating two-way ranging navigation as a calibration reference for GPS
JP2000246653A (ja) 1999-02-24 2000-09-12 Amada Co Ltd バリ取り具
JP2000346653A (ja) 1999-06-01 2000-12-15 Matsushita Electric Ind Co Ltd 車両走行支援方法及び車両走行支援装置
US6438491B1 (en) * 1999-08-06 2002-08-20 Telanon, Inc. Methods and apparatus for stationary object detection
US6587692B1 (en) * 2000-03-30 2003-07-01 Lucent Technologies Inc. Location determination using weighted ridge regression
JP2001289654A (ja) * 2000-04-11 2001-10-19 Equos Research Co Ltd ナビゲーション装置、ナビゲーション装置の制御方法、及びそのプログラムを記録した記録媒体
JP4624594B2 (ja) * 2000-06-28 2011-02-02 パナソニック株式会社 物体認識方法および物体認識装置
US20050149251A1 (en) * 2000-07-18 2005-07-07 University Of Minnesota Real time high accuracy geospatial database for onboard intelligent vehicle applications
US6891960B2 (en) * 2000-08-12 2005-05-10 Facet Technology System for road sign sheeting classification
CN1372127A (zh) * 2001-01-23 2002-10-02 林清芳 改进的定位和数据集成方法及其系统
JP3598986B2 (ja) * 2001-03-22 2004-12-08 日産自動車株式会社 地図情報提供装置及び地図情報提供方法
JP4613451B2 (ja) 2001-06-29 2011-01-19 信越半導体株式会社 エピタキシャルウェーハの製造方法
JP2003123197A (ja) 2001-10-16 2003-04-25 Alpine Electronics Inc 道路標示等認識装置
AU2003223090A1 (en) * 2002-04-30 2003-11-17 Telmap Ltd. Template-based map distribution system
KR100495635B1 (ko) * 2002-09-02 2005-06-16 엘지전자 주식회사 네비게이션 시스템의 위치오차 보정방법
US6927699B2 (en) * 2002-12-05 2005-08-09 Denso Corporation Object recognition apparatus for vehicle, and inter-vehicle distance control unit
JP3772838B2 (ja) * 2003-02-12 2006-05-10 トヨタ自動車株式会社 車両用運転支援装置及び車両用制御装置
JP4086298B2 (ja) * 2003-06-17 2008-05-14 アルパイン株式会社 物体検出方法及び装置
JP2005017054A (ja) 2003-06-25 2005-01-20 Shimadzu Corp 3点曲げ試験による破壊靱性値測定装置
JP4321142B2 (ja) 2003-07-02 2009-08-26 日産自動車株式会社 標識認識装置
US20050107946A1 (en) * 2003-11-13 2005-05-19 Takanori Shimizu Vehicle navigation apparatus
JP4134894B2 (ja) 2003-12-09 2008-08-20 株式会社デンソー 車両運転支援装置
CN1641712A (zh) * 2004-01-15 2005-07-20 于君 车辆定位系统及其专用的车载装置和路边设施
JP4483305B2 (ja) * 2004-01-16 2010-06-16 トヨタ自動車株式会社 車両周辺監視装置
DE102004010197B4 (de) * 2004-03-02 2015-04-16 Sick Ag Verfahren zur Funktionskontrolle einer Positionsermittlungs- oder Umgebungserfassungseinrichtung eines Fahrzeugs oder zur Kontrolle einer digitalen Karte
JP4277717B2 (ja) * 2004-03-17 2009-06-10 株式会社日立製作所 車両位置推定装置およびこれを用いた運転支援装置
US7486802B2 (en) * 2004-06-07 2009-02-03 Ford Global Technologies Llc Adaptive template object classification system with a template generator
JP4365306B2 (ja) 2004-11-12 2009-11-18 株式会社パイオラックス フューエルゲージ取付け構造
JP2006208223A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法
JP4557288B2 (ja) * 2005-01-28 2010-10-06 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法、並びにそれを用いた位置特定装置、車両制御装置及びナビゲーション装置
KR101047719B1 (ko) * 2005-02-16 2011-07-08 엘지전자 주식회사 네비게이션 시스템에서 이동체의 주행경로 안내방법 및 장치
WO2006121986A2 (en) * 2005-05-06 2006-11-16 Facet Technology Corp. Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
US20070055441A1 (en) * 2005-08-12 2007-03-08 Facet Technology Corp. System for associating pre-recorded images with routing information in a navigation system
KR100721560B1 (ko) * 2005-11-30 2007-05-23 한국전자통신연구원 임의 시점을 가지는 3차원 차량정보 제공 시스템 및 그방법
JP4935145B2 (ja) * 2006-03-29 2012-05-23 株式会社デンソー カーナビゲーション装置
US20080243378A1 (en) * 2007-02-21 2008-10-02 Tele Atlas North America, Inc. System and method for vehicle navigation and piloting including absolute and relative coordinates
CN101952688A (zh) * 2008-02-04 2011-01-19 电子地图北美公司 用于与传感器检测到的对象进行地图匹配的方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10145692B2 (en) 2015-06-26 2018-12-04 Nissan Motor Co., Ltd. Vehicle position determination apparatus and vehicle position determination method
KR20180097698A (ko) * 2016-01-29 2018-08-31 닛산 지도우샤 가부시키가이샤 차량의 주행 제어 방법 및 차량의 주행 제어 장치
US10239539B2 (en) 2016-01-29 2019-03-26 Nissan Motor Co., Ltd. Vehicle travel control method and vehicle travel control device

Also Published As

Publication number Publication date
JP4724043B2 (ja) 2011-07-13
JP2007309757A (ja) 2007-11-29
CN101346603B (zh) 2011-08-03
US7898437B2 (en) 2011-03-01
KR101018620B1 (ko) 2011-03-03
EP2019288B1 (en) 2013-12-18
US20100061591A1 (en) 2010-03-11
EP2019288A1 (en) 2009-01-28
WO2007132860A1 (ja) 2007-11-22
CN101346603A (zh) 2009-01-14
EP2019288A4 (en) 2012-03-28

Similar Documents

Publication Publication Date Title
KR101018620B1 (ko) 대상물 인식 장치
JP4938351B2 (ja) 車両用測位情報更新装置
JP5162103B2 (ja) 支援制御装置
CN107128366B (zh) 用于对拖曳车辆通过弯道提供校正的车道跟随路径的系统和方法
US11150649B2 (en) Abnormality detection device
CN105984464B (zh) 车辆控制装置
JP4680131B2 (ja) 自車位置測定装置
CN106080601B (zh) 行驶控制装置
KR102090512B1 (ko) 자차 위치 추정 장치
US10493984B2 (en) Vehicle control method and vehicle control device
JP4370869B2 (ja) 地図データ更新方法および地図データ更新装置
JP6036371B2 (ja) 車両用運転支援システム及び運転支援方法
JP4977218B2 (ja) 自車位置測定装置
KR102138094B1 (ko) 운전 지원 차량의 자기 위치 보정 방법 및 자기 위치 보정 장치
JP2007309670A (ja) 車両位置検出装置
US20080103661A1 (en) Apparatus for controlling swivel angles of on-vehicle headlights
JP2009075933A (ja) 分岐路内位置演算装置、分岐路内位置演算方法、および、分岐路内位置演算プログラム
JP4724079B2 (ja) 対象物認識装置
JP6943127B2 (ja) 位置補正方法、車両制御方法及び位置補正装置
KR101588787B1 (ko) 전방차량의 횡방향 거리 결정 방법 및 이를 이용한 헤드 업 디스플레이 장치
JP4176616B2 (ja) 車両の走行制御装置
US20230286583A1 (en) Vehicle Control Device, Vehicle Control Method, and Vehicle Control System
JP2009058285A (ja) 道路情報取得装置、運転支援装置、道路情報取得方法および道路情報取得プログラム
JP2019196941A (ja) 自車位置推定装置
JP2023151311A (ja) 走行制御方法及び走行制御装置

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140204

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150119

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160119

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170119

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180202

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 9