KR100885738B1 - 차량간 통신 시스템 - Google Patents
차량간 통신 시스템 Download PDFInfo
- Publication number
- KR100885738B1 KR100885738B1 KR1020060028036A KR20060028036A KR100885738B1 KR 100885738 B1 KR100885738 B1 KR 100885738B1 KR 1020060028036 A KR1020060028036 A KR 1020060028036A KR 20060028036 A KR20060028036 A KR 20060028036A KR 100885738 B1 KR100885738 B1 KR 100885738B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- data
- information
- sharing
- determination unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
Abstract
차량끼리 통신을 하는 차량간 통신 시스템으로서, 차량마다 마련된, 그 차량의 주위를 촬상하는 촬상 수단과, 상기 촬상 수단에 의해 촬상된 화상으로부터 이동체를 검출하는 이동체 검출부와, 차량마다 마련된, 화상을 표시하는 표시 수단과, 상기 차량의 상기 표시 수단으로 출력하는 화상 데이터를 생성하는 화상 데이터 생성부와, 차량마다 마련된, 데이터를 송수신하는 송수신 수단을 구비하고, 상기 화상 데이터 생성부는, 한 차량의 상기 촬상 수단에 의해 촬상된 이동체의 존재를 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 것을 특징으로 하는 차량간 통신 시스템.
Description
도 1은 본 발명의 실시형태에 관한 차량간 통신 시스템을 나타내는 시스템 구성도이다.
도 2는 도 1의 차량 탑재 장치를 도시한 블럭도이다.
도 3은 도 1의 차량 관리 장치를 도시한 블럭도이다.
도 4는 차량 탑재 장치의 제1 동작예를 설명하기 위한 흐름도이다.
도 5는 차량 관리 장치의 제1 동작예를 설명하기 위한 흐름도이다.
도 6은 정보 공유 차량의 탐색 개시 판정, 근방 차량의 추출 및 시야 중복 판정 방법의 일례를 설명하기 위한 도면이다.
도 7a 도 7b는 여유 정지 거리를 설명하기 위한 그래프이다.
도 8은 마주침 판정을 설명하기 위한 도면이다.
도 9는 차량간 통신 시스템의 제1 동작예에 기초한 작용을 설명하기 위한 도면으로서, 차량(C1), 차량(C2) 및 이동체(M)의 배치 상태를 설명하기 위한 도면이다.
도 10은 도 9의 평면도이다.
도 11은 차량(C1)의 카메라에 의해 촬상된 화상을 도시한 도면이다.
도 12는 차량(C2)의 카메라에 의해 촬상된 화상을 도시한 도면이다.
도 13a 및 도 3b는 이동체의 화상의 보정을 설명하기 위한 도면으로서, 도 13a는 보정 전을 도시한 도면이고, 도 13b는 보정 후를 도시한 도면이다.
도 14는 차량(C2)의 화상에 차량(C1)이 촬영한 이동체를 합성한 화상을 도시한 도면이다.
도 15는 차량간 통신 시스템의 제1 동작예에서의 차량 탑재 시스템 및 차량 관리 시스템 간의 통신을 나타내는 타이밍 차트이다.
도 16은 차량 탑재 장치의 제2 동작예를 설명하기 위한 흐름도이다.
도 17은 차량간 통신 시스템의 제3 동작예를 설명하기 위한 흐름도이다.
도 18은 차량간 통신 시스템의 제4 동작예를 설명하기 위한 상황 설명도이다.
도 19은 차량간 통신 시스템의 제4 동작예를 설명하기 위한 흐름도이다.
도 20은 차량간 통신 시스템의 제5 동작예를 설명하기 위한 상황 설명도이다.
도 21은 차량간 통신 시스템의 제5 동작예를 설명하기 위한 흐름도이다.
도 22는 차량간 통신 시스템의 제6 동작예를 설명하기 위한 상황 설명도이다.
도 23은 차량간 통신 시스템의 제6 동작예를 설명하기 위한 흐름도이다.
도 24는 차량간 통신 시스템의 제7 동작예를 설명하기 위한 상황 설명도이다.
도 25는 차량간 통신 시스템의 제7 동작예를 설명하기 위한 흐름도이다.
도 26은 차량간 통신 시스템의 제8 동작예를 설명하기 위한 상황 설명도이다.
도 27은 차량간 통신 시스템의 제8 동작예를 설명하기 위한 흐름도이다.
도 28은 차량간 통신 시스템의 제8 동작예를 설명하기 위한 흐름도이다.
[부호의 설명]
1 차량간 통신 시스템
2 차량 탑재 장치
3 차량 관리 장치
11 카메라
13 자이로 센서
14 GPS 검출기
20 표시 장치
23 스피커
32 대상물 검출부
33 대상물 데이터 생성부
35 차량 데이터 생성부
41a 화상 데이터 생성부
41b 문자 데이터 생성부
41d 음성 데이터 생성부
41e 제어 데이터 생성부
54 탐색 개시 판정부
55 근방 차량 추출부
57 정보 공유 차량 결정부
62 기억부
본 발명은 차량끼리 통신을 하는 차량간 통신 시스템에 관한 것이다.
종래 카 네비게이션 시스템 등을 이용하여 차량 내에 설치된 표시 장치나 음성 출력 장치에 도로 상황 등을 출력하는 장치가 알려져 있다.
일본 공개특허 2004-51006호 공보(특허문헌 1: 단락 0015∼0034, 도 1∼도 4)에 기재된 교차점 사고 방지 장치는, 카메라 및 표시부를 구비하고 있으며, 자(自)차량이 교차점에 진입했을 때 자기(自己)차량의 카메라가 과거에 촬영한 교차점 부근의 영상을 표시부에 표시시키는 장치이다.
또 일본 공개특허 2004-185015호 공보(특허문헌 2: 단락 0010∼0034, 도 1∼도 7)에 기재된 장애물 알림 장치는, 적외선 카메라 및 스포트 램프를 구비하고 있으며, 자기차량의 적외선 카메라에 의해 촬영된 화상으로부터 장애물(이동체)를 검출하여 스포트 램프가 검출된 장애물에 전자파 마커를 조사함으로써 운전자에게 장애물을 알리는 장치이다.
또 일본 공개특허 2004-118418호 공보(특허문헌 3: 단락 0008∼0029, 도 1∼ 도 6)에 기재된 이동체 접근 알림 장치는, 자기차량 근방의 이동체를 검출하는 이동체 검출 수단과 알림 수단을 구비하고, 자기차량 및 검출된 이동체의 진로를 추정하여 이들이 접근할 경우에 알림 수단이 운전자에게 접근을 알리는 장치이다.
그러나 상기 각 특허문헌에 개시된 장치는, 자기차량이 이동체를 검출하는 것을 전제로 한 것으로서, 자기차량이 검출할 수 없었던 이동체에 관한 정보를 운전자에게 알릴 수 없다는 문제가 있었다.
본 발명은 상기 문제를 해결하기 위해 창안된 것으로서, 자기(自己)차량이 검출할 수 없었던 이동체의 존재를 운전자에게 알릴 수 있는 차량간 통신 시스템을 제공하는 것을 과제로 한다.
상기 과제를 해결하기 위하여 청구항 1에 기재된 발명은, 차량끼리 통신을 하는 차량간 통신 시스템으로서, 차량마다 마련된, 그 차량의 주위를 촬상하는 촬상 수단과, 상기 촬상 수단에 의해 촬상된 화상으로부터 이동체를 검출하는 이동체 검출부와, 차량마다 마련된, 화상을 표시하는 표시 수단과, 상기 차량의 상기 표시 수단으로 출력하는 화상 데이터를 생성하는 화상 데이터 생성부와, 차량마다 마련된, 데이터를 송수신하는 송수신 수단을 구비하고, 상기 화상 데이터 생성부는, 한 차량의 상기 촬상 수단에 의해 촬상된 이동체의 존재를 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 것을 특징으로 한다.
이와 같이 함으로써, 한 차량의 촬상 수단이 촬영할 수 없었던 이동체의 존 재를 표시 수단에 표시시킬 수 있어, 상기 이동체의 존재를 운전자에게 알릴 수 있다.
또 청구항 2에 기재된 발명은, 차량끼리 통신을 하는 차량간 통신 시스템으로서, 차량마다 마련된, 그 차량의 주위를 촬상하는 촬상 수단과, 상기 촬상 수단에 의해 촬상된 화상으로부터 이동체를 검출하는 이동체 검출부와, 차량마다 마련된, 화상을 표시하는 표시 수단과, 상기 차량의 상기 표시 수단으로 출력하는 화상 데이터를 생성하는 화상 데이터 생성부와, 차량마다 마련된, 데이터의 송수신을 행하는 송수신 수단을 구비하고, 상기 화상 데이터 생성부는, 한 차량의 상기 촬상 수단에 의해 촬상된 이동체의 존재를 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 차량간 통신 시스템에 있어서, 상기 차량의 위치에 관한 차량 위치 데이터를 검출하는 차량 위치 데이터 검출 수단과, 상기 촬상 수단에 의해 촬상된 화상으로부터 상기 이동체의 위치에 관한 이동체 위치 데이터를 생성하는 이동체 위치 데이터 생성부를 더 구비하고, 한 차량의 송수신수단은, 다른 차량의 이동체 위치 데이터 생성부에 의해 생성된 상기 이동체 위치 데이터를 수신하고, 상기 화상 데이터 생성부는, 상기 이동체 위치 데이터에 기초하여 한 차량의 상기 촬상 수단에 의해 촬상된 상기 이동체의 존재를 대응하는 위치에 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 것을 특징으로 한다.
이와 같이 함으로써, 이동체의 존재에 더하여, 이동체의 위치를 운전자에게 알릴 수 있다.
또 청구항 3에 기재된 발명은, 청구항 2에 기재된 차량간 통신 시스템으로서, 상기 화상 데이터 생성부는, 상기 이동체의 화상을 합성되는 주위 화상에 맞추도록 보정하고, 상기 차량 위치 데이터와 상기 이동체 위치 데이터에 기초하여, 보정된 상기 이동체의 화상을 대응하는 위치에 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 것을 특징으로 한다.
이와 같이 함으로써, 이동체의 표시에 대한 운전자의 위화감을 줄일 수 있다.
또 청구항 4에 기재된 발명은, 청구항 2에 기재된 차량간 통신 시스템으로서, 상기 화상 데이터 생성부는, 보정된 상기 이동체의 화상을 다른 차량의 상기 촬상 수단이 촬상한 화상으로부터의 대응하는 위치에 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 것을 특징으로 한다.
이와 같이 함으로써, 운전자에 의한 이동체의 종류, 위치 등의 인식성이 한층 높아진다.
또 청구항 5에 기재된 발명은, 청구항 2 내지 청구항 4 중 어느 한 항에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부를 더 구비하는 것을 특징으로 한다.
이와 같이 함으로써, 각 차량의 통신 상대의 설정이 적절하게 수행된다.
또 청구항 6에 기재된 발명은, 청구항 5에 기재된 차량간 통신 시스템으로서, 상기 정보 공유 차량 결정부는, 상기 촬상 수단의 촬상 영역에 기초하여 상기 촬상 영역이 겹쳐진 차량끼리 조합하는 것을 특징으로 한다.
이와 같이 함으로써, 표시 불가능한 이동체에 관한 통신을 줄일 수 있다.
또 청구항 7에 기재된 발명은, 청구항 5 또는 청구항 6에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부를 더 구비하고, 상기 탐색 개시 판정부가 정보를 공유하는 차량의 탐색을 개시하는 것으로 판정한 경우에, 상기 정보 공유 차량 결정부가 정보를 공유하는 차량의 조합을 결정하는 것을 특징으로 한다.
이와 같이 함으로써, 필요한 때에만 차량의 조합을 결정하기 때문에 정보 처 리량을 줄일 수 있다.
또 청구항 8에 기재된 발명은, 청구항 7에 기재된 차량간 통신 시스템으로서, 상기 탐색 개시 판정부는, 상기 차량의 상기 이동체 검출부가 이동체를 검출한 경우에 그 차량에 대한 정보 공유 차량의 탐색을 개시할 것인지 여부를 판정하고, 상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 그 차량에 대한 정보 공유 차량의 탐색을 개시하는 것으로 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 한다.
이와 같이 함으로써 이동체를 검출하지 않았을 때의 통신을 하지 않고 끝낼 수 있다.
또 청구항 9에 기재된 발명은, 청구항 8에 기재된 차량간 통신 시스템으로서, 지도 데이터를 기억하는 기억부를 더 구비하고, 상기 탐색 개시 판정부는, 상기 차량 위치 데이터와 상기 지도 데이터에 기초하여 상기 차량이 상기 지도 데이터에 있어서의 노드에 접근하고 있는지 여부를 판정하고, 상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 상기 차량이 상기 노드에 접근하고 있다고 판정한 경우에 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 한다.
이와 같이 함으로써 사각(死角)이 많고 이동체와의 마주침 빈도가 큰 교차점(노드)에서 이동체의 존재를 운전자에게 알릴 수 있다.
또 노드(교차점 등)에 접근하고 있는 경우에만 통신을 하게 되어 통신량을 줄일 수 있다.
또 청구항 10에 기재된 발명은, 청구항 9에 기재된 차량간 통신 시스템으로 서, 상기 차량 근방에 위치하는 차량을 추출하는 근방 차량 추출부를 더 구비하고, 상기 정보 공유 차량 결정부는, 상기 근방 차량 추출부에 의해 추출된 차량 중에서 정보를 공유하는 차량을 결정하는 것을 특징으로 한다.
이와 같이 함으로써, 통신을 하는 차량의 범위가 적절히 함축될 수 있다.
또한, 상기 과제를 해결하기 위해 청구항 11에 기재된 발명은, 차량끼리 통신을 하는 차량간 통신 시스템으로서, 차량마다 마련된, 그 차량의 주위를 촬상하는 촬상 수단과, 상기 촬상 수단에 의해 촬상된 화상으로부터 이동체를 검출하는 이동체 검출부와, 차량마다 마련된, 화상을 표시하는 표시 수단과, 상기 차량의 상기 표시 수단으로 출력하는 화상 데이터를 생성하는 화상 데이터 생성부와, 차량마다 마련된, 데이터의 송수신을 행하는 송수신 수단을 구비하고, 상기 화상 데이터 생성부는, 한 차량의 상기 촬상 수단에 의해 촬상된 이동체의 존재를 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 차량간 통신 시스템에 있어서, 음성을 발하는 발음 수단과, 상기 차량의 상기 발음 수단으로 출력시키는 음성에 관한 음성 데이터를 생성하는 음성 데이터 생성부를 구비하며, 상기 음성 데이터 생성부는, 한 차량의 상기 촬상 수단에 의해 촬상된 이동체의 존재를 알리는 음성 데이터를 생성하여 다른 차량의 상기 발음 수단으로 출력하는 것을 특징으로 한다.
이와 같이 함으로써, 한 차량의 촬상 수단이 촬영할 수 없었던 이동체의 존재를 발음 수단으로 출력킬 수 있으며, 상기 이동체의 존재를 운전자에게 알릴 수 있어 각 차량의 통신 상대의 설정이 적절하게 행해질 수 있다.
또 청구항 12에 기재된 발명은, 청구항 11에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부를 더 구비하고,
상기 정보 공유 차량 결정부는, 상기 촬상 수단의 촬상 영역에 기초하여 상기 촬상 영역이 겹쳐진 차량끼리 조합하는 것을 특징으로 한다.
이와 같이 함으로써, 각 차량의 통신 상대의 설정이 적절하게 행해짐과 아울러 표시 불가능한 이동체에 관한 통신을 줄일 수 있다.
또 청구항 13에 기재된 발명은, 청구항 11에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부를 더 구비하고, 상기 탐색 개시 판정부가 정보를 공유하는 차량의 탐색을 개시하는 것으로 판정한 경우에, 상기 정보 공유 차량 결정부가 정보를 공유하는 차량의 조합을 결정하고, 상기 탐색 개시 판정부는 상기 차량의 상기 이동체 검출부가 이동체를 검출한 경우에, 그 차량에 대한 정보 공유 차량의 탐색을 개시할 것인지 여부를 판정하고, 상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 그 차량에 대한 정보 공유 차량의 탐색을 개시하는 것으로 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 한다.
이와 같이 함으로써, 필요한 때에만 차량의 조합을 결정하기 때문에, 정보 처리량을 줄임과 아울러 표시 불가능한 이동체에 관한 통신을 줄일 수 있고, 이동체를 검출하지 않았을 때의 통신을 하지 않고 끝낼 수 있다.
또 청구항 14에 기재된 발명은, 청구항 11에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부와, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부와, 지도 데이터를 기억하는 기억부와, 상기 차량의 근방에 위치하는 차량을 추출하는 근방 차량 추출부를 더 구비하고, 상기 탐색 개시 판정부는, 상기 차량 위치 데이터와 상기 지도 데이터에 기초하여 상기 차량이 상기 지도 데이터에 있어서의 노드에 접근하고 있는지 여부를 판정하고, 상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 상기 차량이 상기 노드에 접근하고 있다고 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하고, 상기 정보 공유 차량 결정부는, 상기 근방 차량 추출부에 의해 추출된 차량 중에서 정보를 공유하는 차량을 결정하는 것을 특징으로 한다.
이와 같이 함으로써, 사각이 많고 이동체와의 마주침 빈도가 큰 교차점(노드)에서 이동체의 존재를 운전자에게 알릴 수 있다. 또 노드(교차점 등)에 접근하고 있는 경우에만 통신을 하게 되어 통신량을 줄일 수 있고, 통신을 하는 차량의 범위가 적절히 함축될 수 있다.
또한, 상기 과제를 해결하기 위해 청구항 15에 기재된 발명은, 차량끼리 통신을 하는 차량간 통신 시스템으로서, 차량마다 마련된, 그 차량의 주위를 촬상하는 촬상 수단과, 상기 촬상 수단에 의해 촬상된 화상으로부터 이동체를 검출하는 이동체 검출부와, 차량마다 마련된, 화상을 표시하는 표시 수단과, 상기 차량의 상기 표시 수단으로 출력하는 화상 데이터를 생성하는 화상 데이터 생성부와, 차량마다 마련된, 데이터의 송수신을 행하는 송수신 수단을 구비하고, 상기 화상 데이터 생성부는, 한 차량의 상기 촬상 수단에 의해 촬상된 이동체의 존재를 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 차량간 통신 시스템에 있어서, 상기 차량의 상기 표시 수단으로 출력하는 화상/문자 데이터를 생성하는 화상/문자 데이터 생성부와, 한 차량의 상기 이동체 검출부에 의해 검출된 이동체와 다른 차량이 마주치는지 여부를 판정하는 마주침 판정부와, 상기 차량의 위치에 관한 차량 위치 데이터를 검출하는 차량 위치 데이터 검출 수단과, 상기 촬상 수단에 의해 촬상된 화상으로부터 상기 이동체의 위치에 관한 이동체 위치 데이터를 생성하는 이동체 위치 데이터 생성부를 구비하고, 상기 화상/문자 데이터 생성부는, 마주침 판정부에 의해 생성된 판정 결과를 알리는 화상/문자 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하고, 상기 마주침 판정부는, 상기 차량 위치 데이터 검출 수단에 의해 검출된 차량 위치 데이터와, 상기 이동체 위치 데이터 생성부에 의해 생성된 상기 이동체 위치 데이터에 기초하여 마주침 판정을 하는 것을 특징으로 한다.
이와 같이 함으로써, 한 차량의 촬상 수단을 촬영할 수 없었던 이동체와 차량이 마주칠 가능성을 표시 수단에 표시시킬 수 있고, 상기 이동체의 존재를 운전자에게 알릴 수 있어 차량과 이동체의 마주침 판정을 적절히 수행할 수 있다.
또 청구항 16에 기재된 발명은, 청구항 15에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부를 더 구비하고, 상기 정보 공유 차량 결정부는, 상기 촬상 수단의 촬상 영역에 기초하여 상기 촬상 영역이 겹쳐진 차량끼리 조합하는 것을 특징으로 한다.
이와 같이 함으로써, 각 차량의 통신 상대의 설정이 적절하게 행해져서 표시 불가능한 이동체에 관한 통신을 줄일 수 있다.
또 청구항 17에 기재된 발명은, 청구항 15에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부와, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부를 더 구비하고, 상기 탐색 개시 판정부가 정보를 공유하는 차량의 탐색을 개시하는 것으로 판정한 경우에, 상기 정보 공유 차량 결정부가 정보를 공유하는 차량의 조합을 결정하고, 상기 탐색 개시 판정부는, 상기 차량의 상기 이동체 검출부가 이동체를 검출한 경우에, 그 차량에 대한 정보 공유 차량의 탐색을 개시할 것인지 여부를 판정하고, 상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 그 차량에 대한 정보 공유 차량의 탐색을 개시하는 것으로 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 한다.
이와 같이 함으로써, 필요한 때에만 차량의 조합을 결정하기 때문에, 정보 처리량을 줄일 수 있고, 이동체를 검출하지 않았을 때의 통신을 하지 않고 끝낼 수 있다.
또 청구항 18에 기재된 발명은, 청구항 15에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부와, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부와, 지도 데이터를 기억하는 기억부와, 상기 차량의 근방에 위치하는 차량을 추출하는 근방 차량 추출부를 더 구비하고, 상기 탐색 개시 판정부는, 상기 차량 위치 데이터와 상기 지도 데이터에 기초하여 상기 차량이 상기 지도 데이터에 있어서의 노드에 접근하고 있는지 여부를 판정하고, 상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 상기 차량이 상기 노드에 접근하고 있다고 판정한 경우에, 상기 근방 차량 추출부에 의해 추출된 차량 중에서 정보를 공유하는 차량을 결정하는 것을 특징으로 한다.
이와 같이 함으로써, 사각이 많고 이동체와의 마주침 빈도가 큰 교차점(노드)에서 이동체의 존재를 운전자에게 알릴 수 있다.
또 노드(교차점 등)에 접근하고 있는 경우에만 통신을 하게 되어 통신량을 줄일 수 있고, 통신을 하는 차량의 범위가 적절히 함축될 수 있다.
또 청구항 19에 기재된 발명은, 청구항 17 또는 청구항 18에 기재된 차량간 통신 시스템으로서, 차량 속도와 정지 거리의 관계를 기억하는 기억부를 더 구비하고, 상기 탐색 개시 판정부는, 차량 속도에 따른 정지 거리에 기초하여 탐색 개시를 판정하는 것을 특징으로 한다.
이와 같이 함으로써, 차량이 확실하게 정지 가능한 거리에서 마주침 판정 결과를 운전자에게 통지할 수 있다.
또 청구항 20에 기재된 발명은, 청구항 19에 기재된 차량간 통신 시스템으로서, 상기 정지 거리는 주행 환경에 기초하여 보정되어 있는 것을 특징으로 한다.
여기에서 말하는 주행 환경이란, 날씨 조건(건조 노면, 젖은 노면), ABS 탑재 유무, 타이어의 종류(여름용 타이어, 스터드리스(studless) 타이어)이다. 정지 거리가 이들에 기초하여 보정되기 때문에, 보다 실제 환경에 맞는 판정이 가능해진다.
그리고, 상기 과제를 해결하기 위해 청구항 21에 관한 발명은, 청구항 11에 기재된 차량간 통신 시스템으로서, 한 차량의 상기 이동체 검출부에 의해 검출된 이동체와 다른 차량이 마주치는지 여부를 판정하는 마주침 판정부를 더 구비하고, 상기 음성 데이터 생성부는, 마주침 판정부에 의해 생성된 판정 결과를 알리는 음성 데이터를 생성하여 다른 차량의 상기 발음 수단으로 출력하고, 상기 마주침 판정부는, 상기 차량 위치 데이터 검출 수단에 의해 검출된 차량 위치 데이터와, 상기 이동체 위치 데이터 생성부에 의해 생성된 상기 이동체 위치 데이터에 기초하여 마주침 판정을 하는 것을 특징으로 한다.
이와 같이 함으로써, 한 차량의 촬상 수단을 촬영할 수 없었던 이동체와 차량이 마주칠 가능성을 발음 수단으로 출력킬 수 있으며, 상기 이동체의 존재를 운전자에게 알릴 수 있어 차량과 이동체의 마주침 판정을 적절하게 할 수 있다.
또 청구항 22에 기재된 발명은, 청구항 21에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부를 더 구비하고, 상기 정보 공유 차량 결정부는, 상기 촬상 수단의 촬상 영역에 기초하여 상기 촬상 영역이 겹쳐진 차량끼리 조합하는 것을 특징으로 한다.
이와 같이 함으로써, 각 차량의 통신 상대의 설정이 적절히 행해지게 되어, 표시 불가능한 이동체에 관한 통신을 줄일 수 있다.
또 청구항 23에 기재된 발명은, 청구항 21에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부와, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부를 더 구비하고, 상기 탐색 개시 판정부가 정보를 공유하는 차량의 탐색을 개시하는 것으로 판정한 경우에, 상기 정보 공유 차량 결정부가 정보를 공유하는 차량의 조합을 결정하고, 상기 탐색 개시 판정부는, 상기 차량의 상기 이동체 검출부가 이동체를 검출한 경우에, 그 차량에 대한 정보 공유 차량의 탐색을 개시할 것인지 여부를 판정하고, 상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 그 차량에 대한 정보 공유 차량의 탐색을 개시하는 것으로 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 한다.
이와 같이 함으로써, 필요한 때에만 차량의 조합을 결정하기 때문에, 정보 처리량을 줄일 수 있고, 이동체를 검출하지 않았을 때의 통신을 하지 않고 끝낼 수 있다.
또 청구항 24에 기재된 발명은, 청구항 21에 기재된 차량간 통신 시스템으로서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부와, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부와, 지도 데이터를 기억하는 기억부와, 상기 차량의 근방에 위치하는 차량을 추출하는 근방 차량 추출부를 더 구비하고, 상기 탐색 개시 판정부는, 상기 차량 위치 데이터와 상기 지도 데이터에 기초하여 상기 차량이 상기 지도 데이터에 있어서의 노드에 접근하고 있는지 여부를 판정하고, 상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 상기 차량이 상기 노드에 접근하고 있다고 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하고 상기 정보공유차량 결정부는 상기 근방 차량 추출부에 의해 추출된 차량 중에서 정보를 공유하는 차량을 결정하는 것을 특징으로 한다.
이와 같이 함으로써, 사각이 많고 이동체와의 마주침 빈도가 큰 교차점(노드)에서 이동체의 존재를 운전자에게 알릴 수 있다.
또 노드(교차점 등)에 접근하고 있는 경우에만 통신을 하게 되어 통신량을 줄일 수 있고, 통신을 하는 차량의 범위가 적절히 함축될 수 있다.
또 청구항 25에 기재된 발명은, 청구항 23 또는 청구항 24항에 기재된 차량간 통신 시스템으로서, 차량 속도와 정지 거리의 관계를 기억하는 기억부를 더 구비하고, 상기 탐색 개시 판정부는, 차량 속도에 따른 정지 거리에 기초하여 탐색 개시를 판정하는 것을 특징으로 한다.
이와 같이 함으로써, 차량이 확실히 정지 가능한 거리에서 마주침 판정 결과를 운전자에게 통지할 수 있다.
또 청구항 26에 기재된 발명은, 청구항 25에 기재된 차량간 통신 시스템으로서, 상기 정지 거리는, 주행 환경에 기초하여 보정되어 있는 것을 특징으로 한다.
이하, 본 발명의 실시형태에 대해서 적절히 도면을 참조하면서 설명하기로 한다. 동일한 부분에는 동일한 부호를 붙여 중복되는 설명을 생략한다. 한편, 이하의 설명에서의 「속도」는, 스칼라(scholar)량이다. 또 설명의 편의상, 자기차량이 검출한 이동체를 단순히 「이동체」, 다른 차량이 검출한 이동체를 「타이동체」라고 기재하여 구별하는 경우가 있다.
(차량간 통신 시스템(1))
우선, 본 발명의 실시형태에 관한 차량간 통신 시스템의 개략에 대해서 설명하기로 한다. 도 1은, 본 발명의 실시형태에 관한 차량간 시스템을 도시한 시스템 구성도이다.
도 1에 도시한 바와 같이, 본 발명의 실시형태에 관한 차량간 통신 시스템(1)은, 카 네비게이션 시스템과 공용 가능한 시스템으로서, 여러 차량(C)에 개별적으로 마련된 차량 탑재 장치(2)와 차량 관리 장치(3)를 구비하고 있다. 차량 탑재 장치(2)는 기지국(4) 및 네트워크(5)를 통해 차량 관리 장치(3)와 양방향 통신 가능함과 아울러 차량 관리 장치(3)를 통해 다른 차량(C)의 차량 탑재 장치(2)와도 양방향 통신 가능하다. 또 차량 탑재 장치(2)는, 차량 관리 장치(3)를 통하지 않고 다른 차량(C)의 차량 탑재 장치(2)와 직접 통신하는 것도 가능하다. 이하, 여러 차량(C)에 대해서 구별이 필요한 경우에는 「차량(C1), 차량(C2),…」이라고 기재하고, 구별이 필요 없는 경우에는 「차량(C)」라고 기재한다.
(차량 탑재 장치(2))
이어서 차량 탑재 장치(2)에 대해서 설명하기로 한다. 도 2는, 도 1의 차량 탑재 장치를 도시한 블럭도이다.
도 2에 도시한 바와 같이, 본 발명의 실시형태에 관한 차량 탑재 장치(2)는, 카메라(11),(11)와, 지자기 센서(12)와, 자이로 센서(13)와, GPS 수신기(14)와, 차속 센서(15)와, 차량 센서(16)와, 조작 스위치(17)와, 지도 데이터 입력기(18)와, 송수신기(19)와, 표시 장치(20)와, 스피커(21)와, 차량 제어 장치(22)와, 기억부(23)와 주(主)제어부(30)를 구비하고 있다.
(카메라(11),(11))
카메라(11),(11)는, 영상을 디지털 데이터로서 입력할 수 있는 것으로서, 예 를 들면 컬러CCD(Charge-Coupled Device) 카메라가 사용된다. 카메라(11),(11)는 좌우로 평행하게 늘어서 배치되고, 촬영한 화상은 특징 추출부(31) 및 출력 데이터 생성부(41)로 출력된다. 이 카메라(11),(11)는 차량(C)에 그 전방을 촬영 가능하도록 설치되어 있다.
이 카메라(11),(11)가 「촬상 수단」의 일례이다.
(지자기 센서(12))
지자기 센서(12)는, 방위에 관한 데이터(이하,「방위 데이터」라고 기재한다.)를 검출하여 차량 데이터 생성부(35)로 출력한다.
(자이로 센서(13))
자이로 센서(13)는 차량(C)의 방향에 관한 데이터(이하,「차량 방향 데이터」라고 기재한다.)을 검출하여 차량 데이터 생성부(35)로 출력한다.
이 자이로 센서(13)가 「차량 방향 데이터 검출 수단」의 일례이다.
(GPS 수신기(14))
GPS 수신기(14)는, GPS(Global Positioning System)를 이용하여 차량(C)의 위치(위도, 경도)에 관한 데이터(이하,「차량 위치 데이터」라고 기재한다.)를 검출하여 차량 데이터 생성부(35)로 출력한다.
이 GPS 수신기(14)가 「차량 위치 데이터 검출 수단」의 일례이다.
(차속 센서(15))
차속 센서(15)는, 차량(C)의 속도(이하,「차량 속도 데이터」라고 기재한다.)를 검출하여 차량 데이터 생성부(35)로 출력한다.
(차량 센서(16))
차량 센서(16)는, 차량(C)의 각종 상태를 검출하는 것으로서, 브레이크 페달의 조작량, 액셀 페달의 조작량, 엔진 회전수, 핸들의 조작량 등을 검출하는 센서를 포함하는 센서군이다.
(조작 스위치(17))
조작 스위치(17)는, 차량 탑재 장치(2)의 구동 상태를 조작하기 위한 스위치군으로서, 예를 들면 표시 장치(20)의 ON/OFF를 전환하는 스위치, 스피커(21)의 출력 음량을 조절하는 스위치 등을 구비하고 있다.
(지도 데이터 입력기(18))
지도 데이터 입력기(18)는 지도 데이터를 입력하여 기억부(23)에 기억시키기 위한 것이다.
(송수신기(19))
송수신기(19)는, 주제어부(30)로부터 출력된 각종 데이터를 기지국(4)으로 송신함과 아울러, 차량 관리 장치(3)의 제어부(50)(도 3 참조)로부터 출력되고, 기지국(4)에서 송신된 각종 데이터 및 다른 차량(C)의 주제어부(30)로부터 출력되어, 송수신기(19)에서 송신된 각종 데이터를 수신하는 무선 통신 장치이다.
이 송수신기(19)가 「송수신 수단」의 일례이다.
(표시 장치(20))
표시 장치(20)는 카메라(11),(11)에 의해 촬상된 차량(C) 주위의 화상이나, 후술하는 기억부(23)에 기억된 지도 데이터에 기초한 화상을 출력하기 위한 장치이 다.
또, 표시 장치(20)는, 후술하는 화상 데이터 생성부(41a)에 의해 생성된 화상 데이터에 기초하여 화상을 표시함과 아울러, 후술하는 문자 데이터 생성부(41b)에 의해 생성된 문자 데이터에 기초하여 문자를 표시한다.
이 표시 장치(20)는 차량(C)의 실내에 설치되어 있으며 운전자가 시인(視認) 가능한 위치에 설치되어 있다.
이 표시 장치(20)가「표시 수단」의 일례이다.
(스피커(21))
스피커(21)는, 후술하는 음성 데이터 생성부(41d)에 의해 생성된 음성 데이터에 기초하여 음성을 출력한다.
이 스피커(21)는 차량(C)의 실내에 설치되어 있으며 출력한 음성을 운전자에게 전달 가능하도록 되어 있다.
이 스피커(21)가 「발음 수단」의 일례이다.
(차량 제어 장치(22))
차량 제어 장치(ECU:Electrical Control Unit)(22)는, 차량(C)의 동작을 제어하는 장치이다. 차량 제어 장치(22)는, 차량 센서(16)의 검출 결과 및 출력 데이터 생성부(41)의 출력에 기초하여 브레이크 액압을 제어하거나, 클락션으로 경보음을 발생시킨다.
(기억부(23))
기억부(23)는, 차량 탑재 장치(2)가 탑재된 차량(C)에 관한 차량 ID, 지도 데이터 등을 기억하고 있다.
(주제어부(30))
주제어부(30)는 특징 추출부(31)와, 대상물 검출부(32)와, 대상물 데이터 생성부(33)와, 대상물 데이터 통지부(34)와, 차량 데이터 생성부(35)와, 차량 데이터 통지부(36)와, 데이터 수신부(37)와, 타이동체 데이터 추정부(38)와, 로컬 맵 생성부(39)와, 마주침 판정부(40)와, 출력 데이터 생성부(41)를 구비하고 있다.
(특징 추출부(31))
특징 추출부(31)는, 화상의 에지(edge) 성분을 추출함과 아울러 거리 화상을 얻는다.
(대상물 검출부(32))
대상물 검출부(32)는, 특징 추출부(31)의 추출 결과에 기초하여 스네이크법 등을 사용하여 거리 화상의 그룹 클러스터를 구하고, 전번 클러스터와의 동일성을 판정하여 대상물을 검출하는 것으로서, 「이동체 검출부」의 일례이다. 이들 특징 추출부(31) 및 대상물 검출부(32)에 의한 대상물의 검출 방법으로서는, 예를 들면 본원 발명과 동일한 출원인에 의해 출원된 일본 공개특허 2004-46426호 공보, 일본 공개특허 2004-103018호 공보에 기재된 방법을 사용할 수 있다.
대상물로서는, 사람, 자전거, 차량(보통 차량, 버스, 트럭 등)을 포함하는 이동체와 교차점을 들 수 있다.
또 대상물 검출부(32)는, 이 대상물에 관한 데이터(이하,「대상물 상대 데이터」라고 기재한다.)를 생성하여 후술하는 대상물 데이터 생성부(33) 및 로컬 맵 생성부(39)로 출력한다.
대상물 상대 데이터는, 대상물 ID와, 대상물 화상 데이터와, 대상물 상대 위치 데이터와, 대상물 상대 속도 데이터와, 대상물 상대 방향 데이터와, 종별 데이터를 포함하는 데이터이다.
대상물 ID는, 대상물 검출부(32)에 의해 검출된 이동체마다 부여된다.
대상물 화상 데이터는 대상물을 표시시키기 위한 화상 데이터이다.
대상물 상대 위치 데이터는, 검출된 대상물의 중심(重心) 위치에 관한 데이터로서, 대상물의 차량(C)에 대한 상대 위치를 도시한 데이터이다.
대상물 상대 속도 데이터는, 검출된 대상물의 속도에 관한 데이터로서, 대상물의 차량(C)에 대한 상대 속도를 나타내는 데이터이다. 대상물 검출부(32)는, 새로운 프레임(화상)과 과거의 프레임을 비교함으로써 대상물 상대 속도 데이터를 산출한다.
대상물 상대 방향 데이터는, 검출된 대상물의 방향(이동 방향)에 관한 데이터로서, 대상물의 차량(C)에 대한 상대 이동 방향을 나타내는 데이터이다. 대상물 검출부(32)는, 새로운 프레임(화상)과 과거의 프레임을 비교함으로써 대상물 상대 방향 데이터를 산출한다.
종별 데이터는, 검출된 대상물의 종류에 관한 데이터이다. 대상물 검출부(32)는, 미리 기억된 대상물의 종류와 그 형상을 관련시킨 데이터를 참조함으로써, 검출된 대상물이 무엇인지를 특정하고, 종별 데이터를 생성한다.
대상물 검출부(32)는 각종 데이터를 산출·생성함에 있어서, 차량 데이터 생 성부(35)에 의해 생성된 차량 데이터를 참조할 수도 있다. 이것은 차량(C)의 이동 방향, 차량 속도를 고려한 후에 대상물의 각종 데이터를 산출·생성하기 위함이다.
(대상물 데이터 생성부(33))
대상물 데이터 생성부(33)는 대상물 검출부(32)에 의해 검출된 검출 결과(대상물 상대 데이터)와, 차량 데이터 생성부(35)에 의해 생성된 차량 데이터(후술)에 기초하여 대상물 데이터를 생성한다. 즉 대상물 데이터 생성부(33)는, 대상물과 차량의 상대 관계(대상물 상대 데이터)와, 차량의 도로에 대한 데이터(차량 데이터)에 기초하여 대상물의 도로에 대한 데이터(대상물 데이터)를 생성한다.
대상물 데이터는 대상물 ID와, 대상물 화상 데이터와, 대상물 위치 데이터와, 대상물 속도 데이터와, 대상물 방향 데이터와, 종별 데이터를 포함하는 데이터이다.
즉, 대상물 데이터 생성부(33)는 대상물 위치 데이터 생성부(이동체 데이터 생성부)이고, 대상물 속도 데이터 생성부(이동체 속도 데이터 생성부)이고, 대상물 방향 데이터 생성부(이동체 데이터 생성부)이다. 대상물 위치 데이터, 대상물 속도 데이터 및 대상물 방향 데이터는, 이들과 동등한 물리량을 나타내는 데이터이면 되고, 예를 들면 대상물 위치 데이터로서, 대상물을 검출한 차량(C)의 위치 데이터와, 대상물의 차량(C)에 대한 상대 위치 데이터를 사용할 수도 있다. 이와 같은 경우에는, GPS 수신기(14) 및 대상물 검출부(32)의 조합이 대상물 위치 데이터 생성부에 상당하게 된다. 이것은 다른 데이터에 대해서도 마찬가지이다.
(대상물 데이터 통지부(34))
대상물 데이터 통지부(34)는, 대상물 데이터 생성부(33)에 의해 생성된 대상물 이동체 데이터에 그 차량(C)의 차량 ID를 부여하여 출력한다. 출력된 대상물 데이터는, 송수신기(19)를 통해 차량 관리 장치(3) 및 다른 차량(C)의 차량 탑재 장치(2)에 통지된다.
또 대상물 데이터 통지부(34)는, 차량 관리 장치(3) 및 다른 차량(C)의 차량 탑재 장치(2)에 대한 통신 상태를 접속/절단하기 위한 신호를 출력한다.
(차량 데이터 생성부(35))
차량 데이터 생성부(35)는, 지자기 센서(12), 자이로 센서(13), GPS 수신기(14) 및 차속 센서(15)의 검출 결과에 기초하여 차량 데이터를 생성한다. 이 차량 데이터는 자기차의 차량 ID, 차량 방향 데이터, 차량 위치 데이터, 차량 속도 데이터를 포함하는 데이터이다. 생성된 차량 데이터는 차량 데이터 통지부(36) 및 로컬 맵 생성부(39)로 출력된다. 또 차량 데이터 생성부(35)는, 칼만 필터(Kalman Filter)에 의해 현시점에서의 차량 방향 데이터, 차량 위치 데이터, 차량 속도 데이터를 추정하고, 이들 추정된 데이터를 차량 데이터에 채용하고 있다.
(차량 데이터 통지부(36))
차량 데이터 통지부(36)는, 차량 데이터 생성부(35)에 의해 생성된 차량 데이터를 출력한다. 출력된 차량 데이터는 송수신기(19)를 통해 차량 관리 장치(3)에 통지된다.
(데이터 수신부(37))
데이터 수신부(37)는, 차량 관리 장치(3) 및 다른 차량(C)의 차량 탑재 장 치(2)에서 송신된 데이터를 수신한다. 수신되는 데이터의 일종인 타이동체 데이터는, 대상물 데이터 통지부(34) 및 타이동체 데이터 추정부(38)에 출력된다.
(타이동체 데이터 추정부(38))
타이동체 데이터 추정부(38)는, 입력된 타이동체 데이터로부터, 현시점에서의 타이동체 데이터(이하,「타이동체 추정 데이터」라고 기재한다.)를 추정한다. 상기 추정은, 칼만 필터에 의해 수행된다. 또 타이동체 데이터 추정부(38)는 이동체 추정 데이터의 일부로서, 타이동체 데이터 및 차량 데이터에 기초하여 타이동체의 자기차량(C)에 대한 상대 위치에 관한 데이터(이하,「타이동체 상대 위치 데이터」라고 기재한다.)를 생성한다.
(로컬 맵 생성부(39))
로컬 맵 생성부(39)는, 차량 데이터 생성부(35)에 의해 생성된 차량 데이터와, 대상물 데이터 생성부(33)에 의해 생성된 이동체 데이터와, 타이동체 데이터 추정부(38)에 의해 추정된 타이동체 추정 데이터에 기초하여 차량(C) 주위의 상황에 관한 로컬 맵을 생성한다. 이 로컬 맵은 차량(C) 주위의 이동체의 위치, 속도 등을 시간적으로 관리하고, 이들 과거의 이력부터 현재 이동체의 위치, 속도 등을 추정하는 것이다. 마주침 판정부(40)는 이 추정된 데이터에 기초하여 자기차량(C)과 이동체가 마주치는지 여부를 판정한다.
여기에서 로컬 맵 생성부(39)는, 차량 데이터 생성부(35)에 의해 생성된 차량 데이터 및 대상물 데이터 생성부(33)에 의해 생성된 대상물 데이터와, 타이동체 데이터 추정부(38)에 의해 추정된 타이동체 추정 데이터의 동일성을 판정한다. 그 리고 로컬 맵 생성부(39)는 이러한 동일성이 부정된 경우에만 타이동체 추정 데이터를 로컬 맵에 통합한다.
이것은, 자기차량(C)과 동일한 타이동체와, 자기차량(C)이 데이터를 취득한 이동체와 동일한 타이동체를 로컬 맵에 통합함으로써 데이터의 중복이 발생하는 것을 막기 위함이다.
(마주침 판정부(40))
마주침 판정부(40)는, 자기차량(C)과 다른 차량에 의해 검출된 이동체(타이동체)가 마주치는지 여부를 판정한다. 판정 결과는 출력 데이터 생성부(41)로 출력된다. 이 마주침 판정부(40)에 의한 판정 방법의 상세한 것은 후술하기로 한다.
(출력 데이터 생성부(41))
출력 데이터 생성부(41)는, 로컬 맵 및 마주침 판정부(40)에 의한 판정 결과에 기초하여 타이동체의 존재 및 타이동체와의 마주침 판정 결과를 운전자에게 전달하기 위한 출력 데이터를 생성하기 위한 것으로서, 화상 데이터 생성부(41a)와, 문자 데이터 생성부(41b)와, 표시 데이터 생성부(41c)와, 음성 데이터 생성부(41d)와, 제어 데이터 생성부(41e)를 구비하고 있다.
(화상 데이터 생성부(41a))
화상 데이터 생성부(41a)는, 타이동체의 존재를 표시하는 화상 데이터를 생성하여 표시 데이터 생성부(41c)를 통해 표시 장치(20)에 표시시킨다.
(문자 데이터 생성부(41b))
문자 데이터 생성부(41b)는, 타이동체의 존재나 타이동체와 자기차량(C)의 마주침 판정 결과를 나타내는 문자 데이터를 생성하여 표시 데이터 생성부(41c)를 통해 표시 장치(20)에 표시시킨다.
이 화상 데이터 생성부(41a) 및 문자 데이터 생성부(41b)가 「화상/문자 데이터 생성부」의 일례이다.
(표시 데이터 생성부(41c))
표시 데이터 생성부(41c)는, 화상 데이터 생성부(41a)에 의해 생성된 화상 데이터와, 문자 데이터 생성부(41b)에 의해 생성된 문자 데이터에 기초하여 표시 데이터를 생성하고 표시 장치(20)에 표시시킨다.
(음성 데이터 생성부(41d))
음성 데이터 생성부(41d)는, 타이동체의 존재나 타이동체와 자기차량(C)의 마주침 판정 결과를 알리는 음성 데이터를 생성하여 스피커(21)로 출력시킨다.
음성 데이터의 생성에는, 미리 기억된 문자 정보와 음성 데이터의 대응 관계가 이용된다.
(제어 데이터 생성부(41e))
제어 데이터 생성부(41e)는, 타이동체와 자기차량(C)의 마주침 판정 결과에 기초하여 자기차량(C)의 동작을 제어하는 제어 데이터를 생성하여 차량 제어 장치(22)로 자기차량(C)을 제어시킨다.
(차량 관리 장치(3))
이어서 차량 관리 장치(3)에 대해서 설명하기로 한다. 도 3은, 도 1의 차량 관리 장치를 도시한 블럭도이다.
도 3에 도시한 바와 같이, 차량 관리 장치(3)는 제어부(50)와, 입력 장치(61)와, 기억부(62)를 구비하고 있다.
(제어부(50))
제어부(50)는 차량 데이터 수신부(51)와, 지도 매칭부(52)와, 대상물 데이터 수신부(53)와, 탐색 개시 판정부(54)와, 근방 차량 추출부(55)와, 시야 중복 판정부(56)와, 정보 공유 차량 결정부(57)와, 정보 공유 차량 통지부(58)와, 타이동체 데이터 통지부(59)를 구비하고 있다.
(차량 데이터 수신부(51))
차량 데이터 수신부(51)는, 각 차량(C)의 차량 탑재 장치(2)에서 송신된 차량 데이터를 수신한다. 수신된 차량 데이터는 지도 매칭부(52)로 출력된다.
(지도 매칭부(52))
지도 매칭부(52)는, 차량 데이터와 기억부(62)에 기억된 지도 데이터를 매칭시킨다. 상기 매칭에 의해 차량(C)이 주행하고 있는 도로(아크), 차량(C)이 향하고 있는 교차점(노드)이 설정된다.
(대상물 데이터 수신부(53))
대상물 데이터 수신부(53)는 이동체를 검출한 차량(C)으로부터 차량 ID를 부여한 대상물 데이터를 수신한다. 수신된 차량 ID 및 대상물 데이터는, 지도 매칭부(52)에 의해 매칭된 후, 탐색 개시 판정부(54)로 출력된다.
(탐색 개시 판정부(54))
탐색 개시 판정부(54)는, 대상물 데이터를 송신한 차량(C)에 관하여, 그 차 량(C)과 정보를 공유하는 차량(정보 공유 차량)을 탐색을 행할 것인지 여부를 판정한다. 상기 탐색 방법에 관한 상세한 것은 후술하기로 한다.
(근방 차량 추출부(55))
근방 차량 추출부(55)는, 지도 매칭부(52)에 의해 매칭된 차량 데이터에 기초하여 대상물 데이터 수신부(53)에 의해 수신된 대상물 데이터에 부여된 차량 ID에 관한 차량의 근방에 위치하는 차량(C)을 추출한다. 상기 추출 방법에 관한 상세한 것은 후술하기로 한다.
(시야 중복 판정부(56))
시야 중복 판정부(촬상 영역 중복 판정부)(56)는 근방 차량 추출부(55)에 의해 추출된 차량(C) 중에서 대상물 데이터를 송신한 차량(C)과 각각의 시야, 즉 카메라(C1),(C1)에 의한 촬상 영역이 중복되는지 여부, 및 어느 정도 중복되는지를 판정한다. 시야 중복 판정 방법에 관한 상세한 것은 후술하기로 한다.
(정보 공유 차량 결정부(57))
정보 공유 차량 결정부(57)는 근방 차량 추출부(55)에 의해 추출된 차량(C) 중 대상물 데이터를 송신한 차량(C)과 정보를 공유하는 차량을 선택하고, 이들 정보 공유 차량의 조합을 결정한다. 상기 결정에서, 정보 공유 차량 결정부(57)는 시야 중복 판정부(56)에 의한 판정 결과를 사용할 수 있다.
(정보 공유 차량 통지부(58))
정보 공유 차량 통지부(58)는 정보 공유 차량 결정부(57)에서 결정된 차량에 대해 그 취지를 통지한다. 도 6의 예에서는, 정보 공유 차량 통지부(58)는 차 량(C1)에 차량(C2)이 정보 공유 차량이라는 것을 통지함과 아울러, 차량(C2)에 차량(C1)이 정보 공유 차량이라는 것을 통지한다. 또 정보 공유 차량 통지부(58)는 이동체를 검출한 차량(C1)의 차량 데이터를 차량(C2)의 차량 탑재 장치(2)에 통지한다.
(타이동체 데이터 통지부(59))
타이동체 데이터 통지부(59)는 정보 공유 차량 결정부(57)에 의해 결정된 정보 공유 차량 중에서 대상물을 검출하지 않은 다른 차량(C)에 대해 대상물 데이터(타이동체 데이터)를 통지한다.
(입력 장치(61))
입력 장치(61)는, 기억부(62)에 기억되는 각종 데이터(지도 데이터 등)를 입력하기 위한 장치이다.
(기억부(62))
기억부(62)는, 지도 데이터, 각 차량(C)으로부터 송신된 차량 데이터, 각 차량(C)의 카메라 정보(카메라(11),(11)의 차체에 대한 설치 방향, 촬상 영역 등) 등을 기억하고 있다. 이 중에서, 지도 데이터는 교차점을 노드, 각 교차점을 연결하는 도로를 아크로 하여 설정된 데이터이다.
(차량간 통신 시스템의 제1 동작예)
이어서 차량간 통신 시스템(1)의 제1 동작예에 대해 차량 탑재 장치(2), 차량 관리 장치(3)의 순서로 설명하기로 한다.
(차량 탑재 장치의 제1 동작예)
우선, 차량 탑재 장치(2)의 동작예에 대해서 설명하기로 한다. 도 4는 차량 탑재 장치의 제1 동작예를 설명하기 위한 흐름도이다.
우선, 차량 탑재 장치(2)와 차량 관리 장치(3)가 통신 가능하게 접속된다(스텝S1).
이어서 카메라(11),(11)가 화상을 취득한다(스텝S2).
이어서 특징 추출부(31)가 화상의 특징을 추출하고, 대상물 검출부(32)가 대상물의 일종인 이동체를 검출한다(스텝S3).
이어서 차량 데이터 통지부(36)가 차량 데이터를 차량 관리 장치(3)로 통지한다(스텝S4).
대상물 검출부(32)에 의해 검출된 이동체가 있는 경우에는(스텝S5에서 "예"), 대상물 데이터 생성부(33)가 대상물 데이터의 일종인 이동체 데이터를 생성하고(스텝S6), 대상물 데이터 통지부(34)가 이동체 데이터를 차량 관리 장치(3)에 통지한다(스텝S7).
이어서 로컬 맵 생성부(39)가 이동체 데이터를 로컬 맵에 통합한다(스텝S8).
스텝S5에서 이동체가 검출되지 않은 경우에는(스텝S5에서 "아니오"), 스텝S9로 이행한다.
이어서 데이터 통지부(36)가 차량 관리 장치(3)로부터 타이동체 데이터를 수신한다(스텝S9).
타이동체 데이터가 있는 경우에는(스텝S10에서 "예"), 타이동체 데이터 추정부(38)가 타이동체 데이터를 추정하고(타이동체 추정 데이터를 생성하고)(스텝 S11), 로컬 맵 생성부(39)가 타이동체 추정 데이터를 로컬 맵에 통합한다(스텝S12).
그리고 출력 데이터 생성부(41)가 출력 데이터를 생성하고(스텝S13), 생성된 출력 데이터를 출력하여 타이동체의 존재를 운전자에게 통지한다(스텝S14). 그 후, 스텝S2로 이행하여 일련의 처리를 반복한다.
스텝S10에서 "아니오"인 경우에는 스텝S2로 이행하여 일련의 처리를 반복한다.
스텝S12에서 로컬 맵에 통합된 타이동체가, 자기차량(C) 및 자기차량(C)에 의해 검출된 이동체와 동일한 경우에는 스텝S12 및 스텝S14의 처리는 생략된다.
(차량 관리 장치의 제1 동작예)
이어서, 차량 관리 장치(3)의 제1 동작예에 대해서 설명하기로 한다. 도 5는, 차량 관리 장치의 제1 동작예를 설명하기 위한 흐름도이다.
우선, 차량 데이터 수신부(51)가 상기 스텝S4에서 각 차량(C)의 차량 데이터 통지부(36)가 통지한 차량 데이터를 수신한다(스텝S21).
이어서 대상물 데이터 수신부(52)가 상기 스텝S7에서 차량(C)의 대상물 데이터 통지부(34)가 통지한 이동체 데이터를 수신한다(스텝S22).
수신한 이동체 데이터가 있는 경우에는(스텝S23에서 "예"), 탐색 개시 판정부(54)가 기동하여 탐색 개시 여부를 판정한다(스텝S24).
탐색을 개시한 경우에는(스텝S25에서 "예"), 근방 차량 추출부(55)가 대상물 데이터를 통지한 차량(C) 근방에 위치하는 차량을 추출한다(스텝26).
근방에 차량이 존재하는 경우에는(스텝S27에서 "예"), 시야 중복 판정부(56)가 차량(C)과 근방 차량과의 시야의 중복 정도를 판정하고, 정보 공유 차량 결정부(57)가 이 판정 결과에 기초하여 근방의 차량 중에서 이동체 데이터를 통지한 차량(C)와 정보를 공유하는 차량을 결정한다(스텝S28).
차량(C)과 정보를 공유하는 차량이 있는 경우에는(스텝S29에서 "예"), 정보 공유 차량 통지부(58)가, 정보 공유 차량에 결정된 각 차량에 그 취지를 통지함과 아울러(스텝S30), 타이동체 데이터 통지부(59)가, 이 대상물 데이터를 타이동체 데이터로서 정보를 공유하는 차량에 통지한다(스텝S31). 그 후 스텝S21로 이행하여 일련의 처리를 반복한다.
스텝S23, S25, S27, S29에서 "아니오"인 경우에는 스텝S21로 이행하여 일련의 처리를 반복한다.
(각 방법의 상세 설명)
이어서 차량(C1),(C2),(C3) 및 이동체(M)가 도 6에 도시한 배치 상태일 때를 예로 들어 탐색 개시 판정부(54)에 의한 정보 공유 차량의 탐색 개시 판정, 근방 차량 추출부(55)에 의한 근방 차량의 추출 및 시야 중복 판정부(56)에 의한 시야 중복 판정의 방법에 대해서 더욱 상세하게 설명하기로 한다. 도 6은, 정보 공유 차량의 탐색 개시 판정, 근방 차량의 추출 및 시야 중복 판정 방법의 일례를 설명하기 위한 도면이다.
(탐색 개시 판정)
우선, 차량 관리 장치(3)의 탐색 개시 판정부(54)에 의한 정보 공유 차량의 탐색 개시 판정 방법의 일례에 대해서 설명하기로 한다.
도 6에 도시한 바와 같이, 차량 관리 장치(3)의 기억부(62)에 기억된 지도 데이터에는, 도로의 교차점(신호)이 노드(N)로서 설정되어 있다.
탐색 개시 판정부(54)는, 이동체(M)를 검출한 차량(C1)에 대해 차량(C1)으로부터 송신된 차량 데이터에 포함되는 위치 데이터 및 차량 속도 데이터와, 지도 데이터에 있어서의 노드(N)의 위치 데이터에 기초하여 차량(C1)에 관한 여유 정지 거리(L)를 산출한다.
L=(Tc+Ti)×VC1+Ls …(1)
여기에서,
Tc: 통신 확립+다른 차량 정보 취득에 필요한 시간
Ti: 화상 처리 시간
VC1: 차량(C1)의 현재 차량 속도(노드(N)에 접근하는 방향을 「정」, 노드(N)에서 멀어지는 방향을 「부」라고 한다.)
Ls: 차량(C1)의 현재 차량 속도에 기초한 정지 거리
이다.
이 여유 정지 거리(L)는, 차량간 통신 시스템(1)의 통신 등에 요구되는 시간을 고려하여 차량(C1)이 노드(N) 앞에서 정지할 수 있는 거리이다.
탐색 개시 판정부(54)는, 차량(C1)과 노드(N)의 거리(L)(C1)가 여유 정지 거 리(L) 이하가 된 경우에 차량(C1)에 대한 정보 공유 차량의 탐색을 하도록 판정한다. 즉, 탐색 개시 판정부(54)는 이동체(M)를 검출한 차량(C1)이 소정 조건에서 노드(N)(교차점)에 접근하는 경우에, 정보 공유 차량의 탐색을 개시할 필요가 있다고 판정한다.
정지 거리(Ls)는, 날씨 조건(건조 노면, 젖은 노면), 차량 조건(ABS의 유무), 타이어 조건(여름용 타이어, 스터드리스) 등의 주행 환경에 의해 변화하고, 이들 주행 환경과 정지 거리(Ls)의 관계가 기억부(23)에 미리 기억되어 있다. 그리고 주행 환경은 차량 센서(16) 또는 미도시된 입력 장치로부터 각 차량(C)의 주제어부(30)에 입력되어, 차량 데이터의 일부로서 차량 관리 장치(3)로 송신된다.
또 주행 환경에 관한 데이터(주행 환경 데이터)를 취득하는 주행 환경 데이터 취득부와, 주행 환경 데이터를 차량 관리 장치(3)에 통지하는 주행 환경 데이터 통지부를 주제어부(30) 안에 구비하고, 주행 환경 데이터와 차량 데이터를 별도로 처리하는 구성이어도 좋다.
도 7은, 여유 정지 거리를 설명하기 위한 그래프이다.
도 7a는, 날씨 조건이 「건조 노면」인 경우에서의, 차량 조건 및 타이어 조건마다의 정지 거리(Ls) 및 여유 정지 거리(L)를 나타내는 그래프이다. 도 7b는, 노면 조건이 「젖은 노면」인 경우에서의, 차량 조건 및 타이어 조건마다의 정지 거리(Ls) 및 여유 정지 거리(L)를 나타내는 그래프이다.
여기에서 정지 거리(Ls1)∼(Ls4) 및 여유 정지 거리(L1)∼(L4)의 조건 설정은 이하와 같다.
Ls1, Ll: 타이어 조건「여름용 타이어 장착」, 차량 조건「ABS 부착」
Ls2, L2: 타이어 조건「여름용 타이어 장착」, 차량 조건「ABS 없음」
Ls3, L3: 타이어 조건「스터드리스 타이어 장착」, 차량 조건「ABS 부착」
Ls4, L4: 타이어 조건「스터드리스 타이어 장착」, 차량 조건「ABS 없음」
도 7a 및 도 7b에 도시한 바와 같이, 정지 거리(Ls)는 날씨 조건(노면 조건)에 따라 다른 값을 취한다. 또 그에 따라 여유 정지 거리(L)도 날씨 조건에 따라 다르다. 또 정지 거리(Ls)는 날씨 조건 뿐 아니라 차량 조건(ABS의 유무), 타이어 조건(여름용 타이어, 스터드리스 타이어)에 의해서도 변화하고 기억부(23)는 이들 대응 관계를 기억하고 있다.
그리고 기억부(23)는 날씨 조건, 차량 조건, 타이어 조건 등에 기초한 정지 거리(Ls)를 기억함과 아울러 시간(Tc),(Ti)이 설정되어 있기 때문에, 탐색 개시 판정부(54)는 이들과 차량 속도(VC1)에 기초하여 차량 속도(VC1)를 제동 초기 속도로 한 여유 정지 거리(L)를 산출할 수 있다.
차량 탑재 장치(2)는 차량간 통신 시스템(1)과 접속된 카 네비게이션 시스템이나, 차량(C)에 탑재된 빗방울센서의 검출 결과로부터 날씨 조건을 취득할 수 있다.
또 차량 탑재 장치(2)는, 차량(C)이 ABS 탑재 차량인 경우에는 슬립 검출에 기초하여 날씨 조건을 판정할 수도 있다.
또 차량 탑재 장치(2)는, 차량(C)의 와이퍼의 작동 상황에 기초하여 날씨 조건을 판정할 수도 있다.
또 차량 탑재 장치(2)는, 미도시된 입력 장치로부터 차량 조건 및 타이어 조건을 입력할 수 있다.
(근방 차량 추출)
이어서, 차량 관리 장치(3)의 근방 차량 추출부(55)에 의한 근방 차량의 추출 방법의 일례에 대해서 설명하기로 한다.
근방 차량 추출부(55)는, 탐색 개시 판정부(54)가 정보 공유 차량의 탐색을 개시할 필요가 있다고 판정한 경우에 차량(C1) 근방의 차량을 추출한다.
근방 차량 추출부(55)는 차량 데이터 수신부(51)에 의해 수신되어 기억부(62)에 기억된 각 차량(C)의 차량 위치 데이터에 기초하여 차량(C1)으로부터 소정 거리 내, 즉 도 6에 도시한 근방 차량 추출 영역(EA) 내에 위치하는 다른 차량(C)을 추출한다. 여기에서는 차량(C2) 및 차량(C3)이 추출된다.
이와 같이 정보 공유 차량의 결정의 전처리로서, 근방 차량 추출부(55)가 차량(C1)의 근방에 위치하는 차량(C2),(C3)을 추출하기 때문에, 먼 곳의 차량(C)을 무시할 수 있어 정보 공유 차량 결정에 있어서의 처리를 간략화할 수 있다.
(시야 중복 판정)
이어서 차량 관리 장치(3)의 시야 중복 판정부(56)에 의한 시야 중복 판정 방법의 일례에 대해서 설명하기로 한다.
시야 중복 판정부(56)는, 근방 차량 추출부(55)가 차량(C1) 근방의 차량(C(C2,C3))을 추출한 경우에 차량(C1)의 시야(DA1)와 근방의 차량(C)(C2,C3)의 시야(DA2),(DA3)의 중복 비율을 산출한다.
그리고 정보 공유 차량 결정부(57)는 기억부(62)에 기억된 각 차량(C)의 데이터(카메라의 촬상 영역 또는 이동체 검출 영역)에 기초하여 차량(C1)의 촬상 영역(DA1)의 50% 이상을 자신의 촬상 영역(여기에서는, 차량(C2)의 촬상 영역(DA2)이 해당된다. 차량(C3)의 촬상 영역(DA3)은 해당되지 않는다.)으로서 중복되는 차량(C)을, 차량(C1)과 정보를 공유하는 차량으로 결정한다. 여기에서는 차량(C2)이 차량(C1)에 있어서 정보 공유 차량이고, 차량(C3)은 정보 공유 차량에 해당되지 않는다.
상기 촬상 영역의 중복 비율은 적절히 설정 변경 가능하다.
또 촬상 영역의 선단부는 적절히 설정 변경 가능하다. 이 촬상 영역의 선단부의 설정에 의해 정보 공유 차량의 선출 결과를 조절할 수 있다. 도 6 이후에 도시된 촬상 영역의 크기와 차량의 관계는, 발명을 설명하기 위해 개략적으로 변형되어 있고, 실제의 관계를 정확하게 나타낸 것은 아니다.
(마주침 판정)
이어서 마주침 판정부(40)에 의한 차량(C)과 타이동체의 마주침 판정에 대해서 설명하기로 한다. 도 8은, 차량과 이동체의 마주침 판정에 대해서 설명하기 위한 도면이다.
도 8에 도시한 바와 같이, 차량(C1)과 차량(C2)이 공통 노드(교차점)(N)를 향해 주행하고 있다. 그리고 차량(C1)이 이동체(M)를 촬영하고 있다.
차량(C2)의 마주침 판정부(40)는 로컬 맵에 기초하여 자기차량(C2)와 타이동체(M)가 노드(N)를 통과하는 시각의 차이(Ts)(이하,「여유 시간(Ts)」이라고 기재 한다.)를 산출한다.
여유 시간(Ts)은 하기 식 (2)에 의해 산출된다.
Ts=│LM/VM-LC2/VC2│ …(2)
여기에서,
LM: 타이동체(M)의 노드(N)까지의 거리
VM: 타이동체(M)의 노드(N)를 향한 속도
LC2: 자기차량(C2)의 노드(N)까지의 거리
VC2: 자기차량(C2)의 차량 속도
이다.
즉, 마주침 판정부(40)는 타이동체(M)의 이동체 위치 데이터, 이동체 방향 데이터 및 이동체 속도 데이터와, 자기차량(C2)의 차량 위치 데이터, 차량 방향 데이터 및 차량 속도 데이터와 지도 데이터에 있어서의 노드(N)의 위치 데이터에 기초하여 타이동체(M)과 자기차량(C2)의 마주침을 판정하고 있다.
차량(C2)이 주행중인 도로의 법정 속도를 V0으로 하고 V1=V0+ΔV0(ΔV0은 V0의 20%)로 했을 때, 여유 시간(Ts) 및 상기 여유 정지 거리(L)의 산출에 있어서, 자기차량(C2)의 차량 속도(VC2)로서 V0 또는 V1을 대용하는 것도 가능하다. 이것은, 어떠한 이유(예를 들면, 커브 통과 중에 감속중 등)로 그 시점에서의 차량 속도의 실측값이 V1에서 벗어난 경우 등을 생각할 수 있으며, 이와 같은 경우에는 VO 또는 V1로 산출하는 것이 바람직하다고 생각되기 때문이다.
그리고 차량(C2)의 차량 속도(VC2)가 V1보다 클 때, 문자 데이터 생성부(41b)가 그러한 취지를 전하는 문자 데이터를 생성하여 표시 장치(20)에 표시시킬 수도 있다.
표시예로서는, 예를 들면 「스피드가 너무 빠릅니다.」 등이다. 또 음성 데이터 생성부(41d)가 문자 데이터와 동일한 내용을 전하는 음성 데이터를 생성하여 스피커(21)로 출력시킬 수도 있다.
마주침 판정부(40)는 여유 시간(Ts)의 값에 기초하여 이동체(M)와 차량(C2)의 마주침 가능성을 4단계로 나누어 판정한다.
(1) Ts≥30초일 때에는 마주침 판정부(40)는 이동체(M)와 차량(C2)의 마주침 가능성 「없음」으로 판정한다.
(2) 20초≤Ts<30초일 때에는 마주침 판정부(40)는 이동체(M)와 차량(C2)의 마주침 가능성 「소」로 판정한다.
(3) 10초≤Ts<20초일 때에는 마주침 판정부(40)는 이동체(M)와 차량(C2)의 마주침 가능성 「중」으로 판정한다.
(4) Ts<10초일 때에는 마주침 판정부(40)는 이동체(M)와 차량(C2)의 마주침 가능성 「대」로 판정한다.
그리고 문자 데이터 생성부(41b) 및 음성 데이터 생성부(41d)는 여유 시간(Ts)의 값에 기초하여 문자 데이터 및 음성 데이터를 생성하고 표시 장치(20) 및 스피커(21)로 출력하여 표 1에 나타낸 정보를 운전자에게 통지한다.
데이터\ Ts | 20초 이상 30초 미만 | 10초 이상 20초 미만 | 10초 미만 |
문자데이터 | 감속지시 | 서행지시 | 정지지시 |
음성데이터 | 타이동체의 통행방향안내 | 타이동체의 통행상황안내 | 타이동체의 통행상황안내 |
상기 감속 지시의 예로서는,「스피드를 줄여 주십시오.」를 들 수 있다.
서행 지시의 예로서는,「서행해 주십시오.」를 들 수 있다.
정지 지시의 예로서는,「정지해 주십시오.」를 들 수 있다.
타이동체 통행 방향 안내의 예로서는,「왼쪽에 자전거가 다가오고 있습니다.」를 들 수 있다.
타이동체 통행 상황 안내의 예로서는,「○초 후에 전방 교차점에 자전거가 왼쪽에서 진입합니다.」를 들 수 있다.
이들 운전자에 대한 지시와 타이동체(M)의 안내가, 마주침 판정부(40)에 의한 판정 결과를 알리는 데이터의 일례이다. 그 밖에 음성 데이터 생성부(41d)가 운전자에 대한 지시를 포함하는 음성 데이터를 생성해도 좋고 문자 데이터 생성부(41b)가 이동체(M)의 안내(통행 방향 안내, 통행 상황 안내)를 포함하는 문자 데이터를 생성해도 좋다.
또 여유 시간(Ts)이 5초 이하일 때, 제어 데이터 생성부(41e)가 차량 제어 장치(22)를 구동하여 브레이크를 작동시켜 자기차량(C)를 정지시키는 것이 바람직하다.
여유 시간(Ts)이 표 1에 나타낸 범위 내라고 해도 거리(LM),(LC2)가 도 7에 나타내는 범위 밖인 경우에는, 표 1에 나타낸 경보를 발생하지 않도록 하는 것이 바람직하다. 거리(LM)을 사용하는 것은, 이동체(M)가 차량인 경우이며, 자전거, 사람 등의 경우는 제외한다.
이것은, 거리(LM),(LC2)가 지나치게 짧은 경우(제1 소정값보다 작은 경우)에는 경보를 발생시켜도 운전자가 대응할 여유가 없으며, 도리어 혼란을 초래할 우려가 있기 때문이다. 또 거리(LM),(LC2)가 지나치게 길 경우(제2 소정값보다 큰 경우)에는 경보를 발생시키지 않아도 운전자가 대응할 수 있다고 생각되기 때문이다. 이 거리(LM),(LC2)의 범위를 고려할지 여부는 차량(C2), 타이동체(M)의 주행 도로에 의한 것으로서, 그 관계를 표 2에 나타낸다.
차량 \ 주행클래스순위 | α1 | α2 | α3 |
C1(M) | 국도 | 국도 | 국도 이외 |
C2 | 국도 | 국도 이외 | 국도 |
정지거리 확인 | LM, LC2 | LM | LC2 |
또 이들 제1 소정값 및 제2 소정값을 주행 환경에 의해 변화시키는 구성이어도 좋다. 이 경우에는, 제1 소정값 및 제2 소정값과 주행 환경의 관계가 기억부(23)에 미리 기억되어 있는 것이 바람직하다.
이어서 차량(C1) 및 차량(C2)가 정보 공유 차량에 설정된 경우를 예로 들어, 차량(C2)에서의 이동체(M)의 화상 표시에 대해서 설명한다.
도 9는, 본 발명의 실시형태에 관한 차량간 통신 시스템의 제1 동작예에 기초한 작용을 설명하기 위한 도면으로서, 차량(C1), 차량(C2) 및 이동체(M)의 배치 상태를 설명하기 위한 도면이다. 도 10은, 도 9의 평면도이다. 도 11은, 차량(C1)의 카메라에 의해 촬영된 화상을 도시한 도면이다. 도 12는, 차량(C2)의 카메라에 의해 촬영된 화상을 도시한 도면이다. 도 13a 및 도 13b는, 이동체의 화상의 보정을 설명하기 위한 도면으로서, 도 13a는 보정 전을 도시한 도면, 도 13b는 보정 후를 도시한 도면이다. 도 14는, 차량(C2)의 표시 장치에 표시된 이동체 화상을 도시한 도면이다.
도 9 및 도 10에 도시한 바와 같이, 차량(C1)은 노드(N)에 향해 주행하고 있다. 또 차량(C2)은 차량(C2)과는 다른 길(아크)에서 노드(N)를 향해 주행하고 있다. 또 이동체(M)는 차량(C1)과 같은 길(아크)에서 노드(N)를 향해 주행하고 있다.
도 11에 도시한 바와 같이, 차량(C1)의 카메라(11),(11)는 이동체(M)를 촬영하고 있으며, 대상물 검출부(32)가 이동체(M)에 관한 이동체 화상(MI)을 검출하고 있다.
또 도 12에 도시한 바와 같이, 차량(C2)의 카메라(11),(11)는 건물(B)이 장해가 되어 이동체(M)를 촬영할 수 없다.
그래서 차량(C1)의 대상물 검출부(32)에 의해 촬영된 이동체 화상(MI)이 차량 관리 장치(3)를 통해 차량(C2)의 차량 탑재 장치(2)에 송신된다. 차량(C2)의 화상 데이터 생성부(41a)는 차량(C1)의 차량 위치 데이터와, 차량(C2)의 차량 위치 데이터와, 이동체(타이동체)(M)의 상대 위치 데이터에 기초하여 도 13b에 도시한 보정된 타이동체 화상(MI')을 생성한다. 여기에서 차량(C1)의 차량 위치 데이터를 이용하는 것은, 차량(C1),(C2)의 위치 관계에 의해 보정 방식(반전 유무 등)이 바뀌기 때문이다. 그리고, 차량(C2)의 화상 데이터 생성부(41a)는, 카메라(11),(11)가 촬영한 화상과 타이동체 화상(MI')을 합성한 화상 데이터를 생성하여, 도 14에 도시한 바와 같이, 표시 장치(20)에 표시시킨다. 여기에서 화상 데이터 생성부(41a)는, 타이동체 화상(MI')의 합성 위치는 타이동체 추정 데이터에 기초하여 결정되어 있으며, 건물(B)이 없다고 가정한 경우에 차량(C2)의 카메라(11),(11)가 이동체(M)를 직접 촬상한 것과 유사한 화상 데이터를 생성하고 있다.
이와 같이 함으로써, 차량(C2)이 검출할 수 없었던 이동체(M)를 차량(C2)의 표시 장치(20)에 표시시켜 차량(C2)의 운전자에게 알릴 수 있다.
또 차량(C2)의 음성 데이터 생성부(41d)는, 타이동체(M)의 존재를 음성으로 알리기 위한 음성 데이터를 생성하여 스피커(21)로 출력시킨다.
출력예로서는,「왼쪽 전방에 자전거가 있습니다.」이다.
이와 같이 함으로써, 차량(C2)을 검출할 수 없었던 이동체(M)를 차량(C2)의 운전자에게 음성으로 알릴 수 있다.
또 문자 데이터 생성부(41b)는, 마주침 판정부(40)의 판정 결과를 문자로서 표시 장치(20)에 표시시킨다.
또 음성 데이터 생성부(41d)는, 마주침 판정부(40)의 판정 결과를 음성으로서 스피커(21)에 출력시킨다.
(타이밍 차트)
도 15는, 차량간 통신 시스템의 제1 동작예에 기초한 통신예를 도시한 타이밍 차트이다.
우선, 차량(C1)의 차량 탑재 장치(2)가, 전방의 화상에 대해서 특징 추출 및대상물 검출을 한다. 그리고 차량(C1)의 차량 탑재 장치가, 대상물 데이터의 일종인 이동체 데이터를 차량 관리 장치(3)로 송신한다.
이동체 데이터를 수신한 차량 관리 장치(3)는 탐색 개시 판정, 근방 차량 추출, 시야 중복 판정 및 정보 공유 차량 결정을 순서대로 수행하고, 정보 공유 차량으로 결정된 차량(C)(여기에서는, 차량(C2),(C3))에 타이동체 데이터 및 정보 공유 연락 신호를 송신한다.
타이동체 데이터를 수신한 차량(C2),(C3)의 차량 탑재 장치(2)는, 타이동체 데이터에 관하여 로컬 맵 통합, 화상 보정, 화상 표시를 순서대로 한다.
그리고, 일단 정보 공유 차량으로서 결정되면, 그 후, 차량 관리 장치(3)는 탐색 개시 판정, 근방 차량 추출, 정보 공유 차량 결정을 생략할 수도 있다. 또 이들을 생략하지 않는 구성도 가능하다.
또 차량(C2),(C3)의 차량 탑재 장치(2)는, 자신의 카메라(11),(11)가 타이동체를 촬상하게 되었을 때, 통신 절단 신호를 차량 관리 장치(3)로 송신한다. 상기 통신 절단 신호는 대상물 데이터 통지부(34)에 의해 생성, 출력된다.
또 차량 관리 장치(3)가 차량(C1)과 차량(C2),(C3)의 촬상 영역의 중복이 없어졌을 때, 통신 절단 신호를 차량(C1),(C2),(C3)의 차량 탑재 장치(2)로 송신하는 구성이어도 좋다.
상기와 같이, 차량간 통신 시스템(1)은 차량(C2)의 차량 탑재 장치(2)가 스스로 검출할 수 없었던 이동체(M)에 관한 데이터를 차량(C1)으로부터 수신함으로써, 차량(C2)의 표시 장치(20)에 이동체(M)를 표시할 수 있고, 차량(C2)의 스피커(21)에 이동체(M)의 존재 및 존재 위치를 출력시킬 수 있다.
또 차량간 통신 시스템(1)은, 차량(C2)과 이동체(M)의 마주침 판정을 하고, 그 판정 결과를 차량(C2)의 표시 장치(20) 및 스피커(21)에 출력할 수 있다.
따라서, 차량간 통신 시스템(1)은 차량(C2)의 카메라(11),(11)이 촬상 불가능한 이동체(M)의 존재 및 존재 위치를, 화상, 문자, 음성 중 적어도 하나를 사용하여 차량(C2)의 운전자에게 알릴 수 있다.
또 차량간 통신 시스템(1)은, 이동체(M)과 차량(C2)이 마주칠 가능성을, 화상, 문자, 음성 중 적어도 하나를 사용하여 차량(C2)의 운전자에게 알릴 수 있다.
(차량간 통신 시스템의 제2 동작예)
이어서 차량간 통신 시스템(1)의 제2 동작예에 대해서 설명하기로 한다. 차량 관리 장치(3)의 동작예는, 도 5에 도시한 것과 동일하기 때문에 차량 탑재 장치(2)의 동작예에 대해서만 설명하기로 한다.
(차량 탑재 장치의 제2 동작예)
차량 탑재 장치(2)의 제2 동작예에 대해서 설명하기로 한다. 도 16은, 차량 탑재 장치의 제2 동작예를 설명하기 위한 흐름도이다.
우선, 대상물 데이터 통지부(34)가 플래그를 「0」으로 설정한다(스텝S41).
이 플래그는 차량(C)의 차량 탑재 장치(2)의 통신 상대를 정하는 것으로서, 플래그가 「0」일 때에는 차량 탑재 장치(2)와 차량 관리 장치(3)가 접속된다. 또 플래그가 「1」일 때에는 차량 탑재 장치(2)와 차량 관리 장치(3)가 절단됨과 아울러 자기차량(C)의 차량 탑재 장치(2)와 다른 차량(C)의 차량 탑재 장치(2)가 접속된다. 이들 통신 접속/절단은, 공지의 기술에 의해 수행된다.
스텝S42∼스텝S48은, 도 4의 스텝S2∼스텝S8과 동일 동작이기 때문에 설명을 생략한다.
스텝S48까지의 처리 종료 후, 플래그가 「0」인 경우에는(스텝S49에서 "아니오"),데이터 수신부(37)가 차량 관리 장치(3)로부터 타이동체 데이터 및 정보 공유 차량 통지 신호를 수신한다(스텝S50).
정보 공유 차량이 있는 경우에는(스텝S51에서 "예"), 대상물 데이터 통지부(34)가 플래그를 「1」로 설정한다(스텝S52).
또 스텝S49에서 "예"인 경우에는, 데이터 수신부(37)가 정보 공유 차량으로부터 타이동체 데이터를 수신한다(스텝S53).
그리고 스텝S52 또는 스텝S53 다음에 타이동체 데이터가 있는 경우에는(스텝S54에서 "예"), 스텝S55∼스텝S58을 수행한다. 이들 스텝S55∼스텝S58은, 도 4의 스텝S11∼스텝S14와 동일 동작이기 때문에 설명을 생략한다.
스텝S54에서 "아니오"인 경우에는, 대상물 데이터 통지부(34)가 플래그를 「0」으로 설정한다(스텝S59). 스텝S51에서 "아니오"인 경우, 스텝S58의 처리 후 및 스텝S59의 처리 후에는 스텝S42로 이행하여 일련의 처리를 반복한다.
이와 같이 함으로써 일단 정보 공유 차량으로서 설정된 차량끼리는, 그 후 차량 관리 장치(3)를 통하지 않고 통신할 수 있다. 따라서 타이동체 데이터의 통신에 요구되는 시간을 단축할 수 있다.
(차량간 통신 시스템의 제3 동작예)
이어서 차량간 통신 시스템(1)의 제3 동작예에 대해서 설명하기로 한다. 도 17은, 차량간 통신 시스템의 제3 동작예를 설명하기 위한 흐름도이다. 제3 동작예는 도 9 및 도 10에 도시한 상황에 적용된다.
차량(C2)이 노드(교차점)(N)에 접근했을 때 탐색 개시 판정부(54)가 각 차량(C)으로부터 송신된 차량 데이터에 기초하여 탐색을 하는 것으로 판정하고(스텝S61에서 "예"), 근방 차량 추출부(55)가 동일 노드(N)에 접근하는 차량이 있는지를 판정한다(스텝S62).
근방 차량 추출부(55)가 차량(C1)을 추출하면(스텝S62에서 "예"), 정보 공유 차량 결정부(56)가 차량(C1),(C2)을 정보 공유 차량으로 결정하고, 정보 공유 차량 통지부(58)가 정보 공유 연락 신호를 차량(C1),(C2)에 통지한다.
그리고 차량(C1) 근방에 이동체(M)가 있는 경우에는(스텝S63에서 "예"), 차량(C1)의 대상물 검출부(32)가 이동체(M)를 검출하고(스텝S64), 차량(C1)의 대상물 데이터 통지부(34)가 이동체(M)에 관한 이동체 데이터를 차량(C2)의 차량 탑재 장치(2)에 통지한다(스텝S65).
그리고 차량(C2)의 표시 장치(20)가 이동체(M)를 표시한다(스텝S66).
제3 동작예 이후의 동작예에서도, 음성에 의한 이동체(M) 위치의 통지나 음성, 화상 및 문자 중 어느 하나에 의한 마주침 판정 결과를 통지할 수 있다.
(차량간 통신 시스템의 제4 동작예)
이어서 차량간 통신 시스템(1)의 제4 동작예에 대해서 설명하기로 한다. 도 18은, 차량간 통신 시스템의 제4의 동작예의 상황 설명도이다. 도 19는, 차량간 통신 시스템의 제4 동작예를 설명하기 위한 흐름도이다.
제4 동작예는, 도 18에 도시한 바와 같이 트럭 등의 대형차인 차량(C4)이 교차점에 진입한 경우에 적용된다. 차량(C4)의 차량 탑재 장치(2)는 그 전방, 후방, 좌측 및 우측을 촬영하기 위한 카메라를 구비하고 있으며, 촬상 영역(DA41),(DA42),(DA43),(DA44)을 촬영 가능하도록 되어 있다.
우선, 탐색 개시 판정부(54)가, 차량(C2)이 노드에 접근하고 있다고 판정하면(스텝S81에서 "예"), 근방 차량 추출부(55)가, 차량(C2)의 전방에 차량이 있는지 여부를 판정한다(스텝S82).
그리고, 차량(C2) 근방에 차량(C4)이 있는 경우에는(스텝S82에서 "예"), 정보 공유 차량 결정부(56)가 차량(C2),(C4)을 정보 공유 차량으로 결정하고, 정보 공유 차량 통지부(57)가 정보 공유 연락 신호를 차량(C2),(C4)에 통지한다.
그리고 차량(C4) 근방에 이동체(M)가 있는 경우에는(스텝S83에서 "예"), 차량(C4)의 대상물 검출부(32)가 이동체(M)를 검출하며(스텝S84), 차량(C4)의 대상물 데이터 통지부(34)가 이동체(M)에 관한 이동체 데이터를 차량(C2)의 차량 탑재 장치(2)에 통지한다(스텝S85).
그리고 차량(C2)의 표시 장치(20)가 이동체(M)를 표시한다(스텝S86).
스텝S81에 있어서의 교차점으로의 접근 판정 대신에 횡단 보도로의 접근 판정을 해도 좋다.
또 스텝S81, 스텝S82의 판정에, 차량(C2)의 차량 탑재 장치(2)에서의 대상물 검출부(32)의 검출 결과를 이용해도 좋다.
또 이 제4 동작예 이후의 동작예에서는, 정보 공유 차량 결정부(56)는 촬영 영역의 중복을 판단하지 않고 정보 공유 차량을 결정할 수 있다.
(차량간 통신 시스템의 제5 동작예)
이어서 차량간 통신 시스템(1)의 제5 동작예에 대해서 설명하기로 한다. 도 20은, 차량간 통신 시스템의 제5 동작예의 상황 설명도이다. 도 21은, 차량간 통신 시스템의 제5 동작예를 설명하기 위한 흐름도이다.
제5 동작예는, 도 20에 도시한 바와 같이, 차량(C2)의 대향 차선쪽에 버스인 차량(C5)이 버스 정류장(BS)에 정차하고 있는 경우에 적용된다. 차량(C5)의 차량 탑재 장치(2)는, 그 전방 및 후방을 촬영하기 위한 카메라를 구비하고 있으며 촬상 영역(DA51),(DA52)을 촬영할 수 있도록 되어 있다.
우선 탐색 개시 판정부(54)가, 차량(C2)이 차량(C5)을 지나려고 한다고 판정하고(스텝S101에서 "예"), 또한 차량(C5)가 정차중이라고 판정하면(스텝S101에서 "예"), 정보 공유 차량 결정부(56)가 차량(C2),(C5)을 정보 공유 차량으로 결정한다.
그리고 차량(C5) 근방에 이동체(M)가 있는 경우에는(스텝S103에서 "예"), 차량(C5)의 대상물 검출부(32)가 이동체(M)를 검출하고(스텝S104), 차량(C5)의 대상물 데이터 통지부(34)가 이동체(M)에 관한 이동체 데이터를 차량(C2)의 차량 탑재 장치(2)에 통지한다(스텝S106).
그리고 차량(C2)의 표시 장치(20)가 이동체(M)를 표시한다(스텝S106).
(차량간 통신 시스템의 제6 동작예)
이어서 차량간 통신 시스템(1)의 제6 동작예에 대해서 설명하기로 한다. 도 22는, 차량간 통신 시스템의 제6 동작예의 상황 설명도이다. 도 23은, 본 발명의 실시형태에 관한 차량간 통신 시스템의 제7 동작예를 설명하기 위한 흐름도이다.
제6 동작예는, 도 22에 도시한 바와 같이, 차량(C2)이 버스 정류장(BS)에 정차중인 버스인 차량(C5)를 앞지르려는 경우에 적용된다.
우선, 탐색 개시 판정부(54)가, 차량(C2)이 차량(C5)을 앞지르려 한다고 판정하면(스텝S121에서 "예"), 정보 공유 차량 결정부(56)가 차량(C2),(C5)을 정보 공유 차량으로 결정한다.
그리고 차량(C5) 근방에 이동체(M)가 있는 경우에는(스텝S122에서 "예"), 차량(C5)의 대상물 검출부(32)가 이동체(M)를 검출하고(스텝S123), 차량(C5)의 대상물 데이터 통지부(34)가 이동체(M)에 관한 이동체 데이터를 차량(C2)의 차량 탑재 장치(2)에 통지한다(스텝S124).
그리고 차량(C2)의 표시 장치(20)가 이동체(M)를 표시한다(스텝S125).
(차량간 통신 시스템의 제7 동작예)
이어서 차량간 통신 시스템(1)의 제7 동작예에 대해서 설명하기로 한다. 도 24는, 차량간 통신 시스템의 제7 동작예의 상황 설명도이다. 도 25는, 차량간 통신 시스템의 제7 동작예를 설명하기 위한 흐름도이다.
제7 동작예는, 도 24에 도시한 바와 같이 차량(C2)의 동일 차선 전방에 트럭 등의 대형차인 차량(C4)이 주행하고 있는 경우에 적용된다.
우선, 탐색 개시 판정부(54)가, 차량(C4)이 차량(C2)의 전방을 주행하고 있다고 판정하면(스텝S141에서 "예"), 정보 공유 차량 결정부(56)가 차량(C2),(C4)을 정보 공유 차량으로 결정한다.
그리고, 차량(C4)의 근방에 이동체(M)가 있는 경우에는(스텝S142에서 "예"), 차량(C4)의 대상물 검출부(32)가 이동체(M)를 검출하고(스텝S143), 차량(C4)의 대상물 데이터 생성부(33)가 이동체(M)에 관한 이동체 데이터를 차량(C2)의 차량 탑재 장치(2)에 통지한다(스텝S144).
그리고, 차량(C2)의 표시 장치(20)가 이동체(M)를 표시한다(스텝S145).
(제8 동작예)
이어서 차량간 통신 시스템(1)의 제8 동작예에 대해서 설명하기로 한다. 제8 동작예는, 상기 제5 내지 제7 동작예와 조합하여 실시 가능하고, 또 제5 내지 제7 동작예와 동일 상황에서, 제8 동작예를 단독으로 실시할 수도 있다. 여기에서는 제8 동작예를 제5 동작예와 동일 상황에서 단독으로 실시한 경우를 예로 들어 설명하기로 한다.
도 26은, 차량간 통신 시스템의 제8 동작예를 설명하기 위한 상황 설명도이다. 도 27 및 도 28은, 차량간 통신 시스템의 제8 동작예를 도시한 흐름도이다.
도 26에서는, 각 차량의 촬상 영역을 생략했다. 또 기억부(23),(62)에 기억된 지도 데이터에는, 노드(N)끼리 연결하는 아크(Ar)가 도로 중앙에 설정되어 있으며, 차량간 통신 시스템(1)은 이 아크(Ar)를 이용한다.
우선 차량(C4)의 대상물 검출부(32)가 이동체(M)를 검출하면(스텝S161에서 "예"), 차량 관리 장치(3)의 정보 공유 차량 결정부(57)는 근방 차량 추출부(55)에 의해 추출된 차량(C) 중 정보 공유 차량을 결정한다. 그리고 정보 공유 차량으로 결정된 차량(C5),(C2)끼리 통신을 한다. 여기에서는, 차량(C5)에 관한 각종 데이터와 이동체(M)에 관한 각종 데이터가, 차량(C5)의 차량 탑재 장치(2)로부터 차량(C2)의 차량 탑재 장치(2)로 송신된다. 그리고 차량(C2)의 차량 탑재 장치(2)는, 검출된 이동체(M)의 수(i) 만큼 스텝S162∼스텝S172의 처리를 하는 루프로 들어간다. 도 26에는 하나의 이동체(M)만이 도시되어 있다.
그리고 i번째 이동체(M)가 차량(C2)과 아크(Ar)를 공유하고 있는 경우에는(스텝S163에서 "예"), 차량(C2)의 마주침 판정부(40)가 i번째 이동체(M)의 현재 위치와 아크(Ar)가 직교하는 점(P)의 위치를 산출한다(스텝S164). 스텝S163에서 "아니오"인 경우에는 다음의 이동체(M)에 관한 처리로 이행한다.
그리고 차량(C5)와 차량(C2)의 거리(d)가 소정 거리(ε)(예를 들면, ε=50m)보다 짧은 경우에는(스텝S165에서 "예"), j번째 차량(C2)의 마주침 판정부(40)가 j번째 차량(C4)과 아크(Ar)가 직교하는 점(Q)의 위치를 산출한다(스텝S166).
그리고 차량(C2)의 마주침 판정부(40)가 차량(C2)이 점(P)에 도달하는데 필요한 시간(tp)을 산출한다(스텝S167). 시간(tp)는, 하기 식(3)에 의해 산출된다.
tp=│Q-P│/ VC2-α …(3)
(α는 여유. 차량(C2)이 가속될 경우를 고려하여 차량(C2)이 점(P)에 약간 빨리 도달하는 것을 상정하고 있다.)
그리고 i번째 이동체(M)의 이동 속도(VM)가 거의 0(예를 들면, 시속 2km 이하)일 때에는(스텝S168에서 "예"), 마주침 판정부(40)는 이동체(M)의 현재 위치와 점(P)의 거리(dMP)가 조건식 (4)를 만족하는지 여부를 판정한다(스텝S169).
dMP<Vmax×tp …(4)
(Vmax는, 이동체(M)의 최대 속도이고, 이동체(M)의 종류마다 미리 기억부(23)에 기억되어 있다.)
거리(dMP)가 조건식 (4)를 만족하는 경우에는(스텝S169에서 "예"), 화상 데이터 생성부(41a)가 이동체(M)를 표시하는 화상 데이터를 생성함과 아울러 음성 데이터 생성부(41d)가 이동체(M)와의 마주침 가능성에 기초한 경보(감속 지시, 서행 지시 등)를 알리는 음성 데이터를 생성한다. 이들 데이터는, 표시 장치(20) 및 스피커(21)를 통해 운전자에게 통지된다(스텝S170).
거리(dMP)가 조건식 (4)을 만족하지 않는 경우에는(스텝S169에서 "아니오"), 화상 데이터 생성부(41a)가 이동체(M)를 표시하는 화상 데이터를 생성한다. 화상 데이터는 표시 장치(20)를 통해 운전자에게 통지된다(스텝S171).
또 스텝S168에서 "아니오"인 경우에는, 이동체(M)의 미래 위치인 점(Mf)을 산출한다(스텝S181). 이 점(Mf)의 산출은, 예를 들면 칼만 필터에 의한 이동체(M)의 위치 추정을 tP/Δt회(여기에서, Δt는 칼만 필터의 계산 싸이클 타임) 반복하여 실시함으로써 수행된다.
그리고 마주침 판정부(40)는, 점(M)과 점(Mf)을 잇는 선분(LMMf)과 아크(Ar)가 엇갈리는지 여부를 판정한다(스텝S182).
스텝S182에서 "예"인 경우에는, 화상 데이터 생성부(41a)가 이동체(M)를 표시하는 화상 데이터를 생성함과 아울러 음성 데이터 생성부(41d)가 이동체(M)와의 마주침 가능성에 기초한 경보(감속 지시, 서행 지시 등)를 알리는 음성 데이터를 생성한다. 이러한 데이터는 표시 장치(20) 및 스피커(21)를 통해 운전자에게 통지된다(스텝S183).
스텝S182에서 "아니오"인 경우에는, 화상 데이터 생성부(41a)가 이동체(M)를 표시하는 화상 데이터를 생성한다. 화상 데이터는 표시 장치(20)를 통해 운전자에게 통지된다(스텝S183).
이와 같이 이동체(M)의 이동 속도(VM)의 값에 의해 그 후의 처리를 바꾼 것은, 이하의 이유와 같다.
이동체(M)의 이동 속도(VM)가 거의 0인 경우에는, 이동체(M)의 그 후의 이동을 추정하기 어렵다. 따라서 차량(C2)의 차량 탑재 장치(2)는, 이동체(M)가 차량(C2)과 마주치는 방향으로 최고속 이동하는 것을 상정한 처리를 한다.
또 이동체(M)의 이동 속도(VM)가 어느 정도 빠른(제로는 아닌) 경우에는 이동체(M)의 그 후의 이동을 추정하기 쉽다. 따라서 차량(C2)의 차량 탑재 장치(2)는 상기 추정을 이용한 처리를 한다.
스텝S170, S171, S183, S184에서, 차량 탑재 장치(2)는 문자 정보에 의한 운전자로의 통지를 사용할 수도 있다.
또 차량(C2)의 후속 차량(C)이 있는 경우에는, 차량 관리 장치(3)의 정보 공유 차량 결정부(57)에 의해 결정된 정보 공유 차량마다 이러한 처리를 할 수도 있다.
제8 동작예를 단독 실시하는 경우에는 제5 내지 제7 동작예와 조합하여 실시하는 경우와 비교하여, 이동체(M)를 검출한 경우에만 근방 차량을 추출하면 되므로, 시스템의 처리 속도를 높일 수 있다.
이상, 본 발명의 실시형태에 대해서 설명했으나, 본 발명은 상기 각 실시형태에 한정되지 않으며 본 발명의 요지를 일탈하지 않는 범위에서 적절히 설계 변경 가능하다.
예를 들면, 차량 관리 장치(3)가 마주침 판정부를 구비하고 있는 구성이어도 좋다.
또 차량 관리 장치(3)의 구성 일부 또는 전부를, 각 차량의 차량 탑재 장치(2)에 조합한 구성이어도 좋고, 차량 탑재 장치(2)의 주제어부(30) 안의 구성 일부 또는 전부를 차량 관리 장치(3)에 조합한 구성이어도 좋다. 또 차량 위치 데이터 검출 수단은 GPS 수신기에 한정되지 않는다. 또 각종 데이터는 그것과 동일한 의미를 가진 물리량에 의한 데이터로 치환 가능하다.
또 촬상 영역의 설정이나, 근방 차량 추출 영역(EA)의 넓이는 적절히 설정 가능하다.
또 이동체(M)의 화상 대신에 이동체(M)를 나타내는 마크나 합성 화상을 표시 장치에 표시시키는 구성이어도 좋다.
또 그 차량의 카메라가 촬영한 화상에 다른 차량의 카메라가 촬영한 이동체 화상을 합성할 뿐만 아니라, 카 네비게이션 시스템에 의한 지도 화상에 다른 차량의 카메라가 촬영한 이동체 화상을 합성하는 구성이어도 좋다.
또 화상 데이터 생성부가 마주침 판정부의 판정 결과를 표시하기 위한 화상 데이터를 생성하여 출력하는 구성이어도 좋다. 또 문자 데이터 생성부 및 화상 데이터 생성부가 마주침 판정 결과를 표시하기 위한 문자 데이터 및 화상 데이터를 생성하여 문자 및 화상에 의해 마주침 판정 결과를 운전자에게 알리는 구성이어도 좋다.
또 로컬 맵 생성부(39) 등에 의한 각종 데이터의 추정(현재 데이터로의 변환)은 적절히 설정 가능하다.
본 발명의 차량간 통신 시스템에 따르면, 자기차량이 검출할 수 없었던 이동체의 존재를 운전자에게 알릴 수 있다는 등의 효과가 있다.
Claims (27)
- 삭제
- 차량끼리 통신을 하는 차량간 통신 시스템으로서,차량마다 마련된, 그 차량의 주위를 촬상하는 촬상 수단과,상기 촬상 수단에 의해 촬상된 화상으로부터 이동체를 검출하는 이동체 검출부와,차량마다 마련된, 화상을 표시하는 표시 수단과,상기 차량의 상기 표시 수단으로 출력하는 화상 데이터를 생성하는 화상 데이터 생성부와,차량마다 마련된, 데이터의 송수신을 행하는 송수신 수단을 구비하고,상기 화상 데이터 생성부는, 한 차량의 상기 촬상 수단에 의해 촬상된 이동체의 존재를 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 차량간 통신 시스템에 있어서,상기 차량의 위치에 관한 차량 위치 데이터를 검출하는 차량 위치 데이터 검출 수단과,상기 촬상 수단에 의해 촬상된 화상으로부터 상기 이동체의 위치에 관한 이동체 위치 데이터를 생성하는 이동체 위치 데이터 생성부를 더 구비하고,상기 화상 데이터 생성부는, 상기 이동체 위치 데이터에 기초하여 한 차량의 상기 촬상 수단에 의해 촬상된 상기 이동체의 존재를 대응하는 위치에 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 것을 특징으로 하는 차량간 통신 시스템.
- 제2항에 있어서, 상기 화상 데이터 생성부는, 상기 이동체의 화상을 합성되는 주위 화상에 맞추도록 보정하고, 상기 차량 위치 데이터와 상기 이동체 위치 데이터에 기초하여, 보정된 상기 이동체의 화상을 대응하는 위치에 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 것을 특징으로 하는 차량간 통신 시스템.
- 제2항에 있어서, 상기 화상 데이터 생성부는, 보정된 상기 이동체의 화상을 다른 차량의 상기 촬상 수단이 촬상한 화상에 있어서의 대응하는 위치에 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 것을 특징으로 하는 차량간 통신 시스템.
- 제2항 내지 제4항 중 어느 한 항에 있어서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부를 더 구비하는 것을 특징으로 하는 차량간 통신 시스템.
- 제5항에 있어서, 상기 정보 공유 차량 결정부는, 상기 촬상 수단의 촬상 영역에 기초하여 상기 촬상 영역이 겹쳐진 차량끼리 조합하는 것을 특징으로 하는 차 량간 통신 시스템.
- 제5항에 있어서, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부를 더 구비하고,상기 탐색 개시 판정부가 정보를 공유하는 차량의 탐색을 개시하는 것으로 판정한 경우에, 상기 정보 공유 차량 결정부가 정보를 공유하는 차량의 조합을 결정하는 것을 특징으로 하는 차량간 통신 시스템.
- 제7항에 있어서, 상기 탐색 개시 판정부는, 상기 차량의 상기 이동체 검출부가 이동체를 검출한 경우에 그 차량에 대한 정보 공유 차량의 탐색을 개시할 것인지 여부를 판정하고,상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 그 차량에 대한 정보 공유 차량의 탐색을 개시하는 것으로 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 하는 차량간 통신 시스템.
- 제8항에 있어서, 지도 데이터를 기억하는 기억부를 더 구비하고,상기 탐색 개시 판정부는, 상기 차량 위치 데이터와 상기 지도 데이터에 기초하여 상기 차량이 상기 지도 데이터에 있어서의 노드에 접근하고 있는지 여부를 판정하고,상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 상기 차량이 상기 노드에 접근하고 있다고 판정한 경우에 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 하는 차량간 통신 시스템.
- 제9항에 있어서, 상기 차량 근방에 위치하는 차량을 추출하는 근방 차량 추출부를 더 구비하고,상기 정보 공유 차량 결정부는, 상기 근방 차량 추출부에 의해 추출된 차량 중에서 정보를 공유하는 차량을 결정하는 것을 특징으로 하는 차량간 통신 시스템.
- 차량끼리 통신을 하는 차량간 통신 시스템으로서,차량마다 마련된, 그 차량의 주위를 촬상하는 촬상 수단과,상기 촬상 수단에 의해 촬상된 화상으로부터 이동체를 검출하는 이동체 검출부와,차량마다 마련된, 화상을 표시하는 표시 수단과,상기 차량의 상기 표시 수단으로 출력하는 화상 데이터를 생성하는 화상 데이터 생성부와,차량마다 마련된, 데이터의 송수신을 행하는 송수신 수단을 구비하고,상기 화상 데이터 생성부는, 한 차량의 상기 촬상 수단에 의해 촬상된 이동체의 존재를 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 차량간 통신 시스템에 있어서,음성을 발하는 발음 수단과,상기 차량의 상기 발음 수단으로 출력시키는 음성에 관한 음성 데이터를 생성하는 음성 데이터 생성부와,데이터의 송수신을 행하는 송수신 수단과,상기 차량의 위치에 관한 차량 위치 데이터를 검출하는 차량 위치 데이터 검출 수단과,상기 촬상 수단에 의해 촬상된 화상으로부터 상기 이동체의 위치에 관한 이동체 위치 데이터를 생성하는 이동체 위치 데이터 생성부를 더 구비하고,상기 음성 데이터 생성부는, 한 차량의 상기 촬상 수단에 의해 촬상된 이동체의 존재를 알리는 음성 데이터를 생성하여 다른 차량의 상기 발음 수단으로 출력하는 것을 특징으로 하는 차량간 통신 시스템.
- 제11항에 있어서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부를 더 구비하고,상기 정보 공유 차량 결정부는, 상기 촬상 수단의 촬상 영역에 기초하여 상기 촬상 영역이 겹쳐진 차량끼리 조합하는 것을 특징으로 하는 차량간 통신 시스템.
- 제11항에 있어서, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부를 더 구비하고,상기 탐색 개시 판정부가 정보를 공유하는 차량의 탐색을 개시하는 것으로 판정한 경우에, 상기 정보 공유 차량 결정부가 정보를 공유하는 차량의 조합을 결정하고, 상기 탐색 개시 판정부는 상기 차량의 상기 이동체 검출부가 이동체를 검출한 경우에, 그 차량에 대한 정보 공유 차량의 탐색을 개시할 것인지 여부를 판정하고, 상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 그 차량에 대한 정보 공유 차량의 탐색을 개시하는 것으로 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 하는 차량간 통신 시스템.
- 제11항에 있어서,정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부와, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부와, 지도 데이터를 기억하는 기억부와, 상기 차량의 근방에 위치하는 차량을 추출하는 근방 차량 추출부를 더 구비하고,상기 탐색 개시 판정부는, 상기 차량 위치 데이터와 상기 지도 데이터에 기초하여 상기 차량이 상기 지도 데이터에 있어서의 노드에 접근하고 있는지 여부를 판정하고,상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 상기 차량이 상기 노드에 접근하고 있다고 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하고, 상기 정보 공유 차량 결정부는, 상기 근방 차량 추출부에 의해 추출된 차량 중에서 정보를 공유하는 차량을 결정하는 것을 특징으로 하는 차량간 통신 시스템.
- 차량끼리 통신을 하는 차량간 통신 시스템으로서,차량마다 마련된, 그 차량의 주위를 촬상하는 촬상 수단과,상기 촬상 수단에 의해 촬상된 화상으로부터 이동체를 검출하는 이동체 검출부와,차량마다 마련된, 화상을 표시하는 표시 수단과,상기 차량의 상기 표시 수단으로 출력하는 화상 데이터를 생성하는 화상 데이터 생성부와,차량마다 마련된, 데이터의 송수신을 행하는 송수신 수단을 구비하고,상기 화상 데이터 생성부는, 한 차량의 상기 촬상 수단에 의해 촬상된 이동체의 존재를 표시하는 화상 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하는 차량간 통신 시스템에 있어서,상기 차량의 상기 표시 수단으로 출력하는 화상/문자 데이터를 생성하는 화상/문자 데이터 생성부와,한 차량의 상기 이동체 검출부에 의해 검출된 이동체와 다른 차량이 마주치는지 여부를 판정하는 마주침 판정부와,상기 차량의 위치에 관한 차량 위치 데이터를 검출하는 차량 위치 데이터 검출 수단과,상기 촬상 수단에 의해 촬상된 화상으로부터 상기 이동체의 위치에 관한 이동체 위치 데이터를 생성하는 이동체 위치 데이터 생성부를 구비하고,상기 화상/문자 데이터 생성부는, 마주침 판정부에 의해 생성된 판정 결과를 알리는 화상/문자 데이터를 생성하여 다른 차량의 상기 표시 수단으로 출력하고,상기 마주침 판정부는, 상기 차량 위치 데이터 검출 수단에 의해 검출된 차량 위치 데이터와, 상기 이동체 위치 데이터 생성부에 의해 생성된 상기 이동체 위치 데이터에 기초하여 마주침 판정을 하는 것을 특징으로 하는 차량간 통신 시스템.
- 제15항에 있어서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부를 더 구비하고,상기 정보 공유 차량 결정부는, 상기 촬상 수단의 촬상 영역에 기초하여 상기 촬상 영역이 겹쳐진 차량끼리 조합하는 것을 특징으로 하는 차량간 통신 시스템.
- 제15항에 있어서,정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부와, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부를 더 구비하고,상기 탐색 개시 판정부가 정보를 공유하는 차량의 탐색을 개시하는 것으로 판정한 경우에, 상기 정보 공유 차량 결정부가 정보를 공유하는 차량의 조합을 결정하고,상기 탐색 개시 판정부는, 상기 차량의 상기 이동체 검출부가 이동체를 검출한 경우에, 그 차량에 대한 정보 공유 차량의 탐색을 개시할 것인지 여부를 판정하고,상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 그 차량에 대한 정보 공유 차량의 탐색을 개시하는 것으로 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 하는 차량 통신 시스템.
- 제15항에 있어서,정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부와, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부와, 지도 데이터를 기억하는 기억부와, 상기 차량의 근방에 위치하는 차량을 추출하는 근방 차량 추출부를 더 구비하고,상기 탐색 개시 판정부는, 상기 차량 위치 데이터와 상기 지도 데이터에 기초하여 상기 차량이 상기 지도 데이터에 있어서의 노드에 접근하고 있는지 여부를 판정하고,상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 상기 차량이 상기 노드에 접근하고 있다고 판정한 경우에, 상기 근방 차량 추출부에 의해 추출된 차량 중에서 정보를 공유하는 차량을 결정하는 것을 특징으로 하는 차량간 통신 시스템.
- 제17항 또는 18항에 있어서, 차량 속도와 정지 거리의 관계를 기억하는 기억부를 더 구비하고,상기 탐색 개시 판정부는, 차량 속도에 따른 정지 거리에 기초하여 탐색 개시를 판정하는 것을 특징으로 하는 차량간 통신 시스템.
- 제19항에 있어서, 상기 정지 거리는, 주행 환경에 기초하여 보정되어 있는 것을 특징으로 하는 차량간 통신 시스템.
- 제11항에 있어서, 차량간 통신 시스템으로서,한 차량의 상기 이동체 검출부에 의해 검출된 이동체와 다른 차량이 마주치는지 여부를 판정하는 마주침 판정부를 더 구비하고,상기 음성 데이터 생성부는, 마주침 판정부에 의해 생성된 판정 결과를 알리는 음성 데이터를 생성하여 다른 차량의 상기 발음 수단으로 출력하고,상기 마주침 판정부는, 상기 차량 위치 데이터 검출 수단에 의해 검출된 차량 위치 데이터와, 상기 이동체 위치 데이터 생성부에 의해 생성된 상기 이동체 위치 데이터에 기초하여 마주침 판정을 하는 것을 특징으로 하는 차량간 통신 시스템.
- 제21항에 있어서, 정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부를 더 구비하고,상기 정보 공유 차량 결정부는, 상기 촬상 수단의 촬상 영역에 기초하여 상기 촬상 영역이 겹쳐진 차량끼리 조합하는 것을 특징으로 하는 차량간 통신 시스템.
- 제21항에 있어서,정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부와, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부를 더 구비하고,상기 탐색 개시 판정부가 정보를 공유하는 차량의 탐색을 개시하는 것으로 판정한 경우에, 상기 정보 공유 차량 결정부가 정보를 공유하는 차량의 조합을 결정하고,상기 탐색 개시 판정부는, 상기 차량의 상기 이동체 검출부가 이동체를 검출한 경우에 그 차량에 대한 정보 공유 차량의 탐색을 개시할 것인지 여부를 판정하고,상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 그 차량에 대한 정보 공유 차량의 탐색을 개시하는 것으로 판정한 경우에, 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 하는 차량간 통신 시스템.
- 제21항에 있어서,정보를 공유하는 차량의 조합을 결정하는 정보 공유 차량 결정부와, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부와, 지도 데이터를 기억하는 기억부와, 상기 차량의 근방에 위치하는 차량을 추출하는 근방 차량 추출부를 더 구비하고,상기 탐색 개시 판정부는, 상기 차량 위치 데이터와 상기 지도 데이터에 기초하여 상기 차량이 상기 지도 데이터에 있어서의 노드에 접근하고 있는지 여부를 판정하고,상기 정보 공유 차량 결정부는, 상기 탐색 개시 판정부가 상기 차량이 상기 노드에 접근하고 있다고 판정한 경우에 상기 근방 차량 추출부에 의해 추출된 차량 중에서 그 차량과 정보를 공유하는 차량을 결정하는 것을 특징으로 하는 차량간 통신 시스템.
- 제23항 또는 제24항에 있어서, 차량 속도와 정지 거리의 관계를 기억하는 기억부를 더 구비하고,상기 탐색 개시 판정부는, 차량 속도에 따른 정지 거리에 기초하여 탐색 개시를 판정하는 것을 특징으로 하는 차량간 통신 시스템.
- 제25항에 있어서, 상기 정지 거리는, 주행 환경에 기초하여 보정되어 있는 것을 특징으로 하는 차량간 통신 시스템.
- 제6항에 있어서, 정보를 공유하는 차량의 탐색을 개시할 것인지 여부를 판정하는 탐색 개시 판정부를 더 구비하고,상기 탐색 개시 판정부가 정보를 공유하는 차량의 탐색을 개시하는 것으로 판정한 경우에, 상기 정보 공유 차량 결정부가 정보를 공유하는 차량의 조합을 결정하는 것을 특징으로 하는 차량간 통신 시스템.
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPJP-P-2005-00105449 | 2005-03-31 | ||
JPJP-P-2005-00105451 | 2005-03-31 | ||
JP2005105450A JP4686235B2 (ja) | 2005-03-31 | 2005-03-31 | 車両間通信システム |
JPJP-P-2005-00105450 | 2005-03-31 | ||
JP2005105451A JP4686236B2 (ja) | 2005-03-31 | 2005-03-31 | 車両間通信システム |
JPJP-P-2005-00105448 | 2005-03-31 | ||
JP2005105449A JP4585356B2 (ja) | 2005-03-31 | 2005-03-31 | 車両間通信システム |
JP2005105448A JP4585355B2 (ja) | 2005-03-31 | 2005-03-31 | 車両間通信システム |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060106724A KR20060106724A (ko) | 2006-10-12 |
KR100885738B1 true KR100885738B1 (ko) | 2009-02-26 |
Family
ID=37071617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060028036A KR100885738B1 (ko) | 2005-03-31 | 2006-03-28 | 차량간 통신 시스템 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7778770B2 (ko) |
KR (1) | KR100885738B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726276B2 (en) | 2016-10-11 | 2020-07-28 | Samsung Electronics Co., Ltd. | Method for providing a sight securing image to vehicle, electronic apparatus and computer readable recording medium therefor |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080137910A1 (en) * | 2006-11-27 | 2008-06-12 | Hanae Suzuki | Locating method for locating a predetermined spot on a road and a locating apparatus using the method |
EP2124212B1 (en) * | 2008-05-20 | 2011-01-12 | C.R.F. Società Consortile per Azioni | Cooperative geolocation based on inter-vehicular communication |
US8885039B2 (en) * | 2008-07-25 | 2014-11-11 | Lg Electronics Inc. | Providing vehicle information |
US8761766B2 (en) * | 2008-10-30 | 2014-06-24 | Electronics And Telecommunications Research Institute | Method for transmitting and receiving broadcast service information and user equipment for broadcast service |
KR101594048B1 (ko) * | 2009-11-09 | 2016-02-15 | 삼성전자주식회사 | 카메라들의 협력을 이용하여 3차원 이미지를 생성하는 방법 및 상기 방법을 위한 장치 |
JP2011103080A (ja) * | 2009-11-11 | 2011-05-26 | Fuji Heavy Ind Ltd | 車両情報提示装置 |
JP5547144B2 (ja) * | 2011-09-08 | 2014-07-09 | 株式会社東芝 | 監視装置、その方法、及び、そのプログラム |
KR101307243B1 (ko) * | 2011-11-24 | 2013-11-13 | (주)모비루스 | 차량용 서비스 제공 장치 및 방법 |
US9518830B1 (en) | 2011-12-28 | 2016-12-13 | Intelligent Technologies International, Inc. | Vehicular navigation system updating based on object presence |
KR101477523B1 (ko) * | 2013-02-26 | 2014-12-30 | 남서울대학교 산학협력단 | 차량간 통신을 이용한 협력 영상기록 장치 및 그 방법 |
JP6156732B2 (ja) * | 2013-05-15 | 2017-07-05 | スズキ株式会社 | 歩車間通信システム |
US9262926B2 (en) * | 2013-05-20 | 2016-02-16 | Globalfoundries Inc. | Using pass code verification to organize a vehicle caravan |
KR101424740B1 (ko) * | 2013-05-31 | 2014-08-01 | 한국기술교육대학교 산학협력단 | 버디차량 간의 녹화영상 공유를 위한 블랙박스 장치 및 그 공유 방법 |
US9828011B2 (en) * | 2013-12-18 | 2017-11-28 | Thales Canada Inc | Communication system for guideway mounted vehicle and method of using the same |
WO2015190473A1 (ja) * | 2014-06-12 | 2015-12-17 | 本田技研工業株式会社 | 撮像画像交換システム、撮像装置、および撮像画像交換方法 |
TW201627182A (zh) * | 2015-01-22 | 2016-08-01 | 國立中央大學 | 車載資通訊系統、車輛及方法 |
US9832429B2 (en) | 2015-03-17 | 2017-11-28 | Continental Automotive Systems, Inc. | Shared vehicle camera |
KR101744724B1 (ko) * | 2015-03-19 | 2017-06-08 | 현대자동차주식회사 | 차량, 및 차량의 제어방법 |
CN106663375B (zh) * | 2015-05-29 | 2020-12-22 | 华为技术有限公司 | 交通信息更新方法及装置 |
US20170024621A1 (en) * | 2015-07-20 | 2017-01-26 | Dura Operating, Llc | Communication system for gathering and verifying information |
KR102228388B1 (ko) | 2015-10-15 | 2021-03-16 | 현대자동차주식회사 | 위치 정보를 공유하는 차량 제어 장치 및 방법 |
EP3489908B1 (en) | 2016-07-19 | 2024-09-25 | Panasonic Intellectual Property Corporation of America | Three-dimensional data generation method, three-dimensional data transmission method, three-dimensional data generation device, and three-dimensional data transmission device |
CN106303456B (zh) * | 2016-08-31 | 2019-07-30 | 苏州佳世达电通有限公司 | 一种防死角通讯方法及系统 |
KR101946940B1 (ko) | 2016-11-09 | 2019-02-12 | 엘지전자 주식회사 | 차량에 구비된 차량 제어 장치 및 차량의 제어방법 |
US11488477B2 (en) | 2017-02-22 | 2022-11-01 | Mitsubishi Electric Corporation | Driving assistance device, map transmission device, driving assistance program, map transmission program, and driving assistance system |
KR20220082968A (ko) * | 2020-12-10 | 2022-06-20 | 현대자동차주식회사 | 차량 운전자의 시야 보조 방법 및 그 보조 장치 |
WO2023194758A2 (en) | 2022-04-08 | 2023-10-12 | Commsignia Kft. | System, method, computer program product and computer readable medium for sharing and receiving a map-matching result |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001283381A (ja) * | 2000-03-30 | 2001-10-12 | Toshiba Corp | 車車間通信システム |
JP2004280645A (ja) | 2003-03-18 | 2004-10-07 | Fuji Photo Film Co Ltd | 車両通信装置 |
JP2005057348A (ja) | 2003-08-05 | 2005-03-03 | Fujitsu Ten Ltd | 車両間のコミュニケーション装置及びコミュニケーションシステム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0644498A (ja) | 1992-07-23 | 1994-02-18 | Mazda Motor Corp | 車両の情報伝達装置 |
US7610146B2 (en) * | 1997-10-22 | 2009-10-27 | Intelligent Technologies International, Inc. | Vehicle position determining system and method |
JP2000046574A (ja) | 1998-07-24 | 2000-02-18 | Honda Motor Co Ltd | 車両用ナビゲーション装置 |
JP4193266B2 (ja) | 1999-02-22 | 2008-12-10 | 株式会社エクォス・リサーチ | 周辺車両報知装置 |
JP2001101566A (ja) | 1999-09-30 | 2001-04-13 | Toshiba Corp | 交通安全確認システム |
JP2003006797A (ja) | 2001-06-21 | 2003-01-10 | Matsushita Electric Ind Co Ltd | 周辺画像表示装置及び画像配信方法 |
JP3895225B2 (ja) | 2002-07-10 | 2007-03-22 | 本田技研工業株式会社 | 車両用警告システム |
JP4003569B2 (ja) | 2002-07-22 | 2007-11-07 | 株式会社デンソー | 交差点事故防止装置及びプログラム |
JP2004118418A (ja) | 2002-09-25 | 2004-04-15 | Nissan Motor Co Ltd | 移動体接近報知装置 |
JP3924782B2 (ja) | 2002-11-18 | 2007-06-06 | マツダ株式会社 | 車両用情報提供装置 |
KR100920347B1 (ko) | 2002-12-04 | 2009-10-07 | 삼성전자주식회사 | 액정 표시 장치의 제조 방법 |
JP4294406B2 (ja) | 2003-05-09 | 2009-07-15 | 富士通テン株式会社 | 車両通信システム、車両通信方法、車載通信装置、車両通信管理装置および車両情報収集装置 |
JP3949628B2 (ja) | 2003-09-02 | 2007-07-25 | 本田技研工業株式会社 | 車両の周辺監視装置 |
-
2006
- 2006-03-02 US US11/365,914 patent/US7778770B2/en not_active Expired - Fee Related
- 2006-03-28 KR KR1020060028036A patent/KR100885738B1/ko not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001283381A (ja) * | 2000-03-30 | 2001-10-12 | Toshiba Corp | 車車間通信システム |
JP2004280645A (ja) | 2003-03-18 | 2004-10-07 | Fuji Photo Film Co Ltd | 車両通信装置 |
JP2005057348A (ja) | 2003-08-05 | 2005-03-03 | Fujitsu Ten Ltd | 車両間のコミュニケーション装置及びコミュニケーションシステム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726276B2 (en) | 2016-10-11 | 2020-07-28 | Samsung Electronics Co., Ltd. | Method for providing a sight securing image to vehicle, electronic apparatus and computer readable recording medium therefor |
Also Published As
Publication number | Publication date |
---|---|
US20060224301A1 (en) | 2006-10-05 |
KR20060106724A (ko) | 2006-10-12 |
US7778770B2 (en) | 2010-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100885738B1 (ko) | 차량간 통신 시스템 | |
CN108139202B (zh) | 图像处理装置、图像处理方法和程序 | |
CN110574357B (zh) | 成像控制设备、用于控制成像控制设备的方法以及移动体 | |
US20200001867A1 (en) | Vehicle control apparatus, vehicle control method, and program | |
US20170008531A1 (en) | Driving assistant for vehicles | |
CN105291984A (zh) | 一种基于多车协作的行人及车辆检测的方法及系统 | |
US10369995B2 (en) | Information processing device, information processing method, control device for vehicle, and control method for vehicle | |
JP6764573B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN111670572B (zh) | 校准装置、校准方法和计算机可读存储介质 | |
US11978261B2 (en) | Information processing apparatus and information processing method | |
JP2019093998A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP4686235B2 (ja) | 車両間通信システム | |
JP4686236B2 (ja) | 車両間通信システム | |
CN111587572A (zh) | 图像处理装置、图像处理方法和程序 | |
JP4585355B2 (ja) | 車両間通信システム | |
CN115195775A (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
CN114788257B (zh) | 信息处理装置、信息处理方法、程序、成像装置和成像系统 | |
JP4585356B2 (ja) | 車両間通信システム | |
WO2020195965A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2019094880A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
CN110217228B (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
CN112567726A (zh) | 信息处理设备,信息处理方法和程序 | |
CN115195750A (zh) | 控制装置、控制方法及存储介质 | |
CN112567427B (zh) | 图像处理装置、图像处理方法和程序 | |
US11438517B2 (en) | Recognition device, a recognition method, and a program that easily and accurately recognize a subject included in a captured image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120207 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130117 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |