KR20010112433A - 화상처리장치 및 감시시스템 - Google Patents

화상처리장치 및 감시시스템 Download PDF

Info

Publication number
KR20010112433A
KR20010112433A KR1020017013196A KR20017013196A KR20010112433A KR 20010112433 A KR20010112433 A KR 20010112433A KR 1020017013196 A KR1020017013196 A KR 1020017013196A KR 20017013196 A KR20017013196 A KR 20017013196A KR 20010112433 A KR20010112433 A KR 20010112433A
Authority
KR
South Korea
Prior art keywords
image
vehicle
camera
processing unit
image processing
Prior art date
Application number
KR1020017013196A
Other languages
English (en)
Inventor
오카모토슈사쿠
나카가와마사미치
노보리구니오
모리무라아츠시
Original Assignee
마츠시타 덴끼 산교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마츠시타 덴끼 산교 가부시키가이샤 filed Critical 마츠시타 덴끼 산교 가부시키가이샤
Publication of KR20010112433A publication Critical patent/KR20010112433A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing

Abstract

차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 이용하여, 차량의 위쪽의 가상시점에서 본 합성화상을 생성한다. 합성화상에 있어서 자신의 차량이 존재하는 차량영역에는 자신의 차량의 일러스트화상 또는 실제 화상을 표시한다. 또한, 어느 쪽의 카메라에서도 촬영할 수 없는 자신의 차량 주위의 영역은 사각영역으로서 표시한다.

Description

화상처리장치 및 감시시스템{IMAGE PROCESSING DEVICE AND MONITORING SYSTEM}
종래의 일반적인 감시시스템에서는 감시대상이 되는 부분을 1대 또는 복수대의 감시카메라로 촬영하여, 그 화상을 모니터에 표시하는 구성이 일반적이다. 이 경우, 통상은 설치된 카메라의 대수에 따라 모니터를 준비한다.
또한, 종래의 차량용 안전 감시시스템으로서는, 예를 들면 차량의 주위를 촬영하는 카메라를 설치하여, 카메라로 촬영한 화상을 운전석 가까이에 설치한 모니터에 표시시키는 것이 있다. 이 시스템에 의해 운전자는 차량후방과 같은 육안이나 미러로는 안전확인이 곤란한 장소를 모니터로 확인할 수 있다.
게다가, 일본 특허공보 제 2696516호에서는 기어나 차속에 따라서 모니터화면의 분할표시를 행하는 구성이 개시되어 있다. 구체적으로는, 차량이 정지·저속상태에 있다고 판정되었을 때는 모니터화면을 3분할하여, 차량의 좌우 및 아래쪽에 배치된 3개의 카메라의 촬상화상을 합성하여 재생하고, 차량이 전방주행상태에 있다고 판정되었을 때는 모니터화면을 2분할하여, 차량의 좌우에 배치된 2개의 카메라의 촬상화상을 합성하여 재생한다.
또한, 일본 특허공개공보 특개평 11-78692호에서는 차량용 영상제시장치로서, 조우한 장면마다 적확한 영상을 합성·표시하는 구성이 개시되어 있다. 구체적으로는, 후퇴차고 입고상태인가 전진차고 입고상태인가 종렬주차 상태인가 또는 투시도가 좋지 않은 교차점에 진입한 상태인가 등의 차량의 운전상태에 따라서 카메라화상의 변형·합성을 행한다.
그러나, 이러한 종래의 구성은 차량의 운전자 등과 같은 사용자에게 있어서 반드시 이용하기 쉬운 시스템이라고는 할 수 없다.
본 발명은 복수의 카메라에 의해서 촬상된 화상을 이용하여 합성화상을 생성하는 화상처리기술에 관한 것으로, 특히 차량운전시의 안전확인의 보조 등에 이용되는 감시시스템에 유효한 기술에 속한다.
도 1은 본 발명에 관한 감시시스템의 개념도
도 2는 카메라배치의 예를 나타내는 도면
도 3은 도 2의 각 카메라의 촬상화상의 예를 나타내는 도면
도 4는 가상시점과 실제 카메라와의 관계를 개념적으로 나타내는 도면
도 5는 생성된 합성화상의 예를 나타내는 도면
도 6은 매핑테이블을 이용한 화상합성동작을 나타내는 도면
도 7은 본 발명의 일실시예에 관한 감시시스템의 구성예를 나타내는 도면
도 8은 도 7의 화상합성부의 동작을 나타내는 플로우차트
도 9는 매핑테이블의 구성의 예를 나타내는 도면
도 10은 도 8의 화소합성 단계 S14를 상세히 나타내는 플로우차트
도 11은 카메라화상 이외의 화소데이터를 기술한 매핑데이터의 일례를 나타내는 도면
도 12는 8개의 카메라화상을 이용한 수직으로 내려다 본 화상의 예를 나타내는 도면
도 13은 4개의 카메라화상을 이용한 수직으로 내려다 본 화상의 예를 나타내는 도면
도 14는 2개의 카메라화상을 이용한 수직으로 내려다 본 화상의 예를 나타내는 도면
도 15는 비스듬히 내려다 본 화상의 예를 나타내는 도면
도 16은 전방 파노라마 모드의 파노라마 화상의 예를 나타내는 도면
도 17은 후방 파노라마 모드의 파노라마 화상의 예를 나타내는 도면
도 18은 비스듬히 내려다 본 화상과 파노라마 화상을 합친 화상의 예를 나타내는 도면
도 19는 차량의 주행상태에 따라서 가상시점의 높이를 변경한 경우의 합성화상의 예를 나타내는 도면
도 20은 차량의 주행상태에 따라서 가상시점의 시선의 방향을 변경한 경우의 합성화상의 예를 나타내는 도면
도 21은 차량의 조향각에 따라서 가상시점의 시선의 방향을 변경한 경우의 합성화상의 예를 나타내는 도면
도 22는 물체검출 센서의 출력신호에 따른 화상전환의 예를 나타내는 도면
도 23은 물체검출 센서의 출력신호에 따른 화상전환의 예를 나타내는 도면
도 24는 물체검출 센서의 출력신호에 따른 화상전환의 예를 나타내는 도면
도 25는 본 발명의 일실시예에 관한 감시시스템의 구성예를 나타내는 도면
도 26은 화상을 평행이동하는 경우의 매핑테이블의 절개를 나타내는 도면
도 27은 화상을 확대·축소하는 경우의 매핑테이블의 절개를 나타내는 도면
도 28은 매핑테이블을 직사각형 이외의 사변형으로 잘라내는 예를 나타내는도면
도 29는 카메라화상의 예를 나타내는 도면
도 30은 내려다 본 화상의 좌우에 비스듬히 후방을 찍는 카메라화상을 첩부한 합성화상의 예를 나타내는 도면
도 31은 좁은 범위를 나타내는 내려다 본 화상과 넓은 범위를 나타내는 내려다 본 화상을 나란히 표시한 예를 나타내는 도면
도 32는 내려다 본 화상의 주위에 비스듬하게 내려다 본 화상을 첩부한 예를 나타내는 도면
도 33은 내려다 본 화상의 주위에 유사원통 모델을 이용한 화상을 첩부한 예를 나타내는 도면
도 34는 내려다 본 화상의 주위에 파노라마 화상을 첩부한 예를 나타내는 도면
도 35는 내려다 본 화상의 주위에 비스듬하게 내려다 본 화상을 첩부하여, 4각에 공백부를 설치한 예를 나타내는 도면
도 36은 카메라화상과 함께 가상시점의 위치를 나타내는 화상을 표시한 예를 나타내는 도면
도 37은 카메라화상과 자신의 차량의 영사영역을 나타내는 마스크데이터의 예를 나타내는 도면
도 38은 자신의 차량의 화상을 슈퍼임포즈한 예를 나타내는 도면
도 39는 자신의 차량의 영사를 그대로 변환한 경우의 합성화상의 예를 나타내는 도면
도 40은 마스크데이터의 일부를 나타내는 도면
도 41은 차량영역과 사각영역이 나타난 합성화상의 예를 나타내는 도면
도 42는 사각영역을 찾아서, 차량의 화상을 첩부하는 경우의 매핑데이터의 생성순서를 나타내는 도면
도 43은 마스크데이터와 합성화상의 화소와의 관계를 나타내는 도면
도 44는 도 42의 순서의 결과 얻은 매핑데이터를 이용한 경우의 합성화상의 예를 나타내는 도면
도 45는 주의환기영역을 지정하는 경우의 매핑데이터의 생성순서를 나타내는 도면
도 46은 도 45의 순서의 결과 얻은 매핑데이터를 이용한 경우의 합성화상의예를 나타내는 도면
도 47은 기하변환을 설명하기 위한 도면
도 48은 기하변환을 설명하기 위한 도면
도 49는 기하변환을 설명하기 위한 도면
도 50은 기하변환을 설명하기 위한 도면
본 발명은 화상처리장치 또는 감시시스템으로서 차량의 운전자 등의 사용자의 편리성을 종래보다도 더욱 향상시키는 것을 목적으로 한다.
구체적으로는, 본 발명은 화상처리장치로서 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 가상시점에서 본 합성화상을 생성하는 화상처리부를 구비하고, 상기 화상처리부는 상기 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 상기 차량의 주행상태에 따라서 변경하는 것이다.
그리고, 상기 화상처리부는 상기 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 상기 차량의 주행속도에 따라서 변경하는 것이 바람직하다.
또한, 상기 화상처리부는 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나의 변경과 함께, 변경 후의 가상시점의 시야범위외 화상의 도입을 제어하는 것이 바람직하다. 게다가, 변경 후의 가상시점의 시야범위외 화상의 도입의 제어를, 화상합성을 위한 모델을 변경함으로써 행하는 것이 바람직하다.
또한, 상기 화상처리부는 상기 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 상기 차량의 조향각에 따라서 변경하는 것이 바람직하다.
또한, 상기 화상처리부는 상기 가상시점의 위치, 시선의 방향 및 초점거리 중 적어도 어느 하나를 상기 차량이 구비하고 있는 물체검출 센서에 의한 검출결과에 따라서 변경하는 것이 바람직하다.
또한, 상기 화상처리부는 소스 매핑테이블을 갖고, 이 소스 매핑테이블로부터 잘라낸 매핑테이블을 이용하여 합성화상의 생성을 행하는 것이며, 또한 상기 소스 매핑테이블로부터 잘라내는 매핑테이블을 변경함으로써, 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 변경하는 것이 바람직하다.
또한, 본 발명은 화상처리장치로서 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 가상시점에서 본 합성화상을 생성하는 화상처리부를 구비하고, 상기 화상처리부는 상기 차량의 주행상태에 따라서 상기 가상시점의 시야범위외 화상의 도입을 제어하는 것이다.
또한, 본 발명은 감시시스템으로서 차량의 주위를 촬영하는 복수의 카메라와, 상기 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 가상시점에서 본 합성화상을 생성하는 화상처리부와, 상기 합성화상을 표시하는 표시부를 구비하고, 상기 화상처리부는 상기 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 상기 차량의 주행상태에 따라서 변경하는 것이다.
또한, 구체적으로는 본 발명은 화상처리장치로서 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부를 구비하고, 상기 화상처리부는 가상시점에서 본 제 1 화상과, 상기 제 1 화상의 가상시점과 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나가 다른 시점에서 본, 또는 상기 제 1 화상과 모델이 다른 제 2 화상을 포함하는 화상을 상기 합성화상으로서 생성하는 것이다.
그리고, 상기 제 2 화상은 상기 카메라화상의 적어도 하나인 것이 바람직하다.
또한, 상기 제 1 화상은 자신의 차량 및 그 주변을 나타내는 근방화상이고, 상기 제 2 화상은 상기 근방화상이 나타내는 자신의 차량의 주변영역보다도 먼 쪽의 영역을 나타내는 원방화상인 것이 바람직하다. 그리고, 상기 화상처리부는 상기 합성화상에 있어서 상기 근방화상의 주위에 상기 원방화상을 배치하는 것이 바람직하다. 나아가서는 상기 원방화상은 상기 근방화상과 연속성을 갖는 화상인 것이 바람직하다.
또한, 상기 제 1 화상은 자신의 차량의 적어도 일부와 자신의 차량의 주위의 적어도 일부를 나타내는 화상이고, 상기 제 2 화상은 상기 제 1 화상이 나타내는 영역의 적어도 일부를 확대한 화상인 것이 바람직하다.
또한, 본 발명은 감시시스템으로서 차량의 주위를 촬영하는 복수의 카메라와, 상기 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부와, 상기 합성화상을 표시하는 표시부를 구비하고, 상기 화상처리부는 가상시점에서 본 제 1 화상과, 상기 제 1 화상의 가상시점과 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나가 다른 시점에서 본, 또는 상기 제 1 화상과 모델이 다른 제 2 화상을 포함하는 화상을 상기 합성화상으로서 생성하는 것이다.
또한, 구체적으로는 본 발명은 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부를 구비하고, 상기 화상처리부는 상기 합성화상에 있어서 자신의 차량이 존재하는 차량영역의 적어도 일부와, 자신의 차량의 주위의 적어도 일부를 나타내어 주의를 환기하기 위한 주의환기영역을 표시하는 것이다.
그리고, 상기 합성화상은 상기 차량의 위쪽에 설정된 가상시점에서 본 화상인 것이 바람직하다.
또한, 상기 화상처리부는 상기 차량영역에 자신의 차량의 일러스트화상 또는 실제 화상을 표시하는 것이 바람직하다.
또한, 상기 주의환기영역은 어떠한 카메라에서도 촬영하지 못하는 차량주위의 사각영역의 적어도 일부를 포함하는 것이 바람직하다. 또는, 상기 주의환기영역은 어떠한 카메라에서도 촬영하지 못하는 차량주위의 사각영역에 상당하는 영역인 것이 바람직하다. 그리고, 상기 화상처리부는 각 카메라화상에서의 자신의 차량의 영사영역을 나타내는 영역데이터를 이용하여, 상기 사각영역 및 차량영역을 합친영역의 범위를 결정하는 것이 바람직하다.
또한, 본 발명은 감시시스템으로서 차량의 주위를 촬영하는 복수의 카메라와, 상기 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부와, 상기 합성화상을 표시하는 표시부를 구비하고, 상기 화상처리부는 상기 합성화상에 있어서 자신의 차량이 존재하는 차량영역의 적어도 일부와, 자신의 차량의 주위의 적어도 일부를 나타내어 주의를 환기하기 위한 주의환기영역을 표시하는 것이다.
또한, 구체적으로는 본 발명은 화상처리장치로서 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부를 구비하고, 상기 화상처리부는 합성화상의 화소와 카메라화상의 화소와의 대응관계를 기술하는 제 1 매핑데이터와, 합성화상의 화소와 카메라화상 이외의 화소데이터가 대응하는 것을 나타내는 식별자를 기술하는 제 2 매핑데이터를 갖는 매핑테이블을 이용하여, 상기 합성화상을 생성하는 것이다.
그리고, 상기 카메라화상 이외의 화소데이터는 상기 차량 또는 상기 차량의 주위의 적어도 일부에 있는 사각영역을 나타내는 것이 바람직하다.
또한, 상기 화상처리부는 카메라화상 이외의 소정의 화상을 기억하고 있고, 상기 제 2 매핑데이터는 합성화상의 화소에 대하여, 당해 화소에 대응하는 기억된 상기 소정의 화상에서의 좌표값을 기술하는 것이 바람직하다.
또한, 상기 제 2 매핑데이터는 합성화상의 화소에 대응하는 화소데이터를 기술하는 것이 바람직하다.
또한, 본 발명은 화상처리장치로서 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부를 구비하고, 상기 화상처리부는 합성화상의 화소와, 카메라화상의 화소데이터 및 카메라화상 이외의 화소데이터 중의 한쪽 또는 양쪽으로 이루어지는 복수의 화소데이터와의 대응관계를 기술하고, 또한, 각 화소데이터에 대하여 각각 필요도를 기술한 매핑테이터를 이용하여, 각 화소데이터에 대하여 필요도에 따른 가중을 행하고, 상기 합성화상의 화소의 화소데이터를 생성하는 것이다.
또한, 본 발명은 화상처리장치로서 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부를 구비하고, 상기 화상처리부는 소스 매핑테이블을 갖고, 이 소스 매핑테이블로부터 합성화상의 화소와 카메라화상의 화소와의 대응관계를 기술하는 매핑테이블을 잘라내고, 잘라낸 매핑테이블을 이용하여, 합성화상을 생성하는 것이다.
도 1은 본 발명에 관한 감시시스템의 개념도이다. 도 1에 나타내는 감시시스템에 있어서, 화상처리부(2)는 촬상부(1)로부터 출력된 복수의 카메라화상을 입력으로 하고, 이들을 합성하여, 가상시점에서 보았을 때의 합성화상을 생성한다. 이 합성화상은, 예를 들면 액정 디스플레이와 같은 표시부(3)에 의해서 표시된다. 화상처리부(2)에 의해서 본 발명에 관한 화상처리장치가 구성된다.
여기서의 설명에서는 본 감시시스템은 차량에 탑재되는 것으로 하고, 주차시의 어시스트 등의 용도로서 이용되는 것으로 한다.
도 2는 카메라 배치의 예, 도 3은 도 2와 같이 배치된 각 카메라의 촬상화상의 예이다. 도 2에 나타내는 바와 같이, 여기서는 5대의 카메라가 차량의 도어미러부근, 후방 필러부근 및 후부 트렁크 위에 각각 배치되어 있다. 화상처리부(2)는 도 3에 나타내는 5장의 카메라화상으로부터 가상시점에서 보았을 때의 합성화상을 생성한다.
가상시점은 컴퓨터 그래픽스의 영상생성에서의 카메라 배치의 경우와 마찬가지로, 3차원 공간의 임의의 위치에 임의의 방향을 향하여 설정할 수 있다. 가상시점을 결정하는 파라미터는 3차원 공간에서의 가상시점의 위치를 나타내는 좌표(X좌표, Y좌표, Z좌표)와, 그 방향을 나타내는 3개의 각도, 즉 방위각(수평회전), 앙각(경사) 및 트위스트(Twist)(광축주위의 회전)와, 시야범위를 정하는 초점거리로 이루어진다. 초점거리는 가상시점과 합성화상을 생성하는 투영면과의 거리로, 작을 때는 광각의 화상이 되고, 클 때는 망원의 화상이 된다. 실제의 카메라 등에서는 투영면의 필름의 크기(35㎜)로 환산하였을 때의 거리(㎜)로 나타내는 경우가 많지만, 본 명세서에서는 합성화상의 크기를 화소로 나타내고 있기 때문에, 초점거리도 화소로 생각한다.
이 가상시점의 위치, 방향 및 초점거리를 상황에 따라 선택함으로써, 적절한 합성화상을 생성하는 것이 가능하다.
도 4는 가상시점과 실제 카메라와의 관계를 개념적으로 나타내는 도면이다. 도 4에서는 가상시점은 차량의 위쪽에 설정되어 있다. 도 5는 생성된 합성화상의 예이고, 도 4에 나타내는 가상시점에서 본 차량 및 그 부근을 나타내는 화상이 생성되어 있다.
본 실시예에서는, 화상처리부(2)는 복수의 카메라화상으로부터 합성화상을 생성하기 위해서 매핑테이블(4)을 이용한다. 여기서, 「매핑테이블」이란 합성화상의 화소와 각 카메라화상의 화소데이터의 대응관계가 기술된 테이블을 말한다. 또, 후술하는 바와 같이, 매핑테이블에는 합성화상의 화소와 카메라화상 이외의 화소데이터의 대응관계도 기술가능하다.
<매핑테이블의 원리설명>
이하, 매핑테이블을 이용하여 복수의 카메라화상으로부터 합성화상을 생성하는 동작에 대해서 설명한다.
도 6은 이 동작의 개요를 설명하기 위한 도면이다. 도 6(a)∼(c)는 서로 다른 위치에 장착된 3대의 카메라(도 2에서의 카메라 3, 카메라 1 및 카메라 2에 각각 대응한다)의 촬상화상이다. 도 6(d)는 도 6(a)∼(c)의 각 카메라화상으로부터 합성화상을 생성하기 위해서 이용하는 매핑테이블이다. 화상처리부(2)는 도 6(a)∼(c)의 3장의 카메라화상으로부터, 도 6(d)의 매핑테이블의 정보를 기초로 하여, 도 6(e)에 나타내는 1장의 합성화상을 생성하는 것으로 한다.
도 6(d)에 나타내는 매핑테이블은 도 6(e)에 나타내는 합성화상의 각 화소에 대해서 각각 매핑데이터를 갖고 있다. 각 매핑데이터는 대응하는 합성화상의 화소가 어떤 카메라화상의 화소에 의해서 생성되는가라는 정보를 기술한다.
합성화상을 생성한다는 것은 합성화상의 모든 화소의 값을 결정한다는 것이다. 여기서는, 화상처리부(2)는 좌측 위로부터 순차 래스터순으로 합성화상의 화소의 값을 결정하는 것으로 하고, 그 도중에 화소 P1의 값을 결정하는 경우를 예로 들어 그 동작을 설명한다.
우선, 합성화상의 화소 P1에 대응하는 매핑데이터 MP1을 참조한다. 매핑데이터 MP1에는 대응하는 카메라번호와, 그 카메라화상이 대응하는 화소의 좌표가 기술되어 있다. 지금 매핑데이터 MP1에는 카메라번호로서 「1」, X좌표로서 「340」, Y좌표로서 「121」이 기술되어 있다.
화상처리부(2)는 매핑데이터 MP1의 기술내용에 따라서, 도 6(b)에 나타내는카메라 1의 촬상화상의 좌표(340, 121)의 화소데이터 C1을 참조하고, 화소데이터 C1의 값으로부터 합성화상의 화소 P1의 값을 결정한다. 여기서는, 가장 간단한 결정방법으로서 화소데이터 C1의 값을 그대로 화소 P1의 값으로 한다. 동일한 방법에 의해서 합성화상의 각 화소에 대해서 값을 결정함으로써, 도 6(e)에 나타내는 바와 같은 합성화상이 생성된다.
예를 들면, 합성화상의 화소 P2에 대응하는 매핑데이터 MP2는 도 6(c)에 나타내는 카메라 2의 촬상화상의 화소데이터 C2를 나타내고 있기 때문에, 화소 P2의 값으로서 화소데이터 C2의 값이 부여된다. 마찬가지로, 합성화상의 화소 P3에 대응하는 매핑데이터 MP3는 도 6(a)에 나타내는 카메라 3의 촬상화상의 화소데이터 C3을 나타내고 있기 때문에, 화소 P3의 값으로서 화소데이터 C3의 값이 부여된다. 도 6(d)의 매핑테이블에 있어서, 영역 R1은 카메라 1에 대응하고, 영역 R2는 카메라 2에 대응하며, 영역 R3은 카메라 3에 대응한다.
각 카메라에 대응하는 3개의 영역 R1∼R3 이외의 영역 R4는 각 카메라의 촬영영역 이외이거나, 자신의 차량에 의해서 숨어 있는 사각임으로써, 대응하는 카메라화상이 존재하지 않는 영역이다. 예를 들면, 합성화상의 화소 P4는 그러한 영역 R4의 화소이다. 이 경우, 화소 P4에 대응하는 매핑데이터 MP4의 카메라번호에는 대응하는 카메라화상이 존재하지 않는 것을 나타내는 특정의 카메라번호(여기서는 「-1」이라고 한다)를 기술해 둔다. 그리고, 카메라번호 「-1」일 때, 대응하는 화소 P4에는 촬영영역외나 사각인 것을 나타내는 소정의 화소데이터를 설정한다. 여기서는, 소정의 화소데이터로서 흑색을 설정한다.
도 6의 예에서는 매핑테이블은 차량 위쪽의 가상시점에서 차량의 주위를 내려다 보는 듯한 합성화상이 생성가능하도록 구성되어 있다. 이러한 매핑테이블은 후술하는 바와 같이, 이른바 노면평면 모델을 전제로 한 기하변환을 이용하여 작성하는 것이 가능하다. 또는, 합성화상을 보며 시행착오하면서 작성하여도 상관없다.
실제로는 매핑테이블을 이용함으로써, 합성화상과 카메라화상의 화소데이터의 대응관계를 용도에 따라서 자유롭게 설정할 수 있다. 예를 들면, 카메라화상의 임의의 영역을 확대 또는 축소하여 카메라화상의 일부에 합성하거나, 복수의 카메라화상을 나열하여 합성하는 등, 임의의 합성화상을 생성할 수 있다.
그리고, 어떠한 합성화상을 생성하는 매핑테이블이라도 화상처리부(2)는 합성화상 각 화소에 대해서 매핑데이터의 참조, 지정된 카메라화상의 화소데이터의 참조, 합성화상의 화소값의 설정을 행하는 단계를 실행하는 것만으로 끝나기 때문에, 그 처리량은 화상합성을 그 때마다 연산에 의해서 실행하는 경우에 비교하여 현격히 작아진다. 이 때문에, 본 방식은 합성화상의 종류에 관계없이 처리량이 일정해지고, 또한 고속처리가 가능하기 때문에, 실시간으로 일정시간에 처리를 끝낼 필요가 있는 감시나 운전보조 등의 용도에 대하여 특히 적합하다.
(합성화상 생성동작의 제 1 예)
도 7은 본 실시예에 관한 감시시스템의 구성예를 나타내는 도면이다. 도 7에 있어서 화상처리부(2)는 화상합성부(200), 표시패턴 기억부(210) 및 표시패턴 설정부(220)를 구비하고 있다. 표시패턴 기억부(210)는 상술한 바와 같은 매핑테이블을 복수개 기억하는 매핑테이블 기억부(211)를 갖고 있다. 표시패턴 설정부(220)는 매핑테이블 기억부(211)에 저장된 매핑테이블로부터, 생성하는 합성화상의 표시패턴에 따라서 1개의 매핑테이블 MPT를 선택하여, 화상합성부(200)의 매핑테이블 참조부(202)에 설정한다.
또한, 표시패턴 기억부(210)는 다양한 일러스트화상을 기억하는 일러스트 기억부(212)를 갖고 있다. 표시패턴 설정부(220)는 합성화상의 생성에 필요한 일러스트화상을 일러스트화상 기억부(212)로부터 판독하여, 화상합성부(200)의 일러스트 참조부(203)에 설정한다. 여기서는, 자신의 차량을 나타내는 일러스트화상이 설정되는 것으로 한다.
화상합성부(200)는 매핑테이블 참조부(202)에 설정된 매핑테이블 MPT에 따라서 촬상부(1)로부터 출력된 카메라화상을 이용하여, 합성화상을 생성한다. 타이밍 생성부(205)는 합성화상의 동화상계열을 생성하기 위한 타이밍신호를 생성한다.
각 카메라(101)에는 한쌍의 프레임 메모리(102a, 102b)가 설치되어 있다. 여기서는 각 카메라(101)는 CCD 타입으로 한다. 카메라가 CMOS 타입인 경우에는 카메라에 프레임 메모리의 기능을 갖게 하는 것도 가능하여, 이 경우는 프레임 메모리를 생략할 수 있다.
도 8은 합성화상의 1 프레임을 생성할 때의 화상합성부(200)의 동작을 나타내는 플로우차트이다.
우선, 타이밍 생성부(205)로부터 출력된 프레임개시의 타이밍신호에 따라서, 촬상부(1)는 각 카메라(101)가 촬영한 화상을 기입하는 프레임 메모리(102a)와, 화상합성부(200)로부터 참조되는 프레임 메모리(102b)를 전환한다(단계 S11). 여기서, 각 카메라(101)에 대하여 프레임 메모리를 2개 설치하여 전환하도록 한 것은 후술하는 바와 같이, 화상합성부(200)는 카메라화상의 화소데이터를 카메라(101)로부터의 기입 순서와는 관계없이, 매핑테이블 MPT에 따라서 드문드문 참조하기 때문에, 기입과 참조가 서로 간섭받지 않도록 하기 위해서이다.
다음으로, 타이밍 생성부(205)는 합성처리를 행하는 화소를 매핑테이블 참조부(202)에 지정하기 위한 타이밍신호를 생성한다(단계 S12). 매핑테이블 참조부(202)는 매핑테이블 MPT로부터 지정된 화소에 대응하는 매핑데이터를 판독하여, 화소합성부(201)에 출력한다(단계 S13).
화소합성부(201)는 입력된 매핑데이터의 내용에 따라서 프레임 메모리(102)에 저장된 각 카메라화상의 화소데이터나, 일러스트 참조부(203)에 저장된 일러스트화상의 화소데이터 등을 이용하여, 지정된 합성화상의 화소의 값을 생성하고, 영상신호 생성부(204)에 출력한다(단계 S14). 이 단계 S14의 처리는 후에 상술한다.
영상신호 생성부(204)는 타이밍 생성부(205)로부터 출력된 타이밍신호에 따라서 입력된 합성화상의 화소값을 영상신호로 변환하여, 표시부(3)에 출력한다(단계 S15).
화상합성부(200)는 프레임의 전체 화소에 대해서 단계 S12∼S15의 처리를 실행한다(단계 S16, S17). 타이밍 생성부(205)는 프레임의 최종화소의 처리가 끝나면 다음의 프레임의 처리를 개시한다.
또, 필드단위로도 동일한 처리를 실행할 수 있다.
도 9는 매핑테이블의 구성의 예를 나타내는 도면이다. 도 9에 나타내는 매핑테이블은 4종류의 매핑데이터 MP11∼MP14를 갖고 있다. 각 매핑데이터의 구성은 기본적으로는 도 6에 나타내는 매핑데이터와 동일하지만, 카메라번호 및 x, y좌표에 더하여, 그 화소값의 필요도가 기술되어 있다. 여기서는, 「필요도」는 0에서 1까지의 값에 의해 나타나 있고, 값이 클수록 그 화소값의 필요도는 높은 것으로 한다.
매핑데이터 MP11은 합성화상의 화소와 1개의 카메라화상의 화소데이터의 대응관계를 기술한 것이다. 이 경우, 필요도는 「1」이 된다. 또한, 매핑데이터 MP12는 합성화상의 화소와 복수의 카메라화상의 화소데이터의 대응관계를 기술한 것이다. 이 경우는, 합성화상의 화소값은 카메라화상의 화소데이터에 대하여, 그 필요도에 따른 가중을 행한 뒤에 생성한다.
매핑데이터 MP13은 합성화상의 화소에 일러스트화상의 화소데이터를 첩부하기 위해서 이용되는 것이다. 즉, 일러스트 참조부(203)에 저장된 일러스트화상을 인식할 있도록 일러스트 참조부(203)에 카메라번호로서, 어떠한 실제 카메라에도 대응하지 않는 번호(여기서는 「99」)를 할당한다.
매핑데이터 MP14는 합성화상의 화소가, 이른바 사각영역에 해당하는 것을 나타내는 것이다. 즉, 매핑테이블을 생성할 때에, 합성화상의 화소를 생성하기 위해서 참조하는 카메라화상의 화소의 좌표값을 계산한 결과, 그 좌표값의 화소가, 예를 들면 차량자체를 찍고 있는 경우에는 그 합성화상의 화소는 차량영역과 사각영역을 합친 영역에 해당한다. 이 영역으로부터 차량영역을 제외한 것이 사각영역이 된다. 이 때문에, 예를 들면 카메라번호나 x, y좌표에 실재하지 않는 값을 부여함으로써, 사각영역임을 나타낸다. 여기서는, 카메라번호로서 「-1」을 부여하는 것으로 한다.
도 10은 화소합성단계 S14의 상세한 처리의 흐름을 나타내는 플로우차트이다.
우선, 합성하는 화소의 값을 「0」으로 초기화한다(단계 S21).
다음에, 합성하는 화소에 대응하는 매핑데이터로부터 카메라번호, x, y좌표 및 필요도를 판독한다(단계 S22).
단계 S22에 있어서, 판독한 카메라번호가 일러스트화상을 나타내는 식별번호 「99」일 때(즉 매핑데이터 MP13의 경우), 단계 S24로 진행하고, 일러스트 참조부(203)에 저장된 일러스트화상의 지정된 x, y좌표의 화소데이터를 판독하고 유지한다. 그리고, 단계 S28로 진행한다. 한편, 카메라번호가 「99」가 아닐 때는 단계 S25로 진행한다.
단계 S25에 있어서, 판독한 카메라번호가 사각영역을 나타내는 식별번호 「-1」일 때(즉 매핑데이터 MP14의 경우), 단계 S26으로 진행하고, 미리 설정된 사각영역을 나타내는 화소데이터를 유지한다. 그리고, 단계 S28로 진행한다. 한편, 카메라번호가 「-1」이 아닐 때는 단계 S27로 진행한다.
단계 S27에 있어서, 카메라번호가 「99」「-1」이외의 경우, 즉 일러스트화상을 첩부하는 영역도 사각영역도 아니라고 판단되는 경우는, 이 카메라번호는 실제의 카메라를 나타내는 번호로서, 대응하는 카메라번호의 프레임 메모리(102)에 저장된 카메라화상으로부터 지정된 x, y좌표의 화소데이터를 판독하고 유지한다.
단계 S28에 있어서, 유지한 화소데이터에 그 필요도에 따라 가중을 행하고, 합성화상의 화소값에 가산한다. 매핑데이터에 기술된 모든 카메라번호에 대해서 단계 S22∼S28의 처리를 반복한다(단계 S29, S30). 모든 카메라번호에 대해서 처리가 종료되면 화소합성부(201)는 합성하는 화소의 값을 출력한다(단계 S31).
예를 들면, 도 9에 나타내는 매핑데이터 MP12의 경우에는 합성화상의 화소값은 다음 식에 의해서 구해진다.
합성화상의 화소값
=(카메라 2의 좌표 (10, 10)의 화소값 ×0.3
+카메라 3의 좌표 (56, 80)의 화소값 ×0.5) / (0.3+0.5)
여기서, 필요도의 합 (0.3+0.5)로 나누는 것은 화소값을 정규화하기 위해서이다.
이상과 같은 동작에 의해서 복수의 카메라화상을 혼합한 합성화상이나, 일러스트화상을 포함하는 합성화상을 용이하게 생성할 수 있다. 또한, 카메라화상과 일러스트화상을 필요도에 따라 가중함으로써, 실제 화상 위에 일러스트화상을 반투명하게 표시하는 합성화상도 생성할 수 있다. 또는, 카메라화상 이외의 화소데이터끼리 필요도에 따라 가중함으로써, 일러스트화상끼리 반투명하게 표시하는 합성화상도 생성할 수 있다.
또한, 일러스트화상으로서는 자신의 차량의 일러스트나 화상 이외에도, 예를 들면 화상의 스케일이나 지표 등과 같은 화면상에서 고정된 형상을 갖는 것을 부여하는 것이 가능하다.
또, 여기서의 설명에서는, 일러스트화상을 참조하기 위한 카메라번호(「99」)와, 사각영역임을 나타내는 카메라번호(「-1」)를 개별적으로 설정하는 것으로 하였지만, 사각영역을 나타내는 화상을 일러스트 참조부(203)에 저장해 놓으면 일러스트화상을 참조하는 경우와 사각영역을 나타내는 경우에, 같은 카메라번호(「99」)를 이용하는 것이 가능하게 된다. 이 경우에는, 예를 들면 차량을 나타내는 일러스트화상과 사각영역을 나타내는 화상을 합쳐 일러스트 참조부(203)에 저장해 놓는 것도 가능하게 된다.
또한, 표시패턴 설정부(220)는 표시모드의 지정에 따라서 표시패턴을 변경하는 경우에는, 새로운 표시패턴에 따른 매핑테이블을 매핑테이블 기억부(211)로부터 판독하여, 매핑테이블 참조부(202)에 설정하면 된다. 또는, 복수의 매핑테이블을 합성하여, 새로운 매핑테이블을 생성하여도 된다.
또한, 여기서는 도 9에 나타내는 매핑데이터 MP13과 같이, 일러스트화상을 표시하기 위해서 일러스트 참조부(203)의 X, Y좌표값을 기술하는 것으로 하였지만, 이 대신에, 일러스트화상의 화소데이터 자체를 매핑데이터에 기술하는 것도 가능하다.
도 11은 이러한 경우의 매핑데이터의 일례이다. 도 11의 매핑데이터 MP15는 카메라번호가 「99」일 때, 즉 일러스트화상을 표시시킬 때, X좌표, Y좌표를 기억하는 영역에 일러스트화상의 화소데이터 자체를 그대로 적색(R), 녹색(G), 청색(B)의 값으로 기억한다.
예를 들면, X좌표, Y좌표를 각각 16비트로 표현하는 것으로 하면, 그 영역은 32비트의 크기가 된다. 한편, 일러스트화상의 화상데이터를 R, G, B 각색 8비트로표현하는 것으로 한다면 전부 24비트가 되기 때문에, 그 상위 8비트에 "0"을 부가하고 32비트의 데이터로서 좌표영역에 기억한다. 이 경우, 도 10의 단계 S24에서는 일러스트 참조부(203)를 참조하는 대신에, 매핑데이터 MP15에 기술된 R, G, B값을 판독하고 유지한다.
이 경우에는, 매핑테이블과 일러스트화상은 일체가 되어, 일러스트 참조부(203)는 불필요하게 된다. 또한, 매핑데이터로부터 X, Y좌표값을 판독하여 대응하는 일러스트화상의 화소데이터를 판독하는 것이 아니라, 매핑데이터로부터 직접 R, G, B값을 판독하기 때문에, 처리의 순서가 1단계 생략된다.
또한, 자신의 차량의 일러스트화상을 표시하는 등의 경우에는 통상은 필요도를 1.0으로 하는 경우가 많지만, 도 11의 예와 같이 일러스트화상의 필요도를 1.0보다도 작은 값으로 하여 다른 카메라화상과 합성함으로써, 합성화상 위에 스케일이나 지표를 반투명하게 표시하는 것이 가능하게 된다.
<기본적인 합성화상의 예>
매핑테이블은 크게 단독 맵과 복합 맵의 2개로 나눌 수 있다. 「단독 맵」이라는 것은 소정의 공간모델(상세한 것은 후술한다)을 이용하여 카메라화상과 가상시점화상을 화소레벨에서 대응시킨 것이다. 「복합 맵」에 대해서는 후술한다.
화상합성부(200)에 어떤 매핑테이블이 설정되는가에 따라서, 화상처리부(2)의 표시모드가 결정된다. 이 표시모드는 수동에 의해서 또는 자동적으로 전환할 수 있다.
대표적인 단독 맵과 그것을 이용한 합성화상예를 아래에 나타낸다.
·수직으로 내려다 봄(도 12∼도 14)
공간모델로서는 노면평면모델을 이용한다. 가상시점의 위치는 자신의 차량의 위쪽이고, 시선의 방향은 바로 아래이다. 거리감을 한눈에 알 수 있는 것을 특징으로 하고, 주된 용도로서는 주차(직각, 종렬) 등이 생각된다. 도 12는 8개의 카메라화상을 이용한 것, 도 13은 4개의 카메라화상을 이용한 것, 도 14는 2개의 카메라화상을 이용한 것이다.
·비스듬히 내려다 봄(도 15)
공간모델로서는 노면평면모델을 이용한다. 가상시점의 위치는 자신의 차량의 위쪽이고, 시선의 방향은 비스듬히 후방이다. 시선의 각도를 조정함으로써, 시야를 자유롭게 변환할 수 있다. 이 모드에서는 자신의 차량 후방이 올바른 위치관계에서 바라보도록 일망할 수 있다. 주된 용도로서는 통상 주행시의 리어뷰 모니터로서, 또는 주차동작 개시시와 같은 저속후퇴시의 확인 등이 생각된다. 저속주행시에는 속도에 따라서 시야나 방향을 전환하도록 하여도 된다.
·파노라마(도 16, 도 17)
공간모델로서는 원통모델을 이용한다. 도 16은 전방 파노라마모드로, 가상시점의 위치는 자신의 차량의 선단부이고, 시선의 방향은 바로 정면이다. 이 모드에서는 주행방향 전방의 상태를 알 수 있기 때문에, 블라인드 코너뷰 모니터로서의 이용이 생각된다. 즉, 좁은 골목길에서 넓은 길로 나갈 때, 이 모드에 의해서 넓은 길의 상태를 한 눈에 인식할 수 있다.
도 17은 후방 파노라마모드로, 가상시점의 위치는 자신의 차량의 후단부이고, 시선의 방향은 바로 후방이다. 이 모드에서는 자차후방 부분이 파노라마 180도 화상으로서 바라보도록 일망할 수 있다. 주된 용도로서는 주행시(특히 고속주행시)의 리어뷰 모니터로서의 이용이 생각된다.
·비스듬히 내려다 봄 + 파노라마(도 18)
공간모델로서는 노면평면모델과 원통모델을 이용한다. 즉, 도 18에 나타내는 바와 같이 자신의 차량 후방의 근방은 노면평면모델을 이용한 비스듬히 내려다 본 모드로 표시하고, 자신의 차량 후방 원방은 원통모델을 이용한 파노라마 모드로 표시한다. 따라서, 이 모드는 비스듬히 내려다 본 모드와 파노라마 모드의 양쪽의 용도에 대응하고 있다.
<표시자동전환>
본 감시시스템은 지금까지 예시한 매핑테이블을 다양한 운전장면에 따라서 적당히 전환함으로써, 보다 안전하고 쾌적한 운전을 서포트하는 것이 가능하다. 또한, 하나의 운전조작에 있어서도 순차 변해가는 자신의 차량 주위 상황에 따라서 매핑테이블을 전환하는 것은 운전자에게 있어서 필요불가결한 기능이 된다.
즉, 합성화상의 가상시점의 위치, 시선의 방향 및 초점거리의 적어도 어느 하나를 차량의 주행상태에 따라 변경함으로써, 운전자의 편리성을 향상시킬 수 있다.
도 19는 차량의 주행상태에 따라서 합성화상의 가상시점의 높이를 변경한 경우의 예를 나타내는 도면이다. 도 19(a)∼(f)에 나타내는 각 화상은 아래로 내려감에 따라서 가상시점의 높이가 서서히 높아지고, 차량을 포함시킨 표시영역이 점차로 넓어지고 있다. 즉, 가상시점의 높이를 내림으로써 줌 업이 실현되고, 가상시점의 높이를 올림으로써 줌 다운이 실현된다. 또, 가상시점의 초점거리를 변경한 경우라도 도 19와 마찬가지로 합성화상을 변화시킬 수 있다.
가상시점의 높이를 전환하는 트리거로서는, 우선 차량의 주행속도가 생각된다. 예를 들면, 차량의 주행속도가 상승함에 따라서, 넓은 영역이 표시되도록 가상시점을 높게 하는 한편, 저하됨에 따라서, 좁은 영역이 표시되도록 가상시점을 낮게 하면 된다. 또는, 차량이 자신의 차량과 장해물과의 거리를 측정하는 물체검출 센서를 구비하고 있을 때는 그 물체검출 센서의 출력신호를 전환의 트리거로서 이용하여도 된다. 예를 들면, 검출된 장해물과의 거리가 가까워짐에 따라서, 좁은 영역이 표시되도록 가상시점을 낮게 하는 한편, 멀어짐에 따라서, 넓은 영역이 표시되도록 가상시점을 높게 하면 된다. 나아가서는 전환스위치를 설치해 두고, 운전수 또는 다른 승객이 그 스위치를 통해 확대·축소를 지정할 수 있도록 하여도 된다.
도 20은 차량의 주행상태에 따라서 합성화상의 가상시점의 시선의 방향을 변경한 경우의 예를 나타내는 도면이다. 도 20(a)∼(d)에 나타내는 각 화상은 아래로 내려감에 따라서, 가상시점의 시선의 방향이 비스듬히 후방에서 서서히 수직하방으로 변화하고 있다. 또한, 시선의 방향과 함께 합성화상을 생성하기 위한 모델도 변화하고 있다. 즉, 시선의 방향이 비스듬히 기울어질수록 유사원통모델의 합성화상의 영역이 커지고 있고, 보다 원방이 보기 쉬워진다.
도 20에서는 가상시점의 시선의 방향의 변경과 함께, 변경 후의 가상시점의 시야범위외 화상의 도입이 제어되고 있다고 할 수 있다. 즉, 유사원통모델을 이용함으로써, 가상시점의 시야범위외의 화상이 합성화상에 도입되고 있다. 그리고, 차량의 주행상태에 따라서 가상시점의 시야범위외 화상의 도입의 유무, 그 크기 및 그 촬상범위가 제어되고 있다.
가상시점의 시선의 방향을 전환하는 트리거로서는 가상시점의 높이를 전환하는 경우와 마찬가지로, 차량의 주행속도, 스위치입력 등이 상정된다. 예를 들면, 차량의 주행속도가 낮을 때는, 시선의 방향을 바로 아래에 두고, 주행속도가 상승함에 따라서, 시선의 방향을 기울여 보다 후방이 표시되도록 하면 된다.
도 21은 차량의 조향각에 따라서 합성화상의 가상시점의 시선의 방향을 변경한 예를 나타내는 도면이다. 도 21의 예에서는 조향각에 따라서 가상시점을 광축주위에 회전시키고 있다. (a)는 기어가 후진이고 핸들이 똑바로일 때의 합성화상이다. 이 경우는 차량이 후방으로 직진하기 때문에, 후방의 영역이 보기 쉬워지도록 합성화상 중의 자신의 차량이 똑바로 되고, 자신의 차량의 좌우의 영역이 균등하게 표시되도록 가상시점을 설정한다. 한편, (b)는 기어가 후진이고 핸들을 좌측으로 꺾었을 경우의 합성화상이다. 이 경우는 차량은 좌후방으로 진행하기 때문에, 그 때에 차가 이동하는 영역, 즉 자신의 차량의 우측, 우후방 및 후방이 보기 쉬워지도록 가상시점을 광축주위에 회전시킨다. 이것에 의해, 안전성이 높아진다.
도 22는 물체검출 센서의 출력신호에 따른 화상전환의 예를 나타내는 도면이다. 도 22 중 (a)는 물체검출 센서가 자신의 차량에 근접한 장해물을 검출하기 전의 화면이다. 물체검출 센서가 자신의 차량에 근접한 다른 차량을 검출하였을 때, 화면은 도 22(b)와 같이 전환한다. 즉, 검출한 장해물과의 거리를 보다 인식할 수있도록 화상을 확대하여 표시한다.
이와 같이, 물체검출 센서가 장해물을 검출하였을 때, 화상을 장해물과의 거리에 따라서 단계적 또는 연속적으로 확대/축소/회전 등을 하여 표시함으로써, 장해물에 대하여 승객의 주의를 환기할 수 있다. 또한, 장해물이 존재하는 위치에 따라서 가상시점의 위치를 변경하여도 된다.
게다가, 도 23에 나타내는 바와 같이 장해물이 존재하는 영역을 확대하여 표시함과 동시에, 그 영역을 테두리로 둘러싸서 표시하여도 상관없다. 또는, 테두리를 점멸시키거나, 테두리 내의 색을 반전시켜도 된다. 이와 같이 하면, 승객의 주의를 더욱 확실하게 환기시킬 수 있다. 물론, 화상을 확대하지 않고서 단순히 테두리로 둘러싸서 표시하는 것만으로도 승객의 주의를 환기시킬 수 있는 것은 말할 필요도 없다. 또한, 화면표시의 변경과 함께, 경고음에 따라서 장해물의 존재를 알리도록 하여도 된다.
도 24는 물체검출 센서의 검출결과에 따른 화상전환의 다른 예를 나타내는 도면이다. 도 24에서는 차량후방에 장해물을 검지하였을 때, 가상시점의 시선의 방향을 바로 아래에서 약간 후방으로 변경하고 있다. 이것에 의해, 차량후방의 장해물이 보다 보기 쉬워진다. 또한, 검출한 장해물이 합성화상의 중심에 오도록 가상시점을 평행이동시켜도 된다.
또, 도 19∼도 24에서는 가상시점이 차량의 위쪽에 있는 경우의 합성화상을 예로 들어 나타내었지만, 가상시점이 다른 위치에 있는 경우라도 차량의 주행상태에 따라서 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 하나를 변경함으로써, 운전자의 편리성을 향상시킬 수 있다. 가상시점의 위치의 다른 예로서는 리어트렁크의 위치나 운전자의 머리의 위치 등이 생각된다.
또한, 도 20에서는 가상시점의 시선의 방향의 변경과 함께, 그 시야범위외 화상의 도입을 제어하고 있지만, 가상시점의 위치나 초점거리의 변경과 함께, 그 시야범위외 화상의 도입을 제어하여도 된다. 또한, 모델을 이용하지 않고, 가상시점의 시야범위외 화상을 도입하여도 상관없다. 게다가, 가상시점을 바꾸지 않고, 가상시점의 시야범위외 화상의 도입의 제어만을 차량의 주행상태에 따라서 행해도 상관없다.
(합성화상 생성동작의 제 2 예)
표시화상의 전환은 이용하는 매핑테이블을 적당히 변경함으로써, 용이하게 실현할 수 있다. 그러나 이 경우, 표시화상의 전환을 연속적으로 행하기 위해서는 다수의 매핑테이블을 준비해 두는 것이 필요하다. 이를 위해, 장치에 방대한 기억용량을 갖는 기억부를 설치하는 것이 필요하기 때문에, 바람직하지 못하다.
여기서는, 합성화상보다도 큰 소스 매핑테이블을 설치해 두고, 이 소스 매핑테이블로부터 잘라낸 매핑테이블을 이용하여, 합성화상의 생성을 행하는 것으로 한다. 이 경우에는, 잘라내는 매핑테이블을 적절히 변경함으로써, 표시화상의 연속적인 전환을 용이하게 실현할 수 있다.
도 25는 본 예에 관한 감시시스템의 구성을 나타내는 도면이다. 도 7에 나타내는 구성과 다른 것은 맵영역 설정부(302)가 타이밍 생성부(205)로부터 출력된 합성화상의 화소의 좌표와, 표시패턴 설정부(220A)에 의해서 설정된 매핑테이블의 영역지정정보에 근거하여, 대응하는 매핑테이블의 요소를 생성하여, 매핑테이블 참조부(202)에 출력하는 점이다. 매핑테이블 참조부(202)에는 표시패턴 기억부(210A)가 갖는 소스 매핑테이블 기억부(301)에 기억된 소스 매핑테이블이 표시패턴 설정부(220A)에 의해서 설정되어 있다.
즉, 상술한 제 1 예에서는 도 8에 나타내는 단계 S13에 있어서 타이밍 생성부(205)에 의해서 설정된 현재 출력해야 하는 합성화상의 화소에 대하여, 이 화소와 동일 위치에 있는 매핑데이터를 판독하는 것으로 하였지만, 본 예에서는 소스 매핑테이블 상에서 이용하는 매핑테이블의 영역을 설정한 후에, 합성화상의 화소에 대응하는 매핑데이터의 판독을 행한다.
본 예에서의 매핑데이터의 판독방법에 대해서 설명한다. 도 26 및 도 27은 본 예에서의 합성화상과 소스 매핑테이블과의 관계를 모식적으로 나타낸 것이다. 도 26의 예에서는 소스 매핑테이블로부터 잘라내는 영역의 크기를 합성화상과 동일한 크기로 고정하여, 오프셋값을 바꿈으로써, 합성화상의 평행이동을 실현한다. 도 27의 예에서는 소스 매핑테이블로부터 잘라내는 영역의 크기 및 요소의 판독단계를 바꿈으로써 합성화상의 확대·축소를 실현한다.
우선, 합성화상의 평행이동을 행하는 경우에 대해서 도 26을 참조하여 설명한다.
도 26(a)에 나타내는 합성화상은 폭 W_DISP, 높이 H_DISP의 크기를 갖고, 도 26(b)에 나타내는 소스 매핑테이블은 폭 W_MAP, 높이 H_DISP의 크기를 갖는 것으로 한다. 여기서는, 소스 매핑테이블로서 차의 상공의 가상시점에서 차의 주위의 넓은범위를 내려다 본 화상을 만드는 것을 생각한다. 이것은, 상술한 제 1 예에 있어서 초점거리가 일정하다고 하면, 가상시점과 투영면의 거리가 일정한 채, 투영면의 크기가 (W_DISP, H_DISP)부터 (W_MAP, H_MAP)로 확대되었다고 생각하고, 소스 매핑테이블을 구성하면 된다. 투영면의 확대에 의해서 소스 매핑테이블에는 보다 광범위한 영역에 관한 정보가 포함된다. 도 26(d)는 이러한 매핑테이블의 각 요소를 대응하는 카메라화상 및 일러스트화상으로 바꿔 놓은 화상이다.
다음에, 표시패턴 설정부(220A)는 소스 매핑테이블 상에서 합성화상생성을 위한 매핑테이블로서 이용하는 영역을 원점 (0, 0)으로부터의 오프셋 (off_x, off_y)에 의해서 지정한다. 점 (off_x, off_y)을 개시점으로 한 크기 (W_DISP, H_DISP)의 영역 MPT가 화상합성을 위해서 이용되는 매핑테이블이 된다. 합성화상을 래스터주사하여 얻어진 화소의 X, Y좌표에 이 오프셋(off_x, off_y)을 가산한 위치의 매핑데이터가 매핑테이블 참조부(202)로부터 판독되고, 화소합성부(201)에 입력된다. 화소의 합성처리는 제 1 예와 마찬가지로, 도 10의 플로우차트에 따라서 행해진다. 도 26(c)는 도 26(b)에 나타내는 매핑테이블 MPT를 이용하여 얻어진 합성화상이다.
오프셋을 더한 좌표가 소스 매핑테이블의 범위를 넘은 경우는, 화소합성부(201)에 통지하여, 미리 설정한 색(예를 들면 흑색) 등을 화소의 값으로 하는 등 영역을 알 수 있는 표시를 행한다.
본 예에 의하면, 가상시점을 차량 위쪽에서 노면을 수직으로 내려다 보도록 배치하고, 노면평면모델을 이용한 경우에, 가상시점을 노면과 평행하게 이동시켰을때의 합성화상을, 매핑테이블을 늘리지 않고, 생성하는 것이 가능하다. 즉, 상술한 제 1 예에서는 평행이동한 가상시점의 각각에 대응하는 매핑테이블이 필요하였지만, 본 예에서는 하나의 소스 매핑테이블만으로 끝난다. 예를 들면, 원활한 시점이동을 행하기 위해서 1화소씩 가상시점을 이동하는 경우, 상술한 제 1 예에서는 이동단계의 전부에 대응하는 다수의 매핑테이블이 필요하지만, 본 예에서는 광범위한 하나의 소스 매핑테이블에 있어서 매핑테이블을 잘라내는 개시위치 (off_x, off_y)를 변화시키는 것만으로 실현가능하다. 또한 본 예에서는, 예를 들면 다이얼 등을 돌려 가상시점의 위치를 변경하거나, 장해물검출 센서의 출력의 크기에 비례하여 장해물의 방향으로 가상시점의 위치를 변경하거나 하는 경우에, 자세한 단계에서 가상시점의 위치를 변경할 수 있기 때문에, 상황에 따른 합성화상을 용이하게 생성할 수 있다.
본 예에서는 가상시점을 자세한 단계에서 평행이동하기 위해서 다수의 매핑테이블을 이용할 필요가 없기 때문에, 매핑테이블을 기억하기 위한 메모리는 하나의 소스 매핑테이블을 기억가능한 용량이 있으면 된다. 또한, 제 1 예에서는 매핑테이블의 전환이나 설정에 시간이 걸리는 것에 대해, 본 예에서는 오프셋의 설정만으로 끝나기 때문에, 처리의 고속화를 도모할 수 있다.
다음에, 같은 방법을 이용하여 합성화상의 확대·축소를 행하는 경우에 대해서 도 27을 참조하여 설명한다.
도 27에 있어서, 타이밍 생성부(205)는 (a)에 나타내는 합성화상의 화소 P1의 좌표 (x, y)를 지정하였다고 한다. 표시패턴 설정부(220A)는 영역의 개시위치(off_x, off_y)와 함께, 요소의 판독단계 (step_x, Step_y)를 지정한다. 이 때, 화소 P1에 대응하는 매핑데이터 MD의 좌표를 (u, v)로 하면, 좌표 (u, v)는 다음 식에 의해서 구해진다.
u = step_x * x + off_x
v = step_y * y + off_y
판독단계 (step_x, step_y)의 값을 바꿈으로써, 합성화상을 원활하게 확대·축소하는 것이 가능해진다. 소스 매핑테이블로부터 잘라내는 매핑테이블의 영역이 판독단계 (step_x, step_y)의 변화에 따라서 MPT1, MPT2, MPT3, MPT4로 변화하였을 때, 합성화상은 (d), (e), (f), (g)와 같이 변화한다.
좌표 (u, v)가 소스 매핑테이블의 범위를 넘었을 때는 상술한 평행이동의 경우와 마찬가지로, 지정된 색 등을 출력한다. 또한, 판독단계 (step_x, step_y)의 값은 정수 이외의 값을 이용할 수도 있어, 이 경우는 계산결과의 (u, v)의 값을 정수로 변환한다.
본 예에 관한 확대·축소에 의하면, 가상시점을 차량 위쪽에서 노면을 수직으로 내려다 보도록 배치하고, 노면평면모델을 이용한 경우, 가상시점의 높이 또는 초점거리의 변경에 의해서 시야범위를 확대·축소한 경우와 동일한 합성화상을 생성할 수 있다.
예를 들면, 운전자 등으로부터의 지시나 센서입력에 따라서 원화상의 일부를 확대표시하는 경우, 갑자기 확대화상을 출력하는 것은 아니라, 본 예에 관한 방법을 이용하여 원활하게 확대하여 표시함으로써, 확대화상이 원화상의 어떤 영역을확대한 것인가가 파악하기 쉬워진다.
게다가, 판독단계의 변경과 함께, 오프셋값을 바꿈으로써, 합성화상의 확대·축소와 함께, 평행이동도 실현할 수 있다.
또, 일반적으로는 매핑테이블의 영역을 직사각형으로 한정할 필요는 없다. 즉, 표시패턴 설정부(220A)가 매핑테이블의 영역을 사변형의 4정점의 좌표로 지정하도록 하여도 된다.
도 28에 있어서, 매핑테이블의 영역을 볼록형의 사변형으로 하고, 4점 n1, n2, n3, n4로 지정한다. 이 때, 합성화상의 좌표 (x, y)의 화소 P1에 대응하는 매핑데이터 MD의 좌표 (u, v)는 다음과 같이 구할 수 있다.
우선, 정점 n1, n2를 (y/H_DISP:1-y/H_DISP)로 내분하는 점 na의 좌표를 구한다. 마찬가지로, 정점 n3, n4를 (y/H_DISP:1-y/H_DISP)로 내분하는 점 nb를 구한다. 다음에, 점 na, nb를 (x/W_DISP:1-y/W_DISP)로 내분하는 점의 좌표를 구하면 이것이 대응하는 매핑데이터 MD의 좌표 (u, v)가 된다.
이러한 지정을 하면 평행이동, 확대, 축소, 회전을 포함하는 임의의 매핑테이블의 영역지정이 가능하게 된다.
또, 본 방식에 의하면, 노면평면모델을 이용하여 가상시점이 위쪽에서 노면을 수직으로 내려다 보는 경우에 대해서는 가상시점의 평행이동이나, 시야범위의 확대·축소 또는 노면에 평행한 회전과 같은 가상시점의 변화와 정확하게 일치하는 합성화상을 생성할 수 있다. 단, 모델이나 가상시점의 방향이 다른 경우에는, 가상시점의 변화와 정확하게 일치하는 합성화상을 반드시 생성할 수 있는 것은 아니다.그러나, 이러한 경우에도 가상시점의 변화와 유사한 합성화상을 생성하는 것은 가능하기 때문에, 본 방식은 대단히 유효하다.
<복수종류의 화상표시>
복수종류의 합성화상을, 아울러 1개의 화면에 표시하거나, 합성화상과 카메라화상을 동시에 하나의 화면에 표시함으로써, 운전수의 편리성을 높일 수 있다. 예를 들면 자신의 차량의 근방과 원방을 동시에 표시하거나, 서로 다른 방향의 화상을 동시에 표시하거나, 자신의 차량의 전체와 확대된 자신의 차량의 일부를 동시에 표시하거나 함으로써, 운전수는 화면표시를 전환하지 않아도 차량의 주위의 상황을 적확하게 이해할 수 있다.
이러한 복수종류의 화상표시는 복합 맵을 이용함으로써, 용이하게 실현할 수 있다. 「복합 맵」이란 단독 맵의 필요한 부분을 잘라내어 적당한 변형을 행하여, 접합하거나 단독 맵에 카메라화상을 접합한 매핑테이블을 말한다. 다음에 설명하는 바와 같은 화상표시는 복합 맵을 이용하여 용이하게 실현가능하지만, 이 이외의 화상표시에 대해서도 단독 맵끼리나, 단독 맵과 카메라화상을 조합함으로써, 다양한 운전장면에 따른 복합 맵을 만드는 것은 가능하다.
여기서는, 차량 위쪽에 설정된 가상시점에서 본 자신의 차량 및 그 주변을 나타내는 근방화상으로서의 노면평면모델을 이용한 내려다 본 화상과, 이 내려다 본 화상을 나타내는 자신의 차량의 주변영역보다도 원방의 영역을 나타내는 원방화상을 포함하는 화상을 표시하는 예에 대해서 설명한다. 도 29는 여기서의 설명의 전제가 되는 카메라화상을 나타내는 도면이다.
도 30은 제 1 화상으로서의 내려다 본 화상의 좌우에, 제 2 화상으로서의 비스듬히 후방을 찍는 카메라화상을 첩부한 예이다. 이 예에서는 제 2 화상의 시점은 제 1 화상의 가상시점과, 위치, 시선의 방향 및 초점거리가 다르다고 할 수 있다. 도 30의 화상에서는 내려다 본 화상의 우측에는 우측으로 비스듬히 후방의 풍경을 찍는 카메라 2의 화상이 좌우반전되어 배치되어 있고, 내려다 본 화상의 좌측에는 좌측으로 비스듬히 후방의 풍경을 찍는 카메라 6의 화상이 좌우반전되어 배치되어 있다. 즉, 좌우의 도어미러 부근에 설치된 카메라 2, 6의 화상이 실제로 도어미러를 통해 보이도록 좌우반전되어 배치되어 있다. 따라서, 운전수는 도어미러를 보는 것과 동일한 감각으로, 직감적으로 차량주위의 상황을 이해할 수 있다. 물론, 좌우반전하지 않고 표시하여도 상관없다.
도 31은 좁은 범위를 나타내는 제 1 화상으로서의 내려다 본 화상과, 넓은 범위를 나타내는 제 2 화상으로서의 내려다 본 화상을 나란히 표시한 예이다. 이 예에서는 제 2 화상의 가상시점은 제 1 화상의 가상시점과 높이 또는 초점거리가 다르다고 할 수 있다. 도 31의 화상을 보면 자신의 차량의 근방은 상세하게, 또한 넓은 범위는 간략하게 한번에 볼 수 있다.
도 32는 제 1 화상으로서의 내려다 본 화상의 주위에, 제 2 화상으로서의 전후좌우의 비스듬히 내려다 본 화상을 첩부한 예이다. 이 예에서는 제 2 화상의 가상시점은 제 1 화상의 가상시점과 시선의 방향이 다르다. 도 33은 제 1 화상으로서의 내려다 본 화상의 주위에, 제 2 화상으로서의 유사원통모델을 이용한 어안렌즈로 본 듯한 화상을 첩부한 예이다. 이 예에서는 제 2 화상은 제 1 화상과 모델이다르다. 도 34는 제 1 화상으로서의 내려다 본 화상의 주위에, 제 2 화상으로서의 전후좌우의 파노라마화상을 첩부한 예이다. 이 예에서는 제 2 화상은 제 1 화상과 가상시점의 위치 및 모델이 다르다. 도 32∼도 34의 화상을 보면 자신의 차량의 근방에서는 거리감을 유지할 수 있고, 또한 자신의 차량 주위 원방은 바라보도록 일망할 수 있다.
또, 내려다 본 화상의 전후좌우 모두에 반드시 원방화상을 첩부할 필요는 없고, 보이고 싶은 방향만, 예를 들면 우측에만, 후방에만 원방화상을 표시하도록 하여도 상관없다.
또, 도 35에 나타내는 바와 같이, 내려다 본 화상의 주위의 전후좌우에 비스듬히 내려다 본 화상을 첩부한 경우, 표시영역의 4각에 공백부를 설치하여, 비스듬히 내려다 본 화상은 서로 연속성이 없는 것을 강조하도록 하여도 된다.
게다가, 도 32∼도 35와 같은 화상표시를 행할 때는 주위의 원방화상을 필터처리를 실시함으로써, 희미하게 표시하여도 된다. 이것에 의해, 운전자의 주시영역을 자신의 차량 주변에 집중시킬 수 있다. 또한, 주위의 원방화상의 왜곡을 눈에 띄지 않도록 할 수 있다.
이러한 부분적인 선염처리는 단독 맵을 이용한 화상표시의 경우에도 유효하다. 예를 들면, 도 5에 나타내는 바와 같은 내려다 본 화상의 경우라도, 자신의 차량 및 그 근방에는 선염처리를 행하지 않고, 다른 주차차량이 영사되고 있는 주변영역에 선염처리를 행함으로써, 동일한 효과를 얻을 수 있다. 주차시 등의 경우에는, 선염처리를 행하지 않는 영역은 자신의 차량으로부터 10m 이내의 영역으로 설정하면 적절하다. 또한, 자신의 차량으로부터 거리가 떨어짐에 따라서 선염강도를 증가시켜도 된다.
또한, 도 31의 화상은 자신의 차량과 자신의 차량 주위를 나타내는 제 1 화상과, 이 제 1 화상이 나타내는 영역의 적어도 일부를 확대한 제 2 화상을 포함하는 합성화상이라고도 할 수 있다. 물론, 제 1 화상이 자신의 차량 전체가 아니라 자신의 차량 일부를 나타내고 있거나, 자신의 차량 주위의 일부를 나타내고 있어도 상관없다.
또한, 표시화면을 멀티윈도우로 하고, 서브윈도우에 상술한 바와 같은 합성화상이나, 카메라화상, 가상시점의 위치를 나타내는 화상, 문자정보 등을 표시하 도록 하여도 된다. 이것에 의해, 자신의 차량의 주위상황이 더욱 용이하게 파악되기 쉬워져 운전수의 편리성이 향상된다.
멀티화면의 표시방법으로서는 여러가지가 생각된다. 예를 들면 도 36에 나타내는 바와 같이 카메라화상이나 합성화상과 함께, 가상시점의 위치를 나타내는 화상을 서브윈도우에 표시하여도 된다. 이것에 의해, 가상시점의 위치를 용이하게 파악할 수 있다.
또한 예를 들면, 물체검출 센서가 장해물을 검출하였을 때에 각 서브윈도우의 카메라화상 또는 합성화상 상에 그 장해물의 위치를 나타내는 경고마크를 표시시키는 동시에, 다른 서브윈도우에 문자에 의해서 그 장해물의 위치를 표시시켜도 된다.
<사각영역 및 자신의 차량 영역의 표시>
(1) 도 37은 카메라화상 및 그 카메라화상에서의 자신의 차량의 영사영역을 나타내는 영역데이터로서의 마스크데이터의 예를 나타내는 도면이다. 도 37에 나타내는 바와 같이 각 카메라화상에 있어서 자신의 차량이 영사된 부분을 인식하고, 인식한 차량의 영사영역을 나타내는 마스크데이터를 미리 화상처리부(2)에 기억시켜 놓는다. 도 37에 나타내는 마스크데이터에서의 흑색의 부분이 차량의 영사영역이다. 차량의 영사영역은 카메라의 사양과 방향 및 자신의 차량의 형상이 정해지면 미리 일의적으로 결정할 수 있다.
도 38(a)는 도 37의 카메라화상을 이용하여 합성한 수직으로 내려다 본 화상이다. 도 38(a)에 나타내는 합성화상에서는 화상의 중앙부에 희게 자신의 차량이 영사되고 있어 다소 보기 어렵다.
그래서, 각 카메라화상의 마스크데이터를 가상시점에서 본 화상으로 변환하고, 합성화상에 있어서 차량의 영사영역을 전부 빈틈없이 칠하는 것으로 한다. 이 결과, 도 38(b)에 나타내는 바와 같은 화상이 얻어져 보다 보기 쉬워진다.
또한, 도 38(a)에서는 화상의 중앙부에 자신의 차량이 영사되고 있기 때문에 보기 어려워지는 동시에, 자신의 차량이 실제로 어디에 있는 것인지를 알 수 없기 때문에, 운전하기 어렵다. 그래서, 자신의 차량의 일러스트화상 또는 실제 화상을 자신의 차량이 실제로 존재하는 위치에 슈퍼임포즈한다. 예를 들면, 화상처리부(2)는 표준의 가상시점에서 본 것을 전제로 하는 자신의 차량의 일러스트화상 또는 실제 화상을 미리 기억해 놓고, 그 화상을 표시하는 합성화상의 가상시점에서 본 화상으로 변환하여, 슈퍼임포즈하면 된다. 이 결과, 도 38(c)에 나타내는 바와 같은화상이 얻어져 주위의 물체에 대한 자신의 차량의 크기나 상대적인 위치관계를 한 눈에 알 수 있게 되었다. 자신의 차량 화상의 변환은 상술한 매핑테이블을 이용함으로써, 용이하게 실현할 수 있다.
이 경우, 표준의 가상시점으로서는, 예를 들면 자신의 차량의 위쪽에 설치한 가상시점이나, 측면에 위치하는 가상시점이나, 자신의 차량의 전방 또는 후방 등에 설치한 가상시점을 이용할 수 있다. 또한, 표준의 가상시점을 복수개 설치하여, 복수의 표준의 가상시점에 대하여 각각 화상을 준비하여도 된다. 그리고, 합성화상을 생성하기 위한 가상시점의 위치가 정해지면 그 가상시점과 각 표준의 가상시점의 위치관계로부터 화상변환시에 화상의 왜곡이 가장 작아지는 표준의 가상시점을 선택하 도록 하여도 된다.
또, 자신의 차량의 일러스트 또는 실제 화상을 첩부하는 대신에, CAD/CAM이나 CG의 분야에서 공지된 서페이스모델이나 솔리드모델을 이용한 자신의 차량의 3차원 모델을, 합성화상에 첩부하게 하는 것도 가능하다. 이 경우도, 표준의 가상시점에서 본 3차원 모델을 나타내는 화상을 미리 준비해 두고, 이 화상을 표시하는 합성화상의 가상시점에서 본 화상으로 변환하여, 슈퍼임포즈하면 된다. 이 변환도 상술한 매핑테이블을 이용함으로써, 용이하게 실현할 수 있다.
게다가, 자신의 차량이 실제로 존재하는 영역을 나타내는 화상으로서 카메라화상으로부터 생성한 합성화상 그 자체를 이용하도록 하여도 된다. 또한, 자신의 차량의 일부, 예를 들면 범퍼부분만을 합성화상으로 표시하고, 이 이외의 부분은 일러스트 또는 실제 화상을 첩부하게 하여도 된다.
(2) 가상시점에서 본 합성화상에는 어떤 카메라의 촬상범위에도 속하지 않는 영역이 포함되는 경우가 있다. 또한, 자신의 차량이 방해가 되어, 각 카메라에서는 촬상할 수 없는 영역도 포함되는 경우가 있다.
이 문제를 해결하기 위해서 상술한 (1)에서는 차량의 영사영역에 소정의 화소데이터를 부여하여 빈틈없이 칠함으로써 합성화상을 보다 보기 쉽게 하였다.
여기서, 도 39에 나타내는 바와 같이 자신의 차량이 영사된 카메라화상을 그대로 가상시점화상으로 변환하면, 변환된 자신의 차량 화상이 합성화상에 포함되어, 보기 어려워진다(A1). 이 경우는, 자신의 차량이 영사되는 영역을 빈틈없이 칠함으로써, 보기 쉽게 개선된다.
그러나, 가상시점화상에 있어서 자신의 차량이 본래 존재하지 않는 부분에 자신의 차량의 일부가 영사되는 경우가 일어날 수 있다(A2). 이러한 경우는 가상시점화상에 있어서, 자신의 차량의 부분을 빈틈없이 칠하면, 본래 보여야 되는 부분까지 사라지기 때문에 바람직하지 않다. 이 문제는 원카메라화상을 가상시점화상으로 변환할 때에 이용하는 공간모델이 카메라에 영사되고 있는 실제 세계와 다른 (대부분은 단순화된다) 경우에 일어날 수 있는 것이다. 이 때문에, 이 문제를 원리적으로 해결하기 위해서는 실제 세계의 안길이 정보를 실시간으로 계산하는 것이 필요하여, 대단히 고속의 연산능력이 장치에 요구된다. 따라서, 실시는 곤란하다.
그래서, 다음과 같은 방법으로 이 문제를 해결한다.
즉, 합성화상의 화소가 차량의 영사영역에 포함되는지의 여부를 원카메라화상과 쌍이 되는 마스크데이터를 참조하여 판단하고, 화소의 생성을 차량의 영사영역에 포함되는 경우와 그렇지 않은 경우에 있어서 전환한다. 즉, 마스크데이터를 가상시점화상으로 변환하는 것이 아니라, 마스크데이터를 원카메라화상의 형태 그대로 이용한다.
도 40은 마스크데이터의 일례를 나타내는 도면이다. 도 40에 나타내는 바와 같이 각 카메라화상에 대하여, 자신의 차량의 영사부분 등 가상시점 화상합성에 이용하지 않는 영역을 나타내는 마스크데이터가 설치되어 있다.
이 경우에는, 예를 들면 합성화상의 생성을 위해 카메라화상의 화소데이터를 참조할 때, 이 카메라화상에 대응하는 마스크데이터도 참조하여, 그 화소가 차량의 영사영역에 포함될 때에는 화소의 생성을 행하지 않고, 사각영역인 것이 식별가능한 색으로 빈틈없이 칠하는 등의 처리를 행하면 된다.
또한, 상술한 매핑데이터 MP14와 같이 합성화상의 화소가 사각영역에 포함되는지의 여부의 정보를 매핑테이블 자체에 갖게 하여도 된다. 이 경우에는 가상시점 화상합성시에 프레임마다 마스크데이터를 참조할 필요가 없어, 처리의 고속화를 실현할 수 있다. 또한, 마스크데이터를 저장하는 기억부를 설치할 필요가 없다는 이점이 있다.
도 41은 화상합성의 결과의 일례를 나타내는 도면이다. 도 41에 나타내는 합성화상에서는 자신의 차량이 존재하는 차량영역과, 자신의 차량의 주위의 사각영역이 나타나 있다. 차량영역을 나타냄으로써, 자신의 차량과 주위의 상황과의 위치관계나 거리 등이 운전자로부터 파악되기 쉬워진다. 또한, 운전석에서는 직접 보기 어려운 영역도 합성화상에 의해서 확인할 수 있게 되지만, 게다가 사각영역을 나타냄으로써, 어떤 카메라에서도 촬영할 수 없는 영역을 운전자에게 인식시킬 수 있기 때문에, 안전성이 향상된다.
또, 자신의 차량이 존재하는 차량영역의 모두를 반드시 나타낼 필요는 없고, 자신의 차량 영역의 일부를 나타내는 경우도 있을 수 있다. 예를 들면, 카메라의 설치대수가 한정되어 있어, 차량 및 그 주위의 일부밖에 촬영하지 못하는 경우에는 촬영된 차량영역의 일부와 그 주위의 사각영역만이 나타난다. 또는, 차량주위의 특정한 일부를 확대표시시키는 경우에는 표시하는 차량영역의 일부와 그 주위의 사각영역이 나타난다.
또한, 사각영역 대신에, 차량의 승객 등의 주의를 환기하기 위한 주의환기영역을 나타내어도 된다. 이 주의환기영역은 어느 쪽의 카메라에서도 촬영할 수 없는 차량주위의 사각영역을 포함한 영역이어도 되고, 사각영역 그 자체에 상당하는 영역이어도 된다. 또한, 주의환기영역은 차량의 주위의 일부를 나타내는 것이어도 된다.
주의환기영역은 카메라의 촬영범위에 관계없이, 차량영역과의 위치관계에 의해서만 미리 설정가능하기 때문에 간단한 처리로 합성하는 것이 가능하다. 또한, 주의환기영역이 사각영역을 포함하고 있을 때, 사각영역이 아닌 카메라에서 촬영된 부분도 주의환기영역으로서 숨겨질 가능성이 있지만, 예를 들면 주의환기영역을 반투명표시하여, 사각영역과 더불어 표시하도록 하여도 된다.
도 42는 마스크데이터를 이용하여 사각영역을 구하고, 일러스트화상을 첩부하는 경우에서의 매핑데이터의 생성순서를 나타내는 도면이다. 도 42에서, <PT1>은1개의 카메라화상으로부터 생성되는 합성화상의 화소, <PT2>는 2개의 카메라화상을 참조하지만, 카메라화상의 하나가 차량의 영사 때문에 제거되고, 나머지 하나의 카메라화상으로부터 생성되는 합성화상의 화소, <PT3>는 하나의 카메라화상을 참조하지만, 그 카메라화상이 차량의 영사 때문에 제거되는 합성화상의 화소, <PT4>는 하나의 카메라화상을 참조하지만, 그 카메라화상이 차량의 영사 때문에 제거되고, 또한 차량의 일러스트화상이 첩부되는 합성화상의 화소이다.
우선, 단계 1에서 참조좌표 및 필요도를 계산한다. 합성화상의 화소에 대하여, 모든 카메라화상에 대해서 참조좌표를 계산한다. 이 참조좌표의 계산은 후술하는 기하연산에 의해서 행한다. 이 때, 구한 참조좌표가 카메라화상의 촬영범위외(즉 사각)에 있을 때는, 좌표값으로서 (-1, -1)을 기술한다. 또한 여기서는, 참조하는 카메라의 대수를 구하고, 그 역수를 필요도로서 부여하는 것으로 한다. 필요도의 부여방법은 다른 방법으로도 상관없고, 손으로 입력하여 부여하여도 된다. 이 단계 1에서 <PT1>이 참조하는 것은 카메라 6, <PT2>가 참조하는 것은 카메라 4, 5, <PT3>이 참조하는 것은 카메라 6, <PT4>가 참조하는 것은 카메라 2인 것을 얻는다.
다음에, 단계 2에서 차량의 영사영역을 나타내는 마스크데이터를 참조하여, 사각의 처리를 행한다. 좌표값이 (-1, -1) 이외의 카메라에 대응하는 마스크데이터에 있어서 그 좌표값이 나타내는 점이 차량의 영사영역에 속하는지의 여부를 판단한다. 차량의 영사영역에 속할 때는 그 좌표값을 (-1, -1)로 변환한다. 이 변환에 의해서, 참조하는 카메라의 대수가 줄었을 때는 필요도의 값을 다시 계산한다.
<PT1>에 대해서는 도 43(d)에 나타내는 바와 같이, 카메라 6의 마스크데이터에 있어서 점 (450, 200)은 차량의 영사영역에 속하지 않기 때문에, 좌표값의 변환은 행하지 않는다. <PT2>에 대해서는 도 43(b)에 나타내는 바와 같이, 카메라 4의 마스크데이터에 있어서 점 (150, 280)은 차량의 영사영역에 속하기 때문에, 카메라 4의 좌표값을 (-1, -1)로 변환한다. 한편, 도 43(c)에 나타내는 바와 같이 카메라 5의 마스크데이터에 있어서 점 (490, 280)은 차량의 영사영역에 속하지 않기 때문에, 카메라 5의 좌표값은 변환하지 않는다. 그리고, 그 필요도를 「1」로 변환한다. <PT3>에 대해서는 도 43(d)에 나타내는 바와 같이, 카메라 6의 마스크데이터에 있어서 점 (110, 250)은 차량의 영사영역에 속하기 때문에, 카메라 6의 좌표값을 (-1, -1)로 변환한다. <PT4>에 대해서는, 카메라 2의 마스크데이터에 있어서 점 (600, 290)은 차량의 영사영역에 속하기 때문에, 카메라 4의 좌표값을 (-1, -1)로 변환한다.
다음에, 단계 3에서 화상합성에 최소한 필요한 데이터로 하기 위해서 불필요한 데이터를 정리한다. 우선, 좌표값이 (-1, -1)인 카메라번호를 모두 「-1」로 변경한다. 그리고, 모든 카메라번호가 「-1」인 경우는, 이들 데이터를 하나로 통합한다(<PT3>, <PT4>). 또한, 「-1」 이외의 카메라번호가 있는 경우는 카메라번호가 「-1」인 데이터를 제거한다(<PT1>, <PT2>).
그리고, 단계 4에서 자신의 차량의 일러스트화상을 첩부한다. 자신의 차량의 일러스트화상을 첩부하는 합성화상의 화소에 대해서는 매핑데이터의 카메라번호를 「99」로 변환하고, 일러스트화상의 참조좌표를 설정한다. 여기서는, <PT4>가 일러스트화상을 첩부하는 화소이기 때문에, 카메라번호를 「99」로 변환하는 동시에,좌표값을 일러스트화상의 참조좌표값 (360, 44)로 변환한다.
도 44(a)는 단계 1 종료시에서의 매핑데이터를 이용한 경우의 합성화상의 예, 도 44(b)는 단계 3 종료시에서의 매핑데이터를 이용한 경우의 합성화상의 예, 도 44(c)는 단계 4 종료시에서의 매핑데이터를 이용한 경우의 합성화상의 예이다.
도 45는 마스크데이터를 이용하지 않고, 주의환기영역을 지정하는 경우에서의 매핑데이터의 생성순서를 나타내는 도면이다. 도 45에 있어서, <PT5>는 1개의 카메라화상으로부터 생성되는 합성화상의 화소, <PT6>은 주의환기영역에 지정되는 합성화상의 화소, <PT7>은 주의환기영역에 지정되지만, 차량의 일러스트화상이 첩부되는 합성화상의 화소이다.
우선, 단계 1'에서 초기 매핑테이블을 생성한다. 이것은, 도 42에 나타내는 단계 1 및 단계 3의 처리에 의해서 실행된다.
다음에, 단계 2'에서 주의환기영역을 지정한다. 단계 1'에서 생성한 초기 매핑테이블을 이용하여 합성화상을 작성하고, 이 합성화상에 있어서 주의환기영역을 지정한다.
다음에, 단계 3'에서 주의환기영역에 해당하는 매핑데이터를 재기입한다. 단계 2'에서 지정된 주의환기영역에 해당하는 매핑데이터를 카메라번호 「-1」, 좌표 (-1, -1)로 변환한다. 그리고, 참조하는 카메라의 대수가 줄었을 때는 필요도의 값을 다시 계산한다.
그리고, 단계 4'에서 자신의 차량의 일러스트화상을 첩부한다. 여기서는, <PT7>이 일러스트화상을 첩부하는 화소이기 때문에, 카메라번호를 「99」로 변환하는 동시에, 좌표값을 일러스트화상의 참조좌표값 (360, 44)로 변환한다.
도 46(a)는 단계 1' 종료시에서의 매핑데이터를 이용한 경우의 합성화상의 예, 도 46(b)는 단계 3' 종료시에서의 매핑데이터를 이용한 경우의 합성화상의 예, 도 46(c)는 단계 4' 종료시에서의 매핑데이터를 이용한 경우의 합성화상의 예이다.
이와 같이 하면, 자신의 차량 화상을 합성화상에 겹치거나, 사각영역이나 주의환기영역을 특정한 색으로 빈틈없이 칠하거나 하는 처리를 용이하게 할 수 있다. 그리고, 주의환기영역을 설정하는 경우는 카메라에 대한 마스크데이터를 참조하지 않고, 미리 정해진 주의환기영역을 합성함으로써, 보다 간단하게 합성화상을 생성할 수 있다. 한편, 사각영역을 설정하는 경우는 카메라에 대한 마스크데이터를 참조함으로써, 카메라에 영사되고 있는 차량주위의 상황을 남기지 않고 합성화상에 반영시키는 것이 가능해진다.
또, 이상의 설명에서는 본 발명에 관한 감시시스템이나 화상처리장치는 차량에 적용하는 것으로 하였지만, 차량 이외의 이동체, 예를 들면 비행기나 선박 등에도 동일하게 적용할 수 있다. 또한, 이동체 이외의 감시대상, 예를 들면 점포, 주거, 쇼룸 등에 카메라를 설치하여도 된다.
또한, 복수의 카메라의 설치위치나 대수는 여기서 나타낸 것에 한정되는 것이 아니다.
또한, 본 발명에 관한 화상처리장치의 기능은 그 전부 또는 일부를 전용의 하드웨어를 이용하여 실현하여도 되고, 소프트웨어에 의해서 실현하여도 된다. 또한, 본 발명에 관한 화상처리장치의 기능의 전부 또는 일부를 컴퓨터에 실행시키기위한 프로그램을 저장한 기록매체나 전송매체를 이용하는 것도 가능하다.
<기하변환>
합성화상을 위한 매핑테이블을 작성하기 위해서는 가상시점에서 본 합성화상의 각 화소에 대응하는 각 카메라화상의 화소의 좌표를 정할 필요가 있다.
이 때문에, 우선 가상시점으로부터의 합성화상의 각 화소에 대응하는 월드좌표계 (Xw, Yw, Zw)를 구하고, 그 월드좌표계의 3차원 좌표에 대응하는 카메라화상의 화소의 좌표를 구하는 2단계를 생각하면 알기 쉽다.
최종적으로 필요한 관계는 가상시점의 합성화상의 각 화소와 각 카메라화상의 화소의 관계뿐이고, 이 월드좌표계를 경유하는 매핑테이블에 한정되는 것은 아니다. 단, 이 월드좌표계를 경유하는 매핑테이블은 합성화상의 실제의 세계에서의 좌표계인 월드좌표계에서의 의미부여가 명확해지기 때문에, 주위의 상황을 실제의 거리, 위치관계와 대응 부여하기 쉬운 합성화상을 생성하는 점에서 중요하다.
가상시점의 위치와 방향을 나타내는 파라미터로서, 시점의 월드좌표계에서의 좌표를 위치 벡터 Tv = (Txv, Tyv, Tzv), 시선의 방향을 시평면좌표계를 월드좌표계의 방향으로 일치시키는 회전을 나타내는 3행 3열의 회전행렬 Rv로 나타낸다고 하면 합성화상의 시점좌표 (Vxe, Vye, Vze)가 대응하는 월드좌표 (Xw, Yw, Zw)는 수학식 1에서 구해진다.
도 47은 시점좌표계와 월드좌표계의 관계를 설명하는 모식도이다.
도 48에 나타내는 바와 같이 가상시점의 방향을, 시선이 월드좌표계 Y-Z평면에 대하여 수평회전의 각도(방위각)를 αv, X-Z평면에 대하여 이루는 경사의 각도(앙각)를 βv로 하고, 카메라의 광축주위의 회전(Twist)을v로 하면 회전행렬 Rv는,
가 된다.
한편, 가상시점의 시점좌표계 (Vxe, Vye, Vze)의 Vxe, Vye와, 투영면상의 2차원 좌표 Uv, Vv의 관계는 투시투영변환으로부터 초점거리 fv를 이용하여 아래의 수학식 3에서 나타난다.
초점거리의 단위로서는 투영면을 필름이나 CCD로 하여 그 크기에 대응하는 ㎜나 인치로 나타내는 경우나, 합성화상의 크기에 대응하여 화소로 나타내는 경우 등이 있지만, 이번은 투영면을 투영중심을 중심으로 하여 폭 2, 높이 2의 정규화한 것으로 하고, 그것에 대한 초점거리를 생각한다.
따라서, 투영면 상의 좌표와 합성화상의 화소의 관계는 화상의 우측 위로부터 (Sv, Tv)의 위치에 있는 화소에 대응하는 투영면 상의 좌표 (Uv, Vv)는 화상의 횡폭을 Wv화소, 종폭을 Hv화소로 하면,
로서 구해진다.
이상으로, 합성화상의 임의의 화소 (Sv, Tv)에 대응하는 월드좌표계의 3차원 좌표 (Xv, Yv, Zw)는 수학식 1∼4로부터 카메라의 위치 Txv, Tyv, Tzv, 카메라의 방향 αv, βv,v, 초점거리 fv로부터 다음 수학식 5에서 구할 수 있다.
단, 수학식 5에서는 합성화상의 좌표 (Sv, Tv)에 대응하는 안길이 Vze가 미정이다. 다시 말하면, 합성화상에 찍히는 대상물까지의 각 화소로부터의 안길이 값을 정할 필요가 있다.
가상시점에서 보이는 대상물의 3차원 형상을 알 수가 있다면, 각 화소의 안길이를 얻을 수 있지만, 일반적으로는 곤란하다. 그래서, 가상시점에서 보이는 대상물의 형상에 어떠한 모델을 가정함으로써, 상기 Vze를 구하고, 합성화상의 좌표와 월드좌표계의 3차원 좌표의 관계를 구한다.
-노면평면모델-
그 일례로서, 대상물을 차가 접하고 있는 노면평면으로 한정한 경우에 대해서 설명한다.
모든 대상물이 월드좌표계의 평면(노면)에 존재한다고 가정하면 월드좌표계의 3차원 좌표 (Xw, Yw, Zw)는 이하의 평면의 방정식을 만족시킨다.
따라서, 수학식 6을 수학식 5에 대입하여 Vze를 구하면,
이 된다.
따라서, 수학식 7을 수학식 5에 대입함으로써, 가상시점의 합성화상의 화소의 좌표 (Sv, Tv)로부터, 대응하는 월드좌표계의 평면의 3차원 좌표 (Xw, Yw, Zw)를 구할 수 있다.
이 월드좌표계에서의 3차원 좌표 (Xw, Yw, Zw)에 대응하는 각 카메라화상의 각 화상의 좌표는 수학식 1과 동일한 관계식에, 각 카메라의 위치, 방향에 대응하는 Tx, Ty, Tz, α, β,의 파라미터를 대입하여 계산함으로써 구할 수 있다.
예를 들면, 카메라 1의 위치를 Tx1, Ty1, Tz1, 방향을 α1, β1,1이라고 하면, 합성화상의 화소 (Sv, Tv)에 대응하는 카메라 1의 카메라좌표계 Xe1, Ye1, Ze1이 아래의 수학식 8로부터 계산될 수 있다.
이 카메라좌표계와 카메라화상의 좌표계 (U1, V1)의 관계는 카메라 1의 초점거리를 f1로 하여 수학식 3으로부터,
로 하여 계산할 수 있다. 대응하는 카메라화상의 화소는 카메라화상의 크기를 세로 H1화소, 가로 W1화소로 하여 애스펙트비 1:1, 카메라중심이 화상의 중심이라고 생각하면 다음 수학식 10에서 계산할 수 있다.
이상의 절차에 의해 가상시점화상의 화소 (Sv, Tv)에 대응하는 카메라 1의 화상의 화소 (S1, T1)를 구할 수 있었다. 마찬가지로 카메라 1 이외의 일반의 카메라 n에 대해서도, (Sv, Tv)에 대응하는 화소좌표 (Sn, Tn)를 계산할 수 있다. 실제로, 파라미터 테이블에는 그 중에서 (Sn, Tn)이 실제의 카메라화상의 범위 내에 찍혀 있는가, 화소의 확대, 축소율이 크지 않은가 등의 여러가지 조건에 의해 가장 알맞은 것을 1개 또는 복수개 선택하여 카메라번호 n과 그 좌표 (Sn, Tn)를 기입한다.
-원통모델-
상기의 노면평면모델에서는 카메라화상으로 수평선으로부터 위에 찍혀 있는 물체는 노면평면을 무한하게 멀게 연장하여도 노면평면 상에는 실리지 않기 때문에, 가상시점에서 볼 수는 없다.
이들의 물체를 가상시점으로부터의 합성화상에 반영하기 위해, 대상의 3차원 형상으로서 도 49에 나타내는 바와 같은 원통모델을 생각한다. 이 모델은 가상시점의 방향이 노면에 대하여 평행하게 가까워진 경우 등에 유효하다.
지금 간단하게 하기 위해 X축, Z축에 축을 갖는 원통모델을 생각하면 타원원통의 중심을 (Xc, Zc)로 하고, 타원의 파라미터 (a, c)를 이용하여, 그 모델을 다음의 수학식 11로서 나타낸다. 또, X축, Z축 이외에 축을 갖는 모델로도 XZ평면 상에서의 회전을 생각함으로써 용이하게 확장할 수 있다.
수학식 11을 이용하여 수학식 5로부터 Vze를 소거함으로써, 가상시점의 합성화상의 좌표 (Sv, Tv)에 대응하는 월드좌표계의 3차원 좌표 (Xw, Yw, Zw)를 구할수 있다. 이 좌표로부터 상기 노면평면모델과 마찬가지로, 각 카메라화상이 대응하는 화소를 계산함으로써, 가상시점화상의 화소 (Sv, Tv)와 카메라화상의 화소 (Sn, Tn)의 관계를 구하고, 매핑테이블을 작성한다.
또한, 노면평면모델과 원통모델의 조합도 가능하다. 먼저, 노면평면모델에 의한 월드좌표계의 3차원 좌표를 구하고, 그 3차원 좌표가 원통모델의 바깥쪽, 또는 평면과의 교점을 갖지 않아 해답이 나오지 않을 경우는, 다음에 원통모델에 의한 3차원 좌표를 구한다. 이것에 의해 노면평면모델과 원통모델의 복합에 의한 합성이 가능해진다.
-유사원통모델-
노면평면모델의 주변의 원방의 상황을 파악하기 쉽게 하기 위해서 주위를 용기형상의 유사원통모델을 도입한다. 모델의 형상을 도 50에 나타낸다. 가상시점화상의 주변이 될수록, 원방의 부분이 압축되고 합성되어, 보다 넓은 범위가 표시가능하다. 이 유사원통의 형상을 수학식 12로 나타낸다.
용기의 중심이 (Xc, Yc, Zc), X축, Y축, Z축 방향의 (a, b, c)의 길이를 갖는다. 상기 원통모델과 마찬가지로, 수학식 12 및 수학식 5로부터 가상시점으로부터의 합성화상의 좌표에 대응하는 월드좌표계의 3차원 좌표 (Xw, Yw, Zw)를 계산하여, 합성화상의 각 화소와 각 카메라화상의 화소의 대응관계를 구하는 것이 가능하다.
또, 원통모델과 마찬가지로, 노면평면모델과의 조합에 의한 복합모델에 의한 합성도 가능하다.
-렌즈왜곡보정의 처리-
다음에, 매핑테이블에 의해 렌즈수차를 보정하는 방법에 대해서 설명한다. 실제의 카메라화상에 렌즈수차에 의한 왜곡이 있는 경우, 이 왜곡을 상기 Uv, Vv로부터 실제의 화소 S1, T1를 구할 때에, 그 왜곡 부분을 보정한 화소좌표를 계산함으로써, 합성화상으로부터 렌즈수차의 영향을 제거하는 것이 가능하다. 이 왜곡보정은 매핑테이블의 합성화상 (Sv, Tv)과 카메라화상 (Sn, Tn)의 관계에 도입되기 때문에 최초로 왜곡보정을 행한 매핑테이블을 만들면, 실제의 합성시에는 보정을 위한 계산은 불필요해진다. 종래의 렌즈왜곡보정에 사용되는 렌즈중심으로부터의 거리의 함수 등과 같은 왜곡을 정식화할 수 없는 경우라도, 격자 등의 패턴을 촬영하여, 렌즈왜곡에 의한 각 화소가 어떻게 이동하는가의 정보만 있으면 왜곡보정이 가능하다는 특징을 갖고 있다.

Claims (29)

  1. 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 가상시점에서 본 합성화상을 생성하는 화상처리부를 구비하고,
    상기 화상처리부는,
    상기 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 상기 차량의 주행상태에 따라서 변경하는 것을 특징으로 하는 화상처리장치.
  2. 제 1항에 있어서,
    상기 화상처리부는,
    상기 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 상기 차량의 주행속도에 따라서 변경하는 것을 특징으로 하는 화상처리장치.
  3. 제 1항에 있어서,
    상기 화상처리부는,
    가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나의 변경과 함께, 변경 후의 가상시점의 시야범위외 화상의 도입을 제어하는 것을 특징으로 하는 화상처리장치.
  4. 제 3항에 있어서,
    상기 화상처리부는,
    변경 후의 가상시점의 시야범위외 화상의 도입의 제어를, 화상합성을 위한 모델을 변경함으로써 행하는 것을 특징으로 하는 화상처리장치.
  5. 제 1항에 있어서,
    상기 화상처리부는,
    상기 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 상기 차량의 조향각에 따라서 변경하는 것을 특징으로 하는 화상처리장치.
  6. 제 1항에 있어서,
    상기 차량은 장해물을 검출하는 물체검출 센서를 구비하고 있고,
    상기 화상처리부는,
    상기 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 상기 물체검출 센서에 의한 검출결과에 따라서 변경하는 것을 특징으로 하는 화상처리장치.
  7. 제 1항에 있어서,
    상기 화상처리부는,
    소스 매핑테이블을 갖고, 이 소스 매핑테이블로부터 잘라낸 매핑테이블을 이용하여, 합성화상을 생성하는 것이고, 또한,
    상기 소스 매핑테이블로부터 잘라내는 매핑테이블을 변경함으로써, 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 변경하는 것을 특징으로 하는 화상처리장치.
  8. 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 가상시점에서 본 합성화상을 생성하는 화상처리부를 구비하고,
    상기 화상처리부는,
    상기 차량의 주행상태에 따라서 상기 가상시점의 시야범위외 화상의 도입을 제어하는 것을 특징으로 하는 화상처리장치.
  9. 차량의 주위를 촬영하는 복수의 카메라와,
    상기 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 가상시점에서 본 합성화상을 생성하는 화상처리부와,
    상기 합성화상을 표시하는 표시부를 구비하고,
    상기 화상처리부는,
    상기 가상시점의 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나를 상기 차량의 주행상태에 따라서 변경하는 것을 특징으로 하는 감시시스템.
  10. 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부를 구비하고,
    상기 화상처리부는,
    가상시점에서 본 제 1 화상과, 상기 제 1 화상의 가상시점과 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나가 다른 시점에서 본, 또는 상기 제 1 화상과 모델이 다른 제 2 화상을 포함하는 화상을 상기 합성화상으로서 생성하는 것을 특징으로 하는 화상처리장치.
  11. 제 10항에 있어서,
    상기 제 2 화상은 상기 카메라화상의 적어도 하나인 것을 특징으로 하는 화상처리장치.
  12. 제 10항에 있어서,
    상기 제 1 화상은 자신의 차량 및 그 주변을 나타내는 근방화상이고,
    상기 제 2 화상은 상기 근방화상이 나타내는 자신의 차량의 주변영역보다도 원방의 영역을 나타내는 원방화상인 것을 특징으로 하는 화상처리장치.
  13. 제 12항에 있어서,
    상기 화상처리부는,
    상기 합성화상에 있어서, 상기 근방화상의 주위에 상기 원방화상을 배치하는 것을 특징으로 하는 화상처리장치.
  14. 제 13항에 있어서,
    상기 원방화상은 상기 근방화상과 연속성을 갖는 화상인 것을 특징으로 하는 화상처리장치.
  15. 제 10항에 있어서,
    상기 제 1 화상은 자신의 차량의 적어도 일부와, 자신의 차량의 주위의 적어도 일부를 나타내는 화상이고,
    상기 제 2 화상은 상기 제 1 화상이 나타내는 영역의 적어도 일부를 확대한 화상인 것을 특징으로 하는 화상처리장치.
  16. 차량의 주위를 촬영하는 복수의 카메라와,
    상기 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부와,
    상기 합성화상을 표시하는 표시부를 구비하고,
    상기 화상처리부는,
    가상시점에서 본 제 1 화상과, 상기 제 1 화상의 가상시점과 위치, 시선의 방향 및 초점거리 중의 적어도 어느 하나가 다른 시점에서 본, 또는 상기 제 1 화상과 모델이 다른 제 2 화상을 포함하는 화상을 상기 합성화상으로서 생성하는 것을 특징으로 하는 감시시스템.
  17. 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부를 구비하고,
    상기 화상처리부는,
    상기 합성화상에 있어서 자신의 차량이 존재하는 차량영역의 적어도 일부와, 자신의 차량의 주위의 적어도 일부를 나타내고, 주의를 환기하기 위한 주의환기영역을 표시하는 것을 특징으로 하는 화상처리장치.
  18. 제 17항에 있어서,
    상기 합성화상은 상기 차량의 위쪽에 설정된 가상시점에서 본 화상인 것을 특징으로 하는 화상처리장치.
  19. 제 17항에 있어서,
    상기 화상처리부는,
    상기 차량영역에 자신의 차량의 일러스트화상 또는 실제 화상을 표시하는 것을 특징으로 하는 화상처리장치.
  20. 제 17항에 있어서,
    상기 주의환기영역은 어느 쪽의 카메라에서도 촬영할 수 없는 차량주위의 사각영역의 적어도 일부를 포함하는 것을 특징으로 하는 화상처리장치.
  21. 제 17항에 있어서,
    상기 주의환기영역은 어느 쪽의 카메라에서도 촬영할 수 없는 차량주위의 사각영역에 상당하는 영역인 것을 특징으로 하는 화상처리장치.
  22. 제 20항 또는 제 21항에 있어서,
    상기 화상처리부는,
    각 카메라화상에서의 자신의 차량의 영사영역을 나타내는 영역데이터를 이용하여, 상기 사각영역 및 차량영역을 합친 영역의 범위를 결정하는 것을 특징으로 하는 화상처리장치.
  23. 차량의 주위를 촬영하는 복수의 카메라와,
    상기 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부와,
    상기 합성화상을 표시하는 표시부를 구비하고,
    상기 화상처리부는,
    상기 합성화상에서 자신의 차량이 존재하는 차량영역의 적어도 일부와, 자신의 차량의 주위의 적어도 일부를 나타내고, 주의를 환기하기 위한 주의환기영역을 표시하는 것을 특징으로 하는 감시시스템.
  24. 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들카메라화상으로부터 합성화상을 생성하는 화상처리부를 구비하고,
    상기 화상처리부는,
    합성화상의 화소와, 카메라화상의 화소와의 대응관계를 기술하는 제 1 매핑데이터와, 합성화상의 화소와, 카메라화상 이외의 화소데이터가 대응하는 것을 나타내는 식별자를 기술하는 제 2 매핑데이터를 갖는 매핑테이블을 이용하여, 상기 합성화상을 생성하는 것을 특징으로 하는 화상처리장치.
  25. 제 24항에 있어서,
    상기 카메라화상 이외의 화소데이터는 상기 차량 또는 상기 차량의 주위의 적어도 일부에 있는 사각영역을 나타내는 것을 특징으로 하는 화상처리장치.
  26. 제 24항에 있어서,
    상기 화상처리부는 카메라화상 이외의 소정의 화상을 기억하고 있고,
    상기 제 2 매핑데이터는,
    합성화상의 화소에 대하여, 당해 화소에 대응하는 기억된 상기 소정의 화상에서의 좌표값을 기술하는 것을 특징으로 하는 화상처리장치.
  27. 제 24항에 있어서,
    상기 제 2 매핑데이터는,
    합성화상의 화소에 대응하는 화소데이터를 기술하는 것을 특징으로 하는 화상처리장치.
  28. 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부를 구비하고,
    상기 화상처리부는,
    합성화상의 화소와, 카메라화상의 화소데이터 및 카메라화상 이외의 화소 데이터 중의 한쪽 또는 양쪽으로 이루어진 복수의 화소데이터와의 대응관계를 기술하고, 또한 각 화소데이터에 대하여 각각 필요도를 기술한 매핑데이터를 이용하며,
    각 화소데이터에 대하여 필요도에 따른 가중을 행하고, 상기 합성화상의 화소의 화소데이터를 생성하는 것을 특징으로 하는 화상처리장치.
  29. 차량의 주위를 촬영하는 복수의 카메라의 촬상화상을 입력으로 하여, 이들의 카메라화상으로부터 합성화상을 생성하는 화상처리부를 구비하고,
    상기 화상처리부는,
    소스 매핑테이블을 갖고,
    이 소스 매핑테이블로부터 합성화상의 화소와 카메라화상의 화소의 대응관계를 기술하는 매핑테이블을 잘라내고, 잘라낸 매핑테이블을 이용하여, 합성화상을 생성하는 것을 특징으로 하는 화상처리장치.
KR1020017013196A 1999-04-16 2000-04-17 화상처리장치 및 감시시스템 KR20010112433A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-1999-00109946 1999-04-16
JP10994699 1999-04-16
PCT/JP2000/002474 WO2000064175A1 (fr) 1999-04-16 2000-04-17 Dispositif de traitement d'images et systeme de surveillance

Publications (1)

Publication Number Publication Date
KR20010112433A true KR20010112433A (ko) 2001-12-20

Family

ID=14523136

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020017013196A KR20010112433A (ko) 1999-04-16 2000-04-17 화상처리장치 및 감시시스템

Country Status (6)

Country Link
US (1) US7161616B1 (ko)
EP (3) EP2410742A1 (ko)
KR (1) KR20010112433A (ko)
CN (1) CN100438623C (ko)
CA (1) CA2369648A1 (ko)
WO (1) WO2000064175A1 (ko)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100763234B1 (ko) * 2004-06-11 2007-10-04 삼성전자주식회사 주행 상태를 감지하는 시스템 및 방법
KR100882689B1 (ko) * 2007-12-06 2009-02-06 현대자동차주식회사 차량의 측후방 모니터링 시스템 및 그 제어방법
KR100936558B1 (ko) * 2007-09-26 2010-01-13 닛산 지도우샤 가부시키가이샤 차량용 주변 감시 장치 및 영상 표시 방법
KR100936557B1 (ko) * 2007-09-26 2010-01-13 닛산 지도우샤 가부시키가이샤 차량용 주변 감시 장치 및 영상 표시 방법
KR101239740B1 (ko) * 2011-12-08 2013-03-18 아진산업(주) 폴리곤 매핑 및 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치
US8446268B2 (en) 2009-04-14 2013-05-21 Hyundai Motor Japan R&D Center, Inc. System for displaying views of vehicle and its surroundings
WO2013081287A1 (ko) * 2011-11-30 2013-06-06 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
KR101295295B1 (ko) * 2009-03-25 2013-08-12 후지쯔 가부시끼가이샤 화상 처리 방법 및 화상 처리 장치
KR101354068B1 (ko) * 2009-08-03 2014-01-22 아이신세이끼가부시끼가이샤 차량주변화상생성장치
KR101406232B1 (ko) * 2012-12-20 2014-06-12 현대오트론 주식회사 도어 열림 경보 장치 및 방법
KR101481681B1 (ko) * 2012-11-13 2015-01-12 애비소닉 테크놀로지 코포레이션 차량용 이미지 시스템 및 차량 이미지의 디스플레이 제어 방법
KR20180026216A (ko) * 2016-09-02 2018-03-12 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
KR20190004708A (ko) * 2016-05-05 2019-01-14 하만인터내셔날인더스트리스인코포레이티드 운전자 지원을 위한 시스템 및 방법

Families Citing this family (444)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000020257A1 (fr) 1998-10-08 2000-04-13 Matsushita Electric Industrial Co., Ltd. Dispositif d'assistance a la conduite et support enregistre
EP1150252B1 (en) * 2000-04-28 2018-08-15 Panasonic Intellectual Property Management Co., Ltd. Synthesis of image from a plurality of camera views
JP4156181B2 (ja) * 2000-07-12 2008-09-24 日産自動車株式会社 駐車支援装置
JP3645196B2 (ja) 2001-02-09 2005-05-11 松下電器産業株式会社 画像合成装置
JP3297040B1 (ja) * 2001-04-24 2002-07-02 松下電器産業株式会社 車載カメラの画像合成表示方法及びその装置
JP2002316602A (ja) * 2001-04-24 2002-10-29 Matsushita Electric Ind Co Ltd 車載カメラの撮像画像表示方法及びその装置
JP4059309B2 (ja) * 2001-05-07 2008-03-12 松下電器産業株式会社 車載カメラの画像表示制御方法及びその装置
JP2002334322A (ja) * 2001-05-10 2002-11-22 Sharp Corp 透視投影画像生成システム、透視投影画像生成方法、透視投影画像生成プログラムおよび透視投影画像生成プログラムを記憶した記憶媒体
JP4860835B2 (ja) * 2001-06-11 2012-01-25 クラリオン株式会社 パノラマ画像表示方法及びパノラマ画像表示装置
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
JP4512293B2 (ja) 2001-06-18 2010-07-28 パナソニック株式会社 監視システムおよび監視方法
JP4713033B2 (ja) * 2001-06-29 2011-06-29 本田技研工業株式会社 車両周辺環境表示装置
JP4786076B2 (ja) * 2001-08-09 2011-10-05 パナソニック株式会社 運転支援表示装置
ATE311725T1 (de) 2001-09-07 2005-12-15 Matsushita Electric Ind Co Ltd Vorrichtung zum anzeigen der umgebung eines fahrzeuges und system zur bildbereitstellung
JP3606853B2 (ja) * 2001-09-07 2005-01-05 松下電器産業株式会社 車両周囲状況表示装置
JP2003102000A (ja) * 2001-09-26 2003-04-04 Clarion Co Ltd 車両後方監視方法、車両後方監視装置及び信号処理装置
JP2003102002A (ja) * 2001-09-26 2003-04-04 Clarion Co Ltd 車両周囲監視方法、車両周囲監視装置および信号処理装置
JP3815291B2 (ja) * 2001-10-24 2006-08-30 日産自動車株式会社 車両後方監視装置
JP2003132349A (ja) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd 描画装置
JP2003149711A (ja) * 2001-11-08 2003-05-21 Clarion Co Ltd 車両用モニタ装置
JP4364471B2 (ja) * 2001-12-28 2009-11-18 株式会社エクォス・リサーチ 車両の画像処理装置
JP2003209835A (ja) * 2002-01-11 2003-07-25 Clarion Co Ltd 車両周囲監視装置
JP2003219411A (ja) * 2002-01-17 2003-07-31 Clarion Co Ltd 車両周囲監視方法および車両周囲監視装置
JP3916958B2 (ja) * 2002-01-24 2007-05-23 クラリオン株式会社 車両後方モニタシステムおよびモニタ装置
JP4021685B2 (ja) * 2002-03-04 2007-12-12 松下電器産業株式会社 画像合成変換装置
JP2003264825A (ja) * 2002-03-06 2003-09-19 Nissan Motor Co Ltd 車載カメラ映像合成表示装置
JP3855814B2 (ja) * 2002-03-22 2006-12-13 日産自動車株式会社 車両用画像処理装置
US20080292211A1 (en) * 2002-04-02 2008-11-27 Frantz Robert H Vehicle exterior examination and search system
JP2003348574A (ja) * 2002-05-24 2003-12-05 Nissan Motor Co Ltd 車両用映像表示装置
US7145519B2 (en) 2002-04-18 2006-12-05 Nissan Motor Co., Ltd. Image display apparatus, method, and program for automotive vehicle
EP1497160B2 (de) * 2002-04-19 2010-07-21 IEE INTERNATIONAL ELECTRONICS &amp; ENGINEERING S.A. Sicherheitsvorrichtung für ein fahrzeug
JP2004007299A (ja) * 2002-06-03 2004-01-08 Nissan Motor Co Ltd 車両用映像表示装置
JP3871614B2 (ja) * 2002-06-12 2007-01-24 松下電器産業株式会社 運転支援装置
JP4004871B2 (ja) * 2002-06-27 2007-11-07 クラリオン株式会社 車両周囲画像表示方法、その車両周囲画像表示方法に用いられる信号処理装置、及びその信号処理装置を搭載した車両周囲監視装置
JP2004056683A (ja) * 2002-07-23 2004-02-19 Sumitomo Electric Ind Ltd 画像変換システム、画像処理装置及び画像変換方法
JP3982357B2 (ja) * 2002-07-24 2007-09-26 住友電気工業株式会社 画像変換システム及び画像処理装置
JP2004062103A (ja) * 2002-07-31 2004-02-26 Sony Corp 画像処理装置および方法、情報処理装置および方法、記録媒体、並びにプログラム
DE10238936A1 (de) * 2002-08-24 2004-03-04 Robert Bosch Gmbh Vorrichtung und Verfahren zur Steuerung wenigstens einer Systemkomponente eines informationstechnischen Systems
JP2004147210A (ja) * 2002-10-25 2004-05-20 Matsushita Electric Ind Co Ltd 運転支援装置
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
US7619626B2 (en) * 2003-03-01 2009-11-17 The Boeing Company Mapping images from one or more sources into an image for display
US7148861B2 (en) * 2003-03-01 2006-12-12 The Boeing Company Systems and methods for providing enhanced vision imaging with decreased latency
US7450165B2 (en) * 2003-05-02 2008-11-11 Grandeye, Ltd. Multiple-view processing in wide-angle video camera
US20100002070A1 (en) 2004-04-30 2010-01-07 Grandeye Ltd. Method and System of Simultaneously Displaying Multiple Views for Video Surveillance
JP3797343B2 (ja) * 2003-05-12 2006-07-19 株式会社デンソー 車両周辺表示装置
JP4095491B2 (ja) * 2003-05-19 2008-06-04 本田技研工業株式会社 距離測定装置、距離測定方法、及び距離測定プログラム
JP4247066B2 (ja) * 2003-08-01 2009-04-02 株式会社オートネットワーク技術研究所 車両周辺視認装置
JP4479183B2 (ja) * 2003-08-05 2010-06-09 日産自動車株式会社 映像提示装置
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
JP2005167638A (ja) * 2003-12-02 2005-06-23 Sharp Corp 移動体周囲監視装置、移動体および画像変換方法
US11455799B2 (en) 2004-01-30 2022-09-27 Airspace Reality Image networks for mobile communication
US10140514B1 (en) * 2004-01-30 2018-11-27 Ip Holdings, Inc. Capturing and sharing images with mobile device users including for a limited duration of time
JP4457690B2 (ja) * 2004-02-18 2010-04-28 日産自動車株式会社 運転支援装置
JP2005242606A (ja) * 2004-02-26 2005-09-08 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2005258792A (ja) * 2004-03-11 2005-09-22 Olympus Corp 画像生成装置、画像生成方法、および画像生成プログラム
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
JP2005269010A (ja) * 2004-03-17 2005-09-29 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2005268847A (ja) * 2004-03-16 2005-09-29 Olympus Corp 画像生成装置、画像生成方法、および画像生成プログラム
US7679497B1 (en) * 2004-04-15 2010-03-16 Kenneth Eugene Arant Recovering legal evidence of unfavorable events or conditions during vehicle operations
JPWO2005107261A1 (ja) * 2004-04-27 2008-03-21 松下電器産業株式会社 車両周囲表示装置
JP4552525B2 (ja) * 2004-06-11 2010-09-29 株式会社エクォス・リサーチ 車両の画像処理装置
WO2005125208A1 (ja) * 2004-06-15 2005-12-29 Matsushita Electric Industrial Co., Ltd. 監視装置および車両周辺監視装置
JP4374286B2 (ja) * 2004-06-29 2009-12-02 株式会社アドバネット 画像合成装置
JP2006035980A (ja) * 2004-07-26 2006-02-09 Matsushita Electric Ind Co Ltd 乗り心地向上装置
JP2006050263A (ja) * 2004-08-04 2006-02-16 Olympus Corp 画像生成方法および装置
JP2006050246A (ja) * 2004-08-04 2006-02-16 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
US7629995B2 (en) * 2004-08-06 2009-12-08 Sony Corporation System and method for correlating camera views
JP4608268B2 (ja) * 2004-08-18 2011-01-12 オリンパス株式会社 画像生成方法および装置
WO2006018951A1 (ja) * 2004-08-18 2006-02-23 Olympus Corporation 画像生成方法および画像生成装置
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
JP2006112962A (ja) * 2004-10-15 2006-04-27 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP3927571B2 (ja) * 2004-10-25 2007-06-13 株式会社日立国際電気 画像表示プログラム
JP4639753B2 (ja) * 2004-10-25 2011-02-23 日産自動車株式会社 運転支援装置
JP4573242B2 (ja) * 2004-11-09 2010-11-04 アルパイン株式会社 運転支援装置
US7619658B2 (en) * 2004-11-15 2009-11-17 Hewlett-Packard Development Company, L.P. Methods and systems for producing seamless composite images without requiring overlap of source images
EP1850595B1 (en) * 2005-02-15 2016-07-13 Panasonic Intellectual Property Management Co., Ltd. Periphery supervising device, and periphery supervising method
EP1696669B1 (en) 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
US7782374B2 (en) 2005-03-03 2010-08-24 Nissan Motor Co., Ltd. Processor and processing method for generating a panoramic image for a vehicle
JP4907883B2 (ja) * 2005-03-09 2012-04-04 株式会社東芝 車両周辺画像表示装置および車両周辺画像表示方法
EP1705063A1 (en) 2005-03-23 2006-09-27 IEE INTERNATIONAL ELECTRONICS &amp; ENGINEERING S.A. Vehicle blind spot monitoring system
JP4654736B2 (ja) * 2005-04-04 2011-03-23 日産自動車株式会社 俯瞰映像表示装置
JP2006287826A (ja) * 2005-04-05 2006-10-19 Nissan Motor Co Ltd 車両用画像生成装置および方法
JP4956915B2 (ja) * 2005-05-20 2012-06-20 日産自動車株式会社 映像表示装置及び映像表示方法
JP2006341641A (ja) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
WO2007015446A1 (ja) * 2005-08-02 2007-02-08 Nissan Motor Co., Ltd. 車両周囲監視装置及び車両周囲監視方法
JP4809019B2 (ja) * 2005-08-31 2011-11-02 クラリオン株式会社 車両用障害物検出装置
JP2007088577A (ja) * 2005-09-20 2007-04-05 Denso Corp 車両周辺画像処理システム
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
US7499586B2 (en) * 2005-10-04 2009-03-03 Microsoft Corporation Photographing big things
JP4810953B2 (ja) * 2005-10-07 2011-11-09 日産自動車株式会社 車両用死角映像表示装置
JP2007110177A (ja) * 2005-10-10 2007-04-26 Denso Corp 画像処理装置及びプログラム
FR2891934B1 (fr) * 2005-10-12 2008-01-18 Valeo Electronique Sys Liaison Dispositif de traitement de donnees video pour un vehicule automobile
JP4579145B2 (ja) * 2005-11-30 2010-11-10 アルパイン株式会社 車両周辺画像表示装置
JP4600999B2 (ja) * 2005-12-26 2010-12-22 アルパイン株式会社 車両周囲監視装置
JP4707109B2 (ja) * 2006-03-02 2011-06-22 アルパイン株式会社 複数カメラ撮影画像処理方法及び装置
JP2007235842A (ja) * 2006-03-03 2007-09-13 Denso Corp 車載画像表示システム
JP4104631B2 (ja) * 2006-03-27 2008-06-18 三洋電機株式会社 運転支援装置
JP2007274377A (ja) * 2006-03-31 2007-10-18 Denso Corp 周辺監視装置、プログラム
JP4656005B2 (ja) * 2006-06-02 2011-03-23 日産自動車株式会社 画像処理システム及び画像処理方法
JP4863791B2 (ja) * 2006-07-05 2012-01-25 アルパイン株式会社 車両周辺画像生成装置および画像切替方法
JP4254887B2 (ja) * 2006-07-06 2009-04-15 日産自動車株式会社 車両用画像表示システム
US20090128630A1 (en) * 2006-07-06 2009-05-21 Nissan Motor Co., Ltd. Vehicle image display system and image display method
DE102006031895B4 (de) * 2006-07-07 2014-03-27 Continental Automotive Gmbh Anzeigesystem zur Visualisierung von Fahrzeugabständen
JP5117003B2 (ja) * 2006-07-11 2013-01-09 本田技研工業株式会社 運転支援装置
JP4193886B2 (ja) 2006-07-26 2008-12-10 トヨタ自動車株式会社 画像表示装置
US20080027985A1 (en) * 2006-07-31 2008-01-31 Microsoft Corporation Generating spatial multimedia indices for multimedia corpuses
US7712052B2 (en) 2006-07-31 2010-05-04 Microsoft Corporation Applications of three-dimensional environments constructed from images
JP5013773B2 (ja) 2006-08-18 2012-08-29 パナソニック株式会社 車載画像処理装置及びその視点変換情報生成方法
WO2008026510A1 (fr) 2006-08-30 2008-03-06 Toyota Mapmaster Incorporated Système de création d'image de route
JP5159070B2 (ja) * 2006-08-31 2013-03-06 アルパイン株式会社 車両周辺画像表示装置及び表示方法
JP4642723B2 (ja) * 2006-09-26 2011-03-02 クラリオン株式会社 画像生成装置および画像生成方法
DE102006052779A1 (de) * 2006-11-09 2008-05-15 Bayerische Motoren Werke Ag Verfahren zur Erzeugung eines Gesamtbilds der Umgebung eines Kraftfahrzeugs
US8425058B2 (en) * 2006-11-14 2013-04-23 Alpine Electronics, Inc. Optical unit, image pickup device using the optical unit, and on-vehicle image display device using the image pickup device
US8498497B2 (en) * 2006-11-17 2013-07-30 Microsoft Corporation Swarm imaging
US9442607B2 (en) * 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
JP4927512B2 (ja) * 2006-12-05 2012-05-09 株式会社日立製作所 画像生成装置
JP4855918B2 (ja) * 2006-12-12 2012-01-18 クラリオン株式会社 運転支援装置
JP4927514B2 (ja) * 2006-12-12 2012-05-09 クラリオン株式会社 運転支援装置
JP4859652B2 (ja) * 2006-12-15 2012-01-25 アルパイン株式会社 画像表示装置
JP4893945B2 (ja) * 2007-02-06 2012-03-07 株式会社デンソー 車両周辺監視装置
JP4969269B2 (ja) * 2007-02-21 2012-07-04 アルパイン株式会社 画像処理装置
GB2447672B (en) 2007-03-21 2011-12-14 Ford Global Tech Llc Vehicle manoeuvring aids
JP4945315B2 (ja) * 2007-05-23 2012-06-06 三洋電機株式会社 運転支援システム及び車両
JP2007302238A (ja) * 2007-05-29 2007-11-22 Equos Research Co Ltd 車両の画像処理装置
JP5003946B2 (ja) * 2007-05-30 2012-08-22 アイシン精機株式会社 駐車支援装置
JP2009017020A (ja) * 2007-07-02 2009-01-22 Nissan Motor Co Ltd 画像処理装置及び表示画像生成方法
KR100882011B1 (ko) * 2007-07-29 2009-02-04 주식회사 나노포토닉스 회전 대칭형의 광각 렌즈를 이용하여 전방위 영상을 얻는 방법 및 장치
JP4450036B2 (ja) * 2007-09-10 2010-04-14 トヨタ自動車株式会社 複合画像生成装置、及びプログラム
JP4458138B2 (ja) * 2007-09-18 2010-04-28 株式会社デンソー 車両周辺監視装置
US8218007B2 (en) * 2007-09-23 2012-07-10 Volkswagen Ag Camera system for a vehicle and method for controlling a camera system
JP5088074B2 (ja) 2007-10-01 2012-12-05 日産自動車株式会社 駐車支援装置及び方法
JP5380941B2 (ja) 2007-10-01 2014-01-08 日産自動車株式会社 駐車支援装置及び方法
JP4412380B2 (ja) * 2007-10-02 2010-02-10 アイシン・エィ・ダブリュ株式会社 運転支援装置、運転支援方法及びコンピュータプログラム
JP4988499B2 (ja) * 2007-10-10 2012-08-01 株式会社日本自動車部品総合研究所 画像生成装置及び画像生成プログラム
JP5120880B2 (ja) 2007-10-15 2013-01-16 アルパイン株式会社 画像処理装置及び画像処理方法
DE102007049821A1 (de) 2007-10-16 2009-04-23 Daimler Ag Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit
JP5090126B2 (ja) * 2007-10-23 2012-12-05 アルパイン株式会社 車載用撮像装置
JP5132249B2 (ja) * 2007-10-23 2013-01-30 アルパイン株式会社 車載用撮像装置
JP5057936B2 (ja) * 2007-11-09 2012-10-24 アルパイン株式会社 鳥瞰画像生成装置および方法
JP5053043B2 (ja) 2007-11-09 2012-10-17 アルパイン株式会社 車両周辺画像生成装置および車両周辺画像の歪み補正方法
US8694195B2 (en) * 2007-12-04 2014-04-08 Volkswagen Ag Motor vehicle having a wheel-view camera and method for controlling a wheel-view camera system
JP5292874B2 (ja) * 2007-12-17 2013-09-18 富士通株式会社 車両用画像処理装置、車両用画像処理プログラム、車両用画像処理方法
JP5072576B2 (ja) * 2007-12-20 2012-11-14 アルパイン株式会社 画像表示方法および画像表示装置
JP5064201B2 (ja) * 2007-12-21 2012-10-31 アルパイン株式会社 画像表示システム及びカメラ出力制御方法
JP4900232B2 (ja) * 2007-12-26 2012-03-21 日産自動車株式会社 車両用駐車支援装置および映像表示方法
JP5067169B2 (ja) * 2008-01-15 2012-11-07 日産自動車株式会社 車両用駐車支援装置および画像表示方法
US8923648B2 (en) * 2008-01-21 2014-12-30 Denso International America, Inc. Weighted average image blending based on relative pixel position
JP4874280B2 (ja) * 2008-03-19 2012-02-15 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
JP5222597B2 (ja) * 2008-03-19 2013-06-26 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
WO2009119110A1 (ja) * 2008-03-27 2009-10-01 パナソニック株式会社 死角表示装置
DE102008060684B4 (de) * 2008-03-28 2019-05-23 Volkswagen Ag Verfahren und Vorrichtung zum automatischen Einparken eines Kraftfahrzeugs
EP2280547A4 (en) * 2008-05-19 2013-02-13 Panasonic Corp VEHICLE SURROUNDING MONITORING DEVICE AND VEHICLE ENTOURING MONITORING METHOD
JP5397373B2 (ja) 2008-05-29 2014-01-22 富士通株式会社 車両用画像処理装置、車両用画像処理方法
JP2008278526A (ja) * 2008-06-16 2008-11-13 Panasonic Corp 運転支援画像生成装置
JP5094597B2 (ja) * 2008-07-02 2012-12-12 本田技研工業株式会社 運転支援装置
US8155802B1 (en) * 2008-07-11 2012-04-10 Lockheed Martin Corporation Optical flow navigation system
DE102008034606A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung der Umgebung eines Fahrzeugs auf einer mobilen Einheit
DE102008064951B3 (de) 2008-07-25 2022-11-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Information eines Insassen eines Fahrzeuges
DE102008034594B4 (de) 2008-07-25 2021-06-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren sowie Informationssystem zur Information eines Insassen eines Fahrzeuges
JP4661917B2 (ja) * 2008-07-25 2011-03-30 日産自動車株式会社 駐車支援装置および駐車支援方法
KR101394740B1 (ko) * 2008-08-14 2014-05-15 현대자동차일본기술연구소 자동차용 표시장치 및 그 제어 방법
DE102008046214A1 (de) * 2008-09-08 2009-04-30 Daimler Ag Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
JP5112998B2 (ja) 2008-09-16 2013-01-09 本田技研工業株式会社 車両周囲監視装置
JP5420216B2 (ja) * 2008-09-16 2014-02-19 本田技研工業株式会社 車両周囲監視装置
EP2179892A1 (de) 2008-10-24 2010-04-28 Magna Electronics Europe GmbH & Co. KG Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
JP5182042B2 (ja) 2008-11-28 2013-04-10 富士通株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP5067632B2 (ja) * 2008-11-28 2012-11-07 アイシン精機株式会社 鳥瞰画像生成装置
JP5300443B2 (ja) 2008-12-01 2013-09-25 富士通テン株式会社 画像処理装置
JP4876118B2 (ja) * 2008-12-08 2012-02-15 日立オートモティブシステムズ株式会社 立体物出現検知装置
DE102008054641A1 (de) 2008-12-15 2010-06-17 Robert Bosch Gmbh Steuereinrichtung und Verfahren zur Erzeugung einer Anzeigendarstellung
KR100966288B1 (ko) * 2009-01-06 2010-06-28 주식회사 이미지넥스트 주변 영상 생성 방법 및 장치
JP2010183170A (ja) * 2009-02-03 2010-08-19 Denso Corp 車両用表示装置
WO2010099416A1 (en) 2009-02-27 2010-09-02 Magna Electronics Alert system for vehicle
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
JP5195592B2 (ja) * 2009-03-31 2013-05-08 富士通株式会社 映像処理装置
JP5324310B2 (ja) 2009-05-14 2013-10-23 富士通テン株式会社 車載照明装置、画像処理装置及び画像表示システム
US8376595B2 (en) 2009-05-15 2013-02-19 Magna Electronics, Inc. Automatic headlamp control
JP5986611B2 (ja) * 2009-05-29 2016-09-06 富士通テン株式会社 画像処理装置、電子装置、および、画像処理方法
JP5271154B2 (ja) * 2009-05-29 2013-08-21 富士通テン株式会社 画像生成装置及び画像表示システム
JP5627253B2 (ja) 2009-05-29 2014-11-19 富士通テン株式会社 画像処理装置、電子装置、および、画像処理方法
JP2009194938A (ja) * 2009-06-01 2009-08-27 Equos Research Co Ltd 車両画像処理装置
US8732592B2 (en) * 2009-06-08 2014-05-20 Battelle Energy Alliance, Llc Methods and systems relating to an augmented virtuality environment
JP5412979B2 (ja) * 2009-06-19 2014-02-12 コニカミノルタ株式会社 周辺表示装置
CN102804762A (zh) * 2009-06-29 2012-11-28 松下电器产业株式会社 车载用影像显示装置
JP5226621B2 (ja) * 2009-07-06 2013-07-03 東芝アルパイン・オートモティブテクノロジー株式会社 車両用画像表示装置
JP5031801B2 (ja) * 2009-07-28 2012-09-26 日立オートモティブシステムズ株式会社 車載用画像表示装置
CN101990045B (zh) * 2009-07-29 2014-02-19 鸿富锦精密工业(深圳)有限公司 数字图像检测系统及方法
JP5436086B2 (ja) * 2009-08-03 2014-03-05 アルパイン株式会社 車両周辺画像表示装置および車両周辺画像表示方法
US8310523B2 (en) * 2009-08-27 2012-11-13 Sony Corporation Plug-in to enable CAD software not having greater than 180 degree capability to present image from camera of more than 180 degrees
US8988525B2 (en) * 2009-08-27 2015-03-24 Robert Bosch Gmbh System and method for providing guidance information to a driver of a vehicle
JP2011091527A (ja) * 2009-10-21 2011-05-06 Panasonic Corp 映像変換装置及び撮像装置
DE102009054214B4 (de) * 2009-11-21 2013-03-14 Diehl Bgt Defence Gmbh & Co. Kg Verfahren und Vorrichtung zum Erzeugen einer Darstellung einer Umgebung
JP2011135253A (ja) * 2009-12-24 2011-07-07 Fujitsu Ten Ltd 画像処理装置、画像処理システム、および、画像処理方法
TWI417639B (zh) * 2009-12-30 2013-12-01 Ind Tech Res Inst 全周鳥瞰影像無縫接合方法與系統
TWI392366B (zh) * 2009-12-31 2013-04-01 Ind Tech Res Inst 全周鳥瞰影像距離介面產生方法與系統
JP5521599B2 (ja) * 2010-02-08 2014-06-18 富士通株式会社 映像合成装置、及び映像合成プログラム
US8456518B2 (en) * 2010-03-31 2013-06-04 James Cameron & Vincent Pace Stereoscopic camera with automatic obstruction removal
JP5090496B2 (ja) * 2010-04-12 2012-12-05 住友重機械工業株式会社 画像生成装置及び操作支援システム
DE102010015079A1 (de) 2010-04-15 2011-10-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen eines Bildes auf einer Anzeigeeinrichtung in einem Fahrzeug. Fahrerassistenzsystem und Fahrzeug
JP5645450B2 (ja) * 2010-04-16 2014-12-24 キヤノン株式会社 画像処理装置および方法
US8594972B2 (en) * 2010-06-11 2013-11-26 The Johns Hopkins University System and method for tomographic retrieval of parameter profile from traveling path
JP5178961B2 (ja) 2010-07-14 2013-04-10 三菱電機株式会社 画像合成装置
DE102010033003A1 (de) 2010-07-31 2011-03-17 Daimler Ag Orientierungshilfe für Kraftfahrzeuge
DE102010034127A1 (de) * 2010-08-12 2012-02-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung in einem Kraftfahrzeug, Fahrerassistenzsystem und Kraftfahrzeug
DE102010034139A1 (de) * 2010-08-12 2012-02-16 Valeo Schalter Und Sensoren Gmbh Verfahren zur Unterstützung eines Parkvorgangs eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
CN102381252A (zh) * 2010-09-02 2012-03-21 张士达 车用全方位视角监控系统及使用该系统的汽车
DE102010040803A1 (de) * 2010-09-15 2012-03-15 Continental Teves Ag & Co. Ohg Visuelles Fahrerinformations- und Warnsystem für einen Fahrer eines Kraftfahrzeugs
JP5251947B2 (ja) * 2010-09-17 2013-07-31 日産自動車株式会社 車両用画像表示装置
JP5454934B2 (ja) 2010-09-21 2014-03-26 アイシン精機株式会社 運転支援装置
DE102010047162A1 (de) * 2010-09-30 2012-04-05 Valeo Schalter Und Sensoren Gmbh Verfahren und Vorrichtung zum Erkennen von freien Parkplätzen
WO2012061567A1 (en) 2010-11-04 2012-05-10 Magna Electronics Inc. Vehicular camera system with reduced number of pins and conduits
DE102010051205A1 (de) 2010-11-12 2012-05-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung, Kamerasystem und Kraftfahrzeug mit einem Kamerasystem
WO2012068331A1 (en) 2010-11-19 2012-05-24 Magna Electronics Inc. Lane keeping system and lane centering system
JP5516992B2 (ja) 2010-11-30 2014-06-11 アイシン精機株式会社 駐車位置調整装置
US8983717B2 (en) 2010-12-21 2015-03-17 Ford Global Technologies, Llc Vehicle camera system operable in off-road mode and method
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
EP2481636A1 (en) * 2011-01-28 2012-08-01 Nxp B.V. Parking assistance system and method
DE102011010860A1 (de) 2011-02-10 2012-08-16 Connaught Electronics Ltd. Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
JP2012169883A (ja) * 2011-02-15 2012-09-06 Panasonic Corp 運転支援装置および車両
JP5699679B2 (ja) * 2011-02-24 2015-04-15 富士通セミコンダクター株式会社 画像処理装置、画像処理システム、及び画像処理方法
WO2012116043A1 (en) 2011-02-25 2012-08-30 Magna Electronics Inc. Vehicular camera with aligned housing members and electrical connection between aligned housing members
EP2687408B1 (en) * 2011-03-18 2017-06-14 Toyota Jidosha Kabushiki Kaisha Vehicle periphery monitoring device
TW201239807A (en) * 2011-03-24 2012-10-01 Hon Hai Prec Ind Co Ltd Image capture device and method for monitoring specified scene using the image capture device
CN102694968B (zh) * 2011-03-25 2016-03-30 中山市云创知识产权服务有限公司 摄像装置及其环景监控方法
US9194943B2 (en) 2011-04-12 2015-11-24 Magna Electronics Inc. Step filter for estimating distance in a time-of-flight ranging system
EP2511137B1 (en) * 2011-04-14 2019-03-27 Harman Becker Automotive Systems GmbH Vehicle Surround View System
US9854209B2 (en) 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9969428B2 (en) 2011-04-19 2018-05-15 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9500497B2 (en) 2011-04-19 2016-11-22 Ford Global Technologies, Llc System and method of inputting an intended backing path
US9555832B2 (en) 2011-04-19 2017-01-31 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9683848B2 (en) 2011-04-19 2017-06-20 Ford Global Technologies, Llc System for determining hitch angle
US9374562B2 (en) 2011-04-19 2016-06-21 Ford Global Technologies, Llc System and method for calculating a horizontal camera to target distance
US9926008B2 (en) 2011-04-19 2018-03-27 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9723274B2 (en) 2011-04-19 2017-08-01 Ford Global Technologies, Llc System and method for adjusting an image capture setting
US9506774B2 (en) * 2011-04-19 2016-11-29 Ford Global Technologies, Llc Method of inputting a path for a vehicle and trailer
US20160129883A1 (en) * 2011-04-22 2016-05-12 Angel A. Penilla Contact detect feature of a vehicle and notifications to enable live views of vehicle
WO2012145819A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Image processing method for detecting objects using relative motion
JP2012244196A (ja) * 2011-05-13 2012-12-10 Sony Corp 画像処理装置及び方法
JP5858650B2 (ja) * 2011-06-08 2016-02-10 富士通テン株式会社 画像生成装置、画像表示システム、及び、画像生成方法
JP5798392B2 (ja) * 2011-06-27 2015-10-21 クラリオン株式会社 駐車支援装置
JP5853457B2 (ja) * 2011-07-20 2016-02-09 アイシン精機株式会社 車両周辺監視システム
EP2554434B1 (en) * 2011-08-05 2014-05-21 Harman Becker Automotive Systems GmbH Vehicle surround view system
JP5979505B2 (ja) 2011-08-26 2016-08-24 パナソニックIpマネジメント株式会社 運転支援装置
TWI478833B (zh) * 2011-08-31 2015-04-01 Autoequips Tech Co Ltd 調校車用影像裝置之方法及其系統
DE102011082475A1 (de) * 2011-09-12 2013-03-14 Robert Bosch Gmbh Fahrerassistenzsystem zur Unterstützung eines Fahrers in kollisionsrelevanten Situationen
US20140218535A1 (en) 2011-09-21 2014-08-07 Magna Electronics Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable
WO2013048994A1 (en) 2011-09-26 2013-04-04 Magna Electronics, Inc. Vehicle camera image quality improvement in poor visibility conditions by contrast amplification
JP5447490B2 (ja) * 2011-11-18 2014-03-19 アイシン精機株式会社 車両用監視装置
US9264673B2 (en) 2011-11-20 2016-02-16 Magna Electronics, Inc. Vehicle vision system with enhanced functionality
US10071687B2 (en) 2011-11-28 2018-09-11 Magna Electronics Inc. Vision system for vehicle
US9762880B2 (en) 2011-12-09 2017-09-12 Magna Electronics Inc. Vehicle vision system with customized display
JP5803646B2 (ja) * 2011-12-15 2015-11-04 アイシン精機株式会社 車両周辺監視装置
US9697735B2 (en) * 2011-12-15 2017-07-04 Panasonic Intellectual Property Management Co., Ltd. Drive assistance device
DE102012200731A1 (de) * 2012-01-19 2013-07-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
US20150022664A1 (en) * 2012-01-20 2015-01-22 Magna Electronics Inc. Vehicle vision system with positionable virtual viewpoint
EP2620917B1 (en) * 2012-01-30 2019-08-28 Harman Becker Automotive Systems GmbH Viewing system and method for displaying an environment of a vehicle
US10493916B2 (en) * 2012-02-22 2019-12-03 Magna Electronics Inc. Vehicle camera system with image manipulation
DE102012203092A1 (de) * 2012-02-29 2013-08-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten zumindest eines Bildes
US8694224B2 (en) 2012-03-01 2014-04-08 Magna Electronics Inc. Vehicle yaw rate correction
US9565342B2 (en) 2012-03-06 2017-02-07 Magna Electronics Inc. Vehicle camera with tolerance compensating connector
US10609335B2 (en) 2012-03-23 2020-03-31 Magna Electronics Inc. Vehicle vision system with accelerated object confirmation
WO2013148675A1 (en) * 2012-03-26 2013-10-03 Robert Bosch Gmbh Multi-surface model-based tracking
US8768583B2 (en) 2012-03-29 2014-07-01 Harnischfeger Technologies, Inc. Collision detection and mitigation systems and methods for a shovel
WO2013158592A2 (en) 2012-04-16 2013-10-24 Magna Electronics, Inc. Vehicle vision system with reduced image color data processing by use of dithering
US10089537B2 (en) 2012-05-18 2018-10-02 Magna Electronics Inc. Vehicle vision system with front and rear camera integration
KR101376211B1 (ko) * 2012-06-01 2014-03-21 현대모비스 주식회사 용이한 뷰 모드 변경을 위한 어라운드 뷰 모니터 시스템용 영상 합성 장치 및 영상 합성 방법
JP5904026B2 (ja) * 2012-06-15 2016-04-13 東芝ライテック株式会社 照明制御システム
DE102012014466A1 (de) * 2012-07-21 2014-01-23 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Darstellung einer Szene für ein Fahrzeug
KR101376210B1 (ko) 2012-08-06 2014-03-21 현대모비스 주식회사 어라운드 뷰 모니터 시스템 및 모니터링 방법
US9340227B2 (en) 2012-08-14 2016-05-17 Magna Electronics Inc. Vehicle lane keep assist system
JP5911775B2 (ja) * 2012-08-21 2016-04-27 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
DE102013217430A1 (de) 2012-09-04 2014-03-06 Magna Electronics, Inc. Fahrerassistenzsystem für ein Kraftfahrzeug
JP5643272B2 (ja) * 2012-09-21 2014-12-17 株式会社小松製作所 作業車両用周辺監視システム及び作業車両
JP6079131B2 (ja) * 2012-10-25 2017-02-15 富士通株式会社 画像処理装置、方法、及びプログラム
KR101417383B1 (ko) * 2012-10-31 2014-07-08 현대자동차주식회사 룸미러 영상 제어 장치 및 방법
KR101896715B1 (ko) * 2012-10-31 2018-09-07 현대자동차주식회사 주변차량 위치 추적 장치 및 방법
TWI505203B (zh) 2012-11-02 2015-10-21 Avisonic Technology Corp 產生車用影像的影像處理方法及影像處理裝置
KR101417399B1 (ko) * 2012-11-09 2014-07-08 현대자동차주식회사 차량의 주차 위치 표시 장치 및 방법
TWI535587B (zh) * 2012-11-14 2016-06-01 義晶科技股份有限公司 利用觸控面板來控制車用影像之顯示的方法及其車用影像系統
US9743002B2 (en) 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions
US9090234B2 (en) 2012-11-19 2015-07-28 Magna Electronics Inc. Braking control system for vehicle
US9307640B2 (en) 2012-11-19 2016-04-05 Magna Electronics Inc. PCB pad for imager of vehicle vision system
US10025994B2 (en) 2012-12-04 2018-07-17 Magna Electronics Inc. Vehicle vision system utilizing corner detection
US9481301B2 (en) 2012-12-05 2016-11-01 Magna Electronics Inc. Vehicle vision system utilizing camera synchronization
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5708669B2 (ja) * 2013-01-18 2015-04-30 株式会社デンソー 車両用表示装置
US9511799B2 (en) 2013-02-04 2016-12-06 Ford Global Technologies, Llc Object avoidance for a trailer backup assist system
US9592851B2 (en) 2013-02-04 2017-03-14 Ford Global Technologies, Llc Control modes for a trailer backup assist system
US20140218529A1 (en) 2013-02-04 2014-08-07 Magna Electronics Inc. Vehicle data recording system
US9092986B2 (en) 2013-02-04 2015-07-28 Magna Electronics Inc. Vehicular vision system
JP6081570B2 (ja) * 2013-02-21 2017-02-15 本田技研工業株式会社 運転支援装置、および画像処理プログラム
US10057544B2 (en) 2013-03-04 2018-08-21 Magna Electronics Inc. Vehicle vision system camera with integrated physical layer components
US10027930B2 (en) 2013-03-29 2018-07-17 Magna Electronics Inc. Spectral filtering for vehicular driver assistance systems
EP2983139A4 (en) * 2013-04-04 2016-12-28 Sony Corp IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
US9327693B2 (en) 2013-04-10 2016-05-03 Magna Electronics Inc. Rear collision avoidance system for vehicle
US10232797B2 (en) 2013-04-29 2019-03-19 Magna Electronics Inc. Rear vision system for vehicle with dual purpose signal lines
US10029621B2 (en) 2013-05-16 2018-07-24 Ford Global Technologies, Llc Rear view camera system using rear view mirror location
US9834143B2 (en) * 2013-05-23 2017-12-05 GM Global Technology Operations LLC Enhanced perspective view generation in a front curb viewing system
US10567705B2 (en) 2013-06-10 2020-02-18 Magna Electronics Inc. Coaxial cable with bidirectional data transmission
DE102013010010B4 (de) * 2013-06-14 2022-02-10 Audi Ag Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken
US9260095B2 (en) 2013-06-19 2016-02-16 Magna Electronics Inc. Vehicle vision system with collision mitigation
US20140375476A1 (en) 2013-06-24 2014-12-25 Magna Electronics Inc. Vehicle alert system
US9619716B2 (en) 2013-08-12 2017-04-11 Magna Electronics Inc. Vehicle vision system with image classification
US10326969B2 (en) 2013-08-12 2019-06-18 Magna Electronics Inc. Vehicle vision system with reduction of temporal noise in images
KR20150019192A (ko) * 2013-08-13 2015-02-25 현대모비스 주식회사 Avm 시스템을 위한 영상 합성 장치 및 그 방법
KR102045088B1 (ko) * 2013-08-13 2019-11-14 현대모비스 주식회사 영상 표시 방법 및 이를 위한 위한 장치
KR101491324B1 (ko) * 2013-10-08 2015-02-06 현대자동차주식회사 차량용 영상 획득 장치
US9881220B2 (en) 2013-10-25 2018-01-30 Magna Electronics Inc. Vehicle vision system utilizing communication system
US9499139B2 (en) 2013-12-05 2016-11-22 Magna Electronics Inc. Vehicle monitoring system
CN104691415B (zh) * 2013-12-07 2017-02-01 惠州市德赛西威汽车电子股份有限公司 全景泊车辅助装置
US9988047B2 (en) 2013-12-12 2018-06-05 Magna Electronics Inc. Vehicle control system with traffic driving control
KR101811157B1 (ko) * 2013-12-19 2018-01-25 인텔 코포레이션 사발형 영상 시스템
US10017114B2 (en) 2014-02-19 2018-07-10 Magna Electronics Inc. Vehicle vision system with display
US9688199B2 (en) 2014-03-04 2017-06-27 Magna Electronics Inc. Vehicle alert system utilizing communication system
JP6741582B2 (ja) * 2014-03-19 2020-08-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 車両の事故データメモリーへのカメラの画像データを保存するための方法
US9623878B2 (en) 2014-04-02 2017-04-18 Magna Electronics Inc. Personalized driver assistance system for vehicle
US9487235B2 (en) 2014-04-10 2016-11-08 Magna Electronics Inc. Vehicle control system with adaptive wheel angle correction
DE102014107235A1 (de) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeigevorrichtung; eine Anzeigevorrichtung; ein System aus einer Mehrzahl an Bilderfassungseinheiten und einer Anzeigevorrichtung; ein Computerprogramm
US9971947B2 (en) 2014-07-31 2018-05-15 Magna Electronics Inc. Vehicle vision system with camera power control
US9729636B2 (en) 2014-08-01 2017-08-08 Magna Electronics Inc. Smart road system for vehicles
US10442355B2 (en) 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems
US9925980B2 (en) 2014-09-17 2018-03-27 Magna Electronics Inc. Vehicle collision avoidance system with enhanced pedestrian avoidance
US10356337B2 (en) 2014-10-07 2019-07-16 Magna Electronics Inc. Vehicle vision system with gray level transition sensitive pixels
CN104442569B (zh) * 2014-11-14 2016-11-02 东风汽车有限公司 一种汽车监控影像生成方法及系统
US9930296B2 (en) * 2014-11-18 2018-03-27 Denso Corporation Image switching device for vehicle
US9533683B2 (en) 2014-12-05 2017-01-03 Ford Global Technologies, Llc Sensor failure mitigation system and mode management
US9522677B2 (en) 2014-12-05 2016-12-20 Ford Global Technologies, Llc Mitigation of input device failure and mode management
DE102014225883A1 (de) * 2014-12-15 2016-06-16 Robert Bosch Gmbh Kamerasystem und Verfahren zum Visualisieren mindestens eines Fahrzeugumfeldbereiches einesFahrzeugumfeldes eines Fahrzeuges
US9740945B2 (en) 2015-01-14 2017-08-22 Magna Electronics Inc. Driver assistance system for vehicle
US10032369B2 (en) 2015-01-15 2018-07-24 Magna Electronics Inc. Vehicle vision system with traffic monitoring and alert
US9607242B2 (en) 2015-01-16 2017-03-28 Ford Global Technologies, Llc Target monitoring system with lens cleaning device
JP6548900B2 (ja) * 2015-01-20 2019-07-24 株式会社デンソーテン 画像生成装置、画像生成方法及びプログラム
US9764744B2 (en) 2015-02-25 2017-09-19 Magna Electronics Inc. Vehicle yaw rate estimation system
US10286855B2 (en) 2015-03-23 2019-05-14 Magna Electronics Inc. Vehicle vision system with video compression
US10298818B2 (en) 2015-03-23 2019-05-21 Magna Electronics Inc. Vehicle camera with enhanced imager and PCB assembly
JP2016201585A (ja) * 2015-04-07 2016-12-01 株式会社ソシオネクスト 画像処理装置および画像処理装置の制御方法
DE102015206477A1 (de) * 2015-04-10 2016-10-13 Robert Bosch Gmbh Verfahren zur Darstellung einer Fahrzeugumgebung eines Fahrzeuges
JP5959684B2 (ja) * 2015-04-16 2016-08-02 ルネサスエレクトロニクス株式会社 画像変換システム
US10819943B2 (en) 2015-05-07 2020-10-27 Magna Electronics Inc. Vehicle vision system with incident recording function
KR102375411B1 (ko) * 2015-05-11 2022-03-18 삼성전자주식회사 차량 주변 영상 제공 방법 및 장치
CN104859542B (zh) * 2015-05-26 2017-06-27 寅家电子科技(上海)有限公司 车载监控系统及车载监控处理方法
JP6582557B2 (ja) * 2015-05-28 2019-10-02 株式会社ソシオネクスト 描画装置、描画方法および描画プログラム
US9866752B2 (en) * 2015-06-02 2018-01-09 Qualcomm Incorporated Systems and methods for producing a combined view from fisheye cameras
US10486599B2 (en) 2015-07-17 2019-11-26 Magna Mirrors Of America, Inc. Rearview vision system for vehicle
EP3337166B1 (en) * 2015-08-10 2020-01-01 JVC Kenwood Corporation Vehicular display apparatus and vehicular display method
KR101860610B1 (ko) 2015-08-20 2018-07-02 엘지전자 주식회사 디스플레이 장치 및 이를 포함하는 차량
US9896130B2 (en) 2015-09-11 2018-02-20 Ford Global Technologies, Llc Guidance system for a vehicle reversing a trailer along an intended backing path
JP6555056B2 (ja) * 2015-09-30 2019-08-07 アイシン精機株式会社 周辺監視装置
JP6521086B2 (ja) * 2015-10-08 2019-05-29 日産自動車株式会社 表示支援装置及び表示支援方法
JP6489230B2 (ja) * 2015-10-22 2019-03-27 日産自動車株式会社 表示制御方法および表示制御装置
US10875403B2 (en) 2015-10-27 2020-12-29 Magna Electronics Inc. Vehicle vision system with enhanced night vision
US9836060B2 (en) 2015-10-28 2017-12-05 Ford Global Technologies, Llc Trailer backup assist system with target management
US20170124881A1 (en) * 2015-10-28 2017-05-04 Velvac Incorporated Blind zone warning for semi-trailer
US9902322B2 (en) 2015-10-30 2018-02-27 Bendix Commercial Vehicle Systems Llc Filling in surround view areas blocked by mirrors or other vehicle parts
US20170132476A1 (en) * 2015-11-08 2017-05-11 Otobrite Electronics Inc. Vehicle Imaging System
JP6091586B1 (ja) * 2015-11-12 2017-03-08 三菱電機株式会社 車両用画像処理装置および車両用画像処理システム
WO2017086057A1 (ja) * 2015-11-17 2017-05-26 株式会社Jvcケンウッド 車両用表示装置および車両用表示方法
JP6699427B2 (ja) * 2015-11-17 2020-05-27 株式会社Jvcケンウッド 車両用表示装置および車両用表示方法
US10144419B2 (en) 2015-11-23 2018-12-04 Magna Electronics Inc. Vehicle dynamic control system for emergency handling
US11027654B2 (en) 2015-12-04 2021-06-08 Magna Electronics Inc. Vehicle vision system with compressed video transfer via DSRC link
JP6623729B2 (ja) * 2015-12-04 2019-12-25 株式会社ソシオネクスト 測距システム、移動体及び部品
JP6644256B2 (ja) * 2015-12-22 2020-02-12 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
US10523865B2 (en) 2016-01-06 2019-12-31 Texas Instruments Incorporated Three dimensional rendering for surround view using predetermined viewpoint lookup tables
JP2017143340A (ja) * 2016-02-08 2017-08-17 株式会社デンソー 情報処理装置及びプログラム
US10132971B2 (en) 2016-03-04 2018-11-20 Magna Electronics Inc. Vehicle camera with multiple spectral filters
US10055651B2 (en) 2016-03-08 2018-08-21 Magna Electronics Inc. Vehicle vision system with enhanced lane tracking
JP6477562B2 (ja) 2016-03-18 2019-03-06 株式会社デンソー 情報処理装置
TWI608448B (zh) * 2016-03-25 2017-12-11 晶睿通訊股份有限公司 計數流道設定方法、具有計數流道設定功能的影像監控系統、及其相關的電腦可讀取媒體
JP6313355B2 (ja) 2016-03-31 2018-04-18 株式会社Subaru 車両周囲監視装置
JP6360850B2 (ja) * 2016-04-25 2018-07-18 本田技研工業株式会社 画像表示装置
US10112646B2 (en) 2016-05-05 2018-10-30 Ford Global Technologies, Llc Turn recovery human machine interface for trailer backup assist
JP6723820B2 (ja) * 2016-05-18 2020-07-15 株式会社デンソーテン 画像生成装置、画像表示システムおよび画像表示方法
WO2017212679A1 (ja) * 2016-06-08 2017-12-14 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP6584664B2 (ja) * 2016-06-08 2019-10-02 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP6551316B2 (ja) * 2016-06-10 2019-07-31 京セラドキュメントソリューションズ株式会社 画像読取装置および画像形成装置
US10380439B2 (en) 2016-09-06 2019-08-13 Magna Electronics Inc. Vehicle sensing system for detecting turn signal indicators
DE102016217488A1 (de) * 2016-09-14 2018-03-15 Robert Bosch Gmbh Verfahren zum Bereitstellen einer Rückspiegelansicht einer Fahrzeugumgebung eines Fahrzeugs
EP3462733B1 (en) 2016-09-20 2021-03-10 JVC Kenwood Corporation Overhead view video image generation device, overhead view video image generation system, overhead view video image generation method, and program
KR20180037414A (ko) * 2016-10-04 2018-04-12 엘지전자 주식회사 자동주차 보조장치 및 이를 포함하는 차량
EP3315907A1 (de) * 2016-10-27 2018-05-02 Leica Geosystems AG Verfahren zur visuellen darstellung von scandaten
JP6855254B2 (ja) * 2017-01-12 2021-04-07 株式会社デンソーテン 画像処理装置、画像処理システム、及び、画像処理方法
JP7092688B2 (ja) * 2017-02-17 2022-06-28 住友重機械工業株式会社 作業機械用周辺監視システム
EP3537714B1 (en) 2017-02-28 2021-08-25 JVC Kenwood Corporation Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
JP6724821B2 (ja) * 2017-02-28 2020-07-15 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
DE102017003399A1 (de) * 2017-04-07 2018-10-11 Man Truck & Bus Ag Technik zur Ausgabe von Fahrzeugmeldungen
EP3392801A1 (en) * 2017-04-21 2018-10-24 Harman International Industries, Incorporated Systems and methods for driver assistance
CN107176101A (zh) * 2017-05-24 2017-09-19 维森软件技术(上海)有限公司 同步显示方法
DE102017117094A1 (de) 2017-07-28 2019-01-31 Connaught Electronics Ltd. Individualisierbare Darstellung einer Umgebung eines Kraftfahrzeugs durch eine Fahrerassistenzvorrichtung
JP7039879B2 (ja) * 2017-08-03 2022-03-23 株式会社アイシン 表示制御装置
JP7056034B2 (ja) * 2017-08-14 2022-04-19 株式会社アイシン 周辺監視装置
JP2019034692A (ja) * 2017-08-21 2019-03-07 株式会社東海理化電機製作所 車両用視認装置
JPWO2019049709A1 (ja) * 2017-09-07 2020-12-03 ソニー株式会社 画像処理装置、画像処理方法、および画像表示システム
JP7091624B2 (ja) 2017-09-15 2022-06-28 株式会社アイシン 画像処理装置
JP7013751B2 (ja) * 2017-09-15 2022-02-01 株式会社アイシン 画像処理装置
US10933798B2 (en) 2017-09-22 2021-03-02 Magna Electronics Inc. Vehicle lighting control system with fog detection
US10583779B2 (en) * 2017-10-02 2020-03-10 Magna Electronics Inc. Parking assist system using backup camera
DE102017218074A1 (de) * 2017-10-11 2019-04-11 Robert Bosch Gmbh Verfahren zum Darstellen einer Umgebung eines Fahrzeugs
US10744941B2 (en) 2017-10-12 2020-08-18 Magna Electronics Inc. Vehicle vision system with bird's eye view display
US10580299B2 (en) * 2017-10-13 2020-03-03 Waymo Llc Lane change notification
EP3480779A1 (en) * 2017-11-01 2019-05-08 Volvo Car Corporation Method and system for handling images
US10682966B2 (en) 2017-11-16 2020-06-16 Magna Electronics Inc. Vehicle light/display control system using camera
JP7106846B2 (ja) 2017-11-24 2022-07-27 株式会社アイシン 周辺監視装置
JP2019103067A (ja) * 2017-12-06 2019-06-24 キヤノン株式会社 情報処理装置、記憶装置、画像処理装置、画像処理システム、制御方法、及びプログラム
JP6939494B2 (ja) * 2017-12-11 2021-09-22 トヨタ自動車株式会社 画像表示装置
JP7023696B2 (ja) * 2017-12-12 2022-02-22 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6835004B2 (ja) * 2018-02-09 2021-02-24 株式会社デンソー 画像生成装置
US11417107B2 (en) 2018-02-19 2022-08-16 Magna Electronics Inc. Stationary vision system at vehicle roadway
DE102018204569A1 (de) * 2018-03-26 2019-09-26 Continental Teves Ag & Co. Ohg Verfahren zur Überwachung und Steuerung eines fernbedienten Park- oder Manövriervorgangs eines Fahrzeugs
CN110406472A (zh) * 2018-04-27 2019-11-05 华创车电技术中心股份有限公司 停车辅助系统及停车辅助方法
JP7021001B2 (ja) * 2018-05-25 2022-02-16 アルパイン株式会社 画像処理装置および画像処理方法
DE102018210812A1 (de) 2018-06-30 2020-01-02 Robert Bosch Gmbh Verfahren zu einer sensor- und speicherbasierten Darstellung einer Umgebung, Anzeigevorrichtung und Fahrzeug mit der Anzeigevorrichtung
EP3620332B1 (en) * 2018-09-05 2021-03-10 Volvo Car Corporation Driver assistance system and method for vehicle flank safety
JP7151293B2 (ja) 2018-09-06 2022-10-12 株式会社アイシン 車両周辺表示装置
US11683911B2 (en) 2018-10-26 2023-06-20 Magna Electronics Inc. Vehicular sensing device with cooling feature
US10922881B2 (en) * 2018-11-02 2021-02-16 Star Global Expert Solutions Joint Stock Company Three dimensional/360 degree (3D/360°) real-time full information smart management integrated mapping system (SMIMS) and process of generating the same
JP7283059B2 (ja) 2018-11-28 2023-05-30 株式会社アイシン 周辺監視装置
CN109606266A (zh) * 2018-12-26 2019-04-12 苏州智华汽车电子有限公司 一种流媒体影像视角随后视镜转动而变化的方法
JP7314514B2 (ja) 2019-01-25 2023-07-26 株式会社アイシン 表示制御装置
JP7222254B2 (ja) 2019-01-25 2023-02-15 株式会社アイシン 周辺表示制御装置
US11609304B2 (en) 2019-02-07 2023-03-21 Magna Electronics Inc. Vehicular front camera testing system
JP7232089B2 (ja) * 2019-03-19 2023-03-02 ヤマハ発動機株式会社 船舶用の表示装置、船舶および船舶用の画像表示方法
US11535158B2 (en) 2019-03-28 2022-12-27 Magna Electronics Inc. Vehicular camera with automatic lens defogging feature
US11135883B2 (en) 2019-05-13 2021-10-05 Magna Electronics Inc. Vehicular sensing system with ultrasonic sensor at trailer hitch
JP2021043815A (ja) * 2019-09-12 2021-03-18 アイシン精機株式会社 画像処理装置
US11034298B2 (en) * 2019-11-18 2021-06-15 Continental Automotive Systems, Inc. Vehicle surround view system for identifying unobservable regions while reversing a trailer
JP7458769B2 (ja) * 2019-12-18 2024-04-01 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2021118435A (ja) * 2020-01-24 2021-08-10 株式会社デンソーテン 画像処理装置及び画像処理方法
WO2021199318A1 (ja) * 2020-03-31 2021-10-07 本田技研工業株式会社 画像処理装置、車両、画像処理方法およびプログラム
CN111559371B (zh) * 2020-05-15 2021-12-07 广州智鹏车联网科技有限公司 三维泊车的显示方法、车辆和存储介质
JP7398637B2 (ja) 2020-05-28 2023-12-15 パナソニックIpマネジメント株式会社 表示制御装置、車両及び表示制御方法
JP7429865B2 (ja) 2020-05-28 2024-02-09 パナソニックIpマネジメント株式会社 表示制御装置、車両及び表示制御方法
JP2020182217A (ja) * 2020-06-23 2020-11-05 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成方法およびプログラム
US11750905B2 (en) 2020-08-14 2023-09-05 Magna Electronics Inc. Vehicular camera with inductive lens heater
US11801795B2 (en) 2020-09-18 2023-10-31 Magna Electronics Inc. Vehicular camera with lens heater with connectors
US11749105B2 (en) 2020-10-01 2023-09-05 Magna Electronics Inc. Vehicular communication system with turn signal identification
US11721113B2 (en) 2020-10-09 2023-08-08 Magna Electronics Inc. Vehicular driving assist system with lane detection using rear camera
WO2022084054A1 (de) * 2020-10-21 2022-04-28 Zf Friedrichshafen Ag Darstellung von hindernissen in einem übersichtsbild in abhängigkeit eines lenkwinkels
US11968639B2 (en) 2020-11-11 2024-04-23 Magna Electronics Inc. Vehicular control system with synchronized communication between control units
JP2022089282A (ja) * 2020-12-04 2022-06-16 株式会社アイシン 周辺監視装置
US11496671B2 (en) 2021-02-19 2022-11-08 Western Digital Technologies, Inc. Surveillance video streams with embedded object data
JP2022172709A (ja) * 2021-05-06 2022-11-17 トヨタ自動車株式会社 車載ドライブレコーダシステム
CN113104030A (zh) * 2021-05-19 2021-07-13 广州小鹏汽车科技有限公司 一种基于自动驾驶的交互方法和装置
JP7375792B2 (ja) * 2021-05-26 2023-11-08 トヨタ自動車株式会社 駐車支援装置
JPWO2023100415A1 (ko) * 2021-11-30 2023-06-08

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3750166A (en) * 1971-06-11 1973-07-31 J Dearth Pilot data system
JPS58110334A (ja) 1981-12-23 1983-06-30 Hino Motors Ltd 路面視界表示装置
JP2696516B2 (ja) * 1987-11-09 1998-01-14 三菱自動車工業株式会社 車輌の安全監視装置
JPH0399952A (ja) * 1989-09-12 1991-04-25 Nissan Motor Co Ltd 車両用周囲状況モニタ
JP2827665B2 (ja) 1992-02-27 1998-11-25 三菱自動車工業株式会社 車両用画像表示装置
US6498620B2 (en) * 1993-02-26 2002-12-24 Donnelly Corporation Vision system for a vehicle including an image capture device and a display system having a long focal length
US5670935A (en) 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JP2883265B2 (ja) * 1993-09-24 1999-04-19 キヤノン株式会社 画像処理装置
JP2501010B2 (ja) * 1993-10-25 1996-05-29 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動ロボットの誘導装置
JPH07311857A (ja) * 1994-05-16 1995-11-28 Fujitsu Ltd 画像合成表示装置およびシミュレーションシステム
JP3475507B2 (ja) 1994-08-08 2003-12-08 日産自動車株式会社 車両用周囲モニタ装置
US5555019A (en) * 1995-03-09 1996-09-10 Dole; Kevin Miniature vehicle video production system
JPH11509064A (ja) * 1995-07-10 1999-08-03 サーノフ コーポレイション 画像を表現し組み合わせる方法とシステム
JPH09305796A (ja) * 1996-05-16 1997-11-28 Canon Inc 画像情報処理装置
JP3328478B2 (ja) 1995-10-18 2002-09-24 日本電信電話株式会社 カメラシステム
JPH09180088A (ja) * 1995-12-26 1997-07-11 Nissan Motor Co Ltd 車両用周囲モニタ装置
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6317127B1 (en) * 1996-10-16 2001-11-13 Hughes Electronics Corporation Multi-user real-time augmented reality system and method
JPH10210506A (ja) * 1997-01-22 1998-08-07 Sony Corp 3次元画像情報入力装置および3次元画像情報入出力装置
JPH10257482A (ja) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JPH1178692A (ja) 1997-09-03 1999-03-23 Nissan Motor Co Ltd 車両用映像提示装置
JP3834967B2 (ja) 1997-11-25 2006-10-18 日産自動車株式会社 死角範囲表示装置
JPH11168754A (ja) * 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk 画像の記録方法、画像データベースシステム、画像記録装置及びコンピュータプログラムの記憶媒体
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
WO2000039995A2 (en) * 1998-09-17 2000-07-06 Yissum Research Development Company System and method for generating and displaying panoramic images and movies
US6271847B1 (en) * 1998-09-25 2001-08-07 Microsoft Corporation Inverse texture mapping using weighted pyramid blending and view-dependent weight maps
US6396535B1 (en) * 1999-02-16 2002-05-28 Mitsubishi Electric Research Laboratories, Inc. Situation awareness system
JP3632563B2 (ja) * 1999-10-19 2005-03-23 株式会社豊田自動織機 映像位置関係補正装置、該映像位置関係補正装置を備えた操舵支援装置、及び映像位置関係補正方法
US6573912B1 (en) * 2000-11-07 2003-06-03 Zaxel Systems, Inc. Internet system for virtual telepresence
US6424273B1 (en) * 2001-03-30 2002-07-23 Koninklijke Philips Electronics N.V. System to aid a driver to determine whether to change lanes

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100763234B1 (ko) * 2004-06-11 2007-10-04 삼성전자주식회사 주행 상태를 감지하는 시스템 및 방법
US8014900B2 (en) 2004-06-11 2011-09-06 Samsung Electronics Co., Ltd. System and method for detecting traveling state
KR100936558B1 (ko) * 2007-09-26 2010-01-13 닛산 지도우샤 가부시키가이샤 차량용 주변 감시 장치 및 영상 표시 방법
KR100936557B1 (ko) * 2007-09-26 2010-01-13 닛산 지도우샤 가부시키가이샤 차량용 주변 감시 장치 및 영상 표시 방법
KR100882689B1 (ko) * 2007-12-06 2009-02-06 현대자동차주식회사 차량의 측후방 모니터링 시스템 및 그 제어방법
KR101295295B1 (ko) * 2009-03-25 2013-08-12 후지쯔 가부시끼가이샤 화상 처리 방법 및 화상 처리 장치
US8576285B2 (en) 2009-03-25 2013-11-05 Fujitsu Limited In-vehicle image processing method and image processing apparatus
US8446268B2 (en) 2009-04-14 2013-05-21 Hyundai Motor Japan R&D Center, Inc. System for displaying views of vehicle and its surroundings
KR101354068B1 (ko) * 2009-08-03 2014-01-22 아이신세이끼가부시끼가이샤 차량주변화상생성장치
WO2013081287A1 (ko) * 2011-11-30 2013-06-06 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
US9508189B2 (en) 2011-11-30 2016-11-29 Kss-Imagenext Co., Ltd. Method and apparatus for creating 3D image of vehicle surroundings
KR101239740B1 (ko) * 2011-12-08 2013-03-18 아진산업(주) 폴리곤 매핑 및 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치
KR101481681B1 (ko) * 2012-11-13 2015-01-12 애비소닉 테크놀로지 코포레이션 차량용 이미지 시스템 및 차량 이미지의 디스플레이 제어 방법
KR101406232B1 (ko) * 2012-12-20 2014-06-12 현대오트론 주식회사 도어 열림 경보 장치 및 방법
KR20190004708A (ko) * 2016-05-05 2019-01-14 하만인터내셔날인더스트리스인코포레이티드 운전자 지원을 위한 시스템 및 방법
KR20180026216A (ko) * 2016-09-02 2018-03-12 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법

Also Published As

Publication number Publication date
EP2410741A1 (en) 2012-01-25
US7161616B1 (en) 2007-01-09
EP2410742A1 (en) 2012-01-25
CN100438623C (zh) 2008-11-26
CA2369648A1 (en) 2000-10-26
WO2000064175A1 (fr) 2000-10-26
EP1179958A4 (en) 2009-07-15
EP1179958A1 (en) 2002-02-13
CN1344470A (zh) 2002-04-10
EP1179958B1 (en) 2012-08-08

Similar Documents

Publication Publication Date Title
KR20010112433A (ko) 화상처리장치 및 감시시스템
JP3300334B2 (ja) 画像処理装置および監視システム
KR100522218B1 (ko) 감시 시스템, 카메라 조정방법 및 차량감시 시스템
CN103770706B (zh) 动态后视镜显示特征
JP3652678B2 (ja) 車両周囲監視装置およびその調整方法
JP4934308B2 (ja) 運転支援システム
US8130270B2 (en) Vehicle-mounted image capturing apparatus
JP4642723B2 (ja) 画像生成装置および画像生成方法
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
KR100911066B1 (ko) 화상 표시 시스템, 화상 표시 방법 및 기록 매체
US20150109444A1 (en) Vision-based object sensing and highlighting in vehicle image display systems
JP4315968B2 (ja) 画像処理装置並びに視界支援装置及び方法
KR20020033816A (ko) 감시시스템
JP2006287892A (ja) 運転支援システム
JP2009081664A (ja) 車両用周辺監視装置および映像表示方法
JP2010095086A (ja) 車両用表示装置および表示方法
KR20190047027A (ko) 차량의 차량 주변 리어뷰 미러 조망을 제공하는 방법
JPH10155109A (ja) 撮像方法及び装置並びに記憶媒体
KR101764106B1 (ko) Avm 시스템 및 사각지대 영상 합성 방법
JP2014224410A (ja) 作業機械用周辺監視装置
EP4156125A1 (en) Image processing system, mobile object, image processing method, and storage medium
EP4156127A1 (en) Image processing system, mobile object, image processing method, and storage medium
JP4706896B2 (ja) 広角画像の補正方法及び車両の周辺監視システム
KR20170020666A (ko) Avm 시스템 및 사각지대 영상 합성 방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid