KR101446898B1 - 차량 주변 감시 장치 - Google Patents

차량 주변 감시 장치 Download PDF

Info

Publication number
KR101446898B1
KR101446898B1 KR1020127024305A KR20127024305A KR101446898B1 KR 101446898 B1 KR101446898 B1 KR 101446898B1 KR 1020127024305 A KR1020127024305 A KR 1020127024305A KR 20127024305 A KR20127024305 A KR 20127024305A KR 101446898 B1 KR101446898 B1 KR 101446898B1
Authority
KR
South Korea
Prior art keywords
image
area
display
divided
enlarged
Prior art date
Application number
KR1020127024305A
Other languages
English (en)
Other versions
KR20120118073A (ko
Inventor
히데히코 미요시
노보루 나가미네
겐지 미우라
긴지 야마모토
겐지로 고토
Original Assignee
아이신세이끼가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이신세이끼가부시끼가이샤 filed Critical 아이신세이끼가부시끼가이샤
Publication of KR20120118073A publication Critical patent/KR20120118073A/ko
Application granted granted Critical
Publication of KR101446898B1 publication Critical patent/KR101446898B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

모니터에 표시된 부감 화상의 일부를 확대 표시하는 경우에, 어느 영역의 확대인지를 정확하게 인식할 수 있는 장치를 구성한다. 모니터(21)에 표시된 부감 화상을 복수로 분할한 분할 영역(D1~D4)의 어느 것이 지정된 경우에, 지정된 분할 영역(D1~D4)의 화상을 확대 대상 화상으로 설정하고, 부표시 영역(21B)을 확대 표시 영역으로 설정한다. 확대 표시 수단은 지정된 분할 영역(D2)의 크기와 확대 표시 영역의 크기의 중간 크기가 되는 복수의 중간 화상(M)을 형성하고, 지정된 분할 영역(D2)을 기점으로 하여 작은 중간 화상(M)로부터 순차적으로 표시한다.

Description

차량 주변 감시 장치{VEHICLE PERIPHERY MONITORING DEVICE}
본 발명은 차량 주변 감시 장치에 관한 것으로, 상세하게는, 카메라의 촬영 화상을 모니터에 표시하여, 이러한 모니터에 표시되고 있는 촬영 화상을 확대 표시하는 기술에 관한 것이다.
상기와 같이 구성된 차량 주변 감시 장치로서 특허 문헌 1에는, 복수의 카메라의 촬영 화상으로부터 차량 주변의 부감 화상을 생성하여 모니터(문헌중은 디스플레이)에 표시하는 동시에, 이러한 부감 화상을 차량의 주변 영역을 복수의 영역으로 분할하고, 이러한 복수의 영역의 어느 것을 터치 패널에 의해 사용자가 선택한 경우에는, 선택한 영역의 부감 화상을 모니터에 확대 표시하는 처리 형태가 기재되어 있다.
이러한 특허 문헌 1에서는, 모니터에서 부감 화상이 표시되는 영역과 확대 화상이 표시되는 영역을 별개로 설정하고 있어, 확대 화상으로서는 부감 화상을 확대하는 모드와, 선택된 영역을 촬영하는 카메라의 촬영 화상(카메라 시점의 화상)을 확대하는 모드의 선택을 실시할 수 있는 점도 기재되어 있다.
특허 문헌 1 : 특개 2009­239674호 공보
부감 화상의 일부를 확대하여 모니터에 표시하는 형태에 있어서, 확대된 화상이 단순하게 모니터에 표시되는 경우에는, 어느 부위의 확대 화상인지 판별하기 어려운 것이다. 또한, 특허 문헌 1에 기재된 바와 같이, 비교적 좁은 영역을 지정하고, 그런 영역이 확대되는 것은 잘못된 조작에 의해, 운전자가 바라지 않는 영역의 화상을 확대해 버리기도 한다. 이러한 잘못된 조작을 실시한 경우에는, 적정한 조작을 다시 실시할 필요가 있는 것뿐만이 아니라, 오조작을 알기까지 시간을 필요로 하기도 하고, 개선의 여지가 있다.
본 발명의 목적은 모니터에 표시된 부감 화상의 일부를 확대 표시하는 경우에, 어느 영역의 확대인지를 정확하게 인식할 수 있는 장치를 합리적으로 구성하는 점에 있다.
본 발명의 특징은 차량 주변의 노면을 포함한 영역을 촬영하는 복수의 카메라와, 이러한 복수의 카메라의 촬영 화상을 모니터에 표시하는 화상 처리부를 포함하고, 상기 화상 처리부는 복수의 상기 카메라의 촬영 화상으로부터 차체 주변을 상방에서 내려다 본 부감 화상을 생성하여 상기 모니터의 부감 화상 표시 영역에 표시하는 부감 화상 생성 수단과, 상기 부감 화상 표시 영역의 분할에 의해 설정된 복수의 분할 영역의 어느 것이 지정된 경우에, 상기 지정된 분할 영역의 크기와 확대 표시 영역의 크기의 중간 크기가 되는 복수의 중간 화상을 생성하며, 크기가 작은 중간 화상으로부터 순차적으로 표시하는 처리를 실행하고, 이러한 처리의 실행의 초기에는, 상기 지정된 분할 영역이 다음에 표시되는 중간 화상의 표시 영역에 포함되도록 표시 위치 관계가 설정되어 지정된 분할 영역의 화상을 확대 대상 화상으로서 상기 확대 표시 영역의 크기까지 확대하는 확대 표시 수단을 포함하는 점에 있다.
이러한 구성에 따르면, 분할 영역이 지정된 경우에는, 그런 분할 영역의 화상이 확대 표시 영역에 표시된다. 이러한 확대를 실시하는 경우, 분할 영역의 크기와 확대 표시 영역의 크기의 중간 크기가 되는 복수의 중간 화상을 생성하고, 이러한 복수의 중간 화상으로부터 작은 중간 화상으로부터 순차적으로 표시하는 처리가 실행된다. 이러한 처리의 초기에는 지정된 분할 영역이 다음에 표시되는 중간 화상의 표시 영역에 포함되도록 표시 위치 관계가 설정된다. 이와 같은 표시 형태로부터 지정된 분할 화상을 기점으로 하여 중간 화상이 연속하여 표시되는 것에 의한 줌 업(zoom-up)하는 형태로 최종적인 확대 화상이 확대 표시 영역에 표시된다.
특히, 분할 영역의 지정으로서는, 인위적인 지정뿐만이 아니라, 예를 들면, 장애물이 검출된 경우에 자동 제어에 의한 지정을 포함하는 것이다.
그 결과, 모니터에 표시된 부감 화상의 일부를 확대 표시하는 경우에, 어느 영역의 확대인지를 정확하게 인식할 수 있는 장치가 구성되었다.
본 발명은 상기 확대 표시 수단이 상기 부감 화상 표시 영역을 상기 확대 표시 영역으로 설정하는 동시에, 지정된 분할 영역 이외의 분할 영역에 표시되고 있는 부감 화상에 상기 중간 화상을 중복시켜 확대 표시를 실시하여도 바람직하다.
이에 따르면, 이미 표시되고 있는 부감 화상에 대하여 중간 화상이 중첩하는 위치 관계로 표시되게 되기 때문에, 이미 표시되고 있는 부감 화상을 갱신하여 표시하고 있는 것을 운전자에게 인식시키는 것이 가능해진다.
본 발명은 복수의 상기 분할 영역에 표시되는 부감 화상의 적어도 1개가 2개의 상기 카메라의 촬영 화상으로부터 생성된 부감 화상의 합성에 의해 생성된 것이고, 이러한 분할 영역이 지정된 경우에는, 이러한 분할 영역에 표시되고 있는 부감 화상을 확대 대상 화상으로 설정하여도 바람직하다.
이에 따르면, 2개의 카메라의 촬영 화상으로부터 생성된 부감 화상을 합성한 부감 화상이 분할 영역에 표시되고 있는 상태이고, 이러한 부감 화상이 확대 대상 화상으로 설정된 경우에는 합성된 부감 화상이 확대되게 된다.
본 발명은 상기 모니터가 표시면에 터치 패널을 포함하고, 복수의 상기 분할 영역의 어느 것에 접촉이 있던 것을 터치 패널로 검지한 경우에, 상기 확대 표시 수단은 접촉을 검지한 분할 영역의 부감 화상을 상기 확대 대상 화상으로 지정하여도 바람직하다.
이에 따르면, 터치 패널을 통하여 분할 영역의 어느 것이 지정된 경우에는, 그런 지정된 분할 영역에 표시되고 있는 부감 화상을 확대 대상 화상으로 한 확대 처리가 실현된다. 이와 같이 확대된 화상은 부감 화상이기 때문에, 차량을 상방에서 내려다 본 시점으로부터 차량 주변의 상황을 파악할 수 있다.
본 발명은 상기 모니터가 표시면에 터치 패널을 포함하고, 복수의 상기 분할 영역 중 어느 것에 접촉이 있던 것을 터치 패널로 검지한 경우에, 상기 확대 표시 수단은 접촉을 검지한 분할 영역에 이미 표시되고 있는 부감 화상에 대신하여, 이러한 분할 영역에 표시되고 있던 영역을 촬영하는 카메라로부터의 촬영 화상을 이러한 분할 영역에 표시하고, 이와 같이 표시된 촬영 화상을 상기 확대 대상 화상으로 지정하여도 바람직하다.
이에 따르면, 터치 패널을 통하여 분할 영역 중 어느 것이 지정된 경우에는, 그런 지정된 분할 영역 이미 표시되고 있는 부감 화상에 대신하여, 이러한 분할 영역에 표시되고 있던 영역을 촬영하는 카메라로부터의 촬영 화상을 확대 대상 화상으로 한 확대 처리가 실현된다. 이와 같이 확대된 화상은 카메라의 촬영 화상이기 때문에, 카메라를 시점으로 한 차량 주변의 상황을 파악할 수 있다.
본 발명은 상기 확대 표시 수단이 상기 중간 화상의 외주부에 경계를 분명하게 하는 경계 라인을 표시하여도 바람직하다.
이에 따르면, 중간 화상이 순차적으로 표시될 경우에도, 중간 화상과 이미 표시되고 있는 화상과의 경계가 명료하게 되고, 어느 분할 영역을 바탕으로 하여 확대 표시를 실시했는지를 용이하게 판단할 수 있다.
도 1은 차량의 구성의 개요를 도시하는 평면도이다.
도 2는 차량의 구성을 도시하는 일부 절단 사시도이다.
도 3은 제어 시스템의 블록 회로도이다.
도 4는 차량 주변 감시 처리의 흐름도(flow chart)이다.
도 5는 분할 영역의 부감 화상을 부표시 영역으로 확대하는 처리를 연속적으로 도시하는 도면이다.
도 6은 분할 영역의 부감 화상을 부표시 영역으로 확대하는 처리를 연속적으로 도시하는 도면이다.
도 7은 분할 영역의 부감 화상을 주표시 영역으로 확대하는 처리를 연속적으로 도시하는 도면이다.
도 8은 분할 영역의 부감 화상을 모니터의 전화면으로 확대하는 처리를 연속적으로 도시하는 도면이다.
이하, 본 발명의 실시예를 도면에 기초하여 설명한다.
본 실시예는 차량(1)에 포함된 복수의 카메라의 촬영 화상으로부터 차량(1)의 주변을 상방에서 내려다 본 형태가 되는 부감 화상을 생성하여 모니터(21)에 표시하는 차량 주변 감시 장치를 포함하고 있다. 특히, 이러한 차량 주변 감시 장치는 차량의 근방 위치의 장애물(X)을 검출한 경우에는, 모니터(21)에 표시되고 있는 부감 화상을 복수로 분할하여 분할 영역(D1~D4)을 설정하고, 장애물(X)을 포함한 분할 영역(D1~D4)을 특정하기 위한 강조 표시를 실시하는 동시에, 장애물(X)이 존재하는 영역의 화상을 모니터(21)에 확대 표시하는 제어(이하, 확대 처리라고 칭함)를 실행한다. 이하에서는, 이러한 제어 형태와 제어 구성에 대하여 설명한다.
〔기본 구성〕
도 1및 도 2에 도시된 바와 같이, 승용차로서의 차량(1)에는 좌우의 앞바퀴(2)와 좌우의 뒷바퀴(3)를 포함하고 있다. 차량(1)의 전방 위치에는 힌지에 의해 개폐가 자유로운 좌측 전방 도어(4)로 우측 전방 도어(5)를 포함하고, 차량(1)의 후방 위치에 슬라이드식으로 개폐가 자유로운 좌측 후방 도어(6)로 우측 후방 도어(7)를 포함하며, 차량(1)의 후단에는 해치백(hatchback)식의 백 도어(8)를 포함하고 있다.
차량(1)의 실내에는 운전 좌석(13)과, 조수 좌석(14)과, 복수의 후방 좌석(15)이 포함되어 있다. 운전 좌석(13)의 전방 위치에는 스티어링 휠(16)이 포함되고, 그 전방에 미터류를 가진 패널이 배치되어 있다. 운전 좌석(13)의 발밑에는 액셀 페달(17)과, 앞바퀴(2) 및 뒷바퀴(3)의 브레이크 장치(BK)를 조작하여 앞바퀴(2) 및 뒷바퀴(3)에 제동력을 작용시키는 브레이크 페달(18)이 배치되고, 운전 좌석(13)의 측부에는 변속을 실현하는 변속 레버(19)가 배치되어 있다.
운전 좌석(13)의 근방에서, 콘솔의 상부 위치에는 표시면에 터치 패널(21T)이 형성된 모니터(21)가 포함되어 있다. 모니터(21)는 백라이트를 포함한 액정식의 것이다. 물론, 플라즈마 표시형의 것이나 CRT형의 것이어도 바람직하다. 또한, 터치 패널(21T)은 손가락 등에 의한 접촉 위치를 위치 데이터로서 출력하는 감압식이나 정전식의 지시 입력 장치로서 구성된다. 모니터(21)의 하우징(21H)에는 스피커(22)도 포함되어 있지만, 스피커(22)는 도어의 내측 등, 다른 장소에 포함되어도 바람직하다. 또한, 모니터(21)는 내비게이션 시스템의 표시 장치로서 이용하는 것을 겸용하고 있지만, 차량 주변 감시 표시를 위하여 전용의 것을 포함하여도 바람직하다.
좌측 전방 도어(4)에는 좌측 사이드 밀러(23)를 포함하고, 우측 전방 도어(5)에는 우측 사이드 밀러(24)를 포함하고 있다. 좌측 사이드 밀러(23)에 좌측 사이드 카메라(25)가 포함되고, 우측 사이드 밀러(24)에 우측 사이드 카메라(26)가 포함되어 있다. 차량(1)의 전단에 전방 카메라(27)가 포함되고, 차량(1)의 후단에는 후방 카메라(28)가 포함되어 있다.
특히, 좌측 사이드 카메라(25) 및 우측 사이드 카메라(26)는 촬영 방향이 하부로 설정되어 차량(1)의 일부와 노면이 촬영 영역에 포함된다. 전방 카메라(27) 및 후방 카메라(28)는 촬영 방향이 기울기 하방으로 설정 되어 차량(1)의 일부와 노면이 촬영 영역에 포함된다.
이들 촬영 장치로서의 카메라는 CCD(charge coupled device)나 CIS(CMOS image sensor) 등의 촬상 소자를 내장하는 디지털 카메라이며, 촬영한 정보를 동영상 정보로서 실시간으로 출력한다. 이들의 카메라에는 광각 렌즈를 포함함으로써 넓은 시야각이 확보되고 있다.
모니터(21)는 내비게이션 모드의 제어에서 내비게이션 정보의 표시에 이용되는 것이지만, 변속 레버(19)를 리버스(후진) 위치에 조작한 경우에는, 후방 카메라(28)의 촬영 화상이 표시된다. 특히, 후방 카메라(28)의 촬영 화상은 좌우를 경면 반전시킴으로써, 좌우가 들어와 바뀐 화상으로 하고 있어, 룸 밀러로 후방을 확인한 경우의 상과 동일한 감각으로 모니터(21)의 표시 내용을 시인할 수 있도록 하고 있다.
차량 전방에는 스티어링 휠(16)의 회전 조작력을 앞바퀴(2)에게 전하여 구동 조향(조타)을 실시하는 파워 스티어링 유닛(PS)을 포함하고 있다. 또한, 차량 전방에는 엔진(E)과 이러한 엔진(E)으로부터의 동력을 변속하여 앞바퀴(2)에게 전하는 토오크 컨버터나 CVT 등으로 이루어지는 변속 기구(T)를 포함하고 있다. 변속 기구(T)는 변속 레버(19)의 조작에 의해 전후진의 전환과 주행 속도의 변속이 실시된다.
차량(1)에는 운전 조작이나, 차량(1)의 이동 상태를 검출하기 위한 각종 센서가 포함되어 있다. 구체적으로 설명하면, 스티어링 휠(16)의 조작 시스템에는 스티어링 조작 방향(조타 방향)과 조작량(조타량)을 계측하는 스티어링 센서(S16)가 포함되어 있다. 변속 레버(19)의 조작 시스템에는 시프트 위치를 판별하는 시프트 위치 센서(S19)가 포함되어 있다. 액셀 페달(17)의 조작 시스템에는 조작량을 계측하는 액셀 센서(S17)가 포함되고, 상기 브레이크 페달(18)의 조작 시스템에는 조작의 유무를 검출하는 브레이크 센서(S18)가 포함되어 있다.
뒷바퀴(3)의 근방에는 뒷바퀴(3)의 회전량으로부터 차량(1)의 이동량을 계측하도록 포토 인터럽터형이나 픽업형의 이동거리 센서(S3)가 포함되어 있다. 또한, 이동거리 센서(S3)로서 변속 기구(T)의 내부의 전동 시스템의 회전량으로부터 이동량을 취득하는 것을 이용하여도 바람직하다. 또한, 이동거리 센서(S3)는 앞바퀴(2)의 회전량을 계측하는 것이어도 바람직하다. 또한, 전방 카메라(27) 또는 후방 카메라(28)의 촬영 화상의 화상 처리로부터 차량(1)의 이동량과 스티어링 량을 검출하도록 구성하여도 바람직하다.
〔제어 구성〕
차량(1)의 중앙부에는 본 발명의 차량 주변 감시 장치로서의 ECU(30)를 배치하고 있다. 이러한 ECU(30)는, 도 3에 도시된 바와 같이, 센서 입력 인터페이스(31)와, 통신 인터페이스(32)로 이루어지는 인터페이스를 포함하는 동시에, 화상 출력 모듈(33)과 음성 출력 모듈(34)을 포함하고 있다.
이러한 ECU(30)에서는, 인터페이스를 통하여 얻을 수 있는 정보를 처리하는 마이크로프로세서나, DSP(digital signal processor) 등의 처리 시스템을 포함하고, 처리 결과는 화상 출력 모듈(33)에서 모니터(21)로 출력되며, 또한, 음성 정보는 음성 출력 모듈(34)에서 스피커(22)로 출력된다.
이러한 ECU(30)에는 내비게이션 모드의 제어를 실현하는 내비게이션 제어부(35)와, 내비게이션 제어부(35)에 지도 정보를 공급하는 지도 데이터 보존부(36)와, 주차 지원 모드의 제어를 실현하는 주차 지원 제어부(37)와, 차량 근방의 장애물(X)을 검지하는 장애물 검출부(38)(장애물 검출 수단의 일례)와, 차량 주변 감시 처리를 실현하는 화상 처리부(39)를 포함하고 있다.
내비게이션 제어부(35)는 주행시에 GPS 유닛(41)으로부터 경도 정보와 위도 정보로 나타나는 자동차 위치를 취득하고, 이러한 자동차 위치에 대응한 지도 데이터를 취득해 모니터(21)에 표시한다. 그리고, 목적지로 유도하는 내비게이션 정보를 모니터(21)에 표시하는 동시에, 유도 정보를 스피커(22)로부터 음성으로 출력한다. 지도 데이터 보존부(36)는 자동차 위치에 대응한 지도 데이터를 내비게이션 제어부(35)로 제공하는 처리를 실시한다.
주차 지원 제어부(37)는 화상 처리부(39)에 의해 모니터(21)에 표시되는 화상에 대하여 차량(1)을 주차 위치로 안내하는 예상 진로 이미지(Y)(도 6(a)을 참조)를 중첩 표시한다. 운전자는 모니터(21)에 표시되는 예상 진로 이미지(Y)에 기초하여 스티어링 조작을 실시함으로써, 차량(1)을 주차 목표 위치로 용이하게 도입할 수 있게 된다.
화상 처리부(39)는 차량 주변 감시 처리에 대해 모니터(21)에 대하여 도 5(a)에 도시되는 레이아웃에 주표시 영역(21A) 및 부표시 영역(21B)(부감 화상 표시 영역의 일례)을 배치하여, 주표시 영역(21A)의 상부 위치에는 이러한 영역의 화상을 촬영한 카메라를 나타내는 카메라 아이콘(21C)을 표시한다.
또한, 화상 처리부(39)는 전술한 복수의 카메라의 촬영 화상으로부터 차량(1)을 상방에서 내려다 본 형태가 되는 부감 화상을 생성하는 부감 화상 생성 수단(39A)과, 모니터(21)에 표시된 부감 화상을 복수의 분할 영역(D1~D4)으로 분할하여 관리하는 분할 영역 관리 수단(39B)과, 복수의 분할 영역(D1~D4) 중 장애물(X)이 표시되고 있는 영역인 것을 특정하는 정보로서 복수의 프레임(F1~F4) 중 장애물(X)이 존재하는 분할 영역(D)에 대응하는 프레임(F)을 강조 표시하는 특정 정보 출력 수단(39C)과, 확대 대상 화상과 확대 표시 영역을 설정하는 확대 모드 설정 수단(39D)과, 확대 대상 화상을 확대 표시 영역으로 확대하는 확대 표시 수단(39E)을 포함하고 있다. 도 5(a)에 도시되는 바와 같이, 분할 영역(D1)과 분할 영역(D2)은 차량 전방의 좌측과 우측에 대응하고, 분할 영역(D3)과 분할 영역(D4)은 차량 후방의 좌측과 우측에 대응한다. 이와 유사하게, 프레임(F1~F4)도 동도에 도시된 바와 같이, 분할 영역(D1~D4)에 대응하고 있다. 더욱이, 분할 영역(D1~D4)의 상위 개념으로서 분할 영역(D)이라고 표시하고, 프레임(F1~F4)의 상위 개념으로서 프레임(F)이라고 표시한다.
ECU(30)는 전자 회로에 의해 구성되어 인터페이스나 출력 시스템의 일부 또는 모두가 이와 같은 전자 회로에 포함되어 있어도 바람직하다. 더욱이, ECU(30)에는 처리 시스템을 구성하는 전자 회로, 또는, 개별 부품으로서 메모리나 레지스터 등에 의해 구성되는 기억부를 갖고, 데이터 버스, 어드레스 버스, 컨트롤 버스 등에 의해 정보의 입출력을 실시한다.
센서 입력 인터페이스(31)에는 스티어링 센서(S16)와, 시프트 위치 센서(S19)와, 액셀 센서(S17)와, 브레이크 센서(S18)와, 이동거리 센서(S3)로부터 운전 조작 정보나 이동 상태를 검출하는 정보가 입력된다.
통신 인터페이스(32)는 통신회선을 통하여 파워 스티어링 유닛(PS)과, 변속 기구(T)와, 브레이크 장치(BK)와, GPS 유닛(41)의 사이에 통신을 실시한다. 또한, 이러한 통신 인터페이스(32)는 터치 패널(21T)과, 좌측 사이드 카메라(25)와, 우측 사이드 카메라(26)와, 전방 카메라(27)와, 후방 카메라(28)로부터의 정보를 취득한다.
화상 출력 모듈(33)은 모니터(21)에 대하여 화상을 출력하고, 음성 출력 모듈(34)은 스피커(22)에 대하여 음성을 출력한다.
〔제어 형태〕
차량 주변 감시 표시 처리의 처리 형태를 도 4의 흐름도(flow chart)에 도시하고 있고, 이러한 처리의 실행시에 모니터(21)의 표시 내용을 도 5 ~ 도 8에 도시하고 있다.
즉, 차량 주변 감시 처리가 선택되고 있는 상태로 변속 레버(19)가 전진 위치로 설정된 경우에는, 도 5(a)에 도시된 바와 같이, 주표시 영역(21A)에 전방 카메라(27)의 촬영 화상이 표시된다. 이러한 주표시 영역(21A)의 상부 위치에는 전방 카메라(27)의 촬영 화상인 것을 나타내는 카메라 아이콘(21C)이 표시되고, 부표시 영역(21B)에 부감 화상이 표시된다. 이것과는 반대로, 변속 레버(19)가 후진 위치로 설정된 경우에는, 도 6(a)에 도시된 바와 같이, 주표시 영역(21A)에 후방 카메라(28)의 촬영 화상이 표시된다. 이러한 주표시 영역(21A)의 상부 위치에는 후방 카메라(28)의 촬영 화상인 것을 나타내는 카메라 아이콘(21C)이 표시되고, 부표시 영역(21B)에 부감 화상이 표시된다(#101, #102 스텝).
구체적인 처리 형태로서, 변속 레버(19)가 전진 위치로 설정된 경우에는 주표시 영역(21A)에 대해서는 전방 카메라(27)의 촬영 화상이 표시된다. 이것에 대하여, 변속 레버(19)가 후진 위치로 설정된 경우에는 후방 카메라(28)의 촬영 화상이 취득되고, 이러한 촬영 화상의 좌우를 바꿔 넣은 경면 반전 화상이 생성되어 이러한 화상이 모니터(21)에 표시된다.
부표시 영역(21B)에 표시되는 부감 화상은 부감 화상 생성 수단(39A)이 좌측 사이드 카메라(25)와, 우측 사이드 카메라(26)와, 전방 카메라(27)와, 후방 카메라(28)의 촬영 화상을 취득하고, 상방에서 내려다 본 형태가 되는 투영 화상으로 변환하여, 이들의 투영 화상을 차량 이미지를 둘러싸는 위치의 가상 평면에 매핑함으로써, 노면상에 배치되는 단일의 부감 화상으로서 생성된다.
이와 같이 표시된 부감 화상은 파선으로 도시하는 구획 라인(L)으로 구획하도록 4개의 분할 영역(D1~D4)으로 분할하여 관리된다. 더욱이, 동도에 도시하는 구획 라인(L)은 화면에 표시되는 것은 아니지만, 이러한 구획 라인(L)을 화면에 표시하도록 처리 형태를 설정하여도 바람직하다.
특히, 부표시 영역(21B)에 표시되는 부감 화상은 4개의 카메라의 촬영 화상으로부터 생성되는 것이지만, 구획 라인(L)으로 구획된 4개의 분할 영역(D1~D4) 각각의 부감 화상은 2개의 카메라의 촬영 화상의 합성에 의해 생성된다. 즉, 차량(1)의 전후 위치의 각부(角部)의 바깥 위치에 2개의 카메라의 촬영 화상에서의 중복 영역(W)(도 1을 참조)이 형성되고, 이러한 중복 영역(W)에 대해 경계 부위를 눈에 띄지 않게 하는 합성을 한다. 그리고, 이와 같이 합성된 부감 화상이 확대 대상 화상으로 설정된 경우에는 확대 표시 영역의 크기에 확대되게 된다.
또한, 변속 레버(19)가 후진 위치로 설정된 경우에, 주차 지원 제어를 함께 실행하는 것도 가능하고, 이와 같이 주차 지원 제어가 실행되는 경우에는, 도 6(a)에 도시된 바와 같이, 주표시 영역(21A) 및 부표시 영역(21B)에 예상 진로 이미지(Y)가 중첩 표시된다.
예상 진로 이미지(Y)는 현재의 스티어링 량으로 차량(1)을 후진시킨 경우에 차량(1)이 이동하는 경로를 나타내는 것이고, 모니터(21)에 표시되는 촬영 화상에 대응하는 원근감으로 노면과 동일한 가상 평면상에 생성된다. 이러한 진로 예상 이미지는 차량(1)의 폭과 동일한 폭이 되는 한 벌의 차폭 라인(Ya)과, 차량(1)이 설정 양만 후진한 경우에 이르는 위치를 나타내는 복수의 거리 라인(Yb)으로 프레임에 형성된다.
전술한 장애물 검출부(38)는 좌측 사이드 카메라(25)와, 우측 사이드 카메라(26)와, 전방 카메라(27)와, 후방 카메라(28)에서의 촬영 영역에서 중복하는 중복 영역(W)의 화상으로부터 시각차를 일으키는 입체물을 장애물(X)로서 추출하는 소프트웨어로서 구성되어 있다. 이와 같이 입체물을 추출하는 처리의 개요는 이하와 같이 설명할 수 있다. 즉, 2개의 카메라의 촬영 화상에서의 중복 영역(W)의 화상을 동일한 배경이 되는 가상 평면에 투영 변환하여, 투영 변환 후의 각각의 화상의 동일한 배경이 일치하는 위치 관계로 각각을 중첩시킨다. 이와 같이 중첩시킨 경우에 일치하지 않는 화상이 입체물이며, 그런 입체물을 장애물(X)로서 추정하여 장애물(X)의 위치를 특정하게 된다.
이와 같은 2개의 카메라의 촬영 영역의 중복 영역(W)은 운전자로부터 사각이 되는 영역이기도 하고, 이러한 영역에 존재하는 장애물(X)만을 검출 대상으로 하는 것은 합리적이다. 더욱이, 이러한 장애물(X)의 검출 영역을 확대하기 위하여 4이상의 카메라를 차량에 포함하여도 바람직하다. 또한, 이러한 장애물 검출부(38)를 옵티컬 플로우(optical-flow)의 기술에 의해 장애물(X)을 검출하는 소프트웨어로 구성하여도 바람직하다.
특히, 장애물 검출부(38)로서 초음파형 등의 장애물 센서를 차량(1)의 전단이나 후단 등의 복수 위치에 포함하여도 바람직하다. 이와 같이 장애물(X)을 검출하기 위하여 장애물 센서에 의해 장애물 검출부(38)를 구성함으로써, 차량(1)의 사방의 장애물(X)의 검출도 가능해진다.
장애물 검출부(38)로 장애물(X)이 검출된 경우에는, 구체적으로는 분할 영역(D1~D4) 중, 도 5에 도시된 바와 같이, 분할 영역(D2)에 장애물(X)이 존재하는 경우에는, 분할 영역(D2)(검출된 장애물(X)을 포함한 분할 영역(D))이 지정되고, 이러한 분할 영역(D2)의 외주의 프레임(F2)이 강조 표시되며(도면에서는 해칭으로 도시하고 있음), 이와 동시에, 장애물(X)이 존재하는 분할 영역(D2)의 색조를 변경하고, 스피커(22)로부터 경보음을 출력한다(#103, #104 스텝). 또한, D2의 색조는 변경하지 않아도 바람직하다. 이러한 경우에 있어서, 중간 화상만 색조를 변경하여도 바람직하다.
이러한 처리는 분할 영역 관리 수단(39B)으로 관리되는 분할 영역(D1~D4) 중 장애물(X)이 존재하는 분할 영역(D2)에 대하여, 특정 정보 출력 수단(39C)이 프레임(F2)의 휘도를 높이는 것이나, 채도를 높이는 것, 또는, 다른 색상으로 변경함으로써, 강조 표시를 실현하고 있다. 이와 같은 강조 표시와 함께 프레임(F2)의 표시를 점멸시키도록 변경하여도 바람직하다. 또한, 장애물(X)이 존재하는 분할 영역(D2)의 색조를 상이한 것으로 변경하는 처리로서, 예를 들면, 분할 영역(D2)의 화상의 각 픽셀의 3 원색 중 B(청)의 성분에 대하여 휘도를 높이는 것이나 휘도를 줄이는 정도의 처리를 생각할 수 있다. 또한, 스피커(22)로부터 출력되는 경보음으로서, 전자음뿐만 아니라, 사람의 말에 의한 메시지이여도 바람직하다.
다음으로, 부표시 영역(21B)에 운전자의 손가락 등을 접촉시키는 접촉 조작이 검지된 경우에는, 이러한 접촉 조작을 트리거로서 이미 지정되어 있는 분할 영역(D2)의 화상(부감 화상 또는 카메라의 촬영 화상)을 확대 대상 화상으로 하고, 그러한 확대 대상 화상을 확대 표시 영역으로 확대하는 확대 처리를 실시한다(#105, #106 스텝).
이러한 처리는 확대 모드 설정 수단(39D)으로 설정된 확대 모드에 따라서 확대 표시 수단(39E)이 확대 처리를 실행한다. 이러한 확대 모드에서는, 확대 대상 화상과 확대 표시 영역이 설정된다. 확대 대상 화상으로서 장애물(X)이 존재하는 분할 영역(D2)에 표시되고 있는 부감 화상과, 이러한 장애물(X)을 촬영하고 있는 카메라의 한쪽의 촬영 화상(카메라 시점이 되는 화상) 중 어느 하나가 설정된다. 또한, 확대 표시 영역으로서, 부표시 영역(21B)을 설정하는 통상 확대 모드와, 주표시 영역(21A)을 설정하는 개별 화면 확대 모드와, 모니터(21)의 전화면을 설정하는 전화면 확대 모드 중 어느 하나가 설정된다.
이러한 확대 모드를 설정하는 수속으로서는, 모드 설정 화면을 모니터(21)에 표시하여 인위 조작에 의해 미리 설정된다.
〔제어 형태:통상 확대 모드〕
확대 표시 수단(39E)이 통상 확대 모드로 확대 처리를 실시하는 경우, 확대 대상 화상(도면에서는 분할 영역(D)의 부감 화상)을 설정하고, 확대 표시 영역으로서 도 5 및 도 6에 도시하는 부표시 영역(21B)을 설정하는 동시에, 분할 영역(D2·D3)(도 5에서는 D2, 도 6에서는 D3의 의미)과 확대 표시 영역(부표시 영역(21B))의 사이에 확대 표시 궤적(도시하지 않음)을 설정한다.
다음으로, 도 5(b), 도 6(b)에 도시된 바와 같이, 분할 영역(D2·D3)의 화상(부감 화상)을 확대함으로써, 이러한 분할 영역(D2·D3)크기보다 조금 큰 크기의 중간 화상(M)을 생성하고, 표시의 기점이 되는 분할 영역(D2·D3)(장애물(X)의 존재에 의해 지정된 분할 영역(D))의 모두를 덮는 위치에서 부표시 영역(21B)의 부감 화상에 중첩 표시한다. 이의 직후에, 도 5(c), 도 6(c)에 도시된 바와 같이, 분할 영역(D2·D3)의 화상(부감 화상)을 더욱 확대함으로써, 더욱 큰 크기의 중간 화상(M)을 형성하고, 확대 표시 궤적에 따른 위치에 표시한다. 이러한 경우, 먼저 표시하고 있는 중간 화상(M)을 소거하여 다음의 중간 화상(M)을 표시하는 처리를 실시하고, 이러한 통상 확대 모드에서는 먼저 표시한 중간 화상(M)의 모두를 덮는 위치 관계로 부표시 영역(21B)의 부감 화상에 다음의 중간 화상(M)이 중첩 표시된다.
이와 같이 중간 화상(M)의 크기를 확대 표시 궤적에 따라 서서히 이동하면서 순차적으로 큰 크기의 중간 화상(M)을 표시한다. 이러한 확대 표시를, 예를 들면 0.5초나 1초 정도의 시간 내에 실행하고, 최종적으로 도 5(d), 도 6(d)에 도시된 바와 같이, 분할 영역(D2·D3)의 화상(부감 화상)이 확대된 확대 화상을 부표시 영역(21B)의 영역내 가득하게 표시한다. 그리고, 이러한 확대 화상의 구석에 영역 아이콘(21D)을 표시함으로써, 확대 처리는 완료한다. 특히, 영역 아이콘(21D)은 카메라에 의한 촬영 영역을 나타내는 형상으로 노면에 중복하지 않는 크기(차량 이미지에는 중복하는 크기)로 설정되고, 이러한 영역 아이콘(21D)으로부터 확대 대상 화상의 원래의 위치를 인식할 수 있다.
〔제어 형태:개별 화면 확대 모드〕
확대 표시 수단(39E)이 개별 화면 확대 모드로 확대 처리를 실시하는 경우에는, 확대 대상 화상(도 7에서는 분할 영역(D3)의 부감 화상)을 설정하고, 확대 표시 영역으로서 주표시 영역(21A)을 설정하는 동시에, 분할 영역(D3)과 확대 표시 영역(주표시 영역(21A))의 사이에 확대 표시 궤적(도시하지 않음)을 설정한다. 이러한 제어 형태에서도 장애물(X)이 존재하는 분할 영역(D3)의 색조를 변경하고, 그 외주의 프레임(F3)이 강조 표시된다(도면에서는 해칭으로 나타내 보이고 있음).
다음으로, 도 7(a)에 도시된 바와 같이, 분할 영역(D3)의 화상(부감 화상)을 확대함으로써, 이러한 분할 영역(D3)의 크기보다 조금 큰 크기의 중간 화상(M)을 생성하고, 표시의 기점이 되는 분할 영역(D3)(장애물(X)의 존재에 의해 지정된 분할 영역(D))이 많은 영역을 덮는 위치에 중첩 표시한다. 이의 직후, 도 7(b)에 도시된 바와 같이, 분할 영역(D3)의 화상(부감 화상)을 더욱 확대함으로써, 더욱 큰 크기의 중간 화상(M)을 형성하고, 확대 표시 궤적에 따른 위치에 표시한다.
이와 같이 중간 화상(M)의 크기를 확대 표시 궤적에 따라 서서히 이동하면서 순차적으로 큰 크기의 중간 화상(M)을 표시한다. 이러한 확대 표시를, 예를 들면 0.5초나 1초 정도의 시간 내에 실행하고, 최종적으로 도 7(c)에 도시된 바와 같이, 분할 영역(D3)의 화상(부감 화상)이 확대된 확대 화상을 주표시 영역(21A)의 영역내 가득하게 표시한다. 그리고, 이러한 확대 화상의 구석에 영역 아이콘(21D)을 표시함으로써, 확대 처리는 완료한다. 특히, 영역 아이콘(21D)은 카메라에 의한 촬영 영역을 나타내는 형상을 가지고 있고, 이러한 영역 아이콘(21D)으로부터 확대 대상 화상의 원래의 위치를 인식할 수 있다.
이러한 개별 화면 확대 모드에서는, 확대 표시 영역(주표시 영역(21A))과 분할 영역(D3)의 종횡비(aspect ratio)가 다르기 때문에, 분할 영역(D3)의 부감 화상이 주표시 영역(21A)의 영역내 가득하게 표시된 확대 화상은 변형한다. 게다가, 장애물(X)이 표시되는 영역을 남기면서 확대 화상의 상하 방향의 단부를 잘라낸 형태로 표시하여도 바람직하다.
〔제어 형태:전면 확대 모드〕
확대 표시 수단(39E)이 전화면 확대 모드로 확대 처리를 실시하는 경우에는, 확대 대상 화상(도 8에서는 분할 영역(D3)의 부감 화상)을 설정하고, 확대 표시 영역으로서 모니터(21)의 표시 영역을 설정하는 동시에, 분할 영역(D3)과 확대 표시 영역(모니터(21)의 표시 영역)의 사이에 확대 표시 궤적(도시하지 않음)을 설정한다. 이러한 제어 형태에서도 장애물(X)이 존재하는 분할 영역(D3)의 색조를 변경하고, 그 외주의 프레임(F3)이 강조 표시된다(도면에서는 해칭으로 도시하고 있음).
다음으로, 도 8(a)에 도시된 바와 같이, 분할 영역(D3)의 화상(부감 화상)을 확대함으로써, 이러한 분할 영역(D3)의 크기보다 조금 큰 크기의 중간 화상(M)을 생성하고, 표시의 기점이 되는 분할 영역(D3)(장애물(X)의 존재에 의해 지정된 분할 영역(D))이 많은 영역을 덮는 위치에 중첩 표시한다. 이의 직후, 도 8(b)에 도시된 바와 같이, 분할 영역(D3)의 화상(부감 화상)을 더욱 확대함으로써, 더욱 큰 크기의 중간 화상(M)을 형성하고, 확대 표시 궤적에 따른 위치에 표시한다.
이와 같이 중간 화상(M)의 크기를 확대 표시 궤적에 따라 서서히 이동하면서 순차적으로 큰 크기의 중간 화상(M)을 표시한다. 이러한 확대 표시를, 예를 들면, 0.5초나 1초 정도의 시간내에 실행하고, 최종적으로 도 8(c)에 도시된 바와 같이, 분할 영역(D3)의 화상(부감 화상)이 확대된 확대 화상을 모니터(21)의 표시 영역내 가득하게 표시한다. 그리고, 이러한 확대 화상의 구석에 영역 아이콘(21D)을 표시함으로써, 확대 처리는 완료한다. 특히, 영역 아이콘(21D)은 카메라에 의한 촬영 영역을 나타내는 형상을 가지고 있고, 이러한 영역 아이콘(21D)으로부터 확대 대상 화상의 원래의 위치를 인식할 수 있다.
이러한 전화면 확대 모드에서도, 확대 표시 영역(모니터(21)의 표시 영역)과 분할 영역(D3)의 종횡비가 다르기 때문에, 분할 영역(D3)의 부감 화상이 모니터(21)의 표시 영역내 가득하게 표시된 확대 화상은 변형한다. 더욱이, 장애물(X)이 표시되는 영역을 남기면서 확대 화상의 상하 방향의 단부를 잘라낸 형태로 표시하여도 바람직하다.
이와 같이 어느 확대 모드로 확대 처리를 실시하여도, 분할 영역(D)의 위치를 기점으로 하여 중간 화상(M)의 표시 위치가 확대 표시 궤적에 따라 이동하는 형태(도 5 및 도 6의 통상 확대 모드에서는 중간 화상(M)의 구석의 위치는 이동하지 않음)로 확대됨으로써, 확대되는 원의 화상의 위치(분할 영역(D)의 위치)를 분명히 하면서, 줌 업하는 형태로의 확대가 실현된다. 그리고, 확대 화상의 구석에 표시되는 영역 아이콘(21D)의 형태나, 영역 아이콘(21D)의 표시 위치로부터도 확대 화상이 어느 영역의 화상인지를 인식할 수 있게 된다.
더욱이, 어느 확대 모드로 확대 처리를 실시하는 경우에서도, 동영상 레이어에 대하여 중간 화상(M)을 형성하는 처리를 실시함으로써, 중첩 표시가 실현되고, 이러한 중첩 표시한 상태에서는 부감 화상이어도 촬영 화상이어도 실시간으로 차량(1)과 장애물(X)의 위치 관계의 변화를 표시할 수 있다. 또한, 다음에 설명하는 바와 같이, 확대 화상을 소거하고, 원래 표시에 복귀하는 경우에도 동영상 레이어의 화상을 소거함으로써 완료된다.
다음으로, 모니터(21)의 어느 영역에 운전자의 손가락 등을 접촉시키는 접촉 조작이 검지된 경우, 또는, 장애물 검출부(38)로 장애물(X)이 검출하지 않는 상태에 이른 경우에는, 확대 화상을 소거하고, #101 스텝의 처리로 이행함으로써, 모니터(21)의 주표시 영역(21A)에는 촬영 화상이 표시되고, 부표시 영역(21B)에는 부감 화상이 표시되는 제어로 복귀한다(#107~#109 스텝).
그리고, 이러한 차량 주변 감시 표시 처리는 제어를 중지하는 선택을 실시할 때까지 계속하여 실시하게 된다(#110 스텝).
이와 같이 본 발명에서는 차량(1)을 주차 위치로 도입하는 경우나, 펜스나 주차 상태의 차량 등의 장애물(X)이 존재하는 노면에서 차량(1)을 이동시키는 경우에는, 모니터(21)의 주표시 영역(21A)에 카메라의 촬영 화상을 표시하고, 모니터(21)의 부표시 영역(21B)에 대하여 부감 화상을 표시한다. 이것에 의해 장애물(X)이 운전자로부터 사각의 위치에 있어도 차량(1)과 차량의 근방의 장애물(X)의 위치 관계의 확인할 수 있는 것으로 하고 있다.
또한, 장애물(X)에 접근한 경우에는, 부감 화상의 분할 영역(D1~D4) 중 장애물(X)이 존재하는 분할 영역(D)의 외주의 프레임(F1~F4) 중 대응하는 프레임(F)의 명도를 높게 하는 강조 표시를 실시하고, 이러한 표시와 동시에 장애물(X)이 존재하는 분할 영역(D)의 색조를 변경하는 표시를 실시하며, 스피커(22)로부터 경보음이 출력됨으로써, 장애물(X)이 존재하는 영역을 파악할 수 있다.
이와 같이 장애물(X)의 존재 위치를 파악할 수 있는 상태로 부표시 영역(21B)에 손가락 등을 접촉시킴으로써, 분할 영역(D1~D4) 중 장애물(X)이 존재하는 분할 영역(D)이 확대 표시 영역까지 확대되어 장애물(X)과 차량(1)의 위치 관계를 확대 화상으로 확인할 수 있다.
특히, 복수의 분할 영역(D1~D4)의 어느 화상이 확대 표시 영역에 확대될 경우에는, 장애물(X)이 존재하는 분할 영역(D)을 기점으로 하여 크기가 상이한 복수의 중간 화상(M)을 작은 크기의 것으로부터 큰 크기의 것으로 천이 시키도록 확대 표시 궤적에 따라 순차적으로 이동하는 형태로 표시를 실시한다. 이와 같이 확대됨으로써, 확대되는 원래의 화상의 위치(장애물(X)이 존재하는 분할 영역(D)의 위치)를 분명히 하면서 줌 업하는 형태로의 확대를 실현하고 있다.
그리고, 장애물(X)이 존재하는 영역의 부감 화상, 또는, 장애물(X)을 촬영한 카메라의 촬영 화상이 확대 표시되는 결과, 장애물(X)과 차량(1)의 위치 관계가 확대된 화상으로부터 파악할 수 있게 되어 장애물(X)과 접촉을 피하는 형태로의 차량(1)의 이동을 실현한다.
〔개별 실시예〕
본 발명은 상기한 실시예 이외에 이하와 같이 구성하여도 바람직하다.
(a) 확대 표시 수단(39E)이 중간 화상(M)을 형성할 경우에, 이러한 중간 화상(M)과 이미 표시되고 있는 화상의 경계를 명료하게 하기 위하여 고휘도의 경계 라인을 표시한다. 이와 같이 경계 라인을 표시할 경우에는, 배경이 되는 화상의 색상을 취득하고, 이러한 색상에 대하여 보색 등이 상이한 색상을 설정하도록 처리 형태를 설정하여도 바람직하다. 이와 같이 중간 화상(M)에 경계 라인을 표시함으로써, 중간 화상(M)의 윤곽을 형성하게 되고, 확대되는 원래의 화상의 위치(장애물(X)이 존재하는 분할 영역(D)의 위치)를 한층 분명히 하면서 줌 업하는 형태로의 확대를 실현한다.
(b) 부감 화상을 복수의 분할 영역(D)으로 분할하여 관리하는 경우에는, 2 분할이나 6 분할과 같이 4 분할 이외의 수로 분할하여 관리하여도 바람직하다. 특히, 이러한 분할수를 사용자가 임의로 설정할 수 있도록 구성하여도 바람직하다. 또한, 많은 수로 분할한 경우에는 차량(1)의 주변의 국부적인 영역에 대한 장애물(X)의 접근을 인식할 수 있는 동시에, 그 부위를 확대하여 표시하는 것이 가능해진다.
(c) 장애물(X)이 검출되고 있는 상황에 있어서는, 터치 패널(21T)에 의해 부표시 영역(21B)의 표시 영역의 어느 부위를 접촉하여도 장애물(X)이 검출되고 있는 분할 영역(D)의 화상(부감 화상 또는 카메라의 촬영 화상)의 확대 표시를 실시하고, 장애물(X)이 검출되어 있지 않은 상황에 있어서는, 터치 패널(21T)에 의해 선택된 분할 영역(D)의 화상(부감 화상 또는 카메라의 촬영 화상)의 확대 표시를 실시하도록 제어 형태를 설정하여도 바람직하다. 또한, 분할 영역(D)의 수에 대응한 전용의 확대 버튼을 모니터(21)에 표시하여도 바람직하고, 확대 표시를 종료시키기 위한 전용의 버튼을 모니터(21)에 표시하여도 바람직하다.
(d) 확대 모드 설정 수단(39D)에 의한 확대 처리로 확대 대상 화상을 설정할 경우에, 전술의 (c)에서 설명한 바와 같이, 전방의 분할 영역(D)이 인위 조작으로 지정된 경우, 또는, 전방 위치에서 장애물(X)이 검출된 경우에는, 부감 화상을 확대 대상 화상으로 설정한다. 이것과는 반대로, 전술의 (c)에서 설명한 바와 같이, 후방의 분할 영역(D)이 인위 조작으로 지정된 경우, 또는, 후방 위치에서 장애물(X)이 검출된 경우에는, 카메라의 촬영 화상을 확대 대상 화상으로 설정한다.
즉, 차량(1)의 전단 측의 영역은 운전자가 몸을 타는 자세를 취함으로써, 시인이 가능하게 되기도 하고, 이와 같이 시인이 가능한 영역에 대해서는, 부감 화상을 확대 대상 화상으로 설정함으로써, 운전자의 눈으로부터 보이는 영역과 상이한 방향에서 본 화상을 표시하는 것이 유효가 된다. 또한, 차량(1)의 후단 측의 영역은 운전자로부터 보이지 않는 것이 많고, 카메라의 촬영 화상을 직접적으로 본 감각에 가까운 화상이 되는 촬영 화상을 확대 대상 화상으로 설정하는 것이 유효가 된다.
(e) 전술한 개별 실시예(d)에 있어서, 카메라의 촬영 화상을 확대 대상 화상으로 하는 경우, 스티어링 휠(16)의 조작 방향이 차량(1)의 진행 방향이 촬영 영역(장애물(X))에 접근하는 방향인 것을 판정한 경우에는 사이드 카메라(좌측 사이드 카메라(25) 또는 우측 사이드 카메라(26))의 촬영 화상을 표시 대상 화상으로 설정한다. 차량(1)의 진행 방향이 촬영 영역(장애물(X))으로부터 멀어지는 방향인 것을 판정한 경우에는 차량(1)의 단부의 카메라(전방 카메라(27) 또는 후방 카메라(28))의 촬영 화상을 표시 대상으로 설정한다.
이와 같이 스티어링 방향에 기초하여 촬영 화상을 취득하는 카메라의 선택을 실시함으로써, 차량(1)을 장애물(X) 등에 접근시키는 방향으로 조금 이동시킨 경우에서도, 사이드 카메라(좌측 사이드 카메라(25) 또는 우측 사이드 카메라(26))의 촬영 화상으로부터 장애물(X) 등과 차량(1)의 상대적인 위치 관계의 변화를 용이하게 파악할 수 있다. 또한, 차량(1)이 장애물(X) 등으로부터 멀어지는 방향으로 이동하는 경우에는, 차량(1)의 단부의 카메라의 촬영 화상으로부터 차량(1)의 진행 방향의 넓은 영역을 모니터(21)에 표시하여 진행 방향의 확인을 가능하게 한다.
(f) 더욱이, 「부감 화상 표시 영역(부표시 영역)에 접촉이 있던」일을 검출한다는 것은 터치 패널(21T)(부감 화상 영역)에 접하지 않은 상태로부터 접한 것으로의 접촉 상태의 변화를 검출하는 것이어도 바람직하고, 터치 패널(21T)(부감 화상 영역)에 손가락 등이 접하고 있는 상태로부터 손가락 등이 떨어진 상태로의 상태 변화를 검출하는 것이어도 바람직하다.
산업상의 이용 가능성
본 발명은 차량에 포함한 복수의 카메라의 촬영 화상으로부터 부감 화상을 생성하여 모니터에 표시하는 화상 처리 시스템을 가지고 있는 차량 전반에 이용할 수 있다.
1 : 차량 21 : 모니터
21B : 부감 화상 표시 영역(부표시 영역) 21T : 터치 패널
25 : 카메라(좌측 사이드 카메라)
26 : 카메라(우측 사이드 카메라)
27 : 카메라(전방 카메라) 28 : 카메라(후방 카메라)
39 : 화상 처리부 39A : 부감 화상 생성 수단
39E : 확대 표시 수단 D : 분할 영역
M : 중간 화상

Claims (7)

  1. 차량 주변의 노면을 포함한 영역을 촬영하는 복수의 카메라와, 이러한 복수의 카메라의 촬영 화상을 모니터에 표시하는 화상 처리부를 포함하고,
    상기 화상 처리부는 상기 모니터에 대하여 복수의 상기 카메라의 어느 하나로 촬영된 촬영 화상이 표시되는 주 표시 영역과, 부감 화상 영역을 상기 모니터에 표시하며,
    상기 화상 처리부는 복수의 상기 카메라의 촬영 화상으로부터 차체 주변을 상방에서 내려다 본 부감 화상을 생성하여 상기 모니터의 부감 화상 표시 영역에 표시하는 부감 화상 생성 수단과, 상기 부감 화상 표시 영역의 어느 하나의 영역이 지정된 경우에, 지정된 영역의 화상을 확대 대상 화상으로서 확대하고, 상기 부감 화상 표시 영역 내에 표시하는 확대 표시 수단을 포함하고,
    상기 확대 표시 수단은 분할 영역의 크기와 상기 부감 화상 표시 영역의 크기의 중간 크기가 되는 복수의 중간 화상을 생성하고, 크기가 작은 중간 화상으로부터 순차적으로 표시하는 처리를 실행하며, 이러한 처리의 실행의 초기에는, 상기 설정된 분할 영역이 다음에 표시되는 중간 화상의 표시 영역에 포함되도록 표시 위치 관계가 설정되어 있는 차량 주변 감시 장치.
  2. 제 1 항에 있어서,
    상기 부감 화상 표시 영역은 분할된 복수의 분할 영역이 설정되는 차량 주변 감시 장치.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 확대 표시 수단은 상기 확대 대상 화상을 상기 부감 화상 표시 영역의 크기까지 확대하는 차량 주변 감시 장치.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 주 표시 영역은 차량의 주변 방향의 촬영 화상이 표시되는 차량 주변 감시 장치.
  5. 제 2 항에 있어서,
    상기 부감 화상 영역은 복수의 상기 분할 영역이 구획 라인에 의해 분할되는 차량 주변 감시 장치.
  6. 삭제
  7. 제 1 항에 있어서,
    상기 확대 표시 수단은 상기 중간 화상의 외주부에 경계를 분명하게 하는 경계 라인을 표시하는 차량 주변 감시 장치.
KR1020127024305A 2010-03-26 2011-02-02 차량 주변 감시 장치 KR101446898B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010072326A JP5696872B2 (ja) 2010-03-26 2010-03-26 車両周辺監視装置
JPJP-P-2010-072326 2010-03-26
PCT/JP2011/052136 WO2011118261A1 (ja) 2010-03-26 2011-02-02 車両周辺監視装置

Publications (2)

Publication Number Publication Date
KR20120118073A KR20120118073A (ko) 2012-10-25
KR101446898B1 true KR101446898B1 (ko) 2014-10-22

Family

ID=44672835

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127024305A KR101446898B1 (ko) 2010-03-26 2011-02-02 차량 주변 감시 장치

Country Status (6)

Country Link
US (3) US9308863B2 (ko)
EP (1) EP2555520A4 (ko)
JP (1) JP5696872B2 (ko)
KR (1) KR101446898B1 (ko)
CN (2) CN102804763B (ko)
WO (1) WO2011118261A1 (ko)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5696872B2 (ja) * 2010-03-26 2015-04-08 アイシン精機株式会社 車両周辺監視装置
JP2011205513A (ja) * 2010-03-26 2011-10-13 Aisin Seiki Co Ltd 車両周辺監視装置
JP5813944B2 (ja) * 2010-12-06 2015-11-17 富士通テン株式会社 画像表示システム、画像処理装置及び画像表示方法
JP5765995B2 (ja) * 2011-03-31 2015-08-19 富士通テン株式会社 画像表示システム
JP2012244600A (ja) * 2011-05-24 2012-12-10 Fujitsu Ten Ltd 画像表示システム、画像処理装置、及び、画像表示方法
JP5938635B2 (ja) * 2011-12-15 2016-06-22 パナソニックIpマネジメント株式会社 運転支援装置
JP5765575B2 (ja) * 2011-12-22 2015-08-19 アイシン精機株式会社 撮影領域明示装置
JP5825091B2 (ja) * 2011-12-22 2015-12-02 アイシン精機株式会社 撮影領域明示装置
JP6077210B2 (ja) * 2011-12-22 2017-02-08 トヨタ自動車株式会社 車両用後方監視装置
WO2013094345A1 (ja) * 2011-12-22 2013-06-27 アイシン精機株式会社 撮影領域明示装置
JP5996879B2 (ja) * 2012-02-16 2016-09-21 日立建機株式会社 作業機械の周囲監視装置
JP6014664B2 (ja) * 2012-06-08 2016-10-25 日立建機株式会社 自走式産業機械の表示装置
JP5986206B2 (ja) * 2012-07-27 2016-09-06 京セラ株式会社 画像処理装置、撮像装置、移動体、プログラム、および領域設定方法
TWI517992B (zh) * 2012-11-13 2016-01-21 義晶科技股份有限公司 車用影像系統及其影像之顯示控制方法
TWI535587B (zh) 2012-11-14 2016-06-01 義晶科技股份有限公司 利用觸控面板來控制車用影像之顯示的方法及其車用影像系統
JP6022930B2 (ja) 2012-12-25 2016-11-09 京セラ株式会社 カメラシステム、カメラモジュールおよびカメラ制御方法
US20140211009A1 (en) * 2013-01-25 2014-07-31 Magna Electronics Inc. Lens assembly for vehicle vision system camera
KR101491324B1 (ko) * 2013-10-08 2015-02-06 현대자동차주식회사 차량용 영상 획득 장치
DE102013224954A1 (de) * 2013-12-05 2015-06-11 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen einer Warnung mittels zweier durch Kameras erfasster Bilder einer Fahrzeugumgebung
US10963133B2 (en) * 2014-01-07 2021-03-30 Honeywell International Inc. Enhanced awareness of obstacle proximity
US10431105B2 (en) 2014-01-07 2019-10-01 Honeywell International Inc. Enhanced awareness of obstacle proximity
US10419703B2 (en) * 2014-06-20 2019-09-17 Qualcomm Incorporated Automatic multiple depth cameras synchronization using time sharing
KR20160032451A (ko) * 2014-09-16 2016-03-24 현대자동차주식회사 차량, 차량용 표시 장치 및 차량용 표시 장치의 제어 방법
EP3040829A1 (de) * 2015-01-02 2016-07-06 Volkswagen AG Anwenderschnittstelle und Verfahren zum Betrieb einer Anwenderschnittstelle für ein Fortbewegungsmittel
KR101643557B1 (ko) * 2015-01-02 2016-07-29 현대자동차주식회사 차량 및 차량의 제어방법
US10247941B2 (en) * 2015-01-19 2019-04-02 Magna Electronics Inc. Vehicle vision system with light field monitor
US20160314559A1 (en) * 2015-04-24 2016-10-27 Kabushiki Kaisha Toshiba Electronic apparatus and method
US10462448B2 (en) * 2015-11-09 2019-10-29 Mitsubishi Electric Corporation Image generation system and image generation method
CN105447850B (zh) * 2015-11-12 2018-02-09 浙江大学 一种基于多视点图像的全景图拼接合成方法
CN108026714A (zh) * 2015-11-30 2018-05-11 住友重机械工业株式会社 施工机械用周边监视系统
KR20170080797A (ko) * 2015-12-30 2017-07-11 삼성디스플레이 주식회사 차량용 디스플레이 시스템
CN105667398B (zh) * 2016-01-04 2018-10-23 京东方科技集团股份有限公司 汽车后视镜的图像显示方法及系统
JP6609513B2 (ja) * 2016-05-19 2019-11-20 株式会社東海理化電機製作所 車両用視認装置
JP6642306B2 (ja) 2016-06-29 2020-02-05 アイシン精機株式会社 周辺監視装置
US20180165838A1 (en) * 2016-07-29 2018-06-14 Faraday&Future Inc. System and method for generating a semantically meaningful two-dimensional image from three-dimensional data
JP6551336B2 (ja) * 2016-08-12 2019-07-31 株式会社デンソー 周辺監査装置
EP3293717B1 (en) * 2016-09-08 2021-11-10 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH An electronically controlled braking system
KR20180037414A (ko) 2016-10-04 2018-04-12 엘지전자 주식회사 자동주차 보조장치 및 이를 포함하는 차량
JP6185135B2 (ja) * 2016-10-06 2017-08-23 京セラ株式会社 統合画像処理システム
JP6639379B2 (ja) 2016-12-21 2020-02-05 トヨタ自動車株式会社 車両周辺監視装置
JP6730614B2 (ja) * 2017-02-28 2020-07-29 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6649914B2 (ja) * 2017-04-20 2020-02-19 株式会社Subaru 画像表示装置
CN107483882A (zh) * 2017-07-07 2017-12-15 上海斐讯数据通信技术有限公司 一种多窗口显示系统及方法
JP7005269B2 (ja) 2017-10-18 2022-01-21 キヤノン株式会社 情報処理装置、システム、情報処理方法及びプログラム
JP7201315B2 (ja) * 2017-11-08 2023-01-10 トヨタ自動車株式会社 電子ミラー装置
WO2019092846A1 (ja) * 2017-11-10 2019-05-16 本田技研工業株式会社 表示システム、表示方法、およびプログラム
KR102441079B1 (ko) * 2017-11-30 2022-09-06 현대자동차주식회사 차량의 디스플레이 제어 장치 및 방법
CN208745890U (zh) * 2018-07-19 2019-04-16 汪玉华 太阳能无线倒车可视系统
CN110858890A (zh) * 2018-08-23 2020-03-03 华为技术有限公司 视频监控多画面显示的方法、装置及系统
JP2020042370A (ja) * 2018-09-06 2020-03-19 アイシン精機株式会社 表示制御装置
JP7119798B2 (ja) 2018-09-07 2022-08-17 株式会社アイシン 表示制御装置
US11138449B2 (en) * 2018-09-28 2021-10-05 Intel Corporation Obstacle representation display
KR20200040135A (ko) * 2018-10-08 2020-04-17 주식회사 만도 초음파 센서를 이용한 후측방 사각 지대의 차량 위치 추적 방법 및 시스템
CN109743539B (zh) * 2018-12-07 2020-05-29 吉林大学 一种视野可调节的全景行车辅助装置及其调节方法
CN109774603A (zh) * 2019-02-28 2019-05-21 上海豫兴电子科技有限公司 一种车载摄像头角度辅助标定方法和装置
JP2020170341A (ja) * 2019-04-03 2020-10-15 パイオニア株式会社 表示制御装置、表示制御方法及びプログラム
CN110466430A (zh) * 2019-07-02 2019-11-19 安徽森力汽车电子有限公司 一种半挂车环视盲区显示方法
JP7443705B2 (ja) 2019-09-12 2024-03-06 株式会社アイシン 周辺監視装置
JP6774612B2 (ja) * 2019-10-18 2020-10-28 株式会社Jvcケンウッド 車両用記録装置、車両用記録方法及びプログラム
JP7065068B2 (ja) * 2019-12-13 2022-05-11 本田技研工業株式会社 車両周囲監視装置、車両、車両周囲監視方法およびプログラム
KR102367959B1 (ko) * 2020-06-02 2022-03-03 주식회사 만도모빌리티솔루션즈 운전 보조 표시 장치, 그를 가지는 차량 및 그 제어 방법
JP2024038699A (ja) * 2022-09-08 2024-03-21 パナソニックIpマネジメント株式会社 車両用情報提供システム、車両用情報提供方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254710A (ja) 2007-04-09 2008-10-23 Fujitsu Ten Ltd 障害物検知装置
JP2009239674A (ja) 2008-03-27 2009-10-15 Mitsubishi Motors Corp 車両周辺表示装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6891563B2 (en) * 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
EP1263626A2 (en) * 2000-03-02 2002-12-11 Donnelly Corporation Video mirror systems incorporating an accessory module
US7852462B2 (en) * 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
JP2002019556A (ja) * 2000-07-04 2002-01-23 Matsushita Electric Ind Co Ltd 監視システム
JP4861574B2 (ja) * 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
JP2004198211A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
US20040219980A1 (en) * 2003-04-30 2004-11-04 Nintendo Co., Ltd. Method and apparatus for dynamically controlling camera parameters based on game play events
JP2005167638A (ja) * 2003-12-02 2005-06-23 Sharp Corp 移動体周囲監視装置、移動体および画像変換方法
JP2005191962A (ja) * 2003-12-25 2005-07-14 Sharp Corp 移動体周囲監視装置および移動体
US7526103B2 (en) * 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP4639753B2 (ja) * 2004-10-25 2011-02-23 日産自動車株式会社 運転支援装置
JP4573242B2 (ja) 2004-11-09 2010-11-04 アルパイン株式会社 運転支援装置
JP4687160B2 (ja) 2005-03-14 2011-05-25 アイシン精機株式会社 周辺監視装置
EP1696669B1 (en) 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
JP2006273190A (ja) 2005-03-30 2006-10-12 Alpine Electronics Inc 車載用ナビゲーション装置
JP2006341641A (ja) 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
JP4807104B2 (ja) * 2006-03-01 2011-11-02 日産自動車株式会社 車両周囲監視システム及び画像表示方法
JP2007235642A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 障害物検知システム
JP4661658B2 (ja) * 2006-03-30 2011-03-30 アイシン・エィ・ダブリュ株式会社 運転支援方法、運転支援装置及び運転支援プログラム
JP4321543B2 (ja) * 2006-04-12 2009-08-26 トヨタ自動車株式会社 車両周辺監視装置
CN101082502A (zh) 2006-05-29 2007-12-05 爱信艾达株式会社 驻车辅助方法及驻车辅助装置
JP5309442B2 (ja) 2006-05-29 2013-10-09 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
JP4899826B2 (ja) * 2006-11-28 2012-03-21 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
JP4454681B2 (ja) * 2006-12-05 2010-04-21 富士通株式会社 交通状況表示方法、交通状況表示システム、車載装置及びコンピュータプログラム
JP2008301091A (ja) * 2007-05-30 2008-12-11 Aisin Seiki Co Ltd 車両用周辺監視装置
JP5397373B2 (ja) * 2008-05-29 2014-01-22 富士通株式会社 車両用画像処理装置、車両用画像処理方法
US8289189B2 (en) * 2009-05-11 2012-10-16 Robert Bosch Gmbh Camera system for use in vehicle parking
JP2011205513A (ja) * 2010-03-26 2011-10-13 Aisin Seiki Co Ltd 車両周辺監視装置
JP5696872B2 (ja) * 2010-03-26 2015-04-08 アイシン精機株式会社 車両周辺監視装置
JP5113220B2 (ja) * 2010-06-28 2013-01-09 本田技研工業株式会社 車両用画像表示装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254710A (ja) 2007-04-09 2008-10-23 Fujitsu Ten Ltd 障害物検知装置
JP2009239674A (ja) 2008-03-27 2009-10-15 Mitsubishi Motors Corp 車両周辺表示装置

Also Published As

Publication number Publication date
CN102804763B (zh) 2016-05-04
JP5696872B2 (ja) 2015-04-08
CN105774656B (zh) 2018-05-22
KR20120118073A (ko) 2012-10-25
EP2555520A4 (en) 2017-12-13
US20130010117A1 (en) 2013-01-10
US10479275B2 (en) 2019-11-19
CN105774656A (zh) 2016-07-20
CN102804763A (zh) 2012-11-28
US20160176349A1 (en) 2016-06-23
US20180178725A1 (en) 2018-06-28
WO2011118261A1 (ja) 2011-09-29
US9919650B2 (en) 2018-03-20
US9308863B2 (en) 2016-04-12
JP2011205514A (ja) 2011-10-13
EP2555520A1 (en) 2013-02-06

Similar Documents

Publication Publication Date Title
KR101446898B1 (ko) 차량 주변 감시 장치
KR101446897B1 (ko) 차량 주변 감시 장치
JP5825323B2 (ja) 車両周辺監視装置
JP5035643B2 (ja) 画像表示装置
JP4818816B2 (ja) 駐車支援プログラム及び駐車支援装置
JP5158051B2 (ja) 運転支援装置
JP5658507B2 (ja) 画像表示システム、画像生成装置、及び、画像表示方法
JP5459553B2 (ja) 駐車支援装置
JP2016063390A (ja) 画像処理装置、及び画像表示システム
CN110895443A (zh) 显示控制装置
JP5067136B2 (ja) 車両周辺画像処理装置及び車両周辺状況提示方法
JP2011255812A (ja) 駐車支援装置
JP5677168B2 (ja) 画像表示システム、画像生成装置及び画像生成方法
JP2005165607A (ja) 運転支援装置及び方法
JP2011152867A (ja) 運転支援装置
JP2011152866A (ja) 運転支援装置

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180904

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190829

Year of fee payment: 6