CN103782591B - 驾驶辅助装置 - Google Patents

驾驶辅助装置 Download PDF

Info

Publication number
CN103782591B
CN103782591B CN201280040835.9A CN201280040835A CN103782591B CN 103782591 B CN103782591 B CN 103782591B CN 201280040835 A CN201280040835 A CN 201280040835A CN 103782591 B CN103782591 B CN 103782591B
Authority
CN
China
Prior art keywords
shooting
image
unit
vehicle
stereoscopic article
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280040835.9A
Other languages
English (en)
Other versions
CN103782591A (zh
Inventor
道口将由
流乡达人
冈野谦二
菅野由希子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Automotive Electronic Systems Co ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to CN201611201818.5A priority Critical patent/CN107097721B/zh
Publication of CN103782591A publication Critical patent/CN103782591A/zh
Application granted granted Critical
Publication of CN103782591B publication Critical patent/CN103782591B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明提供防止尽管检测出立体物而在俯瞰图像中车辆附近的立体物却消失的情况的驾驶辅助装置。该装置中,配置于车辆的左前方拐角的左前方拐角声纳(12a)的检测范围,包含在配置于车辆的左前方拐角的第二拍摄单元(14)的视角内。当左前方拐角声纳(12a)在车辆的左前方拐角检测出立体物时,图像处理单元(3)将第二拍摄单元(14)的拍摄图像和对本车辆的全部周围进行拍摄的四个摄像机(7a~7d)的拍摄图像进行合成来生成俯瞰图像(40b)。使左前方拐角声纳(12a)的检测范围包含在该俯瞰图像(40b)中的基于第二拍摄单元(14)的拍摄图像而得到的俯瞰图像的区域内。

Description

驾驶辅助装置
技术领域
本发明涉及在停车时告知与障碍物之间碰撞的可能性的驾驶辅助装置。
背景技术
以往,已知有驾驶辅助装置,其使用由多个摄像机拍摄到的图像,合成以俯瞰视点表示车辆的全部周围的全周围图像,并加以显示,从而辅助驾驶(例如参照专利文献1)。
但是,全周围图像是使用投影到路面位置的各摄像机图像而合成的,因此,在相邻的摄像机的接合边界发生立体物的消失(死角)。一般,由于摄像机安装位置或其视角、像素密度等的限制,各摄像机图像的接合边界被设定在车辆的四角附近。即使通过驾驶员目视,车辆的四角也容易变成死角。因此,驾驶员无法在该接合边界附近识别出立体物而继续驾驶,从而立体物有可能与车辆碰撞。
为了解决该问题,以往,与声纳或换挡装置等联动地改变摄像机图像的接合边界的位置或角度(例如,参照专利文献2、专利文献3)。
现有技术文献
专利文献
专利文献1:国际公开第00/64175号
专利文献2:日本特开2007-104373号公报
专利文献3:日本特开2006-121587号公报
发明内容
发明要解决的问题
但是,以往的方法存在以下的问题:在车辆附近(距车体数十厘米以内的距离)依然产生死角。特别地,例如尽管由声纳等检测出存在立体物,也有可能在俯瞰图像上立体物消失、驾驶员无法识别出立体物存在。
本发明的目的在于提供驾驶辅助装置,其能够防止检测出立体物但在俯瞰图像中车辆附近立体物消失的情况。
解决问题的方案
驾驶辅助装置包括:第一拍摄单元,其对本车辆周围进行拍摄;传感器,其对存在于本车辆的四角中的至少与本车辆的驾驶位置反方向的前方拐角的立体物进行检测;第二拍摄单元,其对本车辆的四角中的至少与本车辆的驾驶位置反方向的前方拐角进行拍摄;图像处理单元,其将从所述第一拍摄单元输入的本车辆周围的拍摄图像进行合成来生成俯瞰图像;以及显示单元,其显示所述图像处理单元合成的俯瞰图像,所述传感器的检测范围包含在所述第二拍摄单元的视角内,在所述传感器检测出立体物时,所述图像处理单元将所述第二拍摄单元的拍摄图像和所述第一拍摄单元的拍摄图像进行合成来生成俯瞰图像,使所述传感器的检测范围包含在基于所述第二拍摄单元的拍摄图像得到的俯瞰图像的区域内。
发明效果
根据本发明的驾驶辅助装置,得到如下的效果:由于能够防止检测出立体物却在俯瞰图像中车辆附近立体物消失的情况,因此驾驶员容易识别出车辆附近的立体物。
附图说明
图1是表示本发明实施方式1的驾驶辅助装置的结构的方框图。
图2是用示意图说明将本发明实施方式1中的第一拍摄单元、第二拍摄单元向车辆安装的安装位置的图。
图3是用示意图说明将本发明实施方式1中的声纳向车辆安装的安装位置的图。
图4是用水平面的示意图说明本发明实施方式1中的第二拍摄单元的视角和声纳的检测范围的图。
图5是用示意图说明本发明实施方式1中的立体物的图。
图6是本发明实施方式1中的驾驶辅助装置的驾驶辅助处理的流程图。
图7是用示意图说明同图6的步骤S65中所生成的俯瞰图像的图。
图8是用示意图说明同图7的俯瞰图像中产生的死角区域的图。
图9是用示意图说明同图8的死角区域的边界的图。
图10是表示本发明实施方式2中的驾驶辅助装置的结构的方框图。
图11是用示意图说明将本发明实施方式2中的第一拍摄单元、第二拍摄单元向车辆安装的安装位置的图。
图12是用示意图说明将本发明实施方式2中的声纳向车辆安装的安装位置的图。
图13是用于水平面的示意图说明本发明实施方式2中的第二拍摄单元的视角和声纳的检测范围的图。
图14是本发明实施方式2中的驾驶辅助装置的驾驶辅助处理的流程图。
标号说明
1 驾驶辅助装置
3 图像处理单元
5 控制单元
7 第一拍摄单元
12 声纳
14 第二拍摄单元
具体实施方式
(实施方式1)
以下,参照附图说明本发明实施方式1的驾驶辅助装置。此外,本实施方式中,作为一例说明车辆为右驾驶的情况。在为左驾驶的情况下,左右相反。
图1是表示本发明实施方式1的驾驶辅助装置的结构的方框图。
在图1中,驾驶辅助装置1由进行图像处理的图像ECU(Electric Control Unit,电子控制单元)构成,具有易失性存储器2、图像处理单元3、非易失性存储器4、控制单元5以及将这些单元相互连接的总线6。驾驶辅助装置1与第一拍摄单元7、输入单元8、车速传感器9、转向传感器10、换挡装置11、声纳12、显示单元13、以及第二拍摄单元14连接。也可以将输入单元8、车速传感器9、转向传感器10、换挡装置11、声纳12、显示单元13、第二拍摄单元14包含在驾驶辅助装置1中。此外,也可以将图1所示的转向传感器10及转向信号分别另称为“方向盘转角传感器10”及“方向盘转角信号”。
易失性存储器2,例如由视频存储器或RAM(Random Access Memory,随机存储器)构成。易失性存储器2与第一拍摄单元7连接。另外,易失性存储器2与第二拍摄单元14连接。易失性存储器2暂时存储根据每隔规定时间从第一拍摄单元7、第二拍摄单元14输入的拍摄图像得到的图像数据。易失性存储器2所存储的图像数据通过总线6输出到图像处理单元3。
图像处理单元3例如由ASIC(Application Specific Integrated Circuit,专用集成电路)或VLSI(Very Large Scale Integration,超大规模集成电路)构成。图像处理单元3与显示单元13连接。图像处理单元3对从易失性存储器2输入的图像数据进行视点变换,每隔规定时间生成将从非易失性存储器4输入的图像数据重叠所得到的俯瞰图像。图像处理单元3也可以生成对俯瞰图像并列了未实施视点变换的正常图像所得到的合成图像。对于视点变换的方法,例如可以使用国际公开第00/64175号中公开的技术。图像处理单元3将每隔该规定时间生成的合成图像作为显示图像输出到显示单元13。
非易失性存储器4例如由瞬时存储器或ROM(Read Only Memory,只读存储器)构成。非易失性存储器4存储有本车辆的图像数据等各种图像数据、与显示方法相关的数据表,且该显示方法是与驾驶状况相应的显示方法。根据控制单元5的命令读出非易失性存储器4所存储的图像数据,并用于图像处理单元3的各种图像处理。
控制单元5例如由CPU(Central Processing Unit,中心处理单元)或LSI(LargeScale Integration,大规模集成电路)构成。控制单元5与输入单元8、车速传感器9、转向传感器10、换挡装置11、以及声纳12连接。控制单元5根据从输入单元8、车速传感器9、转向传感器10、换挡装置11、以及声纳12输入的各种信号,对图像处理单元3的图像处理、从易失性存储器2或非易失性存储器4读出的数据、来自第一拍摄单元7或第二拍摄单元14的输入或向显示单元13的输出等进行控制。
第一拍摄单元7分别由四个摄像机构成。另一方面,第二拍摄单元14由一个摄像机构成。第一拍摄单元7、第二拍摄单元14将每隔规定时间拍摄到的拍摄图像输入到驾驶辅助装置1的易失性存储器2。第一拍摄单元7以能够拍摄本车辆的全部周围的方式安装在车体上。另外,第二拍摄单元14设置于车辆的左前方拐角。说明将该第一拍摄单元7、第二拍摄单元14向车体安装的安装位置。
图2是用示意图说明将第一拍摄单元7、第二拍摄单元14向车辆安装的安装位置的图。如图2所示,第一拍摄单元7由前方摄像机7a、右侧方摄像机7b、左侧方摄像机7c、以及后方摄像机7d构成。前方摄像机7a、后方摄像机7d例如分别安装在车体前后的减震器上。右侧方摄像机7b、左侧方摄像机7c例如分别安装在本车辆的左右后视镜下部。另一方面,第二拍摄单元14安装在本车辆的左前方拐角上。
输入单元8例如由触摸面板、遥控器或开关构成。输入单元8在是由触摸面板构成的情况下,也可以设置在显示单元13中。
车速传感器9、转向传感器10、换挡装置11、以及声纳12分别将表示本车辆车速的车速信号、表示方向盘转角的方向盘转角信号、表示换挡杆的状态的挡位信号、立体物的检测信号或距离信号输出到控制单元5。声纳12由八个声纳构成,并安装在本车辆的车体四角的四个部位、车体前后的四个部位。说明将该声纳12向车体安装的安装位置。
图3是用示意图说明将声纳12向车辆安装的安装位置的图。如图3所示,声纳12由左前方拐角声纳12a、右前方拐角声纳12b、左后方拐角声纳12c、右后方拐角声纳12d、左前方声纳12e、右前方声纳12f、左后方声纳12g、以及右后方声纳12h构成。如图3所示,将左前方声纳12e、右前方声纳12f、左后方声纳12g、右后方声纳12h各自的水平面的检测范围16e~16h设定为窄于左前方拐角声纳12a、右前方拐角声纳12b、左后方拐角声纳12c、右后方拐角声纳12d各自的水平面的检测范围16a~16d。下面,说明左前方拐角声纳12a的检测范围和第二拍摄单元14的视角之间的关系。
图4是用示意图说明第二拍摄单元14的视角和左前方拐角声纳12a的水平面的检测范围的图。如图4所示,将第二拍摄单元14的视角17设定为在水平面大致180度。而且,左前方拐角声纳12a的检测范围16a包含在第二拍摄单元14的视角17内。即,在第二拍摄单元14的视角17内包含左前方拐角声纳12a的检测范围16a的全部。
优选将第二拍摄单元14安装在比左前方拐角声纳12a靠车体上方的位置。由此,容易使左前方拐角声纳12a的检测范围16a三维地包含在第二拍摄单元14的视角17内。另外,优选第二拍摄单元14和左前方拐角声纳12a的光轴大致相等。由此,第二拍摄单元14的视角17内的左前方拐角声纳12a的检测范围16a的偏差变小,能够降低左前方拐角声纳12a的检测范围16a的一部分超出第二拍摄单元14的视角17外的可能性。
显示单元13例如由导航装置或后座显示器构成。显示单元13显示从图像处理单元3输入的合成图像。该合成图像也可以只是俯瞰图像,还可以是将俯瞰图像和正常图像并列地排列后的图像。若在该俯瞰图像的边界附近存在死角,则立体物会消失。这里,示例本实施方式中的立体物。
图5是用示意图说明本实施方式中的立体物的图。如图5所示,将宽度、纵深、高度分别为约30cm、约30cm、约50cm的色码(注册商标)设定为本实施方式中的立体物。在该色码(注册商标)在俯瞰图像上三维地消失了一半以上时,意味着在俯瞰图像的边界附近存在死角。
接着,说明控制单元5的驾驶辅助处理。
图6是控制单元5的驾驶辅助处理的流程图。
首先,如步骤S61所示,控制单元5根据从换挡装置11输入的挡位信号判定换挡杆是否是倒档的状态。
当在步骤S61中为“是”的情况下,根据控制单元5的命令,图像处理单元3使用从易失性存储器2取得的第一拍摄单元7的拍摄图像生成俯瞰图像。而且,如步骤S62所示,显示单元13并列显示该生成的俯瞰图像和从易失性存储器2取得的后方摄像机7d的后方图像。
接着,当在步骤S61中为“否”的情况下,如步骤S63所示,根据控制单元5的命令,图像处理单元3使用从易失性存储器2取得的第一拍摄单元7的拍摄图像生成俯瞰图像,显示单元13并列显示该生成的俯瞰图像和从易失性存储器2取得的前方摄像机7a的前方图像。
接着,如步骤S64所示,控制单元5根据声纳12的检测结果,判定本车辆的左前方拐角是否存在立体物。即,控制单元5判定左前方拐角声纳12a是否检测出立体物。当在步骤S64中为“否”的情况下,再次进行步骤S61的处理。
另一方面,当在步骤S64中为“是”的情况下,如步骤S65所示,图像处理单元3使用第一拍摄单元7的拍摄图像和第二拍摄单元14的拍摄图像生成新的俯瞰图像,并使显示单元13显示该生成的俯瞰图像。即,只在左前方拐角声纳12a检测出立体物时,图像处理单元3使用第一拍摄单元7的四个摄像机7a~7d的拍摄图像和第二拍摄单元14的拍摄图像生成俯瞰图像。相反地,在左前方拐角声纳12a未检测出本车辆的左前方拐角的立体物时,图像处理单元3只生成使用了第一拍摄单元7的四个摄像机7a~7d的拍摄图像的到此为止的俯瞰图像。对于在该步骤S65中生成的俯瞰图像、和利用第一拍摄单元7的四个摄像机7a~7d的拍摄图像生成的通常的俯瞰图像之间的不同之处,将在后面叙述。
接着,如步骤S66所示,控制单元5判定本车辆的行进方向是否为正在前行。这时,控制单元5根据从换挡装置11输入的挡位信号确定本车辆的行进方向。即,控制单元5根据挡位信号判定换挡杆是否是前进挡。
当在步骤S66中为“是”的情况下,如步骤S67所示,控制单元5使显示单元13显示第二拍摄单元14的拍摄图像,代替通过步骤S62并列显示在显示单元13的后方图像或通过步骤S63并列显示在显示单元13的前方图像。
在步骤S67的处理之后,或在步骤S66中为“否”的情况下,如步骤S68所示,控制单元5判定是否检测出驾驶辅助模式结束。在步骤S68中为“是”的情况下,控制单元5结束驾驶辅助处理。例如,在从输入单元8进行了驾驶辅助模式结束的输入的情况下,控制单元5结束驾驶辅助处理。另一方面,在步骤S68中为“否”的情况下,控制单元5再次进行步骤S61的处理。
接着,说明在左前方拐角声纳12a检测出立体物的情况下,在步骤S65中生成的俯瞰图像、以及利用第一拍摄单元7的四个摄像机7a~7d的拍摄图像生成的通常的俯瞰图像之间的不同之处。图7是用示意图说明在步骤S65中生成的俯瞰图像的图。
如图7的左方所示,在左前方拐角声纳12a检测出立体物之前,图像处理单元3生成使用第一拍摄单元7的四个摄像机7a~7d的拍摄图像所得到的俯瞰图像40a。在俯瞰图像40a的中央重叠本车辆的示意图图像21。俯瞰图像40a的各区域22~25分别与前方摄像机7a、右侧方摄像机7b、左侧方摄像机7c、后方摄像机7d的拍摄图像的视点变换图像对应。将各区域22~25的接合面表示为合成边界31~34。当左前方拐角声纳12a在本车辆附近检测出立体物41时,如果是使用第一拍摄单元7的四个摄像机7a~7d的拍摄图像而得到的俯瞰图像不变,则在合成边界34产生死角,立体物41消失。
因此,在左前方拐角声纳12a检测出立体物的情况下,如图7的右方所示,图像处理单元3除了使用第一拍摄单元7的四个摄像机7a~7d的拍摄图像以外,还使用对检测出立体物41的左前方拐角进行拍摄的第二拍摄单元14的拍摄图像生成俯瞰图像40b。该俯瞰图像40b的各区域22~26分别与前方摄像机7a、右侧方摄像机7b、左侧方摄像机7c、后方摄像机7d、第二拍摄单元14的拍摄图像的视点变换图像对应。将前方摄像机7a和第二拍摄单元14之间的合成边界35、左侧方摄像机7d和第二拍摄单元14之间的合成边界36设定在第二拍摄单元14的视点变换图像的区域26能够包含左前方拐角声纳12a的检测范围的位置。换言之,将合成边界35、36设定在左前方拐角声纳12a的检测范围外。由此,由左前方拐角声纳12a检测出的立体物41,在俯瞰图像40b中的合成边界35、36附近不会消失,而保持处于区域26内的立体物41的可见性。特别地,在合成边界附近,立体物41的倾倒方式不再会急剧地变动,因此,驾驶员能够看到立体物41而不会有不协调感。另外,由于立体物41向以车辆为基点呈放射状地远离的方向倾倒,所以,能够直觉上掌握立体物41的位置和方向。
此外,为了尽可能使立体物41远离合成边界35、36,一般希望将合成边界35、36设定为尽可能接近第二拍摄单元14的视角。另一方面,若使合成边界35、36与第二拍摄单元14的视角大致相等,则在第二拍摄单元14从安装位置偏离了的情况下,发生本来在视角外却拍摄进来的情况。因此,希望将合成边界35、36设定在相对于第二拍摄单元14的视角为几度到十度左右内侧的位置。
接着,说明在步骤S65中生成的俯瞰图像的死角区域、以及利用第一拍摄单元7的四个摄像机7a~7d的拍摄图像生成的通常的俯瞰图像的死角区域。图8是用示意图说明图7的俯瞰图像中产生的死角区域的图。
图8的左方表示利用第一拍摄单元7的四个摄像机7a~7d的拍摄图像生成的通常的俯瞰图像50a。图8的右方表示在步骤S65中生成的俯瞰图像50b。在俯瞰图像50a、50b中,将距本车辆示意图51的一定范围设定为死角测定区域52。将该一定范围设定为数十厘米(cm)左右。例如,设定为50cm。其表示本车辆以3km/h左右的滑行行进过程中能够急刹车而停止的距离。
如图8的左方所示,在利用第一拍摄单元7的四个摄像机7a~7d的拍摄图像生成的通常的俯瞰图像50a中,左前方拐角声纳12a的检测范围53与由于前方摄像机7a和左侧方摄像机7c之间的合成边界34而产生的死角区域54部分重叠。若左前方拐角声纳12a的检测范围53与死角区域54重叠,则在该重叠范围内立体物41消失。因此,在通过步骤S65生成的俯瞰图像50b中,使用第二拍摄单元14的拍摄图像使合成边界35、36远离左前方拐角声纳12a的检测范围53。由此,如图8的右方所示,在通过步骤S65生成的俯瞰图像50b中,左前方拐角声纳12a的检测范围53与由于第二拍摄单元14和前方摄像机7a的合成边界35而产生的死角区域55、由于第二拍摄单元14和左侧方摄像机7d的合成边界36而产生的死角区域56离开,而不重叠。由此,存在于左前方拐角声纳12a的检测范围的立体物不会在俯瞰图像50b上消失而被显示在显示单元13上。
接着,说明由于图8的俯瞰图像的合成边界而产生的死角区域。图9是利用示意图说明图8的死角区域的边界的图。图9中,以图8左方的俯瞰图像50a为例进行说明。
图9左上方所示的边界线54a表示死角区域54的图8纸面左方的边界。即,边界线54a表示死角测定区域52的外缘。
图9左下方所示的边界线54b表示死角区域54的图8纸面下方的边界。边界线54b表示当在区域25内存在立体物41的情况下产生死角的边界。在向前方摄像机7a与左侧方摄像机7d的合成边界34使立体物41移动到图9的纸面上方时,立体物41在高度方向上消失一半以上(25cm以上)。这时的立体物41的在图9纸面最下方的位置为边界线54b的构成要素。而且,使立体物41向图9的纸面左方慢慢移动并反复进行相同的处理时的立体物41的在图9纸面最下方的位置的集合表示边界线54b。
图9右上方所示的边界线54c表示死角区域54的图8纸面右方的边界。即,边界线54c表示本车辆示意图51的外缘。
图9右下方所示的边界线54d表示死角区域54的图8纸面上方的边界。边界线54d表示在区域22内存在立体物41的情况下产生死角的边界。在向前方摄像机7a与左侧方摄像机7d的合成边界34使立体物41移动到图9的纸面下方时,立体物41在宽度方向上消失一半以上(15cm以上)。这时的立体物41的在图9纸面最上方的位置为边界线54d的构成要素。而且,使立体物41向图9的纸面左方慢慢移动并反复进行相同的处理时的立体物41的在图9纸面最上方的位置的集合表示边界线54d。
即使对于图8右方的俯瞰图像50b的死角区域55、56,边界的判定方法也相同,因此,省略详细的说明。
以上,根据本发明,在左前方拐角声纳12a的检测范围包含在第二拍摄单元14的视角内,且左前方拐角声纳12a检测出立体物时,图像处理单元3将第二拍摄单元14的拍摄图像和第一拍摄单元的四个摄像机7a~7d的拍摄图像进行合成来生成俯瞰图像40b,使左前方拐角声纳12a的检测范围包含在该俯瞰图像40b中的基于第二拍摄单元14的拍摄图像而得到的俯瞰图像的区域内。即,图像处理单元3使立体物的死角移动到左前方拐角声纳12a的检测范围外。因此,能够防止尽管左前方拐角声纳12a检测出立体物而在显示单元13的俯瞰图像上本车辆附近的立体物却消失的情况。特别地,本实施方式中,对于在俯瞰图像上本车辆附近的立体物消失的情况,不是将本车辆的四角全部作为对象,而是仅将在是右驾驶时对于驾驶员来说容易成为死角的左前方作为对象。由此,对于摄像机输入端口数有限的驾驶辅助装置1,不设置选择器为好,因此,能够防止由于选择器而引起的驾驶辅助装置1的控制ECU的大型化。
此外,在本实施方式的图6中所示的驾驶辅助处理中,通过并列显示俯瞰图像和正常图像(前方图像和后方图像),从而对驾驶员提示多个判断基准,提高了立体物的可见性,但只要至少显示俯瞰图像即可。即,只要至少进行图6的步骤S64、步骤S65的处理即可。具体而言,图像处理单元3将第一拍摄单元7的拍摄图像和第二拍摄单元14的拍摄图像,基于共同的映射数据合成为俯瞰图像。然后,显示单元3显示该俯瞰图像。根据这些,由于在俯瞰图像的合成边界前后保持了显示图像的连续性,所以,在检测出立体物后,能够在抑制驾驶者的不协调感的同时防止俯瞰图像的合成边界处产生死角或立体物消失的情况。
另外,本实施方式中,由于假定了车辆为右驾驶的情况,因此,使用设置在左前方拐角的第二拍摄单元14和左前方拐角声纳12a,能够防止容易变成驾驶员的死角的左前方拐角附近的立体物在俯瞰图像上消失的情况,但是,在车辆为左驾驶的情况下,对象不是左前方而是右前方。即,在车辆为左驾驶的情况下,本实施方式中的第二拍摄单元14的设置位置被置换为右前方拐角,左前方拐角声纳12a被置换为右前方拐角声纳12b。
即,第二拍摄单元14对本车辆的四角中的与本车辆的驾驶位置反方向的前方拐角进行拍摄。对存在于与本车辆的驾驶位置反方向的前方拐角的立体物进行检测的声纳12的检测范围包含在第二拍摄单元14的视角内。在声纳12检测出立体物时,图像处理单元3对第一拍摄单元7的拍摄图像和第二拍摄单元14的拍摄图像进行合成来生成俯瞰图像,使声纳12的检测范围包含在该俯瞰图像中的基于第二拍摄单元14的拍摄图像所得到的俯瞰图像的区域内。另一方面,在声纳12未检测出存在于与本车辆的驾驶位置反方向的前方拐角的立体物时,图像处理单元3对第一拍摄单元7的拍摄图像进行合成来生成俯瞰图像。
此外,本实施方式中,声纳12中的对车辆前后的立体物进行检测的声纳由四个声纳12e~12f构成,但为了至少对车辆前后的立体物进行检测,由两个声纳构成即可。
另外,本实施方式中,作为对立体物进行检测的立体物检测单元,使用声纳12,但是,只要是对立体物进行检测的传感器,也可以使用红外线传感器等其他单元。
(实施方式2)
接着,参照附图说明本发明实施方式2的驾驶辅助装置。对于与实施方式1相同的描述,标以相同的标号并省略其详细的说明。
图10是表示本发明实施方式2的驾驶辅助装置的结构的方框图。图10中,驾驶辅助装置1相对于实施方式1的驾驶辅助装置,还具有选择器15。驾驶辅助装置1经由该选择器15与第二拍摄单元14连接。也可以将选择器15包含于驾驶辅助装置1中。易失性存储器2经由选择器15与第二拍摄单元14连接。控制单元5根据来自声纳12的输入信号对选择器15进行控制,选择第二拍摄单元14。
第二拍摄单元14分别具有四个摄像机。第一拍摄单元7、第二拍摄单元14将每隔规定时间拍摄到的拍摄图像输入到驾驶辅助装置1的易失性存储器2。第二拍摄单元14被安装于本车辆的车体四角。说明将该第二拍摄单元14向车体安装的安装位置。
图11是使用示意图说明将第一拍摄单元7、第二拍摄单元14向车辆安装的安装位置的图。如图11所示,第二拍摄单元14由左前方拐角摄像机14a、右前方拐角摄像机14b、左后方拐角摄像机14c、以及右后方拐角摄像机14d构成。选择器15根据控制单元5的命令从该左前方拐角摄像机14a、右前方拐角摄像机14b、左后方拐角摄像机14c、右后方拐角摄像机14d中选择一个摄像机。将该选择出的摄像机的拍摄图像每隔规定时间输入到驾驶辅助装置1的易失性存储器2。
声纳12由四个声纳构成,并被安装于本车辆的车体四角。说明将该声纳12向车体安装的安装位置。
图12是使用示意图说明将声纳12向车辆安装的安装位置的图。如图12所示,声纳12由左前方拐角声纳12a、右前方拐角声纳12b、左后方拐角声纳12c、右后方拐角声纳12d构成。如图12所示,将左前方拐角声纳12a、右前方拐角声纳12b、左后方拐角声纳12c、右后方拐角声纳12d各自的水平面的检测范围16a~16d设定在180度以下。
图13是使用示意图说明左前方拐角摄像机14a的视角和左前方拐角声纳12a的水平面的检测范围的图。如图13所示,该声纳12的检测范围和第二拍摄单元14的视角之间的关系与实施方式1的图4所示的关系相同。即,将左前方拐角摄像机14a的视角17a设定为在水平面为大致180度。而且,左前方拐角声纳12a的检测范围16a包含于左前方拐角摄像机14a的视角17a内。即,在左前方拐角摄像机14a的视角17a内包含左前方拐角声纳12a的检测范围16a的全部。与实施方式1相同,优选将左前方拐角摄像机14a安装在比左前方拐角声纳12a靠车体上方的位置。另外,优选使左前方拐角摄像机14a和左前方拐角声纳12a的光轴大致相等。
此外,在图13中,作为一例,使用左前方拐角摄像机14a的视角和左前方拐角声纳12a的检测范围说明了声纳12的检测范围和第二拍摄单元14的视角之间的关系,但是对于其他车辆四角,同样的关系也成立。即,将右前方拐角声纳12b、左后方拐角声纳12c、右后方拐角声纳12d的检测范围分别包含于右前方拐角摄像机14b、左后方拐角摄像机14c、右后方拐角摄像机14d的视角内。
下面,说明控制单元5的驾驶辅助处理。
图14是控制单元5的驾驶辅助处理的流程图。直到步骤S71~S73,是分别与实施方式1的图6中对应的步骤S61~S63相同的处理。步骤S74中,控制单元5根据声纳12的检测结果判定在本车辆周边的所定范围内是否存在立体物。当在步骤S74中为“否”的情况下,再次进行步骤S71的处理。另一方面,当在步骤S74中为“是”的情况下,如步骤S75所示,控制单元5确定存在于距本车辆最短距离处的立体物反应位置。即,在设置于本车辆四角的声纳12a~12d中的检测出立体物的声纳是一个的情况下,控制单元5将检测出立体物的声纳被配置的拐角判定为立体物反应位置。相对于此,在设置于本车辆四角的声纳12a~12d中的检测出立体物的声纳是多个的情况下,控制单元5根据从声纳12输入的本车辆与立体物之间的距离信号,将检测出最接近本车辆的立体物的声纳被配置的拐角判定为立体物反应位置。
接着,如步骤S76所示,图像处理单元3除了使用第一拍摄单元7的拍摄图像以外,还使用在步骤S75确定的距本车辆最短距离处的立体物反应位置附近的拍摄图像生成新的俯瞰图像,使显示单元13显示该生成的俯瞰图像。即,图像处理单元3使用第一拍摄单元7的四个摄像机7a~7d的拍摄图像、和第二拍摄单元14的摄像机14a~14d中的、与在步骤S75中确定的声纳12的立体物反应位置对应的摄像机的拍摄图像,生成俯瞰图像。对于该步骤S76中生成的俯瞰图像、和利用第一拍摄单元7的四个摄像机7a~7d的拍摄图像生成的通常的俯瞰图像之间的不同点,与在实施方式1中说明的不同点相同,所以省略其详细的说明。
接着,如步骤S77所示,控制单元5判定在本车辆的行进方向上距车辆最短距离处是否存在立体物。这时,控制单元5根据从换挡装置11输入的挡位信号,确定本车辆的行进方向。即,控制单元5在根据挡位信号判定为换挡杆是前进挡时,确定为行进方向是前方,在是倒档时,确定为行进方向是后方。接着,控制单元5通过对该确定的行进方向和在步骤S75中确定的立体物反应位置进行比较,来进行步骤S77的判定。即,控制单元5在根据挡位信号判定为换挡杆是前进挡且车辆的行进方向为前方时,判定在步骤S75中确定的立体物反应位置是否是左前方或右前方。另一方面,控制单元5在根据挡位信号判定为换挡杆是倒档且车辆的行进方向是后方时,判定在步骤S75中确定的立体物反应位置是否是左后方或右后方。
在步骤S77中为“是”的情况下,如步骤S78所示,控制单元5使显示单元13显示第二拍摄单元14中的、对在步骤S65中确定的距本车辆最短距离处的立体物反应位置附近进行拍摄的摄像机的拍摄图像,代替通过步骤S72在显示单元13并列显示的后方图像或通过步骤S73在显示单元13并列显示的前方图像。在进行了步骤S78的处理后,或在步骤S77中为“否”的情况下,进行步骤S79的处理。该步骤S79的处理是与实施方式1的图6的步骤S68相同的处理,因此省略其说明。
以上,根据本发明,在声纳12a~12d的检测范围分别包含于拐角摄像机14a~d的视角内,且声纳12a~12d检测出立体物时,利用选择器15选择与检测出最接近车辆的立体物的声纳对应的拐角摄像机。然后,图像处理单元3将该选择出的拐角摄像机的拍摄图像和第一拍摄单元7的四个摄像机a~7d的拍摄图像进行合成来生成俯瞰图像40b,使声纳的检测范围包含在该俯瞰图像40b中的基于拐角摄像机的拍摄图像得到的俯瞰图像的区域内。即,图像处理单元3使立体物的死角移动到声纳12的检测范围外。因此,能够防止尽管声纳12检测出立体物而在显示单元13的俯瞰图像上本车辆附近的立体物却消失的情况。
在2011年8月26日提出的日本专利申请特愿2011-184416号、特愿2011-184419号中包含的说明书、附图以及摘要的公开内容全部引用于本申请。
工业实用性
本发明的驾驶辅助装置,特别地在由声纳等检测出本车辆四角的立体物时,显示立体物而不会使其在俯瞰图像上消失,从而驾驶员能够容易识别出立体物这方面是有用的。

Claims (6)

1.驾驶辅助装置,包括:
第一拍摄单元,其对本车辆周围进行拍摄;
传感器,其对存在于本车辆的四角中的至少与本车辆的驾驶位置反方向的前方拐角的立体物进行检测;
第二拍摄单元,其对本车辆的四角中的至少与本车辆的驾驶位置反方向的前方拐角进行拍摄;
图像处理单元,其将从所述第一拍摄单元输入的本车辆周围的拍摄图像进行合成来生成俯瞰图像;以及
显示单元,其显示所述图像处理单元合成的俯瞰图像,
所述传感器的检测范围包含在所述第二拍摄单元的视角内,
在所述传感器检测出立体物时,所述图像处理单元将所述第二拍摄单元的拍摄图像和所述第一拍摄单元的拍摄图像进行合成来生成俯瞰图像,使所述传感器的检测范围包含在基于所述第二拍摄单元的拍摄图像得到的俯瞰图像的区域内。
2.如权利要求1所述的驾驶辅助装置,
所述第一拍摄单元由分别对本车辆的前后左右进行拍摄的四个摄像机构成,所述传感器由对本车辆的四角的立体物进行检测的四个传感器和对本车辆的前方和后方的立体物进行检测的至少两个传感器构成,
所述图像处理单元只在所述传感器中的配置于与本车辆的驾驶位置反方向的前方拐角的传感器检测出立体物时,将由所述第二拍摄单元拍摄到的拍摄图像和由所述第一拍摄单元拍摄到的拍摄图像进行合成来生成俯瞰图像,在所述传感器中的配置于与本车辆的驾驶位置反方向的前方拐角的传感器未检测出立体物时,生成将由所述第一拍摄单元拍摄到的拍摄图像进行合成而得到的俯瞰图像。
3.如权利要求1所述的驾驶辅助装置,
所述传感器由对本车辆的四角的立体物进行检测的四个传感器构成,
该驾驶辅助装置还具有根据所述传感器的检测结果选择所述第二拍摄单元的选择单元,
在所述传感器检测出立体物时,所述图像处理单元将由所述选择单元选择出的所述第二拍摄单元的拍摄图像和所述第一拍摄单元的拍摄图像进行合成来生成俯瞰图像,使该俯瞰图像中的基于所述第二拍摄单元的拍摄图像而得到的俯瞰图像的区域内包含所述传感器的检测范围。
4.如权利要求3所述的驾驶辅助装置,
所述第一拍摄单元由分别对本车辆的前后左右进行拍摄的四个摄像机构成,所述传感器由对本车辆的四角的立体物进行检测的四个传感器构成,所述第二拍摄单元由分别对本车辆的四角进行拍摄的四个摄像机构成,
在所述传感器检测出立体物时,所述选择单元选择配置在与该检测出立体物的传感器相同的角部的摄像机,
所述图像处理单元将该选择出的摄像机图像和由所述第一拍摄单元拍摄到的四个摄像机图像进行合成来生成俯瞰图像。
5.如权利要求1所述的驾驶辅助装置,
所述传感器和所述第二拍摄单元的光轴大致一致。
6.如权利要求1所述的驾驶辅助装置,
将所述俯瞰图像中的、所述第一拍摄单元的拍摄图像和所述第二拍摄单元的拍摄图像之间的合成边界,设定在相对于所述第二拍摄单元的视角为十度以内的内侧的位置。
CN201280040835.9A 2011-08-26 2012-08-24 驾驶辅助装置 Active CN103782591B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611201818.5A CN107097721B (zh) 2011-08-26 2012-08-24 驾驶辅助装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2011-184419 2011-08-26
JP2011-184416 2011-08-26
JP2011184419 2011-08-26
JP2011184416 2011-08-26
PCT/JP2012/005321 WO2013031161A1 (ja) 2011-08-26 2012-08-24 運転支援装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201611201818.5A Division CN107097721B (zh) 2011-08-26 2012-08-24 驾驶辅助装置

Publications (2)

Publication Number Publication Date
CN103782591A CN103782591A (zh) 2014-05-07
CN103782591B true CN103782591B (zh) 2017-02-15

Family

ID=47755691

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201280040835.9A Active CN103782591B (zh) 2011-08-26 2012-08-24 驾驶辅助装置
CN201611201818.5A Active CN107097721B (zh) 2011-08-26 2012-08-24 驾驶辅助装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201611201818.5A Active CN107097721B (zh) 2011-08-26 2012-08-24 驾驶辅助装置

Country Status (5)

Country Link
US (3) US10235575B2 (zh)
EP (1) EP2750382B1 (zh)
JP (3) JP5979505B2 (zh)
CN (2) CN103782591B (zh)
WO (1) WO2013031161A1 (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013043661A1 (en) 2011-09-21 2013-03-28 Magna Electronics, Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable
WO2013049597A1 (en) * 2011-09-29 2013-04-04 Allpoint Systems, Llc Method and system for three dimensional mapping of an environment
US10099614B2 (en) * 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
WO2014156220A1 (ja) * 2013-03-28 2014-10-02 アイシン精機株式会社 周辺監視装置、及びプログラム
US20150266420A1 (en) * 2014-03-20 2015-09-24 Honda Motor Co., Ltd. Systems and methods for controlling a vehicle display
DE102014107235A1 (de) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeigevorrichtung; eine Anzeigevorrichtung; ein System aus einer Mehrzahl an Bilderfassungseinheiten und einer Anzeigevorrichtung; ein Computerprogramm
JP6386794B2 (ja) * 2014-06-04 2018-09-05 日立建機株式会社 運搬車両
WO2016031009A1 (ja) * 2014-08-28 2016-03-03 国立大学法人東京大学 作業車両の表示システム、表示制御装置、作業車両、及び表示制御方法
JP6224029B2 (ja) * 2015-05-21 2017-11-01 富士通テン株式会社 画像処理装置および画像処理方法
JP6699427B2 (ja) * 2015-11-17 2020-05-27 株式会社Jvcケンウッド 車両用表示装置および車両用表示方法
KR101766077B1 (ko) * 2015-12-08 2017-08-07 현대자동차주식회사 차량 주변 영상 정보 제공 시스템 및 방법
JP6621363B2 (ja) * 2016-04-01 2019-12-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 車両及び計測方法
US10594934B2 (en) 2016-11-17 2020-03-17 Bendix Commercial Vehicle Systems Llc Vehicle display
KR20180078970A (ko) * 2016-12-30 2018-07-10 화남전자 주식회사 건설장비의 주변부 모니터링을 위한 카메라 배치 구조
KR102551099B1 (ko) * 2017-01-13 2023-07-05 엘지이노텍 주식회사 어라운드뷰 제공장치, 제공방법 및 이를 구비한 차량
WO2018159019A1 (ja) * 2017-02-28 2018-09-07 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
CN110945537B (zh) * 2017-07-28 2023-09-22 索尼互动娱乐股份有限公司 训练装置、识别装置、训练方法、识别方法和程序
WO2019026348A1 (ja) * 2017-07-31 2019-02-07 株式会社Jvcケンウッド 表示制御装置、表示制御システム、表示制御方法およびプログラム
JP7201315B2 (ja) * 2017-11-08 2023-01-10 トヨタ自動車株式会社 電子ミラー装置
JP6809495B2 (ja) * 2018-03-05 2021-01-06 株式会社デンソー 画像作成装置
JP2019151304A (ja) * 2018-03-06 2019-09-12 アイシン精機株式会社 周辺監視装置
JP7135378B2 (ja) * 2018-03-29 2022-09-13 株式会社アイシン 周辺監視装置
CN108562914A (zh) * 2018-05-29 2018-09-21 珠海市微半导体有限公司 一种基于盲区的红外检测装置和控制方法
DE102018214875A1 (de) * 2018-08-31 2020-03-05 Audi Ag Verfahren und Anordnung zum Erzeugen einer Umgebungsrepräsentation eines Fahrzeugs und Fahrzeug mit einer solchen Anordnung
KR20210147405A (ko) * 2020-05-28 2021-12-07 삼성전자주식회사 객체 인식을 수행하는 전자 장치 및 이의 동작 방법
JP7424582B2 (ja) * 2020-06-03 2024-01-30 株式会社ニフコ 車載機器用ブラケット
CN112009398A (zh) * 2020-08-18 2020-12-01 三一专用汽车有限责任公司 车辆的控制方法、装置、车辆和存储介质
JP7400705B2 (ja) * 2020-11-30 2023-12-19 トヨタ自動車株式会社 撮像システム及び撮像装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104373A (ja) * 2005-10-05 2007-04-19 Alpine Electronics Inc 車両用画像表示装置
JP2010250640A (ja) * 2009-04-17 2010-11-04 Sanyo Electric Co Ltd 画像処理装置
WO2011015283A1 (de) * 2009-08-05 2011-02-10 Daimler Ag Verfahren zur überwachung einer umgebung eines fahrzeugs
WO2011036892A1 (ja) * 2009-09-24 2011-03-31 パナソニック株式会社 運転支援表示装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100438623C (zh) 1999-04-16 2008-11-26 松下电器产业株式会社 图象处理装置及监视系统
JP3819284B2 (ja) * 2001-11-29 2006-09-06 クラリオン株式会社 車両周囲監視装置
JP3968271B2 (ja) * 2002-06-25 2007-08-29 株式会社オートネットワーク技術研究所 車輌周辺視認装置
JP2005333565A (ja) 2004-05-21 2005-12-02 Auto Network Gijutsu Kenkyusho:Kk 監視装置
JP4639753B2 (ja) 2004-10-25 2011-02-23 日産自動車株式会社 運転支援装置
JP4643995B2 (ja) 2005-01-21 2011-03-02 パナソニック株式会社 表示制御装置
US7782374B2 (en) * 2005-03-03 2010-08-24 Nissan Motor Co., Ltd. Processor and processing method for generating a panoramic image for a vehicle
JP4956915B2 (ja) * 2005-05-20 2012-06-20 日産自動車株式会社 映像表示装置及び映像表示方法
JP4797441B2 (ja) * 2005-05-20 2011-10-19 トヨタ自動車株式会社 車両用画像処理装置
EP1916846B1 (en) * 2005-08-02 2016-09-14 Nissan Motor Company Limited Device and method for monitoring vehicle surroundings
JP4807104B2 (ja) * 2006-03-01 2011-11-02 日産自動車株式会社 車両周囲監視システム及び画像表示方法
JP2007235842A (ja) * 2006-03-03 2007-09-13 Denso Corp 車載画像表示システム
JP2008195268A (ja) 2007-02-14 2008-08-28 Denso Corp 車両周辺監視装置
JP4969269B2 (ja) * 2007-02-21 2012-07-04 アルパイン株式会社 画像処理装置
JP4985250B2 (ja) * 2007-09-06 2012-07-25 株式会社デンソー 駐車支援装置
JP5380941B2 (ja) * 2007-10-01 2014-01-08 日産自動車株式会社 駐車支援装置及び方法
JP2011077806A (ja) 2009-09-30 2011-04-14 Panasonic Corp 車両周辺監視装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104373A (ja) * 2005-10-05 2007-04-19 Alpine Electronics Inc 車両用画像表示装置
JP2010250640A (ja) * 2009-04-17 2010-11-04 Sanyo Electric Co Ltd 画像処理装置
WO2011015283A1 (de) * 2009-08-05 2011-02-10 Daimler Ag Verfahren zur überwachung einer umgebung eines fahrzeugs
WO2011036892A1 (ja) * 2009-09-24 2011-03-31 パナソニック株式会社 運転支援表示装置

Also Published As

Publication number Publication date
WO2013031161A1 (ja) 2013-03-07
JP5979505B2 (ja) 2016-08-24
EP2750382A4 (en) 2014-08-13
JP6241687B2 (ja) 2017-12-06
JP6388267B2 (ja) 2018-09-12
US20140218531A1 (en) 2014-08-07
CN107097721A (zh) 2017-08-29
JP2016219025A (ja) 2016-12-22
EP2750382A1 (en) 2014-07-02
US11657618B2 (en) 2023-05-23
US10235575B2 (en) 2019-03-19
CN103782591A (zh) 2014-05-07
CN107097721B (zh) 2020-03-06
EP2750382B1 (en) 2017-06-28
JP2018034794A (ja) 2018-03-08
US20210192230A1 (en) 2021-06-24
US10970562B2 (en) 2021-04-06
JPWO2013031161A1 (ja) 2015-03-23
US20190163987A1 (en) 2019-05-30

Similar Documents

Publication Publication Date Title
CN103782591B (zh) 驾驶辅助装置
CN103987582B (zh) 驾驶辅助装置
CN105711499B (zh) 车辆周围监视装置
CN102783143B (zh) 车辆用周围监视装置
KR101491170B1 (ko) 차량 주위 화상 표시 시스템
JP5681569B2 (ja) 情報処理システム、サーバ装置、および、車載装置
US8553081B2 (en) Apparatus and method for displaying an image of vehicle surroundings
KR101859229B1 (ko) 건설기계의 작업 가이드 정보 표시 장치 및 방법
JP5209578B2 (ja) 車両用画像表示装置
JP2010059653A (ja) 作業機械の視野補助装置
JP2009083764A (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
JP5549235B2 (ja) 運転支援装置
CN110945558B (zh) 显示控制装置
JP2008085691A (ja) 車両周辺監視装置
JP2022095303A (ja) 周辺画像表示装置、表示制御方法
JP2004056219A (ja) 車両周辺監視装置
CN103377372B (zh) 一种环视合成图重叠区域划分方法和环视合成图表示方法
JP5271186B2 (ja) 車両用画像表示装置
JP2018001899A (ja) 周辺監視装置
JP7347936B2 (ja) 船舶の撮影装置、および該撮影装置を有する船舶
JP2007088577A (ja) 車両周辺画像処理システム
JP2002293196A (ja) 車載カメラの画像表示方法及びその装置
JP2012166689A (ja) 運転支援装置
JP5556694B2 (ja) 後方支援装置
JP6511729B2 (ja) 駐車支援装置及び駐車支援方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20151106

Address after: Osaka Japan

Applicant after: PANASONIC INTELLECTUAL PROPERTY MANAGEMENT Co.,Ltd.

Address before: Osaka Japan

Applicant before: Matsushita Electric Industrial Co.,Ltd.

C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240418

Address after: Kanagawa Prefecture, Japan

Patentee after: Panasonic Automotive Electronic Systems Co.,Ltd.

Country or region after: Japan

Address before: Osaka, Japan

Patentee before: PANASONIC INTELLECTUAL PROPERTY MANAGEMENT Co.,Ltd.

Country or region before: Japan

TR01 Transfer of patent right