CN110199518B - 驾驶辅助系统、驾驶辅助方法 - Google Patents

驾驶辅助系统、驾驶辅助方法 Download PDF

Info

Publication number
CN110199518B
CN110199518B CN201880007729.8A CN201880007729A CN110199518B CN 110199518 B CN110199518 B CN 110199518B CN 201880007729 A CN201880007729 A CN 201880007729A CN 110199518 B CN110199518 B CN 110199518B
Authority
CN
China
Prior art keywords
image
state
brightness
unit
factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880007729.8A
Other languages
English (en)
Other versions
CN110199518A (zh
Inventor
臼井俊亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of CN110199518A publication Critical patent/CN110199518A/zh
Application granted granted Critical
Publication of CN110199518B publication Critical patent/CN110199518B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及驾驶辅助系统、驾驶辅助方法。获取部(S105)获取本车辆的周围的图像。显示部(S155)对由获取部获取到的图像进行显示。检测部(S110)对给图像整体的明度带来影响的重要因素亦即明度影响重要因素进行检测。判断部(S125、S140)在由检测部检测到的明度影响重要因素不满足预先设定的识别判断条件的情况下,判断为在显示部上不能识别图像中映现的多个灯光器的各个的状态亦即不能识别状态。报告部(S135、S150)在由判断部判断为不能识别状态的情况下,报告该内容。

Description

驾驶辅助系统、驾驶辅助方法
相关申请的交叉引用
本国际申请主张基于于2017年1月23日向日本专利厅申请的日本专利申请第2017-009658号的优先权,并通过参照在本国际申请中引用日本专利申请第2017-009658号的全部内容。
技术领域
本公开涉及驾驶辅助系统以及驾驶辅助方法。
背景技术
在下述专利文献1中记载了通过在设置于车厢内的显示装置上显示对本车辆的周围进行拍摄而获得的图像,从而辅助驾驶员的驾驶操作的电子镜等驾驶辅助系统。
专利文献1:日本特开2015-198302号公报
发明人的详细的研究的结果是在专利文献1中发现以下的课题。
即,关于作为驾驶辅助系统的一个例子的电子镜,法律规定具备用于区别图像中映现的自动四轮车和自动两轮车的动作模式(以下,可分离模式)。自动四轮车在前部左右两个位置具备前照灯,自动两轮车在前部中央的一个位置具备前照灯。当从自动四轮车的前部左右两个位置的前照灯的各个照射的光在图像上看起来连在一起时,有可能被误认是从自动两轮车的一个前照灯照射的光。因此,在可分离模式中,使画面变暗,以便能够在画面上识别出处于自动四轮车的前部左右两个位置的前照灯。另外,法律也规定在以可分离模式以外的动作模式进行动作的情况下,将该消息通知给驾驶员。
此外,可分离模式只是保证在法律规定的试验环境下,能够将图像中映现的前照灯识别为两个灯,并不保证在实际使用环境下能够识别。因此,虽然以可分离模式进行动作,但可能发生不能够将图像中映现的前照灯识别为两个灯的状态。该情况下,驾驶员有可能误判断自动两轮车和自动四轮车。
这并不限于自动四轮车的前照灯,需要识别对本车辆的周围进行拍摄而获得的图像中映现的多个灯光器的情况也是同样的。另外,并不限于电子镜,在整个驾驶辅助系统中也是同样的。
发明内容
本公开的一个方面提供抑制基于不能识别对本车辆的周围进行拍摄而获得的图像中映现的多个灯光器的驾驶员的误判断的技术。
本公开的一个方式是具备获取部、显示部、检测部、判断部以及报告部的驾驶辅助系统。
获取部获取本车辆的周围的图像。
显示部对由获取部获取到的图像进行显示。
检测部对给图像整体的明度带来影响的重要因素亦即明度影响重要因素进行检测。
判断部在明度影响重要因素不满足预先设定的识别判断条件的情况下,判断为是不能识别状态。不能识别状态是指在显示部上不能识别图像中映现的多个灯光器的各个的状态。
根据本公开的驾驶辅助系统,判断部通过使用给图像整体的明度带来影响的重要因素,由此判断是否能够以在显示部上可以识别的方式显示拍摄本车辆的周围而得的图像中映现的多个灯光器的各个。
而且,报告部在由判断部判断为是不能识别状态的情况下报告该消息。因此,能够使驾驶员识别图像中映现的灯光器的数量有可能与实际不同,并能够抑制驾驶员误判断驾驶状况。
此外,权利要求书所记载的括号内的附图标记表示与作为一个方式后述的实施方式所记载的具体单元的对应关系,并不限定本公开的技术范围。
附图说明
图1是表示图像处理装置1以及驾驶辅助系统2的结构的框图。
图2是驾驶辅助处理_1的流程图。
图3是驾驶辅助处理_1的说明图。
图4是驾驶辅助处理_1的说明图。
图5是驾驶辅助处理_1的说明图。
图6是驾驶辅助处理_2的流程图。
图7是驾驶辅助处理_3的流程图。
图8是与驾驶辅助处理_3中使用的PLSDF的计算相关的说明图。
图9是与在驾驶辅助处理_3中所使用的PLSCF的计算相关的说明图。
具体实施方式
以下,参照附图,对本公开的实施方式进行说明。
[1.第一实施方式]
[1-1.结构]
如图1所示,驾驶辅助系统2具备图像处理装置1。图像处理装置1是搭载在车辆上的ECU。ECU是Electronic Control Unit的简写。图像处理装置1具备具有CPU101、以及RAM、ROM、闪存等半导体存储器103的公知的微型计算机。图像处理装置1的各种功能通过CPU执行非迁移的实体记录介质中储存的程序来实现。在该例子中,半导体存储器相当于储存有程序的非迁移的实体记录介质。另外,通过执行该程序,从而执行与程序对应的方法。此外,图像处理装置1可以具备一个微型计算机,或可以具备多个微型计算机。另外,图像处理装置1可以通过包括多个逻辑电路的数字电路来实现,或可以通过数字电路和模拟电路的组合来实现。
驾驶辅助系统2也可以除了图像处理装置1之外还具备右后侧方相机11、左后侧方相机13、后方相机15、右后侧方监视器21、左后侧方监视器23以及后方监视器25。
右后侧方相机11、左后侧方相机13以及后方相机15相当于相机以及获取部。右后侧方监视器21、左后侧方监视器23以及后方监视器25相当于显示部。
右后侧方相机11例如设置于车辆的右车门上后视镜,对本车辆的右后方以及右侧方的风景进行拍摄。右后侧方相机11将通过拍摄而获得的图像输出至图像处理装置1。左后侧方相机13例如设置于车辆的左车门上后视镜,对本车辆的左后方以及左侧方的风景进行拍摄。左后侧方相机13将通过拍摄而获得的图像输出至图像处理装置1。后方相机15例如设置于本车辆的后端,对本车辆的后方的风景进行拍摄。后方相机15将通过拍摄而获得的图像输出至图像处理装置1。此外,在本车辆未安装车门上后视镜的情况下,右后侧方相机11以及左后侧方相机13可以通过撑条安装于本车辆,或埋入本车辆的车体中。
右后侧方监视器21具有液晶显示器等,例如设置于车辆的室内右前支柱的附近。右后侧方监视器21对由右后侧方相机11拍摄到的图像进行显示。因而,右后侧方相机11以及右后侧方监视器21作为电子镜发挥功能。此外,右后侧方监视器21也可以配置在仪表板内。
左后侧方监视器23具有液晶显示器等,例如被设置于车辆的室内中左前支柱的附近。左后侧方监视器23对由左后侧方相机13拍摄到的图像进行显示。因而,左后侧方相机13以及左后侧方监视器23作为电子镜发挥功能。此外,左后侧方监视器23也可以配置在仪表板内。
后方监视器25具有液晶显示器等,例如被设置于内部后视镜的位置。后方监视器25对由后方相机15拍摄到的图像进行显示。因而,后方相机15以及后方监视器25作为电子镜发挥功能。此外,后方监视器25也可以配置在仪表板内。
另外,属于驾驶辅助系统2的图像处理装置1经由通信总线31与照度传感器33、其它显示设备35以及声音输出设备37连接。
照度传感器33检测车辆的周围的照度。照度传感器33经由通信总线31与其它的构成进行各种信息的收发。照度传感器33将表示车辆的周围的照度的信息经由通信总线31输出至图像处理装置1。图像处理装置1使用从照度传感器33输入的信息来执行各种处理。
其它显示设备35例如包括显示各种信息的仪表等。其它显示设备35经由经由通信总线31,与其它构成进行各种信息的收发。图像处理装置1经由通信总线31将使显示画面显示的信息等输出至其它显示设备35。其它显示设备35对从图像处理装置1输入的信息进行显示。
声音输出设备37具有输出各种声音的扬声器等。声音输出设备37经由通信总线31与其它构成进行各种信息的收发。图像处理装置1经由通信总线31将表示声音等的信息输出至声音输出设备37。声音输出设备37按照从图像处理装置1输入的信息,输出声音等。
图3示出右后侧方监视器21对由右后侧方相机11拍摄到的图像进行显示的例子。在该例子中,在图像中,与本车辆V的一部分一起在规定区域A中映现后续车辆的前照灯等光源S。在该后续车辆是图4所例示那样的在前部左右两个位置具备前照灯51、52的自动四轮车50的情况下,在图3所示的规定区域A中映现两个灯光器51、52,作为光源S。另一方面,在该后续车辆是图5所例示那样的在前部中央的一个位置具备前照灯61的自动两轮车60的情况下,在图3所示的规定区域A中映现一个灯光器61,作为光源S。
图像处理装置1具有两个动作模式。将第一动作模式称为可分离模式,将第二动作模式称为不可分离模式。
在其中的可分离模式下,图像处理装置1执行使图像变暗的处理。结果是在图像中的规定区域A中映现的光源S为多个灯光器的情况下,由于每个灯光器看起来分离,所以容易识别。另外,在不可分离模式下,图像处理装置1执行使图像变亮的处理。结果是在图像中的规定区域A中映现的光源S为多个灯光器的情况下,较难识别每个灯光器,而容易识别周围的状况。
[1-2.处理]
使用图2的流程图,对图像处理装置1执行的驾驶辅助处理_1进行说明。
在图像处理装置1的电源接通的情况下,反复执行本处理。
在最初的步骤S105中,CPU101获取右后侧方相机11拍摄到的本车辆的右后方以及右侧方的风景的图像。之后,移至S110。
在S110中,CPU101获取右后侧方相机11获取到图像时的曝光时间T。曝光时间T是与右后侧方相机11的明亮度有关的参数的一个例子。也可以代替曝光时间T,而获取透镜的光圈、伽马校正值并使用。之后,移至S115。
在S115中,CPU101获取动作模式,移至S120。动作模式的初始设定可以是可分离模式以及不能分离模式的任何一个。
在S120中,CPU101判断S115中获取到的动作模式是否是可分离模式。在判断为动作模式是可分离模式的情况下,移至S125。在判断为动作模式是不可分离模式的情况下,移至S140。
在S125中,CPU101判断S105中获取到的图像是否是不能识别状态。不能识别状态是指不能够在显示部上分别独立地识别图像中映现的多个灯光器的状态。具体而言,判断S110中获取到的曝光时间T是否是基准值+α以上。基准值+α是预先设定的值。曝光时间T相当于明度影响重要因素。基准值+α相当于时间判定值以及识别判断条件。α是正的校正值。这样设定校正值α,并也在后述的S140中设定校正值β是为了防止曝光时间T在基准值+α附近上下移动,导致动作模式频繁地转变的事态。在判断为曝光时间T为基准值+α以上的情况下,判断为不能识别状态,为了进行动作模式的切换而移至S130。在判断为曝光时间T小于基准值+α的情况下,判断为能识别状态,移至S155。该情况下,继续可分离模式。能识别状态是指能够在显示部上识别图像中映现的多个灯光器的各个的状态。
在S130中,CPU101使动作模式从可分离模式切换为不可分离模式。之后,移至S135。
在S135中,CPU101将是不能识别状态通知给驾驶员。具体而言,CPU101经由通信总线31将表示是不能识别状态的信息输出至声音输出设备37。声音输出设备37按照从图像处理装置1输入的信息,输出声音。之后,移至S155。
在S140中,CPU101判断S105中获取到的图像是否是能识别状态。具体而言,判断S110中获取到的曝光时间T是否是基准值-β以下。β是正的校正值。在判断为曝光时间T是基准值-β以下的情况下,判断为是能识别状态,为了进行动作模式的切换,移至S145。在判断为曝光时间T大于基准值-β的情况下,判断为是不能识别状态,移至S150。该情况下,继续不可分离模式。
在S145中,CPU101将动作模式从不可分离模式切换为可分离模式,移至S155。
在S150中,CPU101再次将是不能识别状态通知给驾驶员。具体而言,CPU101经由通信总线31将表示是不能识别状态的信息输出至声音输出设备37。声音输出设备37按照从图像处理装置1输入的信息,输出声音。之后,移至S155。
在S155中,CPU101将右后侧方相机11拍摄到的图像输出至右后侧方监视器21。此时,在动作模式为可分离模式的情况下,CPU101通过使相机的曝光时间T比常规的设定时短来进行使图像变暗的处理。另外,在动作模式为不可分离模式的情况下,CPU101通过使相机的曝光时间T比常规的设定时长来进行使图像变亮的处理。右后侧方监视器21对从图像处理装置1输入的图像进行显示。之后,CPU101暂时结束本处理。
[1-3.效果]
根据以上详述的第一实施方式,将相机获取到图像时的曝光时间T用作明度影响重要因素,判断拍摄本车辆的周围而得的图像是能识别状态还是不能识别状态。
而且,由于在判定为是不能识别状态的情况下报告该内容,所以能够使驾驶员识别图像中映现的多个灯光器有可能不会以能够识别每个灯光器的状态被显示。结果能够抑制驾驶员基于相机图像误判断驾驶状况。
[2.第二实施方式]
[2-1.与第一实施方式的不同点]
第二实施方式的基本的结构与第一实施方式相同,所以以下对不同点进行说明。
在前述的第一实施方式中,将相机获取到图像时的曝光时间T用作明度影响重要因素,判断图像是处于能识别状态还是处于不能识别状态。与此相对,在第二实施方式中,在将车辆的周围的照度L用作明度影响重要因素,并判断图像是处于能识别状态还是处于不能识别状态这一点与第一实施方式不同。
[2-2.处理]
接下来,使用图6的流程图,对第二实施方式的图像处理装置1的CPU101代替图2所示的第一实施方式的驾驶辅助处理_1而执行的驾驶辅助处理_2进行说明。
在图像处理装置1的电源接通的情况下,反复执行本处理。
在以下的说明中,与驾驶辅助处理_1的情况下同样地,仅对由右后侧方相机11以及右后侧方监视器21构成的作为电子镜的处理进行说明,其它的处理的说明省略。
在最初的步骤S205中,CPU101获取右后侧方相机11拍摄到的本车辆的右后方以及右侧方的风景的图像。之后,移至S210。
在S210中,CPU101获取照度传感器33检测到的车辆的周围的照度L。之后,移至S215。
在S215中,CPU101获取动作模式,移至S220。动作模式的初始设定可以是可分离模式以及不可分离模式的任何一个。
在S220中,CPU101判断S215中获取到的动作模式是否是可分离模式。在判断为动作模式是可分离模式的情况下,移至S225。在判断为动作模式是不能分离模式的情况下,移至S240。
在S225中,CPU101判断S205中获取到的图像是否是不能识别状态。具体而言,判断S210中获取到的周边照度L是否是基准值-α以上。基准值-α是预先设定的值。周边照度L相当于明度影响重要因素。基准值-α相当于照度判定值以及识别判断条件。α是正的校正值。这样设定校正值α,并也在后述的S240中设定校正值β是为了防止周边照度L在基准值-α附近上下移动,导致动作模式频繁地转变的事态。在判断为周边照度L是基准值-α以上的情况下,判断为是不能识别状态,为了进行动作模式的切换,而移至S230。在判断为周边照度L小于基准值-α的情况下,判断为是能识别状态,移至S255。该情况下,继续可分离模式。
在S230中,CPU101将动作模式从可分离模式切换为不可分离模式,移至S235。
在S235中,CPU101将是不能识别状态通知给驾驶员。具体而言,CPU101经由通信总线31将表示是不能识别状态的信息输出至声音输出设备37。声音输出设备37按照从图像处理装置1输入的信息,输出声音。之后,移至S255。
在S240中,CPU101判断周边照度L是否是基准值+β以上。β是正的校正值。在判断为周边照度L是基准值+β以上的情况下,判断为是能识别状态,为了进行动作模式的切换,而移至S245。在判断为周边照度L小于基准值+β的情况下,判断为是不能识别状态,移至S250。该情况下,继续不可分离模式。
在S245中,CPU101将动作模式从不可分离模式切换为可分离模式,移至S255。
在S250中,CPU101将是不能识别状态再次通知给驾驶员。具体而言,CPU101经由通信总线31将表示是不能识别状态的信息输出至声音输出设备37。声音输出设备37按照从图像处理装置1输入的信息,输出声音。之后,移至S255。
在S255中,CPU101将图像输出至右后侧方监视器21。具体而言,CPU101将右后侧方相机11拍摄到的图像输出至右后侧方监视器21。此时,在动作模式为可分离模式的情况下,CPU101通过使相机的曝光时间T比常规的设定时短来进行使图像变暗的处理。另外,在动作模式为不可分离模式的情况下,CPU101通过使相机的曝光时间T比常规的设定时长来进行使图像变亮的处理。右后侧方监视器21对从图像处理装置1输入的图像进行显示。之后,CPU101暂时结束本处理。
[2-3.效果]
根据以上详述的第二实施方式,通过将车辆的周围的照度L用作明度影响重要因素,从而判断拍摄本车辆的周围所得的图像是能识别状态还是不能识别状态。
而且,由于在判断为是不能识别状态的情况下报告该内容,所以能够使驾驶员识别图像中映现的多个灯光器有可能不会以能识别每个灯光器状态被显示。结果是能够抑制驾驶员基于相机图像误判断驾驶状况。
[3.第三实施方式]
[3-1.与第一实施方式的不同点]
第三实施方式的基本的构成与第一实施方式相同,所以以下对不同点进行说明。
在前述的第一实施方式中,将相机获取到图像时的曝光时间T用作明度影响重要因素,判断图像是能识别状态还是不能识别状态。与此相对,在第三实施方式中,在将图像中的亮度分布用作明度影响重要因素并判断图像是能识别状态还是不能识别状态这一点上,与第一实施方式不同。
[3-2.处理]
接下来,使用图7的流程图,对第三实施方式的图像处理装置1的CPU101代替图2所示的第一实施方式的驾驶辅助处理_1而执行的驾驶辅助处理_3进行说明。
在图像处理装置1的电源接通的情况下,反复执行本处理。
在以下的说明中,与驾驶辅助处理_1的情况下同样地,仅对由右后侧方相机11以及右后侧方监视器21构成的作为电子镜的处理进行说明,其它的处理的说明省略。
在最初的步骤S305中,CPU101获取右后侧方相机11拍摄到的本车辆的右后方以及右侧方的风景的图像。此处,曝光时间T设定为可设定的范围中最短的。之后,移至S310。
在S310中,CPU101确定图像中映现的光源的位置,移至S315。例如,在图像中设为横向的X轴以及纵向的Y轴,根据XY坐标上的图像的亮度分布,将具有预先设定的阈值以上的亮度、且亮度极大的地点确定为光源的位置。
在S315中,CPU101获取右后侧方相机11拍摄到的本车辆的右后方以及右侧方的风景的图像。此处,关于曝光时间T,没有特别设置限制。之后,移至S320。
在S320中,CPU101获取与S310中确定出的光源的位置对应的、S315中获取到的图像上的位置周边的亮度分布,作为光源的亮度分布。而且,CPU101基于获取到的光源的亮度分布来计算表示分布的特征的PLSDF以及PLSCF,移至S325。光源的亮度分布相当于明度影响重要因素。PLSDF是Point Light Source Detection Factor的简写。PLSCF是PointLight Source Contrast Factor的简写。
PLSDF通过以下的式(1)来计算,PLSCF通过以下的式(2)来计算。
[数1]
Figure BDA0002136352500000101
Figure BDA0002136352500000102
如图8所示,SH是包括S310中确定出的光源的位置且亮度值为预先设定的第一规定值以上的区域的沿着X轴方向的宽度,即,光源的横宽度。SV是通过光源的横宽度的中心的沿着Y轴方向的轴上,亮度值为预先设定的第二规定值以上的区域的宽度,即,光源的纵宽度。此外,第二规定值被设定为比第一规定值小的值。此外,第一规定值可以例如设定为后述的LH,max的0.5倍的大小,第二规定值可以例如设定为后述的LV,max的0.5倍的大小。
如图8以及图9所示,LH,max是光源的横宽度SH内的亮度值的最大值。LH,min是光源的横宽度SH内的亮度值的极小值。LV,max是光源的纵宽度SV内的亮度值的最大值。
在S325中,CPU101获取动作模式,移至S330。动作模式的初始设定可以是可分离模式以及不可分离模式的任何一个。
在S330中,CPU101判断S325中获取到的动作模式是否是可分离模式。在判断为动作模式是可分离模式的情况下,移至S335。在判断为动作模式是不可分离模式的情况下,移至S350。
在S335中,CPU101判断S315中获取到的图像是否是不能识别状态。具体而言,CPU101基于S320中计算出的PLSDF以及PLSCF,判断是否满足PLSDF-α>F1或者PLSCF-β>F2的任意一方。F1为第一基准值,F2为第二基准值。F1、F2都是预先设定的值。在本实施方式中,第一基准值被设定为F1=2.7,并且第二基准值被设定为F2=1.2。第一基准值F1以及第二基准值F2相当于分布判定条件以及识别判断条件。α为正的校正值。β为正的校正值。这样设定校正值α并也在后述的S350中设定校正值γ是为了防止PLSDF-α在第一基准值F1附近上下移动,导致动作模式频繁地转变的事态。同样地,设定校正值β,并且也在后述的S350中设定校正值δ是为了防止PLSCF-β在第二基准值F2附近上下移动,导致动作模式频繁地转变的事态。
在判断为满足PLSDF-α>F1或者PLSCF-β>F2的任意一方的情况下,判断为是不能识别状态,为了进行动作模式的切换,而移至S340。在判断为不满足PLSDF-α>F1或者PLSCF-β>F2的任何一个的情况下,判断为是能识别状态,移至S365。该情况下,继续可分离模式。
在S340中,CPU101将动作模式从可分离模式切换为不可分离模式,移至S345。
在S345中,CPU101将是不能识别状态通知给驾驶员。具体而言,CPU101经由通信总线31将表示是不能识别状态的信息输出至声音输出设备37。声音输出设备37按照从图像处理装置1输入的信息,输出声音。之后,移至S365。
在S350中,CPU101基于S320中计算出的PLSDF以及PLSCF来判断是否满足PLSDF+γ>F1或者PLSCF+δ>F2的任意一方。γ为正的校正值。δ为正的校正值。
在判断为满足PLSDF+γ>F1或者PLSCF+δ>F2的任意一方的情况下,判断为是能识别状态,为了进行动作模式的切换,而移至S355。在判断为不满足PLSDF+γ>F1或者PLSCF+δ>F2的任何一个的情况下,判断为是不能识别状态,移至S360。该情况下,继续不可分离模式。
在S355中,CPU101将动作模式从不可分离模式切换为可分离模式,移至S365。
在S360中,CPU101将继续不可分离模式再次通知给驾驶员。CPU101经由通信总线31将表示是不可分离模式的信息输出至声音输出设备37。声音输出设备37按照从图像处理装置1输入的信息,输出声音。之后,移至S365。
在S365中,CPU101将图像输出至右后侧方监视器21。具体而言,CPU101将右后侧方相机11拍摄到的图像输出至右后侧方监视器21。此时,在动作模式为可分离模式的情况下,CPU101通过使相机的曝光时间T比常规的设定时短来进行使图像变暗的处理。另外,在动作模式为不可分离模式的情况下,CPU101通过使相机的曝光时间T比常规的设定时长来进行使图像变亮的处理。右后侧方监视器21对从图像处理装置1输入的图像进行显示。之后,CPU101暂时结束本处理。
[3-3.效果]
根据以上详述的第三实施方式,通过将图像中的光源的亮度分布用作明度影响重要因素,从而判断拍摄本车辆的周围而得的图像是能识别状态还是不能识别状态。
而且,由于在判断为是不能识别状态的情况下报告该内容,所以能够使驾驶员识别图像中映现的多个灯光器有可能不会以能识别每个灯光器的状态被显示。结果是能够抑制驾驶员基于相机图像误判断驾驶状况。
[4.其它实施方式]
以上,对本公开的实施方式进行了说明,但本公开并不限于上述的实施方式,能够进行各种变形并实施。
(1)在上述实施方式中,CPU101根据状况切换两个动作模式,但本公开并不限于此。也可以通过驾驶员的开关操作切换两个动作模式。
(2)在上述实施方式中,在可分离模式下,为了使图像变暗,而使相机的曝光时间T比常规的设定时短,但本公开并不限于此。可以通过使相机的透镜光圈比常规的设定时缩小来使图像变暗。另外,可以通过对γ<1加以伽马校正来使图像变暗。还可以通过负地施加明亮度校正来使图像变暗。
(3)在上述实施方式中,在不可分离模式下,为了使图像变亮,而使相机11的曝光时间T比常规的设定时长,但本公开并不限于此。可以通过使相机的透镜光圈比常规的设定时扩大来使图像变亮。另外,可以通过对γ>1加以伽马校正来使图像变亮。还可以通过正地施加明亮度校正来使图像变亮。
(4)可以通过多个构成要素来实现上述实施方式中的一个构成要素具有的多个功能,或可以通过多个构成要素来实现一个构成要素具有的一个功能。另外,可以通过一个构成要素来实现多个构成要素具有的多个功能,或可以通过一个构成要素来实现由多个构成要素实现的一个功能。另外,可以省略上述实施方式的结构的一部分。另外,也可以对其它上述实施方式的结构附加或者置换上述实施方式的构成的至少一部分。此外,包含于由权利要求书所记载的语句确定的技术构思的所有方式为本公开的实施方式。
(5)除了上述的驾驶辅助系统之外,还能够以构成该驾驶辅助系统的图像处理装置、用于使计算机作为该驾驶辅助系统发挥功能的程序、用于使计算机作为该图像处理装置发挥功能的程序、记录有这些程序的半导体存储器等非迁移的实体的记录介质、驾驶辅助方法、图像处理方法等各种方式实现本公开。

Claims (7)

1.一种驾驶辅助系统,该驾驶辅助系统具备:
获取部,构成为获取本车辆的周围的图像;
显示部,构成为对由上述获取部获取到的上述图像进行显示;
检测部,构成为对给上述图像整体的明度带来影响的重要因素亦即明度影响重要因素进行检测;
判断部,构成为在由上述检测部检测到的上述明度影响重要因素不满足预先设定的识别判断条件的情况下,判断为在上述显示部上不能识别上述图像中映现的作为光源的多个灯光器的各个灯光器的状态亦即不能识别状态;以及
报告部,构成为在由上述判断部判断为是上述不能识别状态的情况下,报告表示由上述判断部判断为是上述不能识别状态这一意思。
2.根据权利要求1所述的驾驶辅助系统,其中,
上述获取部是拍摄上述图像的相机,
上述检测部构成为检测上述相机拍摄上述图像时的与上述相机的明亮度相关的参数,作为上述明度影响重要因素,
上述判断部构成为在上述参数为预先设定的参数判定值以上的情况下,判断为上述明度影响重要因素不满足上述识别判断条件,是上述不能识别状态。
3.根据权利要求1所述的驾驶辅助系统,其中,
上述检测部构成为检测上述车辆的周围的照度,作为上述明度影响重要因素,
上述判断部构成为在上述照度为预先设定的照度判定值以下的情况下,判断为上述明度影响重要因素不满足上述识别判断条件,是上述不能识别状态。
4.根据权利要求1所述的驾驶辅助系统,其中,
上述检测部构成为检测上述图像中的亮度分布,作为上述明度影响重要因素,
上述判断部构成为在上述亮度分布不满足预先设定的分布判定条件的情况下,判断为上述明度影响重要因素不满足上述识别判断条件,是上述不能识别状态。
5.根据权利要求1~权利要求4中的任意一项所述的驾驶辅助系统,其中,
作为动作模式,有可分离模式和不可分离模式这两个模式,上述可分离模式用于使上述图像变暗,上述图像中的规定区域中映现的多个灯光器的各个看起来分离,容易识别,上述不可分离模式用于使上述图像变亮,较难识别上述图像中的规定区域中映现的多个灯光器的各个,
上述驾驶辅助系统还具备变更部,上述变更部构成为在选择上述可分离模式的情况下,在由上述判断部判断为上述不能识别状态的情况下,从上述可分离模式变更为上述不可分离模式。
6.根据权利要求5所述的驾驶辅助系统,其中,
上述判断部构成为在由上述检测部检测到的上述明度影响重要因素满足上述识别判断条件的情况下,判断为是在上述显示部上能够识别上述图像中映现的上述多个灯光器的各个的状态亦即能识别状态,
上述变更部构成为在选择上述不可分离模式的情况下,在由上述判断部判断为是上述能识别状态的情况下,从上述不可分离模式变更为上述可分离模式。
7.一种驾驶辅助方法,其中,
获取本车辆的周围的图像;
对获取到的上述图像进行显示;
对给上述图像整体的明度带来影响的重要因素亦即明度影响重要因素进行检测;
在上述明度影响重要因素不满足预先设定的识别判断条件的情况下,判断为是在上述显示部上不能识别上述图像中映现的作为光源的多个灯光器的各个灯光器的状态亦即不能识别状态;以及
在判断为是上述不能识别状态的情况下,报告表示判断为是上述不能识别状态这一意思。
CN201880007729.8A 2017-01-23 2018-01-12 驾驶辅助系统、驾驶辅助方法 Active CN110199518B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017009658A JP6740916B2 (ja) 2017-01-23 2017-01-23 運転支援システム、運転支援方法
JP2017-009658 2017-01-23
PCT/JP2018/000705 WO2018135413A1 (ja) 2017-01-23 2018-01-12 運転支援システム、運転支援方法

Publications (2)

Publication Number Publication Date
CN110199518A CN110199518A (zh) 2019-09-03
CN110199518B true CN110199518B (zh) 2021-01-05

Family

ID=62909097

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880007729.8A Active CN110199518B (zh) 2017-01-23 2018-01-12 驾驶辅助系统、驾驶辅助方法

Country Status (4)

Country Link
JP (1) JP6740916B2 (zh)
CN (1) CN110199518B (zh)
DE (1) DE112018000481T5 (zh)
WO (1) WO2018135413A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110723070B (zh) * 2019-09-06 2020-12-15 成都长迪传感技术有限公司 一种汽车盲区传感系统
JP7355252B2 (ja) * 2020-09-17 2023-10-03 三菱電機株式会社 画像表示装置および画像表示方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10208189A (ja) * 1997-01-24 1998-08-07 Mitsubishi Electric Corp 速度違反自動取締装置
JP2000207563A (ja) * 1999-01-20 2000-07-28 Fujitsu Ten Ltd 画像認識装置
JP2003030665A (ja) * 2001-07-10 2003-01-31 Mitsubishi Electric Corp 移動物体検知装置、移動物体検知方法およびその方法をコンピュータに実行させるプログラム
JP2008193504A (ja) * 2007-02-06 2008-08-21 Toyota Motor Corp 暗視装置
JP2009206747A (ja) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd 車両用周囲状況監視装置及び映像表示方法
CN102834309A (zh) * 2010-02-26 2012-12-19 金泰克斯公司 自动车辆设备监控、报警和控制系统
CN103269908A (zh) * 2010-12-27 2013-08-28 丰田自动车株式会社 图像提供设备
JP5466587B2 (ja) * 2010-06-29 2014-04-09 本田技研工業株式会社 車両用顔画像撮像装置
JP2015198302A (ja) * 2014-03-31 2015-11-09 株式会社デンソー 後方状況表示装置、後方状況表示方法
CN105960355A (zh) * 2013-12-12 2016-09-21 法雷奥开关和传感器有限责任公司 用于在检测车灯闪光之后操作机动车辆后视摄像头系统的方法、后视摄像头系统和机动车辆

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6657925B2 (ja) * 2015-06-04 2020-03-04 ソニー株式会社 車載カメラ・システム並びに画像処理装置
JP6446335B2 (ja) 2015-06-17 2018-12-26 コニカミノルタ株式会社 結像光学素子およびその製造方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10208189A (ja) * 1997-01-24 1998-08-07 Mitsubishi Electric Corp 速度違反自動取締装置
JP2000207563A (ja) * 1999-01-20 2000-07-28 Fujitsu Ten Ltd 画像認識装置
JP2003030665A (ja) * 2001-07-10 2003-01-31 Mitsubishi Electric Corp 移動物体検知装置、移動物体検知方法およびその方法をコンピュータに実行させるプログラム
JP2008193504A (ja) * 2007-02-06 2008-08-21 Toyota Motor Corp 暗視装置
JP2009206747A (ja) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd 車両用周囲状況監視装置及び映像表示方法
CN102834309A (zh) * 2010-02-26 2012-12-19 金泰克斯公司 自动车辆设备监控、报警和控制系统
JP5466587B2 (ja) * 2010-06-29 2014-04-09 本田技研工業株式会社 車両用顔画像撮像装置
CN103269908A (zh) * 2010-12-27 2013-08-28 丰田自动车株式会社 图像提供设备
CN105960355A (zh) * 2013-12-12 2016-09-21 法雷奥开关和传感器有限责任公司 用于在检测车灯闪光之后操作机动车辆后视摄像头系统的方法、后视摄像头系统和机动车辆
JP2015198302A (ja) * 2014-03-31 2015-11-09 株式会社デンソー 後方状況表示装置、後方状況表示方法

Also Published As

Publication number Publication date
WO2018135413A1 (ja) 2018-07-26
DE112018000481T5 (de) 2019-10-24
JP6740916B2 (ja) 2020-08-19
JP2018121122A (ja) 2018-08-02
CN110199518A (zh) 2019-09-03

Similar Documents

Publication Publication Date Title
JP4853160B2 (ja) 車両検出装置及びヘッドランプ制御装置
US7639149B2 (en) Automatic lighting device and method for controlling light
JP7060958B2 (ja) 振幅変調光のフリッカ補正のためのビデオストリーム画像処理システムおよび方法
US20120002052A1 (en) Obstacle detection apparatus, obstacle detection system having same, and obstacle detection method
US10336256B1 (en) Reduction of LED headlight flickering in electronic mirror applications
JP2008252327A (ja) 車両周辺監視装置
CN110199518B (zh) 驾驶辅助系统、驾驶辅助方法
JP2013235444A (ja) 車両視界支援装置
JP2008258778A (ja) 撮像システム
JP5712821B2 (ja) 撮影表示制御システム
JP2014164426A (ja) 物体検出装置
WO2015151404A1 (ja) 後方状況表示装置、後方状況表示方法
JP2007028540A (ja) 車両外状況提示システム及び車両外状況提示方法
JP7176447B2 (ja) ライト監視装置
JP4782491B2 (ja) 撮像装置
TWI630818B (zh) Dynamic image feature enhancement method and system
JP2016076912A (ja) 撮影画像表示装置、撮影画像表示方法および撮影画像表示プログラム
JP2009065586A (ja) 車載カメラ
JP2006082653A (ja) ランプ点灯状態検出装置
JP2008193504A (ja) 暗視装置
JP2013009041A (ja) 車両用撮影表示制御システム
WO2016139674A1 (en) Method and system for detecting ambient light
JP2012118929A (ja) 外部環境判定装置及び外部環境判定プログラム
JP2015058747A (ja) 車両灯体制御装置
JP2018074440A (ja) 車両後方画像表示装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant