JP6976298B2 - Vehicle surroundings monitoring device and vehicle surroundings monitoring method - Google Patents

Vehicle surroundings monitoring device and vehicle surroundings monitoring method Download PDF

Info

Publication number
JP6976298B2
JP6976298B2 JP2019194994A JP2019194994A JP6976298B2 JP 6976298 B2 JP6976298 B2 JP 6976298B2 JP 2019194994 A JP2019194994 A JP 2019194994A JP 2019194994 A JP2019194994 A JP 2019194994A JP 6976298 B2 JP6976298 B2 JP 6976298B2
Authority
JP
Japan
Prior art keywords
vehicle
monitoring function
monitoring
unit
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019194994A
Other languages
Japanese (ja)
Other versions
JP2021069075A (en
Inventor
智能 小城戸
考平 森
成晃 竹原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019194994A priority Critical patent/JP6976298B2/en
Priority to DE102020204957.2A priority patent/DE102020204957A1/en
Priority to CN202011139069.4A priority patent/CN112734981A/en
Publication of JP2021069075A publication Critical patent/JP2021069075A/en
Application granted granted Critical
Publication of JP6976298B2 publication Critical patent/JP6976298B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • G07C5/0825Indicating performance data, e.g. occurrence of a malfunction using optical means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • G07C5/0833Indicating performance data, e.g. occurrence of a malfunction using audio means
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/404Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components triggering from stand-by mode to operation mode

Description

本願は、車両用周囲監視装置および車両用周囲監視方法に関する。 The present application relates to a vehicle surroundings monitoring device and a vehicle surroundings monitoring method.

近年、車両に監視カメラを搭載し、ドライバの死角になり易い車両周辺の映像を提供する監視カメラ装置が開示されている。最近では、車両に周辺を撮像する複数のカメラを搭載し、車両の上から周辺360°を見渡したような俯瞰映像を提供する周辺監視カメラ装置も開示されている。この周辺監視カメラ装置は、複数のカメラで撮像した複数の映像を座標変換して合成することで車両の上から周辺360°を見渡したような俯瞰映像を生成している(例えば、特許文献1参照)。 In recent years, a surveillance camera device has been disclosed in which a surveillance camera is mounted on a vehicle to provide an image of the surroundings of the vehicle, which tends to be a blind spot for a driver. Recently, a peripheral surveillance camera device has also been disclosed in which a plurality of cameras that capture the surroundings of a vehicle are mounted on the vehicle to provide a bird's-eye view of the surroundings 360 ° from above the vehicle. This peripheral surveillance camera device generates a bird's-eye view image as if a 360 ° peripheral view is seen from above the vehicle by converting a plurality of images captured by a plurality of cameras by coordinate conversion and synthesizing them (for example, Patent Document 1). reference).

また、車両に後側方を撮像するカメラを搭載し、撮像した映像から自車の後側方の走行レーンを認識し、その走行レーンの監視領域内を走行する後続車を検知する後側方監視カメラ装置が開示されている。この後側方監視カメラ装置は、検知した後続車の方向にドライバがウィンカの操作をすると警報を報知する機能などを備えている(例えば、特許文献2参照)。 In addition, the vehicle is equipped with a camera that captures the rear side, recognizes the driving lane on the rear side of the own vehicle from the captured image, and detects the following vehicle traveling in the monitoring area of the driving lane. Surveillance camera devices are disclosed. The rear side surveillance camera device has a function of notifying an alarm when the driver operates the winker in the direction of the detected following vehicle (see, for example, Patent Document 2).

特許第3286306号公報Japanese Patent No. 3286306 特開平2−287799号公報Japanese Unexamined Patent Publication No. 2-287799

周辺監視カメラ装置は主に駐車時に使用され、後側方監視カメラ装置は主に走行時に使用される。この2つの装置を1台の車両に搭載すると、駐車時および走行時の両方において車両の安全性を向上させる車両用周囲監視装置となる。しかしながら、この2つの装置を単に1台の車両に搭載した場合、それぞれの装置スペースが必要となるため車両用周囲監視装置が大型になるという問題があった。 The peripheral surveillance camera device is mainly used when parking, and the rear side surveillance camera device is mainly used when driving. When these two devices are mounted on one vehicle, it becomes a vehicle surrounding monitoring device that improves the safety of the vehicle both when parked and when traveling. However, when these two devices are simply mounted on one vehicle, there is a problem that the peripheral monitoring device for the vehicle becomes large because each device space is required.

本願は、上述の課題を解決するためになされたもので、複数の監視カメラ装置が使用されるときの車両状況が異なることに着目し、それらの装置の共用できる部分を共通化して1つの装置に統合することで、車両用周囲監視装置の大型化を抑制することを目的とする。 This application has been made to solve the above-mentioned problems. Focusing on the fact that the vehicle conditions are different when a plurality of surveillance camera devices are used, the common parts of those devices are shared into one device. The purpose of this integration is to reduce the size of the vehicle surroundings monitoring device.

本願に係る車両用周囲監視装置は、複数のカメラで構成されるカメラ部と、自車の経緯度情報および地図情報に基づいて自車の位置を判定する車両状況判定部と、この車両状況判定部で判定された自車の位置に基づいて、1つまたは複数の監視機能を選択監視機能として選択し、選択監視機能に必要なカメラ部からの入力映像を決定すると共に、選択監視機能に対応する映像処理方法を決定する監視機能選択部と、この監視機能選択部で決定されたカメラ部からの入力映像を切り替えて取得する入力映像取得部と、この入力映像取得部で取得された入力映像に監視機能選択部で決定された映像処理方法で映像処理を行う入力映像処理部とを備えており、車両状況判定部は自車の現在地を判定し、車両状況判定部が自車の現在地が駐車場であると判定した場合、監視機能選択部は、周辺監視機能を選択監視機能として選択し、車両状況判定部が自車の現在地が車道であると判定した場合、監視機能選択部は、後側方監視機能を選択監視機能として選択する。 The vehicle surrounding monitoring device according to the present application includes a camera unit composed of a plurality of cameras, a vehicle condition determination unit that determines the position of the own vehicle based on the latitude and longitude information and map information of the own vehicle, and this vehicle condition determination. Based on the position of the vehicle determined by the unit, one or more monitoring functions are selected as the selection monitoring function, the input image from the camera unit required for the selection monitoring function is determined, and the selection monitoring function is supported. The monitoring function selection unit that determines the video processing method to be performed, the input video acquisition unit that switches and acquires the input video from the camera unit determined by this monitoring function selection unit, and the input video acquired by this input video acquisition unit. It is equipped with an input video processing unit that performs video processing by the video processing method determined by the monitoring function selection unit, the vehicle status determination unit determines the current location of the own vehicle, and the vehicle status determination unit determines the current location of the own vehicle. When it is determined that the vehicle is a parking lot, the monitoring function selection unit selects the peripheral monitoring function as the selection monitoring function, and when the vehicle status determination unit determines that the current location of the own vehicle is the roadway, the monitoring function selection unit determines. Select the rear side monitoring function as the selection monitoring function.

本願の車両用周囲監視装置は、自車の経緯度情報および地図情報に基づいて車両状況判定部で判定された自車の位置に基づいて1つまたは複数の監視機能を選択監視機能として選択し、選択監視機能に必要なカメラ部からの入力映像を決定すると共に、選択監視機能に対応する映像処理方法を決定する監視機能選択部と、この監視機能選択部で決定されたカメラ部からの入力映像を切り替えて取得する入力映像取得部と、この入力映像取得部で取得された入力映像に監視機能選択部で決定された映像処理方法で映像処理を行う入力映像処理部とを備えており、車両状況判定部は自車の現在地を判定し、車両状況判定部が自車の現在地が駐車場であると判定した場合、監視機能選択部は、周辺監視機能を選択監視機能として選択し、車両状況判定部が自車の現在地が車道であると判定した場合、監視機能選択部は、後側方監視機能を選択監視機能として選択しているので、車両用周囲監視装置の大型化を抑制することができると共に、車道に停止した状態から走行を開始しようとする場合に後側方監視機能を自動的に作動させることができる。
In the vehicle surroundings monitoring device of the present application, one or more monitoring functions are selected as the selective monitoring function based on the position of the own vehicle determined by the vehicle condition determination unit based on the longitude / latitude information and the map information of the own vehicle. , Input from the camera unit determined by the monitoring function selection unit that determines the video processing method corresponding to the selection monitoring function while determining the input video from the camera unit required for the selection monitoring function, and the input from the camera unit determined by this monitoring function selection unit. It is equipped with an input video acquisition unit that switches and acquires video, and an input video processing unit that processes the input video acquired by this input video acquisition unit using the video processing method determined by the monitoring function selection unit. When the vehicle condition determination unit determines the current location of the own vehicle and the vehicle condition determination unit determines that the current location of the own vehicle is a parking lot, the monitoring function selection unit selects the peripheral monitoring function as the selection monitoring function and the vehicle. When the situation judgment unit determines that the current location of the own vehicle is the roadway, the monitoring function selection unit selects the rear side monitoring function as the selection monitoring function, so that the increase in size of the vehicle surroundings monitoring device is suppressed. At the same time, the rear side monitoring function can be automatically activated when the vehicle is about to start traveling from a state of being stopped on the road.

実施の形態1に係る車両用周囲監視装置の構成図である。It is a block diagram of the surroundings monitoring device for a vehicle which concerns on Embodiment 1. FIG. 実施の形態1における監視カメラの撮像範囲を示す模式図である。It is a schematic diagram which shows the imaging range of the surveillance camera in Embodiment 1. FIG. 実施の形態1における周辺監視画像の一例を示す図である。It is a figure which shows an example of the peripheral monitoring image in Embodiment 1. FIG. 実施の形態1における後側方監視画像の一例を示す図である。It is a figure which shows an example of the rear side monitoring image in Embodiment 1. FIG. 実施の形態1における車両用周囲監視方法のフローチャートである。It is a flowchart of the surroundings monitoring method for a vehicle in Embodiment 1. 実施の形態1における車両用周囲監視方法のフローチャートである。It is a flowchart of the surroundings monitoring method for a vehicle in Embodiment 1. 実施の形態1における車両用周囲監視装置のハードウェアの一例を示す模式図である。It is a schematic diagram which shows an example of the hardware of the vehicle surroundings monitoring apparatus in Embodiment 1. FIG.

以下、本願を実施するための実施の形態に係る車両用周囲監視装置について、図面を参照して詳細に説明する。なお、各図において同一符号は同一もしくは相当部分を示している。 Hereinafter, the vehicle surroundings monitoring device according to the embodiment for carrying out the present application will be described in detail with reference to the drawings. In each figure, the same reference numerals indicate the same or corresponding parts.

実施の形態1.
図1は、実施の形態1に係る車両用周囲監視装置の構成図である。本実施の形態の車両用周囲監視装置は車両に搭載されており、周辺監視機能と後側方監視機能とを備えている。周辺監視機能とは、車両の上から周辺360°を見渡したようなドライバ向けの俯瞰映像の表示機能、車両周辺の映像から駐車枠線を検知し、検知した駐車枠線に沿わせて自動で駐車を行う自動駐車機能、車両後退時に車両周辺および後方の歩行者、車両、障害物などを検知し、警報およびブレーキ制御による衝突回避機能などである。また、後側方監視機能とは、自車の後側方を走行する後続車を検知する後続車検知機能、検知した後続車の方向にドライバがウィンカの操作を行うと警報を報知する車線変更警報機能などである。
Embodiment 1.
FIG. 1 is a configuration diagram of a vehicle surroundings monitoring device according to the first embodiment. The vehicle surroundings monitoring device of the present embodiment is mounted on the vehicle and has a peripheral monitoring function and a rear side monitoring function. The peripheral monitoring function is a function to display a bird's-eye view image for the driver that looks over the surrounding 360 ° from the top of the vehicle, detects the parking border from the image around the vehicle, and automatically follows the detected parking border. It has an automatic parking function for parking, a collision avoidance function by detecting pedestrians, vehicles, obstacles, etc. around and behind the vehicle when the vehicle is reversing, and warning and brake control. In addition, the rear side monitoring function is a following vehicle detection function that detects the following vehicle traveling behind the own vehicle, and a lane change that notifies an alarm when the driver operates the winker in the direction of the detected following vehicle. It has an alarm function and so on.

図1に示す本実施の形態の車両用周囲監視装置1は、自車の周辺監視映像を撮像する周辺監視カメラ2と、自車の後側方監視映像を撮像する後側方監視カメラ3と、自車の車両状況を判定する車両状況判定部4と、この車両状況判定部4で判定された自車の車両状況に基づいて1つまたは複数の周辺監視機能および1つまたは複数の後側方監視機能の中の1つまたは複数を選択監視機能として選択し、選択監視機能に基づいて周辺監視映像および後側方監視映像のいずれか一方を入力映像として決定すると共に、選択監視機能に対応する映像処理方法を決定する監視機能選択部5と、この監視機能選択部5で決定された入力映像を周辺監視カメラ2および後側方監視カメラ3のいずれか一方から取得する入力映像取得部6と、この入力映像取得部6で取得された入力映像に監視機能選択部5で決定された映像処理方法で映像処理を行う入力映像処理部7とを備えている。 The vehicle peripheral monitoring device 1 of the present embodiment shown in FIG. 1 includes a peripheral monitoring camera 2 that captures a peripheral monitoring image of the own vehicle, and a rear side monitoring camera 3 that captures a rear side monitoring image of the own vehicle. , One or more peripheral monitoring functions and one or more rear sides based on the vehicle condition determination unit 4 for determining the vehicle condition of the own vehicle and the vehicle condition of the own vehicle determined by the vehicle condition determination unit 4. One or more of the direction monitoring functions are selected as the selection monitoring function, and either the peripheral monitoring image or the rear side monitoring image is determined as the input image based on the selection monitoring function, and the selection monitoring function is supported. The monitoring function selection unit 5 that determines the video processing method to be performed, and the input video acquisition unit 6 that acquires the input video determined by the monitoring function selection unit 5 from either the peripheral surveillance camera 2 or the rear side surveillance camera 3. And an input video processing unit 7 that performs video processing on the input video acquired by the input video acquisition unit 6 by the video processing method determined by the monitoring function selection unit 5.

周辺監視カメラ2は、自車の車両周辺を撮像領域とするフロントカメラ、リアカメラ、左サイドカメラ、右サイドカメラなどの1台以上の光学カメラで構成されている。なお、本実施の形態では、周辺監視カメラ2は4台のカメラで構成されているが、自車の周辺を撮像するためのカメラであれば何台で構成されていてもよい。周辺監視カメラ2は、これらのカメラで撮像された映像を周辺監視映像として出力する。 The peripheral surveillance camera 2 is composed of one or more optical cameras such as a front camera, a rear camera, a left side camera, and a right side camera whose imaging region is the periphery of the vehicle of the own vehicle. In the present embodiment, the peripheral surveillance camera 2 is composed of four cameras, but any number of cameras may be used as long as it is a camera for photographing the periphery of the own vehicle. The peripheral surveillance camera 2 outputs the images captured by these cameras as peripheral surveillance images.

後側方監視カメラ3は、自車の後側方を撮像領域とする後右サイドカメラ、後左サイドカメラなどの1台以上の光学カメラで構成されている。なお、本実施の形態では、後側方監視カメラ3は2台のカメラで構成されているが、自車の後側方を撮像するためのカメラであれば何台で構成されていてもよい。後側方監視カメラ3は、これらのカメラで撮像された映像を後側方監視映像として出力する。 The rear side surveillance camera 3 is composed of one or more optical cameras such as a rear right side camera and a rear left side camera whose imaging region is the rear side of the own vehicle. In the present embodiment, the rear side surveillance camera 3 is composed of two cameras, but any number of cameras may be used as long as it is a camera for photographing the rear side of the own vehicle. .. The posterior surveillance camera 3 outputs the images captured by these cameras as posterior surveillance images.

図2は、本実施の形態における周辺監視カメラ2の撮像範囲および後側方監視カメラ3の撮像範囲の一例を示す模式図である。周辺監視カメラ2は、車両18のフロントグリルに取り付けられたフロントカメラ21と、左右の前扉下にそれぞれ取り付けられた右サイドカメラ22および左サイドカメラ23と、リアバンパーに取り付けられたリアカメラ24とで構成されている。後側方監視カメラ3は、リアバンパーの右端部に取り付けられた後右サイドカメラ31と、リアバンパーの左端部に取り付けられた後左サイドカメラ32とで構成されている。周辺監視カメラ2の撮像範囲19は、車両18からの距離が約10mで周囲約360°の範囲である。後側方監視カメラ3の撮像範囲20は、車両18からの距離が約100mで車両18の左側の後側方および右側の後側方の範囲である。なお、図2に示す車両では、周辺監視カメラ2および後側方監視カメラ3を構成するそれぞれのカメラは車両の外側に取り付けられているが、車両の内側に取り付けられていてもよい。例えば、フロントカメラ21は、フロントガラスの内側の上部に取り付けられていてもよい。 FIG. 2 is a schematic diagram showing an example of the imaging range of the peripheral surveillance camera 2 and the imaging range of the rear side surveillance camera 3 in the present embodiment. The peripheral surveillance cameras 2 include a front camera 21 attached to the front grill of the vehicle 18, a right side camera 22 and a left side camera 23 attached under the left and right front doors, respectively, and a rear camera 24 attached to the rear bumper. It is composed of and. The rear side surveillance camera 3 includes a rear right side camera 31 attached to the right end of the rear bumper and a rear left side camera 32 attached to the left end of the rear bumper. The image pickup range 19 of the peripheral surveillance camera 2 is a range in which the distance from the vehicle 18 is about 10 m and the circumference is about 360 °. The image pickup range 20 of the rear side monitoring camera 3 is a range of the rear side on the left side and the rear side on the right side of the vehicle 18 at a distance of about 100 m from the vehicle 18. In the vehicle shown in FIG. 2, each of the cameras constituting the peripheral surveillance camera 2 and the rear side surveillance camera 3 is attached to the outside of the vehicle, but may be attached to the inside of the vehicle. For example, the front camera 21 may be attached to the upper part inside the windshield.

車両状況判定部4は、車両状況通知部11から自車の車速信号、ハンドル操舵角信号、ウィンカ信号、ギア信号などを受け取る。車両状況通知部11は、例えばエレクトロニックコントロールユニットなどである。なおこれ以降、車速信号、ハンドル操舵角信号、ウィンカ信号、ギア信号などをまとめてCAN情報(Controller Area Network情報:CANは登録商標)と記す。また、車両状況判定部4は、車両位置情報通知部12から経緯度情報、地図情報などを受け取る。車両位置情報通知部12は、例えばカーナビゲーションシステムなどであり、GPS(Global Positioning System)から経緯度情報を、地図データベースから地図情報を取得することができる。車両状況判定部4は、車両状況通知部11から受け取ったCAN情報および車両位置情報通知部12から受け取った経緯度情報、地図情報などに基づいて、自車の車両状況を判定する。そして、車両状況判定部4は、判定した自車の車両状況を監視機能選択部5に通知する。具体的な車両状況の判定の例を3つ示す。1つ目の例として、車両状況判定部4はCAN情報からギアが後退ギアに設定されているか否かを取得し、後退ギアに設定されている場合は自車が後退していると判定する。そして、車両状況判定部4はギアが後退ギア以外に設定されている場合は自車が前進または停止していると判定する。2つ目の例として、車両状況判定部4は自車の経緯度情報と地図情報とで得られる自車の現在地から自車が駐車場を走行中か否かを判定する。3つ目の例として、車両状況判定部4は自車の現在地から自車が車道を走行中か否かを判定する。車両状況判定部4で判定される車両状況は、周辺監視機能および後側方監視機能の中の少なくとも1つを選択監視機能として選択するために有用な車両状況であればこれ以外でもよい。なお、車両状況判定部4は自車の現在地を車両位置情報通知部12から直接取得してもよい。 The vehicle condition determination unit 4 receives a vehicle speed signal, a steering wheel steering angle signal, a winker signal, a gear signal, and the like of the own vehicle from the vehicle condition notification unit 11. The vehicle status notification unit 11 is, for example, an electronic control unit. Hereinafter, the vehicle speed signal, steering wheel angle signal, winker signal, gear signal, etc. are collectively referred to as CAN information (Control Area Area Network information: CAN is a registered trademark). Further, the vehicle condition determination unit 4 receives latitude and longitude information, map information, and the like from the vehicle position information notification unit 12. The vehicle position information notification unit 12 is, for example, a car navigation system or the like, and can acquire latitude and longitude information from GPS (Global Positioning System) and map information from a map database. The vehicle condition determination unit 4 determines the vehicle condition of the own vehicle based on the CAN information received from the vehicle condition notification unit 11, the latitude and longitude information received from the vehicle position information notification unit 12, the map information, and the like. Then, the vehicle condition determination unit 4 notifies the monitoring function selection unit 5 of the vehicle condition of the determined own vehicle. Three examples of specific determination of vehicle conditions are shown. As a first example, the vehicle condition determination unit 4 acquires whether or not the gear is set to the reverse gear from the CAN information, and if it is set to the reverse gear, determines that the own vehicle is retracting. .. Then, when the gear is set to a gear other than the reverse gear, the vehicle condition determination unit 4 determines that the own vehicle is moving forward or stopped. As a second example, the vehicle condition determination unit 4 determines whether or not the vehicle is traveling in the parking lot from the current location of the vehicle obtained from the latitude and longitude information and the map information of the vehicle. As a third example, the vehicle condition determination unit 4 determines whether or not the vehicle is traveling on the road from the current location of the vehicle. The vehicle status determined by the vehicle status determination unit 4 may be any other vehicle status as long as it is useful for selecting at least one of the peripheral monitoring function and the rear side monitoring function as the selective monitoring function. The vehicle status determination unit 4 may directly acquire the current location of the own vehicle from the vehicle position information notification unit 12.

監視機能選択部5は、ドライバ指示情報通知部13から通知されたドライバ指示情報と車両状況判定部4から通知された車両状況とに基づいて、複数の周辺監視機能および複数の後側方監視機能の中の1つまたは複数を選択監視機能として選択する。そして、監視機能選択部5は、選択監視機能に基づいて周辺監視映像と後側方監視映像とのどちらか一方を入力映像として決定する。また、監視機能選択部5は、選択監視機能として周辺監視機能を選択した場合はそれに対応する周辺監視映像処理方法を映像処理方法として決定し、選択監視機能として後側方監視機能を選択した場合はそれに対応する後側方監視映像処理方法を映像処理方法として決定する。さらに、監視機能選択部5は、決定した入力映像を入力映像取得部6に通知すると共に、決定した映像処理方法を入力映像処理部7に通知する。なお、ドライバ指示情報通知部13は、例えばインストルメントパネル、センタークラスタ、ハンドルなどに設置された実行機能設定ボタン、カーナビゲーションシステムの画面上のボタンなどである。ドライバ指示情報通知部13は、ドライバがこれらのボタンを押すことでドライバ指示情報を監視機能選択部5に通知する。 The monitoring function selection unit 5 has a plurality of peripheral monitoring functions and a plurality of rear side monitoring functions based on the driver instruction information notified from the driver instruction information notification unit 13 and the vehicle status notified from the vehicle condition determination unit 4. Select one or more of them as the selection monitoring function. Then, the monitoring function selection unit 5 determines either the peripheral monitoring image or the rear side monitoring image as an input image based on the selection monitoring function. Further, when the peripheral monitoring function is selected as the selective monitoring function, the monitoring function selection unit 5 determines the corresponding peripheral monitoring video processing method as the video processing method, and selects the rear side monitoring function as the selective monitoring function. Determines the corresponding rear side surveillance video processing method as the video processing method. Further, the monitoring function selection unit 5 notifies the input video acquisition unit 6 of the determined input video, and also notifies the input video processing unit 7 of the determined video processing method. The driver instruction information notification unit 13 is, for example, an execution function setting button installed on an instrument panel, a center cluster, a steering wheel, or a button on the screen of a car navigation system. The driver instruction information notification unit 13 notifies the monitoring function selection unit 5 of the driver instruction information when the driver presses these buttons.

次に、車両状況判定部4および監視機能選択部5の動作について説明する。ドライバ指示情報通知部13からドライバ指示情報が通知された場合、監視機能選択部5はそのドライバ指示情報にしたがって周辺監視機能および後側方監視機能の中の1つまたは複数を選択監視機能として選択し、それに対応する入力映像および映像処理方法を決定する。ドライバ指示情報通知部13からドライバ指示情報が通知されなかった場合は、監視機能選択部5は、車両状況判定部4から通知された車両状況に基づいて、周辺監視機能および後側方監視機能の中の1つまたは複数を選択監視機能として選択し、それに対応する入力映像および映像処理方法を決定する。例えば、車両状況判定部4は、CAN情報に基づいて自車が後退しているか前進しているかまたは停止しているかを判定する。車両状況判定部4が自車は後退していると判定した場合は、監視機能選択部5は周辺監視機能の中の1つまたは複数を選択監視機能として選択し、それに対応する入力映像および映像処理方法を決定する。車両状況判定部4が自車は前進しているかまたは停止していると判定した場合は、車両状況判定部4は車両位置情報通知部12から得られる自車の現在地に基づいて、自車の位置が駐車場か車道かまたはそのどちらでもないかを判定する。車両状況判定部4が自車の位置は駐車場と判定した場合は、監視機能選択部5は周辺監視機能の中の1つまたは複数を選択監視機能として選択し、それに対応する入力映像および映像処理方法を決定する。車両状況判定部4が自車の位置は車道と判定した場合は、監視機能選択部5は後側方監視機能の中の1つまたは複数を選択監視機能として選択し、それに対応する入力映像および映像処理方法を決定する。車両状況判定部4が自車の位置は駐車場および車道のどちらでもないと判定した場合は、監視機能選択部5は後側方監視機能の中の1つまたは複数を選択監視機能として選択し、それに対応する入力映像および映像処理方法を決定する。そして、監視機能選択部5は、決定した映像処理方法を特定する映像処理情報を出力する。 Next, the operations of the vehicle condition determination unit 4 and the monitoring function selection unit 5 will be described. When the driver instruction information is notified from the driver instruction information notification unit 13, the monitoring function selection unit 5 selects one or more of the peripheral monitoring function and the rear side monitoring function as the selection monitoring function according to the driver instruction information. Then, the input video and the video processing method corresponding to the input video are determined. When the driver instruction information is not notified from the driver instruction information notification unit 13, the monitoring function selection unit 5 of the peripheral monitoring function and the rear side monitoring function based on the vehicle condition notified from the vehicle condition determination unit 4. Select one or more of them as the selection monitoring function, and determine the input video and video processing method corresponding to it. For example, the vehicle condition determination unit 4 determines whether the own vehicle is moving backward, moving forward, or stopped based on the CAN information. When the vehicle condition determination unit 4 determines that the vehicle is moving backward, the monitoring function selection unit 5 selects one or more of the peripheral monitoring functions as the selection monitoring function, and the corresponding input video and video. Determine the processing method. When the vehicle condition determination unit 4 determines that the vehicle is moving forward or stopped, the vehicle condition determination unit 4 determines that the vehicle is based on the current location of the vehicle obtained from the vehicle position information notification unit 12. Determine if the location is a parking lot, a roadway, or neither. When the vehicle condition determination unit 4 determines that the position of the own vehicle is a parking lot, the monitoring function selection unit 5 selects one or more of the peripheral monitoring functions as the selection monitoring function, and the corresponding input video and video. Determine the processing method. When the vehicle condition determination unit 4 determines that the position of the own vehicle is the roadway, the monitoring function selection unit 5 selects one or more of the rear side monitoring functions as the selection monitoring function, and the corresponding input video and Determine the video processing method. When the vehicle condition determination unit 4 determines that the position of the own vehicle is neither the parking lot nor the roadway, the monitoring function selection unit 5 selects one or more of the rear side monitoring functions as the selection monitoring function. , Determine the corresponding input video and video processing method. Then, the monitoring function selection unit 5 outputs video processing information that specifies the determined video processing method.

入力映像取得部6は、監視機能選択部5で入力映像として決定された周辺監視映像または後側方監視映像を周辺監視カメラ2および後側方監視カメラ3のいずれか一方から取得する。入力映像取得部6において、入力映像を周辺監視映像と後側方監視映像との間で切り替える方法は、ハードウェアで切り替える方法でもよいしソフトウェアで切り替える方法でもよい。入力映像取得部6は、取得した入力映像を入力映像処理部7に送る。 The input video acquisition unit 6 acquires the peripheral surveillance video or the rear side surveillance video determined as the input video by the monitoring function selection unit 5 from either the peripheral surveillance camera 2 or the rear side surveillance camera 3. In the input video acquisition unit 6, the method of switching the input video between the peripheral surveillance video and the rear side surveillance video may be a method of switching by hardware or a method of switching by software. The input video acquisition unit 6 sends the acquired input video to the input video processing unit 7.

入力映像処理部7は、入力映像取得部6から送られてきた入力映像に対して監視機能選択部5で決定された映像処理方法を用いて映像処理を行う。入力映像として周辺監視映像が送られてきた場合、入力映像処理部7は監視機能選択部5で映像処理方法として決定された周辺監視映像処理方法を用いて映像処理を行う。入力映像として後側方監視映像が送られてきた場合、入力映像処理部7は監視機能選択部5で映像処理方法として決定された後側方監視映像処理方法を用いて映像処理を行う。例えば、入力映像として周辺監視映像が送られてきた場合、入力映像処理部7はこの周辺監視映像を座標変換して合成することにより車両の上から周辺360°を見渡したような俯瞰映像を生成する。そして、入力映像処理部7は、周辺監視映像に対してディープラーニングなどの機械学習またはエッジ検出を用いて、自動駐車のための駐車枠線の検知を行う。または、入力映像処理部7は、周辺監視映像に対してHoG(Histograms of Oriented Gradients)特徴量、ディープラーニングなどを用いた機械学習またはオプティカルフローを用いて、車両周辺または後方の歩行者、車両、障害物などの検知などを行う。上述のように、周辺監視機能は、ドライバ向けの俯瞰映像の表示機能、駐車枠線に沿わせて自動で駐車を行う自動駐車機能、警報およびブレーキ制御による衝突回避機能など複数ある。また、周辺監視映像処理方法はそれら複数の機能にそれぞれ対応したものが複数ある。監視機能選択部5は、複数の周辺監視機能の中から1つまたは複数を選択監視機能として選択し、その選択監視機能に対応する映像処理方法を決定している。 The input video processing unit 7 performs video processing on the input video sent from the input video acquisition unit 6 by using the video processing method determined by the monitoring function selection unit 5. When the peripheral monitoring video is sent as the input video, the input video processing unit 7 performs video processing using the peripheral monitoring video processing method determined by the monitoring function selection unit 5 as the video processing method. When the rear side surveillance video is sent as the input video, the input video processing unit 7 performs video processing using the rear side surveillance video processing method determined by the monitoring function selection unit 5 as the video processing method. For example, when a peripheral monitoring video is sent as an input video, the input video processing unit 7 generates a bird's-eye view image that looks over the surrounding 360 ° from the top of the vehicle by converting the coordinates of this peripheral monitoring video and synthesizing it. do. Then, the input image processing unit 7 detects the parking frame line for automatic parking by using machine learning such as deep learning or edge detection for the peripheral monitoring image. Alternatively, the input image processing unit 7 uses machine learning or optical flow using HoG (Histograms of Oriented Radiants) features, deep learning, etc. for the peripheral monitoring image to pedestrians, vehicles, and vehicles around or behind the vehicle. Detects obstacles, etc. As described above, there are a plurality of peripheral monitoring functions such as a bird's-eye view image display function for drivers, an automatic parking function that automatically parks along the parking frame line, and a collision avoidance function by warning and brake control. In addition, there are a plurality of peripheral surveillance video processing methods corresponding to each of these plurality of functions. The monitoring function selection unit 5 selects one or a plurality of peripheral monitoring functions as the selection monitoring function, and determines a video processing method corresponding to the selection monitoring function.

図3は、本実施の形態における周辺監視画像の一例である。図3に示す周辺監視画像は、車両の上から周辺360°を見渡したような俯瞰映像であり、自動駐車機能が作動しているときの周辺監視画像である。この周辺監視画像は、入力映像処理部7が周辺監視カメラの撮像範囲19の中にある駐車枠線25および他の車両26を検知した状態を示している。 FIG. 3 is an example of a peripheral monitoring image in the present embodiment. The peripheral monitoring image shown in FIG. 3 is a bird's-eye view image as if the peripheral 360 ° was seen from above the vehicle, and is a peripheral monitoring image when the automatic parking function is operating. This peripheral monitoring image shows a state in which the input video processing unit 7 has detected the parking frame line 25 and another vehicle 26 within the imaging range 19 of the peripheral monitoring camera.

入力映像として後側方監視映像が送られてきた場合、入力映像処理部7は、後側方監視映像に対してHoG特徴量、ディープラーニングなどを用いた機械学習またはオプティカルフローを用いて、後側方の車両および二輪車の検知などを行う。後側方監視機能も、後続車を検知し、検知した後続車の方向にドライバがウィンカの操作を行うと警報を報知する車線変更警報機能、すり抜けてくる二輪車を検知し警告する機能など複数ある。また、後側方監視映像処理方法もそれら複数の機能にそれぞれ対応したものが複数ある。監視機能選択部5は、複数の後側方監視機能の中から1つまたは複数を選択監視機能として選択し、その選択監視機能に対応する映像処理方法を決定している。 When the rear side surveillance video is sent as the input video, the input video processing unit 7 uses machine learning or optical flow using HoG features, deep learning, etc. for the rear side surveillance video to rearward. It detects vehicles on the side and two-wheeled vehicles. There are also multiple rear side monitoring functions, such as a lane change warning function that detects the following vehicle and notifies the driver when the driver operates the winker in the direction of the detected following vehicle, and a function that detects and warns of a two-wheeled vehicle passing through. .. In addition, there are a plurality of rear side surveillance video processing methods corresponding to each of these multiple functions. The monitoring function selection unit 5 selects one or a plurality of rear side monitoring functions as the selection monitoring function, and determines a video processing method corresponding to the selection monitoring function.

図4は、本実施の形態における後側方監視画像の一例である。図4に示す後側方監視画像は、後続車検知機能が作動しているときの後側方監視画像である。この後側方監視画像は、入力映像処理部7が後側方監視カメラの撮像範囲20の中にある白線27を検知して後側方の隣接走行レーンを認識した状態を示している。さらに入力映像処理部7は、その走行レーンを走行している後続車28を検知している。 FIG. 4 is an example of a rear side monitoring image in the present embodiment. The rear side monitoring image shown in FIG. 4 is a rear side monitoring image when the following vehicle detection function is operating. This posterior surveillance image shows a state in which the input video processing unit 7 detects the white line 27 in the imaging range 20 of the posterior surveillance camera and recognizes the adjacent traveling lane on the posterior side. Further, the input video processing unit 7 detects the following vehicle 28 traveling in the traveling lane.

なお、入力映像処理部7で行う映像処理方法は、上述の手法以外の映像処理方法でもよい。入力映像処理部7は、入力映像に対して映像処理を行った結果を映像処理結果情報として出力する。映像処理結果情報は、映像処理の結果として得られる情報であり、例えば自車が歩行者、車両、二輪車、障害物などとの衝突の可能性があるか否かの情報である。また、本実施の形態の車両用周囲監視装置においては、周辺監視機能および後側方監視機能がそれぞれ複数ある例を示したが、周辺監視機能および後側方監視機能はそれぞれ1つ以上であればよい。 The video processing method performed by the input video processing unit 7 may be a video processing method other than the above-mentioned method. The input video processing unit 7 outputs the result of performing video processing on the input video as video processing result information. The video processing result information is information obtained as a result of video processing, and is, for example, information on whether or not the own vehicle may collide with a pedestrian, a vehicle, a two-wheeled vehicle, an obstacle, or the like. Further, in the vehicle surroundings monitoring device of the present embodiment, an example in which there are a plurality of peripheral monitoring functions and a plurality of rear side monitoring functions are shown, but the peripheral monitoring function and the rear side monitoring function may be one or more each. Just do it.

本実施の形態の車両用周囲監視装置1には、映像出力判定部8、警報出力判定部9および車両制御判定部10の少なくとも1つが含まれていてもよい。映像出力判定部8、警報出力判定部9および車両制御判定部10には、監視機能選択部5から出力された映像処理情報、および入力映像処理部7から出力された映像処理結果情報が通知される。また、映像出力判定部8には、映像処理結果情報に加えて、入力映像処理部7で入力映像に対して映像処理されたドライバ向け表示映像も送られる。また、警報出力判定部9および車両制御判定部10には、車両状況通知部11からCAN情報も通知される。 The vehicle surroundings monitoring device 1 of the present embodiment may include at least one of a video output determination unit 8, an alarm output determination unit 9, and a vehicle control determination unit 10. The video output determination unit 8, the alarm output determination unit 9, and the vehicle control determination unit 10 are notified of the video processing information output from the monitoring function selection unit 5 and the video processing result information output from the input video processing unit 7. To. Further, in addition to the video processing result information, the video output determination unit 8 also sends the display video for the driver, which has been video-processed for the input video by the input video processing unit 7. Further, the warning output determination unit 9 and the vehicle control determination unit 10 are also notified of CAN information from the vehicle status notification unit 11.

映像出力判定部8は、監視機能選択部5から通知された映像処理情報と入力映像処理部7から通知された映像処理結果情報とに基づいて映像表示の要否を判定する。そして、映像出力判定部8は、映像表示が必要と判定した場合は入力映像処理部7から送られてきたドライバ向け表示映像を映像出力部14に表示する。例えば、映像処理情報が周辺監視映像処理方法の場合、映像出力判定部8は入力映像処理部7で生成された車両の周辺360°を見渡せる俯瞰映像を映像出力部14に表示する。一方、映像処理情報が後側方監視映像処理方法の場合、映像出力判定部8は映像出力部14に映像を表示する必要はないと判定する。 The video output determination unit 8 determines the necessity of video display based on the video processing information notified from the monitoring function selection unit 5 and the video processing result information notified from the input video processing unit 7. Then, when the video output determination unit 8 determines that the video display is necessary, the video output unit 14 displays the display video for the driver sent from the input video processing unit 7. For example, when the video processing information is a peripheral monitoring video processing method, the video output determination unit 8 displays a bird's-eye view video generated by the input video processing unit 7 overlooking 360 ° around the vehicle on the video output unit 14. On the other hand, when the video processing information is the rear side monitoring video processing method, the video output determination unit 8 determines that it is not necessary to display the video on the video output unit 14.

警報出力判定部9は、車両状況通知部11から通知されたCAN情報と、監視機能選択部5から通知された映像処理情報と、入力映像処理部7から通知された映像処理結果情報とに基づいて警報出力の要否を判定する。そして、警報出力判定部9は、警報出力が必要と判定した場合は警報出力方法を決定して警報出力部15に通知する。例えば、映像処理情報が周辺監視映像処理方法の場合、警報出力判定部9は映像処理結果情報に基づいて車両周辺または後方に障害物が存在し自車と接触する可能性があると判定したとする。このとき警報出力判定部9は、警報出力部15に対してブザーなどによる警報音の出力、または座席あるいはハンドルを振動させる警報振動の出力を通知する。 The alarm output determination unit 9 is based on the CAN information notified from the vehicle status notification unit 11, the video processing information notified from the monitoring function selection unit 5, and the video processing result information notified from the input video processing unit 7. To determine the necessity of alarm output. Then, when the alarm output determination unit 9 determines that the alarm output is necessary, it determines the alarm output method and notifies the alarm output unit 15. For example, when the video processing information is the peripheral monitoring video processing method, the alarm output determination unit 9 determines that there is an obstacle around or behind the vehicle and may come into contact with the own vehicle based on the video processing result information. do. At this time, the alarm output determination unit 9 notifies the alarm output unit 15 of the output of an alarm sound by a buzzer or the like, or the output of an alarm vibration that vibrates the seat or the steering wheel.

一方、映像処理情報が後側方監視映像処理方法の場合、警報出力判定部9は映像処理結果情報に基づいて後側方に近接車両が存在すると判定したとする。このとき警報出力判定部9は、例えば左右のサイドミラー近傍に設置されたLEDなどのインジケータを点灯するように警報出力部15に通知を行う。このようにすることで、警報出力部15は後側方の障害物の存在を視覚情報によりドライバに伝達し、車線変更を行うときの注意喚起を行うことができる。さらに、視覚情報による注意喚起を行った状態において、近接車両が存在する隣接走行車線側へ車線変更を行うためにドライバがハンドルを操作したりウィンカを操作したりした場合、警報出力判定部9は、ブザーなどによる警報音の出力、および座席あるいはハンドルを振動させる警報振動の出力を警報出力部15に通知する。このようにすることで、警報出力判定部9は、視覚情報に加えて聴覚情報および触覚情報による注意喚起を行うことができる。なお、警報方法については、他の方法でもよい。 On the other hand, when the video processing information is the rear side monitoring video processing method, it is assumed that the alarm output determination unit 9 determines that a nearby vehicle exists on the rear side based on the video processing result information. At this time, the alarm output determination unit 9 notifies the alarm output unit 15 so as to light an indicator such as an LED installed near the left and right side mirrors, for example. By doing so, the alarm output unit 15 can transmit the presence of an obstacle on the rear side to the driver by visual information and alert the driver when changing lanes. Further, when the driver operates the steering wheel or the winker in order to change the lane to the adjacent traveling lane side where the nearby vehicle exists in the state where the attention is given by the visual information, the warning output determination unit 9 sets the alarm output determination unit 9. , The output of the alarm sound by a buzzer or the like, and the output of the alarm vibration that vibrates the seat or the handle are notified to the alarm output unit 15. By doing so, the alarm output determination unit 9 can call attention by auditory information and tactile information in addition to visual information. The alarm method may be another method.

車両制御判定部10は、車両状況通知部11から通知されたCAN情報と、監視機能選択部5から通知された映像処理情報と、入力映像処理部7から通知された映像処理結果情報とに基づいて車両制御の要否を判定する。そして、車両制御判定部10は、車両制御が必要と判定した場合は車両制御方法および車両制御量を決定して車両制御部16に通知する。例えば、映像処理情報が周辺監視映像処理方法の場合、車両制御判定部10は映像処理結果情報から車両周辺または後方に障害物が存在し自車と接触する可能性があると判定したとする。このとき車両制御判定部10は、接触を回避するようにブレーキ制御量を決定して車両制御部16に通知する。または、車両制御判定部10は映像処理結果情報から駐車枠線に沿わせて自車を自動駐車させると判定したとする。このとき車両制御判定部10は、駆動量およびハンドル操舵量を決定して車両制御部16に通知する。一方、映像処理情報が後側方監視映像処理方法の場合、車両制御判定部10は映像処理結果情報から後側方に近接車両が存在し進路変更しては接触の可能性があると判定したとする。このとき車両制御判定部10は、接触を回避するようにハンドル操舵量およびブレーキ制御量を決定して車両制御部16に通知する。 The vehicle control determination unit 10 is based on the CAN information notified from the vehicle status notification unit 11, the video processing information notified from the monitoring function selection unit 5, and the video processing result information notified from the input video processing unit 7. To determine the necessity of vehicle control. Then, when the vehicle control determination unit 10 determines that vehicle control is necessary, the vehicle control method and the vehicle control amount are determined and notified to the vehicle control unit 16. For example, when the video processing information is the peripheral monitoring video processing method, it is assumed that the vehicle control determination unit 10 determines from the video processing result information that an obstacle exists around or behind the vehicle and may come into contact with the own vehicle. At this time, the vehicle control determination unit 10 determines the brake control amount so as to avoid contact and notifies the vehicle control unit 16. Alternatively, it is assumed that the vehicle control determination unit 10 determines from the video processing result information that the vehicle is automatically parked along the parking frame line. At this time, the vehicle control determination unit 10 determines the drive amount and the steering wheel steering amount and notifies the vehicle control unit 16. On the other hand, when the video processing information is the rear side monitoring video processing method, the vehicle control determination unit 10 determines from the video processing result information that there is a nearby vehicle on the rear side and there is a possibility of contact if the course is changed. And. At this time, the vehicle control determination unit 10 determines the steering wheel steering amount and the brake control amount so as to avoid contact, and notifies the vehicle control unit 16.

映像出力部14は、例えばカーナビゲーションシステムのモニタ、インストルメントパネル、バックミラーモニタなどであり、映像出力判定部8から映像処理された入力映像が送られてきた場合にその入力映像を表示する。警報出力部15は、警報出力判定部9から通知された警報出力情報に基づいて、ブザー、LED、座席、ハンドルなどを用いた必要な警報を出力する。車両制御部16は、例えばエレクトロニックコントロールユニットなどであり、車両制御判定部10から通知された車両制御方法および車両制御量に基づいて駆動制御、ハンドル制御、ブレーキ制御などを行う。 The video output unit 14 is, for example, a monitor of a car navigation system, an instrument panel, a rear-view mirror monitor, or the like, and displays the input video when the video-processed input video is sent from the video output determination unit 8. The alarm output unit 15 outputs a necessary alarm using a buzzer, LED, seat, steering wheel, etc., based on the alarm output information notified from the alarm output determination unit 9. The vehicle control unit 16 is, for example, an electronic control unit or the like, and performs drive control, steering wheel control, brake control, and the like based on the vehicle control method and the vehicle control amount notified from the vehicle control determination unit 10.

なお、図1に示すように、車両状況判定部4、監視機能選択部5、入力映像処理部7、映像出力判定部8、警報出力判定部9および車両制御判定部10は、1つのCPU(Central Processing Unit)17に集積されていることが好ましい。これらの構成要素が1つのCPU17に集積されることで、構成要素間のデータの伝達時間が短くなる。 As shown in FIG. 1, the vehicle status determination unit 4, the monitoring function selection unit 5, the input video processing unit 7, the video output determination unit 8, the alarm output determination unit 9, and the vehicle control determination unit 10 are one CPU ( It is preferable that it is integrated in Central Processing Unit) 17. By integrating these components in one CPU 17, the data transmission time between the components is shortened.

次に、本実施の形態の車両用周囲監視装置における車両用周囲監視方法を説明する。図5および図6は、本実施の形態における車両用周囲監視方法のフローチャートである。図5のフローチャートと図6のフローチャートとは、図5および図6に示したAおよびBの箇所でそれぞれ繋がった1つのフローチャートである。 Next, a vehicle surroundings monitoring method in the vehicle surroundings monitoring device of the present embodiment will be described. 5 and 6 are flowcharts of the vehicle surroundings monitoring method according to the present embodiment. The flowchart of FIG. 5 and the flowchart of FIG. 6 are one flowchart connected at the points A and B shown in FIGS. 5 and 6, respectively.

図5のステップS1において、車両のキーがオンにされる。次にステップS2において、車両状況判定部4は、車両状況通知部11からCAN情報を取得する。次にステップS3において、車両状況判定部4は、車両位置情報通知部12のGPSから得られる経緯度情報と地図データベースから得られる地図情報とを取得する。次にステップS4において、監視機能選択部5は、ドライバ指示情報通知部13からドライバ指示情報を取得する。次にステップS5において、車両状況判定部4は、取得したCAN情報、経緯度情報および地図情報から自車の現在地および自車の走行方向並びに車速などの走行状態を含む自車の車両状況を判定する。車両状況判定部4は、判定した車両状況を監視機能選択部5に通知する。 In step S1 of FIG. 5, the vehicle key is turned on. Next, in step S2, the vehicle status determination unit 4 acquires CAN information from the vehicle status notification unit 11. Next, in step S3, the vehicle condition determination unit 4 acquires the latitude and longitude information obtained from the GPS of the vehicle position information notification unit 12 and the map information obtained from the map database. Next, in step S4, the monitoring function selection unit 5 acquires the driver instruction information from the driver instruction information notification unit 13. Next, in step S5, the vehicle condition determination unit 4 determines the vehicle condition of the own vehicle including the current location of the own vehicle, the traveling direction of the own vehicle, and the traveling state such as the vehicle speed from the acquired CAN information, latitude and longitude information, and map information. do. The vehicle condition determination unit 4 notifies the monitoring function selection unit 5 of the determined vehicle condition.

ステップS6において、監視機能選択部5は、車両状況判定部4から通知された自車の車両状況とドライバ指示情報通知部13から通知されたドライバ指示情報とに基づいて、1つまたは複数の周辺監視機能および1つまたは複数の後側方監視機能の中の1つまたは複数を選択監視機能として選択する。また、監視機能選択部5は、その選択監視機能に対応した入力映像および映像処理方法を決定する。さらに、監視機能選択部5は、決定した入力映像を入力映像取得部6へ通知すると共に、決定した映像処理方法を入力映像処理部7に通知する。また、監視機能選択部5は、決定した映像処理方法に関する映像処理情報を映像出力判定部8、警報出力判定部9および車両制御判定部10に通知する。 In step S6, the monitoring function selection unit 5 has one or a plurality of peripherals based on the vehicle status of the own vehicle notified from the vehicle condition determination unit 4 and the driver instruction information notified from the driver instruction information notification unit 13. Select one or more of the monitoring function and one or more rear side monitoring functions as the selective monitoring function. Further, the monitoring function selection unit 5 determines the input video and the video processing method corresponding to the selection monitoring function. Further, the monitoring function selection unit 5 notifies the input video acquisition unit 6 of the determined input video, and also notifies the input video processing unit 7 of the determined video processing method. Further, the monitoring function selection unit 5 notifies the video output determination unit 8, the alarm output determination unit 9, and the vehicle control determination unit 10 of the video processing information regarding the determined video processing method.

ステップS6において監視機能選択部5が選択監視機能として周辺監視機能を選択した場合、ステップS7において、入力映像取得部6は、入力映像を切り替えて周辺監視カメラ2から周辺監視映像を取得する。そして、入力映像取得部6は、取得した周辺監視映像を入力映像として入力映像処理部7へ送る。ステップS8において、入力映像処理部7は、入力映像取得部6から送られてきた入力映像に対して監視機能選択部5において映像処理方法として決定された周辺監視映像処理方法を用いて映像処理を行う。そして、入力映像処理部7は、映像処理を行った入力映像に関する映像処理結果情報を映像出力判定部8、警報出力判定部9および車両制御判定部10に通知する。 When the monitoring function selection unit 5 selects the peripheral monitoring function as the selection monitoring function in step S6, the input video acquisition unit 6 switches the input video and acquires the peripheral monitoring video from the peripheral monitoring camera 2 in step S7. Then, the input video acquisition unit 6 sends the acquired peripheral monitoring video as an input video to the input video processing unit 7. In step S8, the input video processing unit 7 performs video processing on the input video sent from the input video acquisition unit 6 by using the peripheral monitoring video processing method determined as the video processing method by the monitoring function selection unit 5. conduct. Then, the input video processing unit 7 notifies the video output determination unit 8, the alarm output determination unit 9, and the vehicle control determination unit 10 of the video processing result information regarding the input video that has undergone video processing.

ステップS6において監視機能選択部5が選択監視機能として後側方監視機能を選択した場合、ステップS9において、入力映像取得部6は、入力映像を切り替えて後側方監視カメラ3から後側方監視映像を取得する。そして、入力映像取得部6は、取得した後側方監視映像を入力映像として入力映像処理部7へ送る。ステップS10において、入力映像処理部7は、入力映像取得部6から送られてきた入力映像に対して監視機能選択部5において映像処理方法として決定された後側方映像処理方法を用いて映像処理を行う。そして、入力映像処理部7は、映像処理を行った入力映像に関する映像処理結果情報を映像出力判定部8、警報出力判定部9および車両制御判定部10に通知する。 When the monitoring function selection unit 5 selects the rear side monitoring function as the selection monitoring function in step S6, in step S9, the input video acquisition unit 6 switches the input video and monitors the rear side from the rear side monitoring camera 3. Get the video. Then, the input video acquisition unit 6 sends the acquired rear side monitoring video as an input video to the input video processing unit 7. In step S10, the input video processing unit 7 processes the input video sent from the input video acquisition unit 6 by using the rear side video processing method determined by the monitoring function selection unit 5 as the video processing method. I do. Then, the input video processing unit 7 notifies the video output determination unit 8, the alarm output determination unit 9, and the vehicle control determination unit 10 of the video processing result information regarding the input video that has undergone video processing.

ステップS11において、映像出力判定部8は、映像処理情報と映像処理結果情報とに基づいて入力映像処理部7で映像処理された入力映像を出力する必要があるか否かを判定する。ステップS11において映像表示が必要と判定された場合は(YES)、映像出力判定部8は映像出力情報を映像出力部14に通知する。ステップS12において、映像出力部14は必要な映像を表示する。ステップS11において、映像表示が不要と判定された場合は(NO)、ステップS13に進む。 In step S11, the video output determination unit 8 determines whether or not it is necessary to output the input video processed by the input video processing unit 7 based on the video processing information and the video processing result information. If it is determined in step S11 that video display is necessary (YES), the video output determination unit 8 notifies the video output unit 14 of the video output information. In step S12, the video output unit 14 displays a necessary video. If it is determined in step S11 that the video display is unnecessary (NO), the process proceeds to step S13.

図6のステップS13において、警報出力判定部9は、CAN情報と映像処理情報と映像処理結果情報とに基づいて警報を出力する必要があるか否かを判定する。ステップS13において警報出力が必要と判定された場合は(YES)、警報出力判定部9はステップS14において警報出力方法を決定し、警報出力部15に通知する。ステップS15において、警報出力部15は、警報出力判定部9から通知された警報出力方法に基づいて警報を出力する。ステップS13において、警報出力が不要と判定された場合は(NO)、ステップS16に進む。 In step S13 of FIG. 6, the alarm output determination unit 9 determines whether or not it is necessary to output an alarm based on the CAN information, the video processing information, and the video processing result information. If it is determined in step S13 that the alarm output is necessary (YES), the alarm output determination unit 9 determines the alarm output method in step S14 and notifies the alarm output unit 15. In step S15, the alarm output unit 15 outputs an alarm based on the alarm output method notified from the alarm output determination unit 9. If it is determined in step S13 that the alarm output is unnecessary (NO), the process proceeds to step S16.

ステップS16において、車両制御判定部10は、CAN情報と映像処理情報と映像処理結果情報とに基づいて車両制御が必要か否かを判定する。ステップS16において、車両制御が必要と判定された場合は(YES)、車両制御判定部10はステップS17において車両制御方法を決定すると共に、ステップS18において車両制御量を決定し、それらを車両制御部16に通知する。ステップS19において、車両制御部16は、車両制御判定部10から通知された車両制御方法および車両制御量に基づいて車両を制御する。ステップS16において、車両制御が不要と判定された場合は(NO)、ステップS20に進む。 In step S16, the vehicle control determination unit 10 determines whether or not vehicle control is necessary based on the CAN information, the video processing information, and the video processing result information. If it is determined in step S16 that vehicle control is necessary (YES), the vehicle control determination unit 10 determines the vehicle control method in step S17, determines the vehicle control amount in step S18, and uses them as the vehicle control unit. Notify 16. In step S19, the vehicle control unit 16 controls the vehicle based on the vehicle control method and the vehicle control amount notified from the vehicle control determination unit 10. If it is determined in step S16 that vehicle control is unnecessary (NO), the process proceeds to step S20.

ステップS20において、キーがオフされたか否かを判定する。キーがオフされた場合は(YES)、一連の車両用周囲監視方法を終了する。キーがオフされていない場合は(NO)、ステップS2に戻る。 In step S20, it is determined whether or not the key has been turned off. If the key is turned off (YES), the series of vehicle surrounding monitoring methods is terminated. If the key is not turned off (NO), the process returns to step S2.

なお、車両状況判定部4は、ステップS3において車両位置情報通知部12から経緯度情報と地図情報とを取得し、ステップS5において経緯度情報および地図情報から自車の現在地を判定しているが、ステップS3において車両位置情報通知部12から自車の現在地を直接取得することもできる。 The vehicle status determination unit 4 acquires latitude and longitude information and map information from the vehicle position information notification unit 12 in step S3, and determines the current location of the own vehicle from the latitude and longitude information and map information in step S5. , It is also possible to directly acquire the current location of the own vehicle from the vehicle position information notification unit 12 in step S3.

また、ステップS11からステップS12に示した映像出力判定部8に係る動作、ステップS13からステップS15に示した警報出力判定部9に係る動作、およびステップS16からステップS19に示した車両制御判定部10に係る動作の順番は入れ替わってもよい。 Further, the operation related to the video output determination unit 8 shown in steps S11 to S12, the operation related to the alarm output determination unit 9 shown in steps S13 to S15, and the vehicle control determination unit 10 shown in steps S16 to S19. The order of the operations related to the above may be changed.

このように構成された車両用周囲監視装置においては、周辺監視カメラ装置と後側方監視カメラ装置とを1台の車両に搭載した場合でも監視機能選択部が1つまたは複数の周辺監視機能および1つまたは複数の後側方監視機能の中の1つまたは複数を選択監視機能として選択し、さらにその選択監視機能に対応した入力映像および映像処理方法を決定しているので、入力映像処理部を共通化して1つの装置に統合することができる。その結果、車両用周囲監視装置が大型になることを抑制できる。また、入力映像処理部を共通化し、自車の車両状況に応じて、適切に映像処理を切り替えることにより、演算処理の処理負荷が低減するので、入力映像処理部のチップ単価を抑制することもできる。 In the vehicle surroundings monitoring device configured in this way, even if the peripheral monitoring camera device and the rear side monitoring camera device are mounted on one vehicle, the monitoring function selection unit has one or more peripheral monitoring functions and a plurality of peripheral monitoring functions. Since one or more of the one or more rear side monitoring functions are selected as the selection monitoring function, and the input video and the video processing method corresponding to the selection monitoring function are determined, the input video processing unit. Can be standardized and integrated into one device. As a result, it is possible to prevent the vehicle surroundings monitoring device from becoming large. In addition, by standardizing the input video processing unit and appropriately switching the video processing according to the vehicle conditions of the own vehicle, the processing load of the arithmetic processing is reduced, so that the chip unit price of the input video processing unit can be suppressed. can.

また、監視機能選択部5が自車の車両状況に基づいて複数の周辺監視機能および複数の後側方監視機能の中の1つまたは複数を選択監視機能として選択し、選択監視機能に応じて、入力映像と映像処理とを切り替えているので、この車両用周囲監視装置はより適切な周囲監視を行うことができる。例えば監視機能選択部5は高速走行時には後側方監視機能を選択し、低速走行時には周辺監視機能を選択してもよい。しかし、ドライバが車道に停止した状態から走行を開始しようとする場合、ドライバは後方の走行車両を確認するために後側方監視機能を使用したい場合がある。本実施の形態の車両用周囲監視装置においては、車両位置情報通知部から通知される情報に基づいて自車の現在地が車道であるのか駐車場であるのか、それともそれ以外の場所に位置するのかを判定することができる。そのため、監視機能選択部5は、低速走行であっても自車の位置が車道である場合は後側方監視機能を自動で選択することができる。その結果、車道に停止した状態から走行を開始しようとする場合に後側方監視機能が自動的に作動する。 Further, the monitoring function selection unit 5 selects one or more of the plurality of peripheral monitoring functions and the plurality of rear side monitoring functions as the selection monitoring function based on the vehicle condition of the own vehicle, and according to the selection monitoring function. Since the input video and the video processing are switched, this vehicle surroundings monitoring device can perform more appropriate surrounding monitoring. For example, the monitoring function selection unit 5 may select the rear side monitoring function when traveling at high speed and the peripheral monitoring function when traveling at low speed. However, if the driver tries to start driving from a state of being stopped on the roadway, the driver may want to use the rear side monitoring function to check the traveling vehicle behind. In the vehicle surroundings monitoring device of the present embodiment, whether the current location of the own vehicle is a roadway, a parking lot, or a location other than that based on the information notified from the vehicle position information notification unit. Can be determined. Therefore, the monitoring function selection unit 5 can automatically select the rear side monitoring function when the position of the own vehicle is on the roadway even when traveling at low speed. As a result, the rear side monitoring function is automatically activated when the vehicle is about to start traveling from a state of being stopped on the roadway.

また、例えば監視機能選択部5はギアが後退ギアに設定されているときには周辺監視機能を選択し、ギアが後退ギア以外に設定されているときは後側方監視機能を選択してもよい。しかし、ドライバは必ずしも後退で駐車するとは限らない。ドライバが前方へ進みながら駐車枠線に沿わせて駐車する場合、ドライバは周辺の障害物などを確認するために周辺監視機能を使用したい場合がある。本実施の形態の車両用周囲監視装置においては、車両位置情報通知部から通知される情報に基づいて自車の現在地が車道であるのか駐車場であるのか、それともそれ以外の場所に位置するのかを判定することができる。そのため、監視機能選択部5は、ギアが後退ギア以外に設定されていても自車の位置が駐車場である場合は周辺監視機能を自動で選択することができる。その結果、前方へ進みながら駐車枠線に沿わせて駐車する場合に周辺監視機能が自動的に作動する。 Further, for example, the monitoring function selection unit 5 may select the peripheral monitoring function when the gear is set to the reverse gear, and may select the rear side monitoring function when the gear is set to a gear other than the reverse gear. However, the driver does not always park in the retreat. When the driver parks along the parking frame while moving forward, the driver may want to use the peripheral monitoring function to check for obstacles in the vicinity. In the vehicle surroundings monitoring device of the present embodiment, whether the current location of the own vehicle is a roadway, a parking lot, or a location other than that based on the information notified from the vehicle position information notification unit. Can be determined. Therefore, the monitoring function selection unit 5 can automatically select the peripheral monitoring function when the position of the own vehicle is a parking lot even if the gear is set to a gear other than the reverse gear. As a result, the peripheral monitoring function is automatically activated when parking along the parking frame line while moving forward.

本実施の形態において、周辺監視カメラ2と後側方監視カメラ3とはそれぞれ別のカメラで構成しているが、撮像領域が広いカメラであれば一部のカメラは同じカメラであってもよい。同じカメラで撮像された映像であっても、入力映像処理部は、監視機能選択部で決定された映像処理方法を用いて映像処理することで、その映像を周辺監視映像または後側方監視映像として適切に処理することができる。 In the present embodiment, the peripheral surveillance camera 2 and the rear side surveillance camera 3 are configured by different cameras, but some cameras may be the same camera as long as the camera has a wide imaging area. .. Even if the video is captured by the same camera, the input video processing unit processes the video using the video processing method determined by the monitoring function selection unit, and the video is processed into peripheral surveillance video or rear side surveillance video. Can be processed appropriately.

なお、本実施の形態において、監視機能選択部は周辺監視機能および後側方監視機能の中から選択監視機能を選択しているが、それ以外の監視機能を選択してもよい。例えば、それ以外の監視機能は、前方を走行する車両を監視して追突を防止するための前方監視機能などである。 In the present embodiment, the monitoring function selection unit selects the selection monitoring function from the peripheral monitoring function and the rear side monitoring function, but other monitoring functions may be selected. For example, other monitoring functions include a front monitoring function for monitoring a vehicle traveling in front and preventing a rear-end collision.

なお、車両状況判定部4、監視機能選択部5、入力映像処理部7、映像出力判定部8、警報出力判定部9および車両制御判定部10は、CPU17に集積されていることが好ましい。このCPU17の一例を図7に示す。このCPU17は、プロセッサ100と記憶装置101とから構成される。記憶装置は図示していないが、ランダムアクセスメモリなどの揮発性記憶装置と、フラッシュメモリなどの不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ100は、記憶装置101から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ100にプログラムが入力される。また、プロセッサ100は、演算結果などのデータを記憶装置101の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。 The vehicle status determination unit 4, the monitoring function selection unit 5, the input video processing unit 7, the video output determination unit 8, the alarm output determination unit 9, and the vehicle control determination unit 10 are preferably integrated in the CPU 17. An example of this CPU 17 is shown in FIG. The CPU 17 includes a processor 100 and a storage device 101. Although the storage device is not shown, it includes a volatile storage device such as a random access memory and a non-volatile auxiliary storage device such as a flash memory. Further, the auxiliary storage device of the hard disk may be provided instead of the flash memory. The processor 100 executes the program input from the storage device 101. In this case, a program is input from the auxiliary storage device to the processor 100 via the volatile storage device. Further, the processor 100 may output data such as a calculation result to the volatile storage device of the storage device 101, or may store the data in the auxiliary storage device via the volatile storage device.

本願は、様々な例示的な実施の形態が記載されているが、1つまたは複数の実施の形態に記載された様々な特徴、態様、および機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
したがって、例示されていない無数の変形例が、本願に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
Although the present application describes various exemplary embodiments, the various features, embodiments, and functions described in one or more embodiments are limited to the application of the particular embodiment. Rather, it can be applied to embodiments alone or in various combinations.
Therefore, innumerable variations not exemplified are envisioned within the scope of the techniques disclosed in the present application. For example, it is assumed that at least one component is modified, added or omitted, and further, at least one component is extracted and combined with the components of other embodiments.

1 車両用周囲監視装置、2 周辺監視カメラ、3 後側方監視カメラ、4 車両状況判定部、5 監視機能選択部、6 入力映像取得部、7 入力映像処理部、8 映像出力判定部、9 警報出力判定部、10 車両制御判定部、11 車両状況通知部、12 車両位置情報通知部、13 ドライバ指示情報通知部、14 映像出力部、15 警報出力部、16 車両制御部、17 CPU、18 車両、19、20 撮像範囲、21 フロントカメラ、22 右サイドカメラ、23 左サイドカメラ、24 リアカメラ、25 駐車枠線、26 他の車両、27 白線、28 後続車、31 後右サイドカメラ、32 後左サイドカメラ、100 プロセッサ、101 記憶装置。 1 Vehicle surroundings monitoring device, 2 Peripheral monitoring camera, 3 Rear side monitoring camera, 4 Vehicle status judgment unit, 5 Monitoring function selection unit, 6 Input video acquisition unit, 7 Input video processing unit, 8 Video output judgment unit, 9 Alarm output judgment unit, 10 vehicle control judgment unit, 11 vehicle status notification unit, 12 vehicle position information notification unit, 13 driver instruction information notification unit, 14 video output unit, 15 alarm output unit, 16 vehicle control unit, 17 CPU, 18 Vehicle, 19, 20 Imaging range, 21 Front camera, 22 Right side camera, 23 Left side camera, 24 Rear camera, 25 Parking border, 26 Other vehicles, 27 White line, 28 Following vehicle, 31 Rear right side camera, 32 Rear left side camera, 100 processors, 101 storage devices.

Claims (6)

周辺監視映像を撮像する周辺監視カメラと、
後側方監視映像を撮像する後側方監視カメラと、
自車の経緯度情報および地図情報に基づいて前記自車の位置判定する車両状況判定部と、
この車両状況判定部で判定された前記自車の位置に基づいて1つまたは複数の周辺監視機能および1つまたは複数の後側方監視機能の中の1つまたは複数を選択監視機能として選択し、前記選択監視機能が前記周辺監視機能である場合は前記周辺監視映像を入力映像として決定し、前記選択監視機能が前記後側方監視機能である場合は前記後側方監視映像を前記入力映像として決定すると共に、前記選択監視機能に対応する映像処理方法を決定する監視機能選択部と、
この監視機能選択部で決定された前記入力映像を前記周辺監視カメラおよび前記後側方監視カメラのいずれか一方から取得する入力映像取得部と、
この入力映像取得部で取得された前記入力映像に前記監視機能選択部で決定された前記映像処理方法で映像処理を行う入力映像処理部とを備えた車両用周囲監視装置であって、
前記車両状況判定部は前記自車の現在地を判定し、前記車両状況判定部が前記自車の現在地が駐車場であると判定した場合、前記監視機能選択部は、前記周辺監視機能を前記選択監視機能として選択し、前記車両状況判定部が前記自車の現在地が車道であると判定した場合、前記監視機能選択部は、前記後側方監視機能を前記選択監視機能として選択することを特徴とする車両用周囲監視装置。
Peripheral surveillance cameras that capture peripheral surveillance images and peripheral surveillance cameras
A posterior surveillance camera that captures posterior surveillance video,
A vehicle condition determination unit that determines the position of the own vehicle based on the latitude and longitude information and map information of the own vehicle, and
One or more of one or more peripheral monitoring functions and one or more rear side monitoring functions are selected as the selection monitoring function based on the position of the own vehicle determined by the vehicle condition determination unit. If the selective monitoring function is the peripheral monitoring function, the peripheral monitoring image is determined as an input image, and if the selective monitoring function is the rear side monitoring function, the rear side monitoring image is used as the input image. A monitoring function selection unit that determines the video processing method corresponding to the selection monitoring function, and a monitoring function selection unit.
An input video acquisition unit that acquires the input video determined by the monitoring function selection unit from either the peripheral surveillance camera or the rear side surveillance camera, and the input video acquisition unit.
A vehicle surroundings monitoring device including an input video processing unit that performs video processing on the input video acquired by the input video acquisition unit by the video processing method determined by the monitoring function selection unit.
When the vehicle condition determination unit determines the current location of the own vehicle and the vehicle condition determination unit determines that the current location of the own vehicle is a parking lot, the monitoring function selection unit selects the peripheral monitoring function. When selected as a monitoring function and the vehicle condition determination unit determines that the current location of the own vehicle is a roadway, the monitoring function selection unit is characterized in that the rear side monitoring function is selected as the selection monitoring function. Peripheral monitoring device for vehicles.
前記監視機能選択部から通知される映像処理情報と前記入力映像処理部から通知される映像処理結果情報とに基づいて前記入力映像処理部で映像処理された前記入力映像を出力するか否かを判定する映像出力判定部をさらに備えたことを特徴とする請求項1に記載の車両用周囲監視装置。 Whether or not to output the input video processed by the input video processing unit based on the video processing information notified from the monitoring function selection unit and the video processing result information notified from the input video processing unit. The vehicle surroundings monitoring device according to claim 1, further comprising a video output determination unit for determination. 前記監視機能選択部から通知される映像処理情報と前記入力映像処理部から通知される映像処理結果情報とに基づいて警報を出力するか否かを判定する警報出力判定部をさらに備えたことを特徴とする請求項1または2に記載の車両用周囲監視装置。 Further provided with an alarm output determination unit for determining whether or not to output an alarm based on the video processing information notified from the monitoring function selection unit and the video processing result information notified from the input video processing unit. The vehicle surrounding monitoring device according to claim 1 or 2. 前記監視機能選択部から通知される映像処理情報と前記入力映像処理部から通知される映像処理結果情報とに基づいて車両制御を行うか否かを判定する車両制御判定部をさらに備えたことを特徴とする請求項1から3のいずれか1項に記載の車両用周囲監視装置。 Further provided with a vehicle control determination unit for determining whether or not to perform vehicle control based on the video processing information notified from the monitoring function selection unit and the video processing result information notified from the input video processing unit. The vehicle peripheral monitoring device according to any one of claims 1 to 3. 前記監視機能選択部は、ドライバ指示情報が通知された場合、前記車両状況判定部で判定された前記自車の車両状況よりも前記ドライバ指示情報を優先して前記選択監視機能を選択することを特徴とする請求項1から4のいずれか1項に記載の車両用周囲監視装置。 When the driver instruction information is notified, the monitoring function selection unit selects the selection monitoring function by giving priority to the driver instruction information over the vehicle condition of the own vehicle determined by the vehicle condition determination unit. The vehicle surrounding monitoring device according to any one of claims 1 to 4, which is characterized. 自車の経緯度情報および地図情報に基づいて前記自車の位置判定する車両状況判定ステップと、
この車両状況判定ステップで判定された前記自車の位置に基づいて1つまたは複数の周辺監視機能および1つまたは複数の後側方監視機能の中のいずれか1つまたは複数を選択監視機能として選択し、前記選択監視機能に基づいて周辺監視映像および後側方監視映像のいずれか一方を入力映像として決定すると共に、前記選択監視機能に対応する映像処理方法を決定する監視機能選択ステップと、
この監視機能選択ステップで決定された前記入力映像を周辺監視カメラおよび後側方監視カメラのいずれか一方から取得する入力映像取得ステップと、
この入力映像取得ステップで取得された前記入力映像に前記監視機能選択ステップで決定された前記映像処理方法で映像処理を行う入力映像処理ステップとを備えた車両用周囲監視方法であって、
前記車両状況判定ステップにおいて前記自車の現在地を判定し、前記車両状況判定ステップにおいて前記自車の現在地が駐車場であると判定した場合、前記監視機能選択ステップにおいて前記周辺監視機能を前記選択監視機能として選択し、前記車両状況判定ステップにおいて前記自車の現在地が車道であると判定した場合、前記監視機能選択ステップにおいて前記後側方監視機能を前記選択監視機能として選択することを特徴とする車両用周囲監視方法。
A vehicle condition determination step for determining the position of the own vehicle based on the latitude and longitude information and map information of the own vehicle, and
One or more of the one or more peripheral monitoring functions and the one or more rear side monitoring functions based on the position of the own vehicle determined in this vehicle condition determination step is selected as the selective monitoring function. A monitoring function selection step of selecting and determining either a peripheral monitoring image or a rear side monitoring image as an input image based on the selection monitoring function and determining a video processing method corresponding to the selection monitoring function.
An input video acquisition step of acquiring the input video determined in this monitoring function selection step from either a peripheral surveillance camera or a rear side surveillance camera, and
A vehicle surroundings monitoring method including an input video processing step in which video processing is performed on the input video acquired in the input video acquisition step by the video processing method determined in the monitoring function selection step.
When the current location of the own vehicle is determined in the vehicle condition determination step and it is determined in the vehicle condition determination step that the current location of the own vehicle is a parking lot, the peripheral monitoring function is selectively monitored in the monitoring function selection step. It is characterized in that when it is selected as a function and it is determined in the vehicle condition determination step that the current location of the own vehicle is a roadway, the rear side monitoring function is selected as the selection monitoring function in the monitoring function selection step. Vehicle surrounding monitoring method.
JP2019194994A 2019-10-28 2019-10-28 Vehicle surroundings monitoring device and vehicle surroundings monitoring method Active JP6976298B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019194994A JP6976298B2 (en) 2019-10-28 2019-10-28 Vehicle surroundings monitoring device and vehicle surroundings monitoring method
DE102020204957.2A DE102020204957A1 (en) 2019-10-28 2020-04-20 Vehicle environment monitoring device and vehicle environment monitoring method
CN202011139069.4A CN112734981A (en) 2019-10-28 2020-10-22 Vehicle surroundings monitoring device and vehicle surroundings monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019194994A JP6976298B2 (en) 2019-10-28 2019-10-28 Vehicle surroundings monitoring device and vehicle surroundings monitoring method

Publications (2)

Publication Number Publication Date
JP2021069075A JP2021069075A (en) 2021-04-30
JP6976298B2 true JP6976298B2 (en) 2021-12-08

Family

ID=75378913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019194994A Active JP6976298B2 (en) 2019-10-28 2019-10-28 Vehicle surroundings monitoring device and vehicle surroundings monitoring method

Country Status (3)

Country Link
JP (1) JP6976298B2 (en)
CN (1) CN112734981A (en)
DE (1) DE102020204957A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023094007A1 (en) * 2021-11-29 2023-06-01 Zf Cv Systems Global Gmbh Adaptive camera system for a vehicle and vehicle comprising the adaptive camera system and method for operating the adaptive camera system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110177A (en) * 2005-10-10 2007-04-26 Denso Corp Image processing apparatus and program
JP2008279875A (en) * 2007-05-10 2008-11-20 Alpine Electronics Inc Parking support device
CN101442618A (en) * 2008-12-31 2009-05-27 葛晨阳 Method for synthesizing 360 DEG ring-shaped video of vehicle assistant drive
JP5094754B2 (en) * 2009-01-26 2012-12-12 株式会社デンソーアイティーラボラトリ Information providing apparatus, information providing method, and program
JP5035321B2 (en) * 2009-11-02 2012-09-26 株式会社デンソー Vehicle periphery display control device and program for vehicle periphery display control device
CN102145688A (en) * 2010-02-08 2011-08-10 鸿富锦精密工业(深圳)有限公司 Vehicle anti-collision monitoring system and method
CN202573990U (en) * 2012-03-27 2012-12-05 北京汽车股份有限公司 Panoramic image system and vehicle
JP5888164B2 (en) * 2012-07-20 2016-03-16 トヨタ自動車株式会社 Vehicle periphery monitoring device, vehicle periphery monitoring system
CN102806851B (en) * 2012-07-25 2016-08-03 广东好帮手电子科技股份有限公司 The automobile instrument of a kind of band extension driving visual field function and automobile
JP6361988B2 (en) * 2016-05-30 2018-07-25 マツダ株式会社 Vehicle display device
JP6730614B2 (en) * 2017-02-28 2020-07-29 株式会社Jvcケンウッド Vehicle display control device, vehicle display system, vehicle display control method and program
CN108955712A (en) * 2017-05-18 2018-12-07 佛山市顺德区顺达电脑厂有限公司 The method of preview shooting image and more camera lens vehicle-running recording systems

Also Published As

Publication number Publication date
JP2021069075A (en) 2021-04-30
DE102020204957A1 (en) 2021-04-29
CN112734981A (en) 2021-04-30

Similar Documents

Publication Publication Date Title
JP5744352B2 (en) Vehicle periphery display device
JP5895941B2 (en) Image display device and image display method
JP5213063B2 (en) Vehicle display device and display method
JP2006051850A (en) Drive assisting device and drive assisting method
JP2013191050A (en) Vehicle periphery monitoring device
JP2017151606A (en) Inattentiveness/overlooking reminding system and computer program
JP4600999B2 (en) Vehicle perimeter monitoring device
JP2010215027A (en) Driving assistant device for vehicle
KR102199743B1 (en) Driver assistance system and method for providing blind spot image
JP6976298B2 (en) Vehicle surroundings monitoring device and vehicle surroundings monitoring method
JP2013161440A (en) Vehicle surroundings monitoring device
JP2009184557A (en) Vehicle periphery monitor device
JPH1148828A (en) Vehicle circumference monitoring device
JP7073991B2 (en) Peripheral display device for vehicles
JP2008282235A (en) Driving support device, automobile equipped with driving support device and driving support method
JP2005182305A (en) Vehicle travel support device
JP2009129096A (en) Obstacle warning device, obstacle warning method and computer program
JP4449618B2 (en) Vehicle perimeter monitoring system
JP2004051063A (en) Device for visual recognition around vehicle
JP2013146029A (en) Vehicle periphery monitoring device
JP2023102146A (en) Notification device and notification method
JP2009116539A (en) Peripheral monitoring device
JP2007015663A (en) Vehicle monitoring system
JP3206480B2 (en) Perimeter recognition device for vehicles
JP2000261795A (en) Device for monitoring rear and side directions of vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210816

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210816

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210825

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211109

R151 Written notification of patent or utility model registration

Ref document number: 6976298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151