WO2014014095A1 - 車両周辺監視装置、車両周辺監視システム - Google Patents

車両周辺監視装置、車両周辺監視システム Download PDF

Info

Publication number
WO2014014095A1
WO2014014095A1 PCT/JP2013/069675 JP2013069675W WO2014014095A1 WO 2014014095 A1 WO2014014095 A1 WO 2014014095A1 JP 2013069675 W JP2013069675 W JP 2013069675W WO 2014014095 A1 WO2014014095 A1 WO 2014014095A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
camera
information
image
periphery monitoring
Prior art date
Application number
PCT/JP2013/069675
Other languages
English (en)
French (fr)
Inventor
敏朗 疋田
Original Assignee
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ自動車株式会社 filed Critical トヨタ自動車株式会社
Priority to US14/415,898 priority Critical patent/US10046701B2/en
Priority to EP13819778.5A priority patent/EP2876622B1/en
Priority to CN201380038564.8A priority patent/CN104584100B/zh
Publication of WO2014014095A1 publication Critical patent/WO2014014095A1/ja
Priority to US16/037,608 priority patent/US10556541B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/50Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views

Definitions

  • the present invention relates to an apparatus for monitoring the periphery of a vehicle with a camera.
  • a vehicle exterior monitoring system in which a camera is attached outside the vehicle and the blind spot of the driver's seat is monitored from inside the vehicle.
  • the driver can display a monitor image outside the vehicle by pressing a switch, and the driver can travel while checking safety by viewing the image. it can.
  • Switching between display and non-display of the monitor image can be performed by operating the switch, and can also be performed automatically depending on the vehicle speed. For example, an image can be displayed when traveling at a low speed, and can be automatically hidden when the speed is increased.
  • Patent Document 1 it is possible to analyze the acquired image and determine whether or not the monitor display is necessary. However, due to the problem of image recognition accuracy, the monitor display is not performed when necessary. Or the cost of the image recognition apparatus itself is high.
  • the present invention has been made in consideration of the above-mentioned problems, and it is possible to determine that the vehicle is traveling in a place where attention is required for driving, and to automatically display a vehicle exterior image.
  • An object is to provide a device and a vehicle periphery monitoring system.
  • the vehicle periphery monitoring device and the vehicle periphery monitoring device system according to the present invention display a video outside the vehicle by the following means.
  • the vehicle periphery monitoring device is a monitoring device mounted on a vehicle. Specifically, position information acquisition means for acquiring the current position of the vehicle, an in-vehicle camera that images the outside of the vehicle, a display device that presents an image, and a caution point that is recommended for use of the in-vehicle camera Caution point information storage means for storing information related to the vehicle, and control means for performing image display outside the vehicle that outputs an image acquired from the in-vehicle camera to the display device, the control means acquiring the current position The vehicle outside image display is performed when it is determined that there is the caution point in the vicinity of the vehicle.
  • the vehicle determines from the information related to the stored cautionary point and the acquired current position information that the vehicle is traveling in a place where the use of the in-vehicle camera that images the outside of the vehicle is recommended. Display).
  • the information related to the caution point is information that can specify the position of the caution point.
  • the stored information may be, for example, the coordinates of a point of caution, or may be a corresponding area code if map information is included.
  • map information itself may be sufficient.
  • the map information includes information about road connection relationships and shapes, it is possible to extract a place requiring attention for driving as a caution point. With this configuration, it is possible to suppress display of an unnecessary outside image and to reliably display the outside image at a necessary place.
  • the caution point information storage unit may store map information, and the control unit may determine a caution point based on information included in the map information. For example, information on places where attention is required for driving, such as the vicinity of intersections, corners with poor visibility, or places where a narrow road exits a priority road, may be acquired from map information and handled as attention points.
  • the control means may treat a narrow street defined in the map information as an attention point, and the control means treats an intersection defined in the map information as an attention point. Also good.
  • a narrow street refers to a narrow road whose width is a predetermined value or less.
  • the vehicle periphery monitoring device further includes vehicle speed acquisition means for acquiring the speed of the vehicle, and the control means displays the vehicle outside image when the vehicle speed falls below a predetermined value. It may be a feature.
  • the vehicle periphery monitoring device further includes camera point storage means for storing camera point information, which is information indicating a place where the driver has manually displayed the image outside the vehicle, and the control means includes:
  • the outside image display may be performed in consideration of the result of comparing the acquired current position information and the camera point information.
  • the outside image display can be preferentially performed.
  • automatic display can be performed even in a place where it is not possible to determine whether or not to display an image outside the vehicle using information stored in advance, such as a parking lot in a private house.
  • the control means may unconditionally display an image outside the vehicle at a location corresponding to the camera location information, and whether to perform display based on the number of times the location has been passed in the past, the number of times the image has been displayed, or the like. It may be judged.
  • the camera location storage means stores the camera location information in association with the type or display method of the in-vehicle camera used by the driver, and the control means stores the type of information stored in association with the camera location information. It is good also as performing image display outside a vehicle using a vehicle-mounted camera or a display method.
  • the vehicle periphery monitoring system is a vehicle periphery monitoring system including a vehicle and a server device.
  • the vehicle acquires position information acquisition means for acquiring current position information of the vehicle, an in-vehicle camera that images the outside of the vehicle, a display device that presents an image, and the acquired position information to the server device.
  • Server communication means for transmitting, and control means for determining whether or not to perform image display outside the vehicle that outputs an image acquired from the in-vehicle camera to the display device based on information received from the server device.
  • the server device acquires caution point information storage means for storing information related to a caution point that is a place where the use of the in-vehicle camera is recommended, and acquires the position information of the vehicle, and corresponds to the acquired position information.
  • a camera recommendation degree determining means for determining a camera recommendation degree, which is information about a degree at which the use of the in-vehicle camera is recommended at a caution point; a vehicle communication means for transmitting the determined camera recommendation degree to the vehicle;
  • the camera recommendation level is information returned to the vehicle in response to the transmitted position information, and is information indicating how much use of the in-vehicle camera is recommended at the caution point corresponding to the position information.
  • the server device may provide the recommended degree of the in-vehicle camera to the vehicle. Since the server has information related to the caution point, a plurality of vehicles can share the same information, and information can be updated quickly.
  • the camera recommendation degree may be represented by a numerical value, or may be represented by a binary value indicating whether or not an in-vehicle camera should be used.
  • the caution point information storage unit may store map information, and the camera recommendation degree determination unit may determine the caution point based on information defined in the map information. Further, the camera recommendation degree determination means may treat a narrow street defined in the map information as the attention point, and the camera recommendation degree determination means uses the intersection defined in the map information as the attention point. May be handled. In the second embodiment of the present invention, the caution point can be determined based on the map information, as in the first embodiment.
  • the caution point information storage unit stores the caution point and a camera recommendation level at the caution point in association with each other, and the control unit displays an image outside the vehicle when the camera recommendation level is larger than a predetermined value. This may be a feature.
  • the recommended degree of camera corresponding to the caution point may be determined based on the number of times that the driver of the vehicle manually displays the image outside the vehicle at the caution point.
  • the camera recommendation degree is determined based on the number of times that the vehicle driver has manually displayed the image outside the vehicle. For example, the cumulative number of images displayed outside the vehicle by other vehicles may be used as the camera recommendation level, or the number of vehicles that display images outside the vehicle per unit time may be used as the camera recommendation level.
  • the vehicle displays an image outside the vehicle when the camera recommendation level exceeds a threshold value. With this configuration, other vehicles can automatically perform image display outside the vehicle at a point where the driver feels dangerous and has performed the image display manually.
  • the server communication means may transmit the position information of the vehicle to the server device when a driver manually displays an image outside the vehicle.
  • the server communication means may transmit the position information of the vehicle to the server device when a driver manually displays an image outside the vehicle.
  • the vehicle further includes a vehicle speed acquisition unit that acquires a vehicle speed
  • the server communication unit includes the vehicle position information together with the vehicle position information when the driver manually displays an image outside the vehicle.
  • the speed of the camera may be transmitted to the server device, and the recommended degree of camera depends on the number of times that the driver of the vehicle has manually displayed the image outside the vehicle at the corresponding caution point according to the speed of the vehicle. It is a value obtained by multiplying the determined coefficient, and the coefficient may be larger at a slower speed than at a higher speed.
  • the server apparatus can determine the coefficient for calculating a camera recommendation degree using a vehicle speed. For example, when an in-vehicle camera is used in a situation where the vehicle speed is low, it means that the vehicle has proceeded with more attention, and therefore, the coefficient is determined so that the degree of camera recommendation increases. By configuring in this way, the reliability of the camera recommendation level is improved.
  • the vehicle may further include vehicle speed acquisition means for acquiring the speed of the vehicle, and the control means may display an image outside the vehicle when the speed of the vehicle falls below a predetermined value.
  • vehicle speed acquisition means for acquiring the speed of the vehicle
  • control means may display an image outside the vehicle when the speed of the vehicle falls below a predetermined value.
  • the outside-vehicle image display can be performed only at a speed lower than a predetermined speed.
  • the caution point information storage unit stores the camera recommendation level in association with the type or display method of the in-vehicle camera used by the driver, and the control unit is stored in association with the camera recommendation level. It is good also as performing the image display outside a vehicle using a certain vehicle-mounted camera or a display method.
  • the type and display method of the in-vehicle camera used in the past may be stored and used when displaying images outside the vehicle. Thereby, when another vehicle displays an image outside the vehicle, an appropriate camera and display method can be selected.
  • the present invention can be specified as a vehicle periphery monitoring device and a vehicle periphery monitoring system including at least a part of the above means.
  • the present invention can also be specified as an image display method including at least a part of the above processing.
  • the above processes and means can be freely combined and implemented as long as no technical contradiction occurs.
  • a vehicle periphery monitoring device and a vehicle periphery monitoring system that can determine that a vehicle is traveling in a place where attention is required for driving and can automatically display an image outside the vehicle. it can.
  • 1 is a system configuration diagram of a vehicle periphery monitoring device according to a first embodiment. It is a figure explaining the imaging region by a vehicle-mounted camera. It is a figure explaining the attention point determined from map information. It is a process flowchart figure of the vehicle periphery monitoring apparatus which concerns on 1st embodiment. It is a process flowchart figure of the vehicle periphery monitoring apparatus which concerns on the modification of 1st embodiment. It is an example of a caution point using camera point information. It is a system block diagram of the vehicle periphery monitoring apparatus which concerns on 2nd embodiment. It is a system block diagram of the server apparatus which concerns on 2nd embodiment. It is a system block diagram of the server apparatus which concerns on 3rd embodiment.
  • the vehicle periphery monitoring apparatus according to the first embodiment will be described with reference to FIG. 1 which is a system configuration diagram.
  • the vehicle periphery monitoring device 10 according to the first embodiment is a device that is mounted on an automobile and displays an image captured by an in-vehicle camera that captures the outside of the vehicle.
  • the vehicle speed detection unit 101 is a means for acquiring vehicle speed information from the connected vehicle speed sensor 107.
  • the current position acquisition unit 102 is means for acquiring current position information (latitude and longitude) of the own vehicle from a GPS device (not shown) provided in the vehicle.
  • the map information storage unit 103 is a means for storing map information, and is a caution point information storage means in the present invention.
  • the map information is road map data in which information on roads on which vehicles can typically travel is defined.
  • the map information includes information on road width (width), traffic regulation, and the like in addition to the connection relationship between roads.
  • the control unit 104 is a unit that controls the entire vehicle periphery monitoring apparatus 10. Specifically, a means for determining whether or not there is a vehicle in a situation that requires display of an outside image with reference to the acquired vehicle speed and current position information and the caution point extracted by the map information storage unit 103 It is.
  • the control unit 104 has a function of extracting caution points from the map information stored in the map information storage unit 103. Detailed processing contents will be described later.
  • the image acquisition unit 105 is means for acquiring an image from a connected external camera.
  • the camera outside the vehicle is a camera installed outside the vehicle in order to compensate for the driver's blind spot, and is composed of a plurality of cameras such as a front camera and a side camera, for example.
  • FIG. 2 is a diagram illustrating the imaging direction of each camera.
  • the front camera is a camera that is installed on the left and right of the vehicle front and confirms traffic on the crossing road.
  • the side camera is a camera that is installed on the left and right sides of the vehicle for confirming a portion that becomes a blind spot with respect to the driver.
  • the image acquisition unit 105 can acquire images from the plurality of outside cameras. In the present embodiment, it is assumed that two cameras, the camera 1 outside the vehicle (reference numeral 108) and the camera 2 outside the vehicle (reference numeral 109) are connected.
  • the display device 106 is a means for presenting an image to a vehicle occupant.
  • the input image can be displayed by a liquid crystal monitor or the like installed in the vehicle.
  • the display switch 110 is a switch for manually displaying an image outside the vehicle. By pressing the switch, the image captured by the camera outside the vehicle can be forcibly displayed on the display device 106.
  • a narrow street that is, an area including all narrow roads is handled as a caution point.
  • a narrow street refers to a road less than 4.0 meters in width by law, the width of the road is not particularly limited in the disclosure of the invention.
  • the inside of the area 121 and the area 122 indicated by hatching is a caution point. That is, when the vehicle is at the position of reference numeral 123, it can be determined that the vehicle is traveling at the caution point, and when the vehicle is at the position of reference numeral 124, it is determined that there is no caution point near the vehicle. can do.
  • an area including a road that is not assumed to be guided by the navigation device among roads defined in the map information may be treated as a caution point.
  • a region around a place where roads intersect or merge may be used as a caution point.
  • an area located at a certain distance from the center of the intersection may be treated as the attention point.
  • only the coordinates for defining the region to be the attention point may be stored without storing the map information.
  • the caution point does not necessarily have to be defined by the area.
  • the map information is composed of node and link information, the entire corresponding link may be defined as a caution point.
  • FIG. 4 is a flowchart of the process performed by the control unit 104. It is preferable that the flowchart of FIG. 4 is periodically executed every certain time or every time the vehicle travels a certain distance. However, execution is stopped while the image outside the vehicle is being manually displayed.
  • step S ⁇ b> 11 the current position of the vehicle is acquired from the current position acquisition unit 102.
  • the acquired information is latitude and longitude information.
  • step S12 it is determined whether the acquired current position of the vehicle is at or near the caution point. Specifically, when the attention point is defined by coordinates, it is determined whether the current position of the vehicle is in the vicinity of the point. When the attention point is defined by the area, the current position of the vehicle is determined by the area. It is determined whether it is inside. Further, when the map information is composed of node and link information, it may be determined whether or not the current position of the vehicle is on a link that satisfies the requirements of the caution point.
  • step S12 If it is determined in step S12 that the vehicle is not at or near the caution point and the display device 106 is outputting an image outside the vehicle, the process is performed after step S16 for stopping image output is executed. Return to step S11. If it is determined that the vehicle is at or near the caution point, the process proceeds to step S13. In step S ⁇ b> 13, the vehicle speed is acquired from the vehicle speed detection unit 101. Next, in step S14, it is determined whether or not the acquired vehicle speed is less than a predetermined speed.
  • the predetermined speed is preferably equal to or higher than a speed assumed to use the camera outside the vehicle, and can be set to, for example, 10 kilometers per hour.
  • step S11 If the speed of the vehicle is equal to or higher than the predetermined value and the display device 106 is outputting an image outside the vehicle, the process returns to step S11 after step S16 for stopping image output is executed. If it is less than the predetermined value, the process proceeds to step S15, and the image acquired from the image acquisition unit 105 is output to the display device 106.
  • a point of caution is extracted from the map information stored in the map information storage unit 103 and is compared with the acquired position information, so that the vehicle is in a place where the use of the outside camera is recommended. judge. Thereby, the vehicle monitor image can be reliably displayed at a place where safety confirmation is required.
  • the present modification is a form in which a place where image display outside the vehicle has been manually performed in the past is stored and image display outside the vehicle is preferentially performed at the place.
  • the system configuration of the vehicle periphery monitoring device according to this modification is the same as that of the first embodiment. Also, processes other than the steps described below are the same as in the first embodiment.
  • FIG. 5 is a flowchart of processing executed when the driver presses the display switch 110.
  • the control unit 104 acquires the current position of the vehicle from the current position acquisition unit 102.
  • the acquired current position is stored in the map information storage unit 103 as an attention point (S18).
  • the information to be stored may be only coordinates representing the acquired current position, or may be an area of an arbitrary size centered on the position of the vehicle. When there is an intersection or the like nearby, it may be a region including the intersection.
  • step S18 An example of the process of step S18 will be described with reference to FIG.
  • an area 127 including a clove path located in the vicinity is stored as a caution point. If there is no intersection or the like in the vicinity as indicated by reference numeral 126, an area 128 centered on the point is stored as a caution point.
  • areas 127 and 128 are stored as new attention points.
  • the control unit 104 displays an image outside the vehicle (S19).
  • the vehicle outside image display is automatically performed as in the first embodiment.
  • the image display may be performed unconditionally, or the number of times manual display is performed may be stored. For example, a condition such as “display when manual display has been performed more than a predetermined number in the past” may be used. Good.
  • the attention point stored in step S18 may be deleted after a certain period of time has elapsed.
  • the type of camera used and the display method may be stored in association with the position information. For example, it is possible to store information such as “display an image acquired from the right front camera in the area 127 in full screen” and “perform area view display using all cameras in the area 128”. By doing in this way, the same display can be performed in the place which used the vehicle-mounted camera in the past.
  • the vehicle transmits the current position to the server device, and the server device transmits the necessity of using the in-vehicle camera at the position to the vehicle.
  • the same means as those of the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • the operations other than the steps described below are the same as those in the first embodiment.
  • FIG. 7 is a system configuration diagram of the vehicle periphery monitoring device 10B according to the second embodiment.
  • the vehicle periphery monitoring device 10B is provided with a communication unit 111 that is means for communicating with the server.
  • the communication unit 111 communicates with the server device by wireless communication using a mobile phone network. Means other than the means described above are the same as in the first embodiment.
  • FIG. 8 is a system configuration diagram of the server device 20.
  • the communication unit 201 is means for communicating with the vehicle periphery monitoring device 10B.
  • the control unit 202 is a unit that controls the entire server device 20. Specifically, it is a means for deciding whether or not to use the in-vehicle camera with reference to the acquired position information and stored map information.
  • the control unit 202 is camera recommendation level determination means in the present invention. In the present embodiment, the camera recommendation level is binary information representing either “should use an in-vehicle camera” or “do not use an in-vehicle camera”. Similar to the map information storage unit 103, the map information storage unit 203 is means for storing road map data.
  • step S ⁇ b> 11 the control unit 104 transmits the acquired current position information to the server device through the communication unit 111.
  • step S ⁇ b> 12 the control unit 202 determines whether the acquired current position of the vehicle is at or near the attention point, and transmits the determination result to the communication unit 111.
  • the method for determining whether the current position of the vehicle is at or near the caution point is the same as step S12 in the first embodiment.
  • the map information can be managed on the server device side, the same information can be transmitted to a plurality of vehicles. Further, it is not necessary for the vehicle to have large-capacity map information, and information can be updated quickly.
  • the vehicle when the driver of the vehicle uses a camera outside the vehicle, the vehicle transmits the fact that the camera has been used and its position information to the server device, and the server device uses the camera based on the received information.
  • This is a form for calculating the recommendation degree.
  • the same means as those in the first and second embodiments are denoted by the same reference numerals and description thereof is omitted.
  • the system configuration of the vehicle periphery monitoring device 10B according to the third embodiment is the same as that of the second embodiment.
  • FIG. 9 is a system configuration diagram of the server device 20B according to the third embodiment.
  • the camera recommendation level storage unit 204 is a unit that stores camera recommendation level data that is information indicating how much the display of an image outside the vehicle is recommended at a specific point, and is a caution point information storage unit in the present invention. .
  • the camera recommendation degree data is generated based on the information “used outside camera” received from another vehicle. A detailed generation method will be described later.
  • the configuration of the server device 20B other than the camera recommendation level storage unit 204 is the same as that of the second embodiment.
  • FIG. 10 is a flowchart of processing performed by the vehicle periphery monitoring device 10B and the server device 20B according to the third embodiment.
  • Steps S21 to S22 are steps performed by the vehicle periphery monitoring device 10B
  • steps S31 to S32 are steps performed by the server device 20B.
  • the control unit 104 acquires the current position of the vehicle from the current position acquisition unit 102 (S21).
  • the control unit 104 transmits the acquired current position information to the server device through the communication unit 111 (S22). Note that the display of the outside image may be performed at any timing.
  • the control unit 202 acquires the position information transmitted from the vehicle through the communication unit 201 (S31), calculates the camera recommendation level, and then updates the data stored in the camera recommendation level storage unit 204. (S32).
  • FIG. 11 is a diagram showing the camera recommendation level data stored in the camera recommendation level storage unit 204 in a table format.
  • the camera recommendation level data includes position information and a camera recommendation level corresponding to the position information.
  • the degree of camera recommendation is the number of times that an outside camera is used in the vicinity of the position.
  • the control unit 202 searches for the record corresponding to the received position information from the stored camera recommendation level data, and adds the camera recommendation level of the record. If there is no corresponding record, a record corresponding to the position information is generated.
  • the recommended camera level at the time of record generation is 1.
  • step S32 the position information received from the vehicle is compared with the position information of the stored record, and when the points are within a certain distance, they are regarded as the same point.
  • An example will be described with reference to FIG. For example, it is assumed that a certain vehicle uses a camera outside the vehicle at a point 141. In the camera recommendation level storage unit, a record corresponding to the point 141 is generated, and the camera recommendation level of the record is 1. Next, it is assumed that another vehicle uses a camera outside the vehicle at a point denoted by reference numeral 143.
  • the point Since the point is within a certain distance (symbol 142) from the point 141 that is already stored, the point is regarded as the same point as the symbol 141, and the camera recommendation level of the record corresponding to the point 141 Becomes 2. If another vehicle uses a camera outside the vehicle at the point 144, a new record is generated because the vehicle is more than a certain distance from the point 141.
  • the processing shown in FIG. 10 is executed, and the camera recommendation data associated with the position information (ie, the attention point) is added / updated.
  • FIG. 13 is a flowchart of processing performed by the vehicle periphery monitoring device 10B.
  • the processing shown in FIG. 13 is also preferably executed periodically as in the first embodiment, and is preferably stopped while the image outside the vehicle is being manually displayed.
  • the control unit 104 acquires the current position of the vehicle from the current position acquisition unit 102 (S41), and acquires the vehicle speed from the vehicle speed detection unit 101 (S42). Subsequently, in step S43, it is determined whether or not the acquired vehicle speed is less than a predetermined speed.
  • the predetermined speed can take the same value as in the first embodiment. If the vehicle speed is equal to or higher than the predetermined value and the display device 106 is outputting an image outside the vehicle, step S47 for stopping the display is executed, and the process returns to step S41. If the vehicle speed is less than the predetermined value, the process proceeds to step S44.
  • Step S44 is a process for transmitting the current position information to the server device and receiving the camera recommendation level.
  • the control unit 104 transmits the acquired current position information to the server device through the communication unit 111.
  • the control unit 202 retrieves camera recommendation level data from the camera recommendation level storage unit 204 using the acquired position information.
  • the acquired position information is compared with the position information of the stored record, and when each point is within a certain distance, it is regarded as a match, and the corresponding camera recommendation level is determined by the communication unit.
  • step S45 the control unit 104 determines whether or not the acquired camera recommendation level is greater than or equal to a threshold value.
  • the threshold value can be an arbitrary value. If the camera recommendation level is less than the threshold value and the display device 106 is outputting an image outside the vehicle, step S47 for stopping the display is executed, and the process returns to step S41. If it is equal to or greater than the threshold value, the process proceeds to step S46, and an image outside the vehicle is displayed.
  • the threshold value used here is n, when the camera recommendation level is n or more, that is, when n or more vehicles are using the outside camera in the corresponding place, the outside image display is performed.
  • camera recommendation data is generated or updated using information transmitted from the vehicle.
  • This form has the advantage that the server device does not have to have information related to the caution point in advance, and has an advantage that the information according to the actual road condition can be shared between the vehicles.
  • the number of times the camera outside the vehicle is used is the camera recommendation level, but a result calculated based on the number of times may be used. For example, the number of times the camera outside the vehicle is used for a certain period in the past may be used as the recommended camera level.
  • the type or display method of the used camera may be stored in association with the camera recommendation level. For example, the camera with the highest camera recommendation degree may be transmitted to the vehicle together with its type or display method, or a plurality of camera recommendation degrees may be transmitted to the vehicle for each camera type or display method. Good.
  • the fourth embodiment is a mode in which the camera recommendation degree is weighted by the vehicle speed and the position information with respect to the third embodiment.
  • symbol is attached
  • the system configuration of the vehicle periphery monitoring device 10B according to the fourth embodiment is the same as that of the third embodiment.
  • FIG. 14 is a system configuration diagram of the server apparatus 20C according to the fourth embodiment.
  • the server device 20C includes both the map information storage unit 203 described in the second embodiment and the camera recommendation level storage unit 204 described in the third embodiment.
  • step S ⁇ b> 21 the control unit 104 acquires the vehicle speed from the vehicle speed detection unit 101 at the same time as acquiring the current position information.
  • step S22 the vehicle speed is transmitted to the server device simultaneously with the position information.
  • the third embodiment is the same as the third embodiment except that the vehicle speed is added to the acquired and transmitted information.
  • step S31 the communication unit 201 acquires the transmitted position information and vehicle speed, and in step S32, the control unit 202 calculates a camera recommendation degree.
  • the calculation of the camera recommendation level is specifically performed by the following processing.
  • -Search for records corresponding to the acquired position information from the camera recommendation data -Classify the acquired vehicle speed and add the number of cameras in the corresponding speed range-Depending on the speed for the number of cameras in each speed range The result obtained by weighting the total value according to the location is used as the camera recommendation level.
  • FIG. 15 which is an example of the camera recommendation level data in this embodiment, Processing will be described.
  • Step S32 check whether the record corresponding to the acquired position information exists in the camera recommendation data. Corresponding records are retrieved using the same method as in step S32. If there is no corresponding record, a new record is generated. In this case, the road type of the place corresponding to the position information is acquired from the map information storage unit 203 and assigned.
  • the road type is, for example, information such as “intersection”, “chome road”, “curve”, “narrow street”, and the like.
  • the acquired vehicle speed is classified by speed.
  • the vehicle speed is classified into three stages of “slow speed”, “low speed”, and “others”. For example, it can be classified into 0 to less than 10 km / h, less than 10 to 20 km, 20 km or more, and the like.
  • the number of cameras corresponding to the classified vehicle speed of the record specified in (1) is added. In the case of the example of FIG. When one record is an object and the classified speed is “slow speed”, the value of “camera count (slow speed)” is added.
  • the number of cameras in each speed range is weighted by the speed and totaled.
  • “slow running”, “low speed”, and “others” are multiplied by coefficients of 1.5, 1.0, and 0.5, respectively.
  • the coefficient for each speed range is preferably increased as the speed is lower.
  • the number of cameras is weighted using a coefficient for each road type. For example, no. When the coefficient of the type “intersection” corresponding to the record of No. 1 is 1.0, the weighting result is 100. When the coefficient of the type “narrow street” corresponding to the record 2 is 0.5, the weighting result is 20. This result is the recommended camera level at each point. It is preferable to increase the coefficient for each road type as the place where attention is required for driving.
  • the number of cameras is weighted using the road type of the place where the camera is used and the vehicle speed when the camera is used. Therefore, how important the display of the image outside the vehicle is can be reflected in the recommended degree of camera, and a more accurate determination can be made.
  • the description of each embodiment is an exemplification for explaining the present invention, and the present invention can be implemented with appropriate modifications or combinations without departing from the spirit of the invention.
  • the information transmitted from the server to the vehicle may not indicate the recommended degree of use of the outside camera as illustrated. Any information may be used as long as the vehicle can communicate that the vehicle is recommended to be used.
  • the camera recommendation level is not necessarily collected from the vehicle, and may be stored in advance by the server device. In the description of each embodiment, it is determined whether or not to display an image outside the vehicle based on the vehicle speed, but the vehicle speed information is not necessarily used.

Abstract

 車両の現在位置を取得する位置情報取得手段と、車両の外部を撮像する車載カメラと、画像を提示する表示装置と、前記車載カメラの使用が推奨される場所である注意地点に関連する情報を記憶する注意地点情報記憶手段と、前記車載カメラから取得した画像を前記表示装置に出力する車外画像表示を行う制御手段と、を有し、前記制御手段は、取得した現在位置の近傍に、前記注意地点があると判定した場合に、前記車外画像表示を行う。

Description

車両周辺監視装置、車両周辺監視システム
 本発明は、車両の周辺をカメラにより監視する装置に関する。
 車両外部にカメラを取り付け、運転席の死角を車内から監視する車外モニタシステムが知られている。例えば、非特許文献1に記載のモニタシステムでは、運転者がスイッチを押下することによって車外のモニタ映像を表示することができ、運転者は、映像を見て安全を確認しながら走行することができる。
 モニタ映像の表示・非表示の切り替えは、スイッチ操作によって行うことができるほか、車両の速度によって自動的に行うこともできる。例えば、低速で走行している場合は映像を表示させ、速度が出たら自動で非表示にさせることができる。
 また、車両周囲の安全確認が必要な状況であるか否かを自動で判定し、能動的にモニタ映像を表示する技術が存在する。例えば、特許文献1に記載の発明では、走行中の道路の幅を画像解析によって判定し、狭い道路から広い道路に出ようとしている場合、安全確認が必要であると判断し、モニタ映像を自動表示する。これにより、運転者はスイッチを操作することなく車両周辺の安全を確認することができる。
" サイドモニターシステム"、[online]、トヨタ自動車、[平成24年7月20日検索]、インターネット<URL:http://toyota.jp/dop/navi/lineup/option/side_monitor_system/>
特開2009-246808号公報
 現在市販されている車外モニタ装置の大半は、車速情報など、車両に備えられたセンサから取得できる情報に基づいて自動表示を行う機能を有している。しかし、センサ情報のみで判断を行った場合、必要のない場所でモニタ映像が表示されてしまうなどの煩わしさがある。例えば、車速が低い場合にモニタ表示を行う装置では、信号待ちの停車でもモニタが起動してしまう。このため運転者は、必要のない場所ではメインスイッチを切って走行する場合が多く、自動表示機能が十分に活用できていない。
 また、特許文献1のように、取得した画像を解析して、モニタ表示が必要であるかを判断することもができるが、画像認識精度の問題によって、必要なときにモニタ表示がされないといった不都合が発生したり、画像を認識する装置自体にコストがかかるといった問題があった。
 本発明は上記の問題点を考慮してなされたものであり、車両が、運転に注意を要する場所を走行していることを判定し、自動で車外映像の表示を行うことができる車両周辺監視装置および車両周辺監視システムを提供することを目的とする。
 上記目的を達成するために、本発明に係る車両周辺監視装置および車両周辺監視装置システムは、以下の手段により車外映像の表示を行う。
 本発明の第一の形態に係る車両周辺監視装置は、車両に搭載された監視装置である。
 具体的には、車両の現在位置を取得する位置情報取得手段と、車両の外部を撮像する車載カメラと、画像を提示する表示装置と、前記車載カメラの使用が推奨される場所である注意地点に関連する情報を記憶する注意地点情報記憶手段と、前記車載カメラから取得した画像を前記表示装置に出力する車外画像表示を行う制御手段と、を有し、前記制御手段は、取得した現在位置の近傍に、前記注意地点があると判定した場合に、前記車外画像表示を行うことを特徴とする。
 車両は、記憶した注意地点に関連する情報と、取得した現在位置情報から、車外を撮像する車載カメラの使用が推奨される場所を走行していることを判断し、車外モニタ映像(以降、車外画像と称する)の表示を行う。注意地点に関連する情報とは、注意地点の位置を特定できる情報である。記憶される情報は、例えば注意地点の座標であってもよいし、地図情報を有している場合は、対応するエリアコードなどであってもよい。また、地図情報そのものであってもよい。地図情報が、道路の接続関係や形状についての情報を有している場合、運転に注意が必要な場所を注意地点として抽出することができる。このように構成することで、不必要な車外画像の表示を抑制できるとともに、必要な場所では確実に車外画像を表示できるようになる。
 また、前記注意地点情報記憶手段は、地図情報を記憶し、前記制御手段は、前記地図情報が有している情報を基に注意地点を決定することを特徴としてもよい。例えば交差点の近傍や、見通しの悪い曲がり角、細い道路から優先道路へ出る箇所など、運転に注意を要する場所についての情報を地図情報から取得し、注意地点として扱ってもよい。
 また、前記制御手段は、前記地図情報に定義された細街路を注意地点として扱うことを特徴としてもよく、前記制御手段は、前記地図情報に定義された交差点を注意地点として扱うことを特徴としてもよい。細街路とは、幅員が所定値以下である狭い道路を指す。このように構成することで、接触の危険性が少ない状況での車外画像の表示を抑制することができる。
 また、本発明に係る車両周辺監視装置は、車両の速度を取得する車速取得手段をさらに有し、前記制御手段は、車両の速度が所定の値を下回る場合に前記車外画像表示を行うことを特徴としてもよい。
 車両の速度が高い場合、注意して進行すべき場所ではないと推測することができる。よって、速度に閾値を設け、速度が閾値を下回った場合に限って車外画像表示を行うことで、必要のない表示を抑制することができる。
 また、本発明に係る車両周辺監視装置は、運転者が手動で車外画像表示を行った場所を示す情報であるカメラ地点情報を記憶するカメラ地点記憶手段をさらに有し、前記制御手段は、前記取得した現在位置情報と、前記カメラ地点情報を比較した結果をさらに考慮して前記車外画像表示を行うことを特徴としてもよい。
 車両の現在位置が、過去に運転者が手動で車外画像表示を行った場所の近傍であった場合、優先して車外画像表示を行うことができる。このように構成することで、たとえば個人宅の駐車場など、予め記憶されている情報では車外画像表示を行うべきか判断できない場所であっても、自動表示を行うことが可能となる。制御手段は、カメラ地点情報に対応する場所では無条件に車外画像表示を行ってもよいし、当該地点を過去に通過した回数や、画像を表示した回数などに基づいて、表示を行うか否かを判断してもよい。
 また、前記カメラ地点記憶手段は、前記カメラ地点情報と、運転者が使用した車載カメラの種別もしくは表示方法を関連付けて記憶し、前記制御手段は、前記カメラ地点情報と関連付けて記憶された種別の車載カメラ、もしくは表示方法を用いて車外画像表示を行うことを特徴としてもよい。
 車載カメラが複数ある場合、無関係な方向の画像は表示しないことが好ましく、画像の表示方法が複数ある場合、より適した表示方法を選択することが好ましい。例えば、優先道路に出る際は、左方向のカメラよりも右方向のカメラを優先的に使用することが好ましく、複数のカメラによる分割表示よりも、特定のカメラによる拡大表示のほうが好ましい。カメラ地点情報を記憶する際に、過去に使用したカメラや表示方法を特定する情報を関連付けて記憶することで、同じカメラまたは表示方法を使用して車外画像の表示を行えるようになる。
 本発明の第二の形態に係る車両周辺監視システムは、車両と、サーバ装置とからなる車両周辺監視システムである。
 具体的には、車両が、車両の現在位置情報を取得する位置情報取得手段と、車両の外部を撮像する車載カメラと、画像を提示する表示装置と、前記取得した位置情報を前記サーバ装置へ送信するサーバ通信手段と、前記サーバ装置から受信した情報に基づいて、前記車載カメラから取得した画像を前記表示装置に出力する車外画像表示を行うか否かを判定する制御手段と、を有する。
 また、サーバ装置は、前記車載カメラの使用が推奨される場所である注意地点に関連する情報を記憶する注意地点情報記憶手段と、前記車両の位置情報を取得し、取得した位置情報に対応する注意地点での、前記車載カメラの使用が推奨される度合についての情報であるカメラ推奨度を決定するカメラ推奨度決定手段と、前記決定したカメラ推奨度を前記車両に送信する車両通信手段と、を有する。
 カメラ推奨度とは、送信された位置情報に対応して車両に返される情報であり、当該位置情報に対応する注意地点において車載カメラの使用がどの程度推奨されるかを表す情報である。このように、サーバ装置が車両に対して車載カメラの推奨度合を提供するようにしてもよい。注意地点に関連する情報をサーバが持つことで、複数の車両が同じ情報を共有することができるようになり、かつ、情報の更新が迅速に行えるようになる。なお、カメラ推奨度は数値で表されてもよいし、車載カメラを使用するべきか否かという二値によって表されてもよい。
 また、前記注意地点情報記憶手段は、地図情報を記憶し、前記カメラ推奨度決定手段は、前記地図情報に定義された情報を基に注意地点を決定してもよい。また、前記カメラ推奨度決定手段は、前記地図情報に定義された細街路を前記注意地点として扱ってもよく、前記カメラ推奨度決定手段は、前記地図情報に定義された交差点を前記注意地点として扱ってもよい。本発明の第二の形態でも、第一の形態と同様に、地図情報に基づいて注意地点を決定することができる。
 また、前記注意地点情報記憶手段は、注意地点と、当該注意地点におけるカメラ推奨度を関連付けて記憶し、前記制御手段は、前記カメラ推奨度が所定の値より大きい場合に、車外画像表示を行うことを特徴としてもよい。また、前記注意地点に対応する前記カメラ推奨度は、当該注意地点にて車両の運転者が手動で車外画像表示を行った回数に基づいて決定されてもよい。
 カメラ推奨度は、車両の運転者が手動で車外画像表示を行った回数に基づいて決定されることが好ましい。例えば、他の車両による車外画像表示の累計回数をカメラ推奨度としてもよいし、単位時間あたりに車外画像表示を行った車両の台数をカメラ推奨度としてもよい。車両は、カメラ推奨度が閾値を上回った場合に車外画像を表示する。このように構成することで、運転者が危ないと感じて手動で画像表示を行った実績のある地点において、他の車両が自動で車外画像表示を行えるようになる。
 また、前記サーバ通信手段は、運転者が、手動で車外画像表示を行った場合に、前記車両の位置情報を前記サーバ装置に送信することを特徴としてもよい。このように構成することで、注意地点についての情報を複数の車両から収集することができ、サーバが有する情報に即時反映させることができる。
 また、前記車両は、車両の速度を取得する車速取得手段をさらに有し、前記サーバ通信手段は、運転者が手動で車外画像表示を行った場合に、車両の位置情報とともに前記取得した車両の速度を前記サーバ装置に送信することを特徴としてもよく、前記カメラ推奨度は、対応する注意地点にて車両の運転者が手動で車外画像表示を行った回数に、前記車両の速度に応じて決定された係数を乗じた値であり、前記係数は、速い速度より遅い速度においてより大きくなることを特徴としてもよい。
 車両の位置情報を送信する際は、車速を同時に送信してもよい。これによりサーバ装置は、車速を用いてカメラ推奨度を算出するための係数を決定することができる。例えば、車速が遅い状況で車載カメラが使用された場合、より注意を払って進行したことを意味するため、カメラ推奨度が大きくなるように係数を決定する。このように構成することで、カメラ推奨度の信頼性が向上する。
 また、前記車両は、車両の速度を取得する車速取得手段をさらに有し、前記制御手段は、車両の速度が所定の値を下回る場合に車外画像表示を行うことを特徴としてもよい。本発明の第二の形態でも、第一の形態と同様に、車外画像表示は所定の速度未満に限って行うようにすることができる。
 また、前記注意地点情報記憶手段は、前記カメラ推奨度と、運転者が使用した車載カメラの種別もしくは表示方法を関連付けて記憶し、前記制御手段は、前記カメラ推奨度と関連付いて記憶された種別の車載カメラもしくは表示方法を用いて車外画像表示を行うことを特徴としてもよい。
 本発明の第二の形態でも、第一の形態と同様に、過去に使用された車載カメラの種別や表示方法を記憶し、車外画像表示を行う際に使用してもよい。これにより、他の車両が車外画像表示を行う際に、適切なカメラや表示方法を選択することができる。
 なお、本発明は、上記手段の少なくとも一部を含む車両周辺監視装置、車両周辺監視システムとして特定することができる。また、本発明は、上記処理の少なくとも一部を含む画像表示方法として特定することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
 本発明によれば、車両が、運転に注意を要する場所を走行していることを判定し、自動で車外映像の表示を行うことができる車両周辺監視装置および車両周辺監視システムを提供することができる。
第一の実施形態に係る車両周辺監視装置のシステム構成図である。 車載カメラによる撮像領域を説明する図である。 地図情報から決定される注意地点を説明する図である。 第一の実施形態に係る車両周辺監視装置の処理フローチャート図である。 第一の実施形態の変形例に係る車両周辺監視装置の処理フローチャート図である。 カメラ地点情報を用いた注意地点の例である。 第二の実施形態に係る車両周辺監視装置のシステム構成図である。 第二の実施形態に係るサーバ装置のシステム構成図である。 第三の実施形態に係るサーバ装置のシステム構成図である。 第三の実施形態に係る車両周辺監視装置およびサーバ装置の処理フローチャート図である。 第三の実施形態に係るカメラ推奨度データの例である。 第三の実施形態における、同一地点の判定方法を説明する図である。 第三の実施形態に係る車両周辺監視装置の処理フローチャート図である。 第四の実施形態に係るサーバ装置のシステム構成図である。 第四の実施形態に係るカメラ推奨度データの例である。
(第一の実施形態)
 <システム構成>
 第一の実施形態に係る車両周辺監視装置について、システム構成図である図1を参照しながら説明する。第一の実施形態に係る車両周辺監視装置10は、自動車に搭載され、車外を撮像する車載カメラによって撮像された画像を表示する装置である。
 車速検知部101は、接続された車速センサ107から、車両の速度情報を取得する手段である。また、現在位置取得部102は、車両に備えられたGPS装置(不図示)から自車の現在位置情報(緯度および経度)を取得する手段である。
 地図情報記憶部103は、地図情報を記憶する手段であり、本発明における注意地点情報記憶手段である。地図情報とは、典型的には車両が走行できる道路の情報が定義された道路地図データである。なお、地図情報には、道路同士の接続関係のほか、道幅(幅員)や交通規制に関する情報などが含まれていることが好ましい。
 制御部104は、車両周辺監視装置10全体の制御を司る手段である。具体的には、取得した車速や現在位置情報と、地図情報記憶部103が抽出した注意地点とを参照して、車外画像の表示が必要な状況に車両がいるか否かを判断するための手段である。また、制御部104は、地図情報記憶部103に記憶された地図情報から注意地点を抽出する機能を有する。詳細な処理内容については後述する。
 画像取得部105は、接続された車外カメラから画像を取得する手段である。
 車外カメラは、運転者の死角を補うために車外に設置されたカメラであり、例えばフロントカメラ、サイドカメラなどの複数のカメラで構成される。図2は、各カメラの撮像方向を説明する図である。フロントカメラは、車両先頭部の左右に設置された、交差道路の交通を確認するカメラである。また、サイドカメラは、車両の左右側方に設置された、運転者に対して死角となる部分を確認するためのカメラである。画像取得部105は、これら複数の車外カメラから画像の取得を行うことができる。なお、本実施形態では、車外カメラ1(符号108)と、車外カメラ2(符号109)の二つのカメラが接続されているものとする。
 表示装置106は、車両の乗員に画像を提示するための手段である。車内に設置された液晶モニタなどによって、入力された画像を表示することができる。また、表示スイッチ110は、手動で車外画像表示を行うためのスイッチである。当該スイッチを押下することにより、車外カメラが撮像した映像を強制的に表示装置106に表示させることができる。
 <注意地点の抽出方法>
 次に、制御部104が、記憶している地図情報から、車外カメラの使用が推奨される場所である注意地点を抽出する方法について説明する。本実施形態では、細街路、すなわち幅員の狭い全ての道路を含む領域を注意地点として扱う。なお、細街路とは法律上、幅員4.0メートルに満たない道路を指すが、発明の開示において、道路の幅員を特に限定するものではない。
 図3に示したような道路があり、中央を横断する道路以外の道路が細街路であった場合、ハッチングで示した領域121および領域122の内部が注意地点となる。すなわち、車両が符号123の位置にあった場合、車両は注意地点を走行していると判定することができ、車両が符号124の位置にあった場合、車両の近傍に注意地点は無いと判定することができる。
 なお、注意地点の抽出は、必ずしも道路の幅員によって行う必要は無い。例えば、地図情報に定義されている道路のうち、ナビゲーション装置によって車両を誘導することが想定されていない道路を含む領域を注意地点として扱ってもよい。また、道路が交差もしくは合流する箇所の周辺領域を注意地点としてもよい。例えば、交差点の中心から一定の距離にある領域を注意地点として扱ってもよい。また、地図情報を記憶せず、注意地点とする領域を定義するための座標のみを記憶してもよい。
 また、注意地点は必ずしも領域によって定義する必要は無い。地図情報がノードとリンクの情報で構成されている場合、該当するリンク全体を注意地点として定義してもよい。
 <車両周辺監視装置の処理フローチャート>
 次に、制御部104が行う処理のフローチャート図である図4を参照しながら、車外画像の表示を行うか否かを判定する処理について説明する。図4のフローチャートは、一定時間おき、または一定距離を走行するごとに定期的に実行されることが好ましい。ただし、手動で車外画像表示が行われている間は、実行を停止する。
 ステップS11では、車両の現在位置を現在位置取得部102から取得する。取得される情報は、緯度および経度情報である。
 次に、ステップS12で、取得した車両の現在位置が、注意地点またはその近傍にあるかを判定する。具体的には、注意地点が座標によって定義されている場合、車両の現在位置が当該地点の近傍にあるかを判定し、注意地点が領域によって定義されている場合、車両の現在位置が当該領域内にあるかを判定する。
 また、地図情報がノードとリンクの情報で構成されている場合、車両の現在位置が、注意地点の要件を満たすリンク上にあるか否かを判定してもよい。
 ステップS12で、車両が注意地点またはその近傍にないと判定された場合であって、表示装置106が車外画像を出力中である場合、画像出力を停止するステップS16が実行された後に、処理はステップS11へ戻る。車両が注意地点またはその近傍にいると判定された場合、処理はステップS13へ遷移する。
 ステップS13では、車両の速度を車速検知部101から取得する。次に、ステップS14で、取得した車速が所定の速度未満であるか否かを判定する。所定の速度とは、車外カメラの使用が想定される速度以上であることが好ましく、例えば時速10キロメートルとすることができる。
 車両の速度が所定値以上である場合であって、表示装置106が車外画像を出力中である場合、画像出力を停止するステップS16が実行された後に、処理はステップS11へ戻る。所定値未満であった場合、処理はステップS15へ遷移し、画像取得部105から取得した画像を表示装置106に出力する。
 第一の実施形態では、地図情報記憶部103に記憶された地図情報から注意地点を抽出し、取得した位置情報と照らし合わせることで、車外カメラの使用が推奨される場所に車両がいることを判定する。これにより、安全確認が必要な場所で確実に車外モニタ映像を表示することができる。
(第一の実施形態の変形例)
 本変形例は、第一の実施形態に加えて、過去に手動で車外画像表示を行った場所を記憶し、当該場所で優先して車外画像表示を行う形態である。本変形例に係る車両周辺監視装置のシステム構成は、第一の実施形態と同様である。また、以下に説明するステップ以外の処理についても、第一の実施形態と同様である。
 図5は、運転者が表示スイッチ110を押下した際に実行される処理のフローチャートである。
 まず、ステップS17で、制御部104が、車両の現在位置を現在位置取得部102から取得する。次に、取得した現在位置を注意地点として地図情報記憶部103に記憶させる(S18)。記憶させる情報は、取得した現在位置を表す座標のみであってもよいし、車両の位置を中心とする任意の大きさの領域であってもよい。近くに交差点などがある場合、当該交差点を含む領域であってもよい。
 ステップS18の処理の一例を、図6を参照しながら説明する。ここでは、符号125で示した位置で表示スイッチ110が押下された場合、近傍に位置する丁字路を含む領域127を注意地点として記憶するものとする。また、符号126のように、近傍に交差点などが無い場合、当該地点を中心とする領域128を注意地点として記憶する。符号125および126の位置で表示スイッチが扱われた結果、領域127および128が新たな注意地点として記憶される。
 注意地点の記憶が終了した後に、制御部104は車外画像表示を行う(S19)。
 以上のようにして記憶された注意地点と、車両の現在位置が、ステップS12の処理時に一致した場合、第一の実施形態と同様に車外画像表示が自動で行われる。画像の表示は無条件に行ってもよいし、手動表示を行った回数を記憶し、例えば「過去に手動表示を規定回数以上行っていた場合に表示を行う」といったような条件を用いてもよい。また、ステップS18にて記憶された注意地点は、一定の期間が経過したら消去されるようにしてもよい。
 その他にも、使用したカメラの種別や表示方法を、位置情報と関連付けて記憶してもよい。例えば、「領域127では右フロントカメラから取得した画像を全画面で表示する」、「領域128では全てのカメラを用いてアラウンドビュー表示を行う」といった情報を記憶することができる。このようにすることで、過去に車載カメラを使用した場所で同一の表示を行うことができるようになる。
(第二の実施形態)
 第二の実施形態は、車両がサーバ装置に対して現在位置を送信し、サーバ装置が、当該位置における車載カメラの使用の要否を車両に送信する形態である。第一の実施形態と同じ手段については、同じ符号を付して説明を省略する。また、以下で説明するステップ以外の動作は第一の実施形態と同様である。
 図7は、第二の実施形態に係る車両周辺監視装置10Bのシステム構成図である。車両周辺監視装置10Bには、地図情報記憶部103のかわりに、サーバと通信を行う手段である通信部111が配置される。本実施形態では、通信部111は携帯電話網を利用した無線通信によってサーバ装置と通信を行う。
 以上に説明した手段以外の手段は、第一の実施形態と同様である。
 図8は、サーバ装置20のシステム構成図である。
 通信部201は、車両周辺監視装置10Bと通信を行う手段である。また、制御部202は、サーバ装置20全体の制御を司る手段である。具体的には、取得した位置情報と、記憶している地図情報とを参照して、車載カメラの使用の要否を決定するための手段である。制御部202が、本発明におけるカメラ推奨度決定手段である。本実施形態では、カメラ推奨度とは、「車載カメラを使用すべきである」および「車載カメラを使用しなくてもよい」のいずれかを表す二値の情報である。
 地図情報記憶部203は、地図情報記憶部103と同様に、道路地図データを記憶する手段である。
 第二の実施形態にて車両周辺監視装置10Bおよびサーバ装置20が行う処理について、第一の実施形態におけるフローチャート図である図4を参照して説明する。第二の実施形態では、処理を行う主体が第一の実施形態と異なる。
 ステップS11では、制御部104が、取得した現在位置情報を、通信部111を通してサーバ装置へ送信する。そして、ステップS12で、制御部202が、取得した車両の現在位置が、注意地点またはその近傍にあるかを判定し、判定結果を通信部111へ送信する。車両の現在位置が、注意地点またはその近傍にあるかを判定する方法は、第一の実施形態におけるステップS12と同一である。
 第二の実施形態によれば、地図情報をサーバ装置側で管理できるため、複数の車両に対して同一の情報を伝達することができる。また、容量の大きい地図情報を車両が持つ必要が無く、情報のアップデートを迅速に行うことができる。
(第三の実施形態)
 第三の実施形態は、車両の運転者が車外カメラを使用した場合に、車両が、カメラを使用した旨とその位置情報をサーバ装置に送信し、サーバ装置が、受信した情報に基づいてカメラ推奨度を算出する形態である。第一および第二の実施形態と同じ手段については、同じ符号を付して説明を省略する。
 第三の実施形態に係る車両周辺監視装置10Bのシステム構成は、第二の実施形態と同様である。また、図9は、第三の実施形態に係るサーバ装置20Bのシステム構成図である。
 カメラ推奨度記憶部204は、特定の地点にて車外画像の表示がどの程度推奨されるかを表す情報であるカメラ推奨度データを記憶する手段であり、本発明における注意地点情報記憶手段である。カメラ推奨度データは、他の車両から受信した「車外カメラを使用した」という情報に基づいて生成される。詳細な生成方法については後述する。サーバ装置20Bの、カメラ推奨度記憶部204以外の構成は、第二の実施形態と同様である。
 <カメラ推奨度データの生成>
 カメラ推奨度データの生成方法について、第三の実施形態に係る車両周辺監視装置10Bおよびサーバ装置20Bが行う処理のフローチャートである図10を用いて説明する。ステップS21~S22が、車両周辺監視装置10Bが行うステップであり、ステップS31~S32が、サーバ装置20Bが行うステップである。
 車両の運転者が、表示スイッチ110を用いて車外画像表示を行うと、図10のフローチャートが開始される。
 まず、制御部104が、車両の現在位置を現在位置取得部102から取得する(S21)。次に、制御部104が、取得した現在位置情報を通信部111を通してサーバ装置へ送信する(S22)。なお、車外画像の表示はいずれのタイミングで行ってもよい。
 一方、制御部202は、通信部201を通して車両から送信された位置情報を取得し(S31)、カメラ推奨度の計算を行ったのちに、カメラ推奨度記憶部204が記憶しているデータを更新する(S32)。
 カメラ推奨度を計算する方法について説明する。図11は、カメラ推奨度記憶部204に記憶されるカメラ推奨度データを表形式で表した図である。カメラ推奨度データは、位置情報と、当該位置情報に対応するカメラ推奨度を有している。カメラ推奨度とは、当該位置の近傍で車外カメラが使用された回数である。
 ステップS32では、制御部202が、記憶されたカメラ推奨度データから、受信した位置情報に対応するレコードを検索し、当該レコードが持つカメラ推奨度を加算する。対応するレコードが無い場合は、当該位置情報に対応するレコードを生成する。レコード生成時のカメラ推奨度は1である。
 対応するレコードの有無を判定する方法について説明する。ステップS32では、車両から受信した位置情報と、記憶されているレコードの位置情報とを比較し、互いの地点が一定の距離以内にあった場合、同一地点とみなす。
 図12を例に説明する。例えば、符号141の地点で、ある車両が車外カメラを使用したとする。カメラ推奨度記憶部には、符号141の地点に対応するレコードが生成され、当該レコードのカメラ推奨度は1となる。次に、符号143の地点で、他の車両が車外カメラを使用したとする。当該地点は、既に記憶されている符号141の地点から一定の距離(符号142)以内にあるため、符号141と同一の地点であるとみなされ、符号141の地点に対応するレコードのカメラ推奨度が2となる。もし、別の車両が、符号144の地点で車外カメラを使用した場合、当該車両は符号141の地点から一定の距離以上離れているため、新たなレコードが生成される。
 このように、他の車両が車外カメラを使用するごとに、図10に示した処理が実行され、位置情報(すなわち注意地点)と関連付いたカメラ推奨度データが追加・更新される。
 <車載カメラ使用の判定>
 次に、記憶されたカメラ推奨度データを用いて、車両が、車外画像表示を行うか否かを判定する方法について説明する。図13は、車両周辺監視装置10Bが行う処理のフローチャートである。図13に示した処理も、第一の実施形態と同様に、定期的に実行されることが好ましく、手動で車外画像表示が行われている間は、実行を停止することが好ましい。
 まず、制御部104が、車両の現在位置を現在位置取得部102から取得し(S41)、車両の速度を車速検知部101から取得する(S42)。
 続いて、ステップS43で、取得した車速が所定の速度未満であるか否かを判定する。所定の速度とは、第一の実施形態と同様の値をとることができる。車速が所定値以上であった場合であって、表示装置106が車外画像を出力中である場合、表示を停止するステップS47が実行され、処理はステップS41へ戻る。車速が所定値未満であった場合、処理はステップS44へ遷移する。
 ステップS44は、現在位置情報をサーバ装置に送信し、カメラ推奨度を受信する処理である。当該ステップの詳細な内容について説明する。
 まず、制御部104が、通信部111を通して、取得した現在位置情報をサーバ装置へ送信する。続いて、制御部202が、取得した位置情報を用いて、カメラ推奨度記憶部204からカメラ推奨度データを検索する。このとき、取得した位置情報と、記憶されているレコードの位置情報とを比較し、互いの地点が一定の距離以内にあった場合、一致したものとみなし、対応するカメラ推奨度を、通信部201を通して送信する。対応するレコードが無い場合、送信されるカメラ推奨度は0となる。
 ステップS45では、制御部104が、取得したカメラ推奨度が閾値以上であるか否かを判定する。閾値は、任意の値とすることができる。カメラ推奨度が閾値未満であった場合であって、表示装置106が車外画像を出力中である場合、表示を停止するステップS47が実行され、処理はステップS41へ戻る。閾値以上であった場合、処理はステップS46へ遷移し、車外画像表示を行う。ここで用いる閾値をnとすると、カメラ推奨度がn以上、すなわち、対応する場所でn台以上の車両が車外カメラを使用していた場合に、車外画像表示が行われる。
 以上説明したように、第三の実施形態では、車両から送信された情報を用いてカメラ推奨度データを生成または更新する。この形態には、サーバ装置があらかじめ注意地点に関連する情報を持っていなくてもよいという利点があり、実際の道路状況に即した情報を車両間で共有することができるという利点がある。
 なお、本実施形態では、車外カメラを用いた回数そのものをカメラ推奨度としたが、当該回数に基づいて演算した結果を用いてもよい。例えば、過去一定期間における車外カメラの使用回数をカメラ推奨度としてもよい。
 また、カメラ推奨度と関連付けて、使用したカメラの種別または表示方法を記憶させるようにしてもよい。例えば、カメラ推奨度が最も大きいものを、その種別または表示方法とともに車両に送信するようにしてもよいし、カメラの種別または表示方法ごとに複数のカメラ推奨度を車両に送信するようにしてもよい。
(第四の実施形態)
 第四の実施形態は、第三の実施形態に対して、車速と位置情報によってカメラ推奨度の重み付けを行う形態である。第三の実施形態と同じ手段については、同じ符号を付して説明を省略する。第四の実施形態に係る車両周辺監視装置10Bのシステム構成は、第三の実施形態と同様である。
 図14は、第四の実施形態に係るサーバ装置20Cのシステム構成図である。サーバ装置20Cは、第二の実施形態で説明した地図情報記憶部203と、第三の実施形態で説明したカメラ推奨度記憶部204の双方を有している。
 ここでは、第三の実施形態に係るサーバ装置の処理フローチャートである図10を参照し、本実施形態との相違点を説明する。
 ステップS21では、制御部104が、現在位置情報を取得するのと同時に、車速検知部101から車速を取得する。そして、ステップS22で、位置情報と同時に車速をサーバ装置に送信する。取得および送信される情報に車速が追加される点以外は、第三の実施形態と同様である。
 次に、ステップS31では、送信された位置情報および車速を通信部201が取得し、ステップS32で、制御部202がカメラ推奨度を計算する。
 カメラ推奨度の計算は、具体的には以下の処理によって行われる。
   ・ カメラ推奨度データから、取得した位置情報に対応するレコードを検索する
   ・ 取得した車速を分類し、対応する速度域のカメラ回数を加算する
   ・ 各速度域のカメラ回数に対して、速度に応じた重み付けを行い、合計する
   ・ 合計値に対して、場所に応じた重み付けを行った結果をカメラ推奨度とする
 本実施形態におけるカメラ推奨度データの例である図15を参照しながら、それぞれの処理について説明する。
 まず、取得した位置情報に対応するレコードが、カメラ推奨度データに存在するか確認する。対応するレコードは、ステップS32と同じ方法を用いて検索する。対応するレコードが存在しない場合は新たなレコードを生成するが、この場合、当該位置情報に対応する場所の道路種別を地図情報記憶部203から取得して付与する。道路種別とは、例えば「交差点」「丁字路」「カーブ」「細街路」などの情報である。
 次に、取得した車速を速度によって分類する。本実施形態では、車速を「徐行」「低速」「その他」の三段階に分類する。例えば、時速0~10キロメートル未満、10~20キロメートル未満、20キロメートル以上、などに分類することができる。
 次に、(1)で特定したレコードの、分類した車速に対応するカメラ回数を加算する。図15の例の場合、No.1のレコードが対象であって、分類された速度が「徐行」であった場合、「カメラ回数(徐行)」の値が加算される。
 そして、各速度域のカメラ回数を速度で重み付けし、合計する。本例では「徐行」「低速」「その他」に対してそれぞれ1.5,1.0,0.5の係数を乗ずるものとする。No.1のレコードで計算を行う場合、合計した値は50×1.5+20×1.0+10×0.5=100となり、No.2のレコードの場合、10×1.5+20×1.0+10×0.5=40となる。速度域ごとの係数は、速度が低いほど大きくすることが好ましい。
 次に、道路種別ごとの係数を用いて、カメラ回数に対して重み付けを行う。例えば、No.1のレコードに対応する「交差点」という種別の係数が1.0であった場合、重み付けの結果は100となり、No.2のレコードに対応する「細街路」という種別の係数が0.5であった場合、重み付けの結果は20となる。この結果が、各地点におけるカメラ推奨度となる。道路種別ごとの係数は、運転に注意が必要な場所ほど大きくすることが好ましい。
 第四の実施形態では、カメラが使用された場所の道路種別と、カメラが使用された際の車速を使用して、カメラ回数に対する重み付けを行う。これにより、車外画像の表示がどの程度重要であるかをカメラ推奨度に反映させることができ、より正確な判定が行えるようになる。
 なお、各実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。例えば、サーバから車両へ伝送される情報は、例示したような、車外カメラ使用の推奨度合を示すものでなくてもよい。車両が、車外カメラの使用が推奨される場所にいることを伝達することができれば、どのような情報であってもよい。また、カメラ推奨度は、必ずしも車両から収集する必要はなく、サーバ装置があらかじめ記憶していてもよい。また、各実施形態の説明では、車速によって車外画像の表示を行うか否かを判断したが、必ずしも車速情報は用いなくてもよい。
 10,10B 車両周辺監視装置
 101 車速検知部
 102 現在位置取得部
 103 地図情報記憶部
 104 制御部
 105 画像取得部
 106 表示装置
 107 車速センサ
 108,109 車外カメラ
 110 表示スイッチ
 111 通信部
 20,20B,20C サーバ装置
 201 通信部
 202 制御部
 203 地図情報記憶部
 204 カメラ推奨度記憶部

Claims (22)

  1.  車両の現在位置を取得する位置情報取得手段と、
     車両の外部を撮像する車載カメラと、
     画像を提示する表示装置と、
     前記車載カメラの使用が推奨される場所である注意地点に関連する情報を記憶する注意地点情報記憶手段と、
     前記車載カメラから取得した画像を前記表示装置に出力する車外画像表示を行う制御手段と、
     を有し、
     前記制御手段は、取得した現在位置の近傍に、前記注意地点があると判定した場合に、前記車外画像表示を行う、
     車両周辺監視装置。
  2.  前記注意地点情報記憶手段は、地図情報を記憶し、
     前記制御手段は、前記地図情報が有している情報を基に注意地点を決定する、
     請求項1に記載の車両周辺監視装置。
  3.  前記制御手段は、前記地図情報に定義された細街路を注意地点として扱う、
     請求項2に記載の車両周辺監視装置。
  4.  前記制御手段は、前記地図情報に定義された交差点を注意地点として扱う、
     請求項2に記載の車両周辺監視装置。
  5.  車両の速度を取得する車速取得手段をさらに有し、
     前記制御手段は、車両の速度が所定の値を下回る場合に車外画像表示を行う、
     請求項1から4のいずれかに記載の車両周辺監視装置。
  6.  運転者が手動で車外画像表示を行った場所を示す情報であるカメラ地点情報を記憶するカメラ地点記憶手段をさらに有し、
     前記制御手段は、前記取得した現在位置情報と、前記カメラ地点情報を比較した結果をさらに考慮して車外画像表示を行う、
     請求項1から5のいずれかに記載の車両周辺監視装置。
  7.  前記カメラ地点記憶手段は、前記カメラ地点情報と、運転者が使用した車載カメラの種別もしくは表示方法を関連付けて記憶し、
     前記制御手段は、前記カメラ地点情報と関連付けて記憶された種別の車載カメラ、もしくは表示方法を用いて車外画像表示を行う、
     請求項6に記載の車両周辺監視装置。
  8.  車両と、サーバ装置とからなる車両周辺監視システムであって、
     前記車両は、
     車両の位置情報を取得する位置情報取得手段と、
     車両の外部を撮像する車載カメラと、
     画像を提示する表示装置と、
     前記取得した位置情報を前記サーバ装置へ送信するサーバ通信手段と、
     前記サーバ装置から受信した情報に基づいて、前記車載カメラから取得した画像を前記表示装置に出力する車外画像表示を行うか否かを判定する制御手段と、
     を有し、
     前記サーバ装置は、
     前記車載カメラの使用が推奨される場所である注意地点に関連する情報を記憶する注意地点情報記憶手段と、
     前記車両の位置情報を取得し、取得した位置情報に対応する注意地点での、前記車載カメラの使用が推奨される度合についての情報であるカメラ推奨度を決定するカメラ推奨度決定手段と、
     前記決定したカメラ推奨度を前記車両に送信する車両通信手段と、
     を有する、車両周辺監視システム。
  9.  前記注意地点情報記憶手段は、地図情報を記憶し、
     前記カメラ推奨度決定手段は、前記地図情報が有している情報を基に注意地点を決定する、
     請求項8に記載の車両周辺監視システム。
  10.  前記カメラ推奨度決定手段は、前記地図情報に定義された細街路を注意地点として扱う、
     請求項9に記載の車両周辺監視システム。
  11.  前記カメラ推奨度決定手段は、前記地図情報に定義された交差点を注意地点として扱う、
     請求項9に記載の車両周辺監視システム。
  12.  前記注意地点情報記憶手段は、注意地点と、当該注意地点におけるカメラ推奨度を関連付けて記憶し、
     前記制御手段は、前記カメラ推奨度が所定の値より大きい場合に、車外画像表示を行う、
     請求項8から11のいずれかに記載の車両周辺監視システム。
  13.  前記注意地点に対応する前記カメラ推奨度は、当該注意地点にて車両の運転者が手動で車外画像表示を行った回数に基づいて決定される、
     請求項12に記載の車両周辺監視システム。
  14.  前記サーバ通信手段は、運転者が手動で車外画像表示を行った場合に、前記車両の位置情報を前記サーバ装置に送信する、
     請求項13に記載の車両周辺監視システム。
  15.  前記車両は、車両の速度を取得する車速取得手段をさらに有し、
     前記サーバ通信手段は、運転者が手動で車外画像表示を行った場合に、車両の位置情報とともに前記取得した車両の速度を前記サーバ装置に送信する、
     請求項14に記載の車両周辺監視システム。
  16.  前記カメラ推奨度は、対応する注意地点にて車両の運転者が手動で車外画像表示を行った回数に、前記車両の速度に応じて決定された係数を乗じた値であり、
     前記係数は、速い速度より遅い速度においてより大きくなる、
     請求項15に記載の車両周辺監視システム。
  17.  前記車両は、車両の速度を取得する車速取得手段をさらに有し、
     前記制御手段は、車両の速度が所定の値を下回る場合に車外画像表示を行う、
     請求項8から16のいずれかに記載の車両周辺監視システム。
  18.  前記注意地点情報記憶手段は、前記カメラ推奨度と、運転者が使用した車載カメラの種別もしくは表示方法を関連付けて記憶し、
     前記制御手段は、前記カメラ推奨度と関連付けて記憶された種別の車載カメラ、もしくは表示方法を用いて車外画像表示を行う、
     請求項8から17のいずれかに記載の車両周辺監視システム。
  19.  車外を撮像する車載カメラの使用が推奨される場所である注意地点に関連する情報を記憶する注意地点情報記憶手段と、
     車両の現在位置情報を取得し、取得した位置情報に対応する注意地点での、前記車載カメラの使用が推奨される度合についての情報であるカメラ推奨度を決定するカメラ推奨度決定手段と、
     前記決定したカメラ推奨度を前記車両に送信する車両通信手段と、
     を有する、サーバ装置。
  20.  請求項19に記載のサーバ装置と通信を行う車両であって、
     車両の位置情報を取得する位置情報取得手段と、
     車両の外部を撮像する車載カメラと、
     画像を提示する表示装置と、
     前記取得した位置情報を前記サーバ装置へ送信するサーバ通信手段と、
     前記サーバ装置から受信したカメラ推奨度に基づいて、前記車載カメラから取得した画像を前記表示装置に出力する車外画像表示を行うか否かを判定する制御手段と、
     を有する車両。
  21.  車外を撮像する車載カメラと表示装置を備え、前記車載カメラの使用が推奨される場所である注意地点に関連する情報を記憶する車両が行う、車両周辺監視方法であって、
     車両の現在位置を取得するステップと、
     取得した現在位置の近傍に前記注意地点があるか否かを判定するステップと、
     前記現在位置の近傍に前記注意地点があると判定した場合に、前記車載カメラから取得した画像を前記表示装置に出力するステップと、
     を含む、車両周辺監視方法。
  22.  車外を撮像する車載カメラと表示装置を備える車両と、
     前記車載カメラの使用が推奨される場所である注意地点に関連する情報を記憶するサーバ装置と、が行う車両周辺監視方法であって、
     前記車両が、
     車両の位置情報を取得するステップと、
     前記取得した位置情報を前記サーバ装置へ送信するステップと、
     前記車載カメラから取得した画像を表示装置に出力する車外画像表示の可否を、前記サーバ装置から受信した情報に基づいて判断するステップと、
     を含み、
     前記サーバ装置が、
     前記車両の位置情報を取得し、取得した位置情報に対応する注意地点での、前記車載カメラの使用が推奨される度合についての情報であるカメラ推奨度を決定するステップと、
     前記決定したカメラ推奨度を前記車両に送信するステップと、
     を含む、車両周辺監視方法。
PCT/JP2013/069675 2012-07-20 2013-07-19 車両周辺監視装置、車両周辺監視システム WO2014014095A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/415,898 US10046701B2 (en) 2012-07-20 2013-07-19 Vehicle periphery monitoring device and vehicle periphery monitoring system
EP13819778.5A EP2876622B1 (en) 2012-07-20 2013-07-19 Vehicle-surroundings monitoring device and vehicle-surroundings monitoring system
CN201380038564.8A CN104584100B (zh) 2012-07-20 2013-07-19 车辆周边监视装置、车辆周边监视系统
US16/037,608 US10556541B2 (en) 2012-07-20 2018-07-17 Vehicle periphery monitoring device and vehicle periphery monitoring system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012161918A JP5888164B2 (ja) 2012-07-20 2012-07-20 車両周辺監視装置、車両周辺監視システム
JP2012-161918 2012-07-20

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/415,898 A-371-Of-International US10046701B2 (en) 2012-07-20 2013-07-19 Vehicle periphery monitoring device and vehicle periphery monitoring system
US16/037,608 Continuation US10556541B2 (en) 2012-07-20 2018-07-17 Vehicle periphery monitoring device and vehicle periphery monitoring system

Publications (1)

Publication Number Publication Date
WO2014014095A1 true WO2014014095A1 (ja) 2014-01-23

Family

ID=49948915

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/069675 WO2014014095A1 (ja) 2012-07-20 2013-07-19 車両周辺監視装置、車両周辺監視システム

Country Status (5)

Country Link
US (2) US10046701B2 (ja)
EP (1) EP2876622B1 (ja)
JP (1) JP5888164B2 (ja)
CN (1) CN104584100B (ja)
WO (1) WO2014014095A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11157664B2 (en) 2013-07-09 2021-10-26 Oracle International Corporation Database modeling and analysis
KR101942527B1 (ko) 2015-11-09 2019-01-25 엘지전자 주식회사 차량용 어라운드 뷰 제공 장치 및 차량
JP6512145B2 (ja) * 2016-03-22 2019-05-15 株式会社デンソー 画像処理装置、画像処理方法、及びプログラム
US11025723B2 (en) 2016-05-27 2021-06-01 Axon Enterprise, Inc. Systems and methods for mounts for recording devices
JP6642306B2 (ja) * 2016-06-29 2020-02-05 アイシン精機株式会社 周辺監視装置
CN107776487B (zh) * 2016-08-24 2021-01-15 京东方科技集团股份有限公司 汽车用辅助显示系统及显示方法、汽车
JP6846624B2 (ja) * 2017-02-23 2021-03-24 パナソニックIpマネジメント株式会社 画像表示システム、画像表示方法及びプログラム
JP6794918B2 (ja) * 2017-04-28 2020-12-02 トヨタ自動車株式会社 画像送信プログラム、及び、画像送信装置
CN107316485A (zh) * 2017-07-07 2017-11-03 深圳中泰智丰物联网科技有限公司 道路通行状态的提示方法、提示装置及终端设备
US10501085B2 (en) 2017-12-07 2019-12-10 Waymo Llc Early object detection for unprotected turns
JP7052343B2 (ja) * 2017-12-26 2022-04-12 トヨタ自動車株式会社 自律移動体および情報収集システム
JP2019117159A (ja) * 2017-12-27 2019-07-18 トヨタ自動車株式会社 車両
JP6958366B2 (ja) * 2018-01-10 2021-11-02 トヨタ自動車株式会社 画像配信装置、画像配信方法および画像配信プログラム
JP6828719B2 (ja) * 2018-06-27 2021-02-10 トヨタ自動車株式会社 車載装置および制御方法
CN110228412A (zh) * 2018-07-04 2019-09-13 蔚来汽车有限公司 车辆辅助驾驶装置及车辆辅助驾驶方法
JP7006527B2 (ja) * 2018-07-09 2022-01-24 トヨタ自動車株式会社 車載装置および車両捜索システム
JP7155750B2 (ja) * 2018-08-23 2022-10-19 トヨタ自動車株式会社 情報システムおよびプログラム
EP3617941A1 (en) * 2018-08-30 2020-03-04 Panasonic Intellectual Property Corporation of America Information processing apparatus and information processing method
JP7053440B2 (ja) * 2018-11-29 2022-04-12 本田技研工業株式会社 生成装置、生成装置の制御方法及びプログラム
JP6976298B2 (ja) * 2019-10-28 2021-12-08 三菱電機株式会社 車両用周囲監視装置および車両用周囲監視方法
CN113468358A (zh) * 2020-03-30 2021-10-01 本田技研工业株式会社 搜索辅助系统、搜索辅助方法、车载装置以及存储介质
CN111857874A (zh) * 2020-07-17 2020-10-30 上海擎感智能科技有限公司 快应用启动方法以及终端设备
CN116092039B (zh) * 2023-04-10 2023-06-16 智道网联科技(北京)有限公司 自动驾驶仿真系统的显示控制方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08293098A (ja) * 1995-04-21 1996-11-05 Nissan Motor Co Ltd 車両側方監視装置
JP2005318519A (ja) * 2004-03-31 2005-11-10 Denso Corp 車載用撮影装置
JP2007172491A (ja) * 2005-12-26 2007-07-05 Aisin Aw Co Ltd 運転支援装置、運転支援方法および運転支援プログラム
JP2008015561A (ja) * 2006-06-30 2008-01-24 Equos Research Co Ltd 情報提供車両及び運転支援装置
JP2009119895A (ja) * 2007-11-12 2009-06-04 Nissan Motor Co Ltd 車両運転支援装置および車両運転支援方法
JP2009246808A (ja) 2008-03-31 2009-10-22 Mitsubishi Motors Corp 車両用周辺監視装置
JP2012173269A (ja) * 2011-02-24 2012-09-10 Sanyo Electric Co Ltd 車載用表示装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988476A (en) * 1988-09-09 1991-01-29 Hitachi, Ltd. Method of and apparatus for evaluating deformation of channel box of fuel assembly for use in nuclear reactor
US6202009B1 (en) * 1998-12-22 2001-03-13 Ford Global Technologies, Inc. Method for detecting fault of vehicle motion sensors
JP2001233150A (ja) * 2000-02-22 2001-08-28 Yazaki Corp 車両用危険判断装置及び、車両用周辺監視装置
DE10210546A1 (de) * 2002-03-09 2003-09-18 Bosch Gmbh Robert Verfahren und System zur automatischen Fahrzeugführung
JP2003329467A (ja) * 2002-05-13 2003-11-19 Fujitsu Ten Ltd ナビゲーション装置
US7274741B2 (en) * 2002-11-01 2007-09-25 Microsoft Corporation Systems and methods for generating a comprehensive user attention model
WO2004111853A1 (ja) * 2003-06-10 2004-12-23 Fujitsu Limited 画像管理方法
JP2005210530A (ja) * 2004-01-23 2005-08-04 Nec Corp 不感地帯測定システムおよびその方法
US8130269B2 (en) * 2005-03-23 2012-03-06 Aisin Aw Co., Ltd. Visual recognition apparatus, methods, and programs for vehicles
CN101882395A (zh) * 2005-09-12 2010-11-10 松下电器产业株式会社 地图显示装置
JP4743054B2 (ja) * 2006-09-06 2011-08-10 株式会社デンソー 車両のドライブレコーダ
JP4400659B2 (ja) * 2007-09-03 2010-01-20 トヨタ自動車株式会社 車載表示装置
JP4716139B2 (ja) 2008-05-14 2011-07-06 アイシン精機株式会社 周辺監視装置
US8965670B2 (en) * 2009-03-27 2015-02-24 Hti Ip, L.L.C. Method and system for automatically selecting and displaying traffic images
JP5388683B2 (ja) * 2009-05-12 2014-01-15 キヤノン株式会社 画像配置装置、画像配置方法、プログラム及び記憶媒体
JP5552769B2 (ja) * 2009-07-29 2014-07-16 ソニー株式会社 画像編集装置、画像編集方法及びプログラム
EP2544161B1 (en) * 2010-03-03 2014-12-24 Honda Motor Co., Ltd. Surrounding area monitoring device for vehicle
GB201005320D0 (en) * 2010-03-30 2010-05-12 Telepure Ltd Improvements in controllers, particularly controllers for use in heating, ventilation and air conditioning systems
JP5395729B2 (ja) * 2010-04-20 2014-01-22 株式会社日立ソリューションズ 情報提示装置
CN102244716B (zh) * 2010-05-13 2015-01-21 奥林巴斯映像株式会社 摄像装置
JP5269002B2 (ja) * 2010-06-28 2013-08-21 株式会社日立製作所 カメラ配置決定支援装置
US20120133202A1 (en) * 2010-11-29 2012-05-31 Gm Global Technology Operations, Inc. Dynamic regenerative braking torque control
US8764606B2 (en) * 2011-06-02 2014-07-01 GM Global Technology Operations LLC Rolling neutral mode control systems and methods
US8831849B2 (en) * 2012-02-13 2014-09-09 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for traffic signal recognition
US9117371B2 (en) * 2012-06-22 2015-08-25 Harman International Industries, Inc. Mobile autonomous surveillance

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08293098A (ja) * 1995-04-21 1996-11-05 Nissan Motor Co Ltd 車両側方監視装置
JP2005318519A (ja) * 2004-03-31 2005-11-10 Denso Corp 車載用撮影装置
JP2007172491A (ja) * 2005-12-26 2007-07-05 Aisin Aw Co Ltd 運転支援装置、運転支援方法および運転支援プログラム
JP2008015561A (ja) * 2006-06-30 2008-01-24 Equos Research Co Ltd 情報提供車両及び運転支援装置
JP2009119895A (ja) * 2007-11-12 2009-06-04 Nissan Motor Co Ltd 車両運転支援装置および車両運転支援方法
JP2009246808A (ja) 2008-03-31 2009-10-22 Mitsubishi Motors Corp 車両用周辺監視装置
JP2012173269A (ja) * 2011-02-24 2012-09-10 Sanyo Electric Co Ltd 車載用表示装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP2876622A4
SIDE MONITORING SYSTEM, 20 July 2013 (2013-07-20), Retrieved from the Internet <URL:http://toyota.jp/dop/navi/lineup/option/side_monitor_system>

Also Published As

Publication number Publication date
JP2014021853A (ja) 2014-02-03
EP2876622A4 (en) 2015-06-24
EP2876622A1 (en) 2015-05-27
US10556541B2 (en) 2020-02-11
US10046701B2 (en) 2018-08-14
US20180319338A1 (en) 2018-11-08
CN104584100B (zh) 2016-10-19
EP2876622B1 (en) 2017-10-11
US20150191119A1 (en) 2015-07-09
CN104584100A (zh) 2015-04-29
JP5888164B2 (ja) 2016-03-16

Similar Documents

Publication Publication Date Title
JP5888164B2 (ja) 車両周辺監視装置、車両周辺監視システム
JP4752836B2 (ja) 道路環境情報通知装置及び道路環境情報通知プログラム
US8478518B2 (en) Traffic information processing system, statistical processing device, traffic information processing method, and traffic information processing program
JP4367353B2 (ja) 交通情報提供システム、交通情報提供センタ、車載用情報収集装置
US10586453B2 (en) Information providing system and vehicle
US7777616B2 (en) Intersection information provision system and driving assist system
US20180370530A1 (en) Predicting apparatus, prediction system, prediction method, and prediction program
US10369995B2 (en) Information processing device, information processing method, control device for vehicle, and control method for vehicle
US20110241898A1 (en) Method And System For Locating An Available Vehicle Parking Space
JP6324196B2 (ja) 情報処理装置、情報処理方法および情報処理システム
JP2004171159A (ja) 道路環境情報通知装置、車載報知装置、情報センタ内装置、及び道路環境情報通知プログラム
JP7227577B2 (ja) 交通リスク情報出力システム、及び、交通リスク情報出力プログラム
JP2006292701A (ja) 車載装置及び道路状況表示方法
JP2009061871A (ja) 画像表示システム及び画像表示装置
CN107406072A (zh) 车辆辅助系统
US11189162B2 (en) Information processing system, program, and information processing method
WO2019072461A1 (de) Parkassistenzverfahren, steuergerät zur durchführung des parkassistenzverfahrens und fahrzeug mit dem steuergerät
JP2020119560A (ja) システム、システムの制御方法および情報提供サーバ
JP4800252B2 (ja) 車載装置及び交通情報提示方法
JP2008002967A (ja) 運転支援システム
JP2008234164A (ja) 交通状況演算システム
KR20100011704A (ko) 차량 주행 정보 표시 방법 및 장치
Haupt et al. smartLDW: A smartphone-based local danger warning system
JP2012145376A (ja) ナビゲーション装置、ナビゲーション方法及び情報管理サーバー
JP4955800B2 (ja) 風景画像合成装置、風景画像合成方法及び風景画像合成プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13819778

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14415898

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2013819778

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013819778

Country of ref document: EP