WO2019244338A1 - 出力制御装置、出力制御方法、取締情報管理サーバ - Google Patents

出力制御装置、出力制御方法、取締情報管理サーバ Download PDF

Info

Publication number
WO2019244338A1
WO2019244338A1 PCT/JP2018/023802 JP2018023802W WO2019244338A1 WO 2019244338 A1 WO2019244338 A1 WO 2019244338A1 JP 2018023802 W JP2018023802 W JP 2018023802W WO 2019244338 A1 WO2019244338 A1 WO 2019244338A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
output
output control
enforcement
unit
Prior art date
Application number
PCT/JP2018/023802
Other languages
English (en)
French (fr)
Inventor
山本 和宏
下谷 光生
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2018/023802 priority Critical patent/WO2019244338A1/ja
Priority to JP2020525195A priority patent/JP7195715B2/ja
Publication of WO2019244338A1 publication Critical patent/WO2019244338A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • This invention relates to display control of road control information.
  • Patent Document 1 discloses a technique for notifying a driver of a vehicle of a dangerous place on a road.
  • a driving risk is set based on a detection result of a surrounding object, and a warning or the like is displayed on a display monitor based on the driving risk to support a driver's safe driving and the like.
  • Patent Literature 1 the driving risk is set based on the detection result of the surrounding objects, but the driving risk does not always match the actual road condition.
  • public enforcement agencies are aware of the road conditions, for example, at places where accidents are likely to occur. For this reason, it is possible to perform more appropriate driving support by utilizing the control information of the control agency, but the technique of Patent Document 1 is not such.
  • the present invention has been made in view of the above-described problems, and has as its object to support appropriate driving using regulatory information.
  • the output control device includes, using an image captured by a camera mounted on a vehicle, a detection unit that detects a point or a section of a road on which traffic control is being performed as a control area, and position information of the control area.
  • the control device includes a storage unit that stores the control information and an output control unit that controls an output of an output device mounted on the vehicle using the control information.
  • the output control method of the present invention uses a captured image of a camera mounted on a vehicle to detect a point or a section of a road on which traffic control is being performed as a control area, and obtain control information including position information of the control area.
  • the output is stored, and the output of the output device mounted on the vehicle is controlled using the control information.
  • the enforcement information management server of the present invention is detected using an image captured by a camera mounted on a vehicle, enforcement information including position information of an enforcement area that is a point or a section of a road on which traffic enforcement is performed,
  • An output unit is provided for acquiring output information from an output control device that controls an output device mounted on a vehicle, a storage unit that accumulates enforcement information, and an output unit that outputs the enforcement information to the output control device.
  • the output control of the output device mounted on the vehicle is performed using the control information, appropriate driving support for the driver can be performed.
  • FIG. 2 is a block diagram illustrating a configuration of an output control device according to the first embodiment.
  • 6 is a flowchart illustrating a cautionary data creation process by the output control device according to the first embodiment.
  • FIG. 9 is a configuration diagram of an output control system according to a second embodiment.
  • FIG. 10 is a block diagram illustrating a configuration of an output control device according to a second embodiment. It is a figure which shows the detection method of traffic control. It is a figure which shows the detection method of traffic control. It is a figure which shows the detection method of traffic control. It is a figure which shows the detection method of traffic control. It is a figure which shows the detection method of traffic control. It is a figure which shows the detection place of the target object which should detect traffic control.
  • FIG. 12 is a flowchart illustrating a cautionary data creation process of the detection unit 11 in the situation illustrated in FIG. 14 is a flowchart illustrating a cautionary data creation process of the detection unit 11 in the situation illustrated in FIG. 13. It is a figure which shows caution data. It is a figure showing a point of interest. It is a figure showing a caution section. It is a figure showing a caution section. It is a figure showing a violation history.
  • FIG. 7 is a diagram illustrating a setting screen for caution data and a violation history. It is a figure showing a caution data registration screen. It is a figure showing an image registration screen. It is a figure showing a position information registration screen. It is a figure showing a cautionary data list screen. It is a figure showing a caution data edit screen. It is a figure showing a violation history registration screen. It is a figure showing a violation type selection screen. It is a figure showing a violation history list screen. It is a flowchart which shows the transmission process of cautionary data. It is a flowchart which shows the download process of cautionary data. It is a figure showing signs that a notice of a control field is performed by sound.
  • FIG. 13 is a block diagram illustrating a configuration of an output control device according to a third embodiment.
  • FIG. 3 is a diagram illustrating a hardware configuration of an output control device.
  • FIG. 3 is a diagram illustrating a hardware configuration of an output control device.
  • FIG. 1 is a block diagram illustrating a configuration of the output control device 101 according to the first embodiment.
  • the output control device 101 controls the output of the output device mounted on the vehicle based on the cautionary data regarding traffic control.
  • the output control device 101 is connected to a camera 31, a GPS (Global Positioning System) terminal 32, an in-vehicle monitor 33, and an in-vehicle speaker 36, so that these can be used.
  • the cameras 31 are attached to, for example, the front, rear, left and right of the vehicle, respectively, and photograph the periphery of the vehicle.
  • the GPS terminal 32 is mounted on a vehicle and receives a GPS signal.
  • the in-vehicle monitor 33 is a display device mounted in the cabin of the vehicle, and is, for example, a car navigation or head unit display, a head-up display, a center display, or the like.
  • the in-vehicle speaker 36 is a speaker mounted in the cabin of the vehicle.
  • the output control device 101 includes a detection unit 11, a data storage unit 12, an output control unit 13, and a position information acquisition unit 14.
  • the position information acquisition unit 14 acquires a GPS signal from the GPS terminal 32 at any time such as a fixed period, and grasps position information of the vehicle based on the acquired GPS signal.
  • the position information acquired by the position information acquisition unit 14 is output to the detection unit 11 and the output control unit 13.
  • the detection unit 11 acquires a captured image of the camera 31 and analyzes the captured image to detect a point or a section on a road where traffic control is being performed.
  • the detection unit 11 estimates the position information of the control area, which is a point or a section on the road where the control is performed, from the position information of the vehicle acquired from the position information acquisition unit 14, and Is stored in the data storage unit 12 as caution data.
  • the detection unit 11 stores the data requiring attention in the data storage unit 12 each time traffic detection is detected.
  • the data storage unit 12 functions as a storage unit that stores the caution data.
  • the data storage unit 12 stores various data required for the operation of the output control device 101, such as map data, in addition to cautionary data.
  • the output control unit 13 controls the output of the in-vehicle monitor 33 or the in-vehicle speaker 36 based on the vehicle position information acquired from the position information acquisition unit 14 and the caution data acquired from the data storage unit 12.
  • the in-vehicle monitor 33 or the in-vehicle speaker 36 is an example of an output device whose output is controlled by the output control unit 13, and only one of these may be used as the output device.
  • FIG. 2 is a flowchart showing a process of creating data requiring attention by the output control device 101 according to the first embodiment.
  • the output control device 101 starts the flow of FIG. 2 when the vehicle starts running, for example.
  • step S101 it is determined whether the detection unit 11 has detected traffic control.
  • the detection unit 11 periodically acquires a captured image from the camera 31 and analyzes the captured image to determine whether or not traffic control is being performed. If the detecting unit 11 does not detect the traffic control, the process repeats step S101, and always determines whether the traffic control is performed from the latest captured image.
  • the detecting unit 11 detects the traffic control
  • the position information of the vehicle is acquired from the position information acquiring unit 14 (Step S102). Further, the detecting unit 11 estimates position information of the control area from the position information of the vehicle, creates cautionary data including the estimated position information of the control area, and stores the data in the data storage unit 12 (step S103). After that, the process of the output control device 101 returns to step S101. By such a process, cautionary data is created each time the detection unit 11 detects traffic control.
  • the output control unit 13 controls the output of the in-vehicle monitor 33 or the in-vehicle speaker 36 based on the caution data acquired from the data storage unit 12.
  • the output control device 101 includes: a detection unit 11 that detects a point or a section of a road on which traffic control is performed as a control area using an image captured by a camera 31 mounted on a vehicle;
  • the control device includes a data storage unit 12 that is a storage unit that stores control information including area position information, and an output control unit 13 that controls an output of an output device mounted on the vehicle using the control information. Therefore, according to the output control device 101, when the vehicle travels in a place where the control has been performed in the past, the driver is notified of the place, so that appropriate driving can be prompted.
  • the output control method detects a point or a section of a road on which traffic control is performed as a control area using an image captured by the camera 31 mounted on the vehicle, and detects a position of the control area.
  • the control information including information is accumulated, and the output of the output device mounted on the vehicle is controlled using the control information. Therefore, according to the output control method according to the first embodiment, when the vehicle travels in a place where the control was performed in the past, the driver is notified of the place, so that appropriate driving can be prompted.
  • FIG. 3 is a configuration diagram of the output control system according to the second embodiment.
  • the output control system according to the second embodiment includes an ECU 51 mounted on each of a plurality of vehicles 50, and a server 40 that communicates with the ECU 51 via a network 52.
  • the output control device is realized by the ECU 51 mounted on the vehicle 50, and this is an example of the hardware configuration of the output control device.
  • the server 40 manages the cautionary data created in each vehicle 50 and provides the cautionary data to each vehicle 50 so that the cautionary data can be effectively utilized between the vehicles 50.
  • Server Although three vehicles 50 are illustrated in FIG. 3, the number of vehicles 50 that cooperate with server 40 is not limited to three.
  • FIG. 4 is a block diagram showing a configuration of the output control device 102 according to the second embodiment.
  • the output control device 102 includes a camera 31, a GPS terminal 32, an in-vehicle monitor 33, an in-vehicle speaker 36, a microphone 34, and a vehicle speed sensor 35, and is configured to be able to use these.
  • the output control device 102 includes a detection unit 11, a data storage unit 12, an output control unit 13, a communication unit 15, an input reception unit 16, and a vehicle information acquisition unit 17.
  • the same or corresponding components have the same reference characters allotted.
  • the communication unit 15 transmits and receives data to and from the communication unit 41 of the server 40. Communication between the server 40 and the output control device 102 may be performed via a communication module or may be performed directly. Specifically, the communication unit 15 transmits the sensitive data stored in the data storage unit 12 of the output control device 102 to the communication unit 41, and transmits the sensitive data stored in the data storage unit 42 of the server 40 to the communication unit 41. 41.
  • the input receiving unit 16 is an input interface that receives an input operation of the user (for example, a driver) on the output control device 102.
  • the input interface is configured by a touch panel
  • the input receiving unit 16 is configured as a touch panel integrated with the in-vehicle monitor 33.
  • the vehicle information acquisition unit 17 acquires the position information of the vehicle 50 from the GPS terminal 32 and the speed information from the vehicle speed sensor 35 as the vehicle information.
  • the microphones 34 are mounted, for example, on the front, rear, left and right sides of the vehicle 50, and collect sounds around the vehicle 50.
  • the detection unit 11 acquires the image captured by the camera 31 and the sound collected by the microphone 34, and detects a traffic control implemented on the road based on these. More specifically, when a specific object related to traffic control, such as a control vehicle or a bulletin board, appears in an image captured by the camera 31, the detection unit 11 performs traffic control at a point or section where the target exists. It can be determined that it is being implemented.
  • the server 40 includes a communication unit 41, a data storage unit 42, and a processing operation unit 43.
  • the communication unit 41 transmits and receives the sensitive data to and from the communication unit 15 of the output control device 102. That is, the communication unit 41 functions as an acquisition unit that acquires the data requiring attention from the output control device 102 and an output unit that outputs the data requiring attention to the output control device 102.
  • the data storage unit 42 stores the cautionary data received by the communication unit 41 from the output control device 102. That is, the data storage unit 42 functions as a storage unit that stores the caution data.
  • the processing operation unit 43 totals and arranges the data requiring attention stored in the data storage unit 42.
  • FIGS. 5 to 9 illustrate specific objects related to traffic control.
  • FIG. 5 shows a state in which a police vehicle 53 such as a police car is located in front of the vehicle 50.
  • the image of the camera 31 shows the enforcement vehicle 53.
  • the detection unit 11 determines whether the vehicle in the captured image is the enforcement vehicle 53 based on at least one of the color and shape of the vehicle, characters written on the vehicle body, and the presence or absence of a warning light. Information such as the color, shape, and characters of the vehicle used for the determination by the detection unit 11 is assumed to be stored in the data storage unit 12.
  • the detection unit 11 can detect the execution of traffic control when the control vehicle 53 is reflected in the image captured by the camera 31.
  • FIG. 6 shows a situation in which a check such as a drinking check is being performed in front of the vehicle 50.
  • the bulletin board 55 indicating "Checking" or the like appears in the image captured by the camera 31.
  • the detecting unit 11 detects a traffic control when it is determined that the bulletin board is related to the check based on the size of the bulletin board or characters written on the bulletin board.
  • the bulletin board includes an electronic bulletin board.
  • FIG. 7 shows a situation in which the enforcement vehicle 53 raises a stop flag in front of the vehicle 50.
  • a stop flag 56 indicating “stop” or the like is reflected. If the detection unit 11 determines that the stop flag 56 is reflected in the captured image from the shape, color, characters, and the like of the flag, the detection unit 11 detects traffic control. As described above, the detection unit 11 detects the control area based on the control vehicle 53, the bulletin board 55, or the stop flag 56 shown in the captured image.
  • FIG. 8 shows a situation where the enforcement vehicle 53 is stopped in front of the vehicle 50 and the road cone 57 is placed around the enforcement vehicle 53.
  • the detection unit 11 determines that the traffic control vehicle 53 is reflected in the captured image, and further detects the traffic control when determining that the road cone 57 is reflected around the traffic control vehicle 53. Further, the presence of a person wearing a helmet around the control vehicle 53 may be used as a traffic control detection condition.
  • FIG. 9 shows a situation in which the vehicle 53 is running in front of the vehicle 50 by sounding a siren.
  • the image captured by the camera 31 shows the enforcement vehicle 53.
  • the sound collected by the microphone 34 includes a sound of a siren.
  • the detection unit 11 detects traffic control when the control vehicle 53 is reflected in the image captured by the camera 31 and the sound collected by the microphone 34 includes a siren. By using the sound collected by the microphone 34, the accuracy of detection is improved. Further, when detecting the siren from the sound collected by the microphone 34, the detection unit 11 may increase the frequency of acquiring images captured by the camera 31.
  • FIGS. 5 to 9 have described that the detection unit 11 detects traffic control when a specific object related to traffic control is included in the captured image.
  • the detection unit 11 may detect the traffic control in consideration of not only the target object to be detected but also the detection location of the target object.
  • FIG. 10 to FIG. 14 show the detection locations of the objects to be detected for traffic control.
  • FIG. 10 shows a state in which the enforcement vehicle 53 is traveling in front of the vehicle 50 in the same lane.
  • the detection unit 11 detects traffic control.
  • FIG. 11 shows a state where the enforcement vehicle 53 is stopped in parallel with another vehicle 59 on the road shoulder.
  • the detection unit 11 detects traffic control.
  • FIG. 15 is a flowchart illustrating the sensitive data creation processing of the detection unit 11 in the situation illustrated in FIG. The flow in FIG. 15 starts, for example, when the traveling of the vehicle 50 starts.
  • the detecting unit 11 obtains an image captured by the camera 31, analyzes the captured image, and determines whether the enforcement vehicle 53 is on the shoulder of the road (step S201). If the control vehicle 53 is not on the road shoulder, the detection unit 11 repeats step S201. If the control vehicle 53 is on the road shoulder, the detection unit 11 determines whether there is a general vehicle before and after the control vehicle 53 (step S202).
  • step S203 determines whether a driver is sitting in the driver's seat of the general vehicle. If the driver is sitting in the driver's seat of the general vehicle, the flow of FIG. 15 returns to step S201. If the driver is sitting on the driver's seat of the general vehicle, the detecting unit 11 determines whether or not a person is sitting on the rear seat of the enforcement vehicle 53 (step S204). If no person is sitting on the rear seat of the control vehicle 53, the flow of FIG. 15 returns to step S201. If a person is sitting on the rear seat of the enforcement vehicle 53, the detection unit 11 determines that enforcement by the enforcement vehicle 53 is being performed, and creates caution data (step S205).
  • FIG. 12 shows a state where the enforcement vehicle 53 is on a one-way road such as a side road. In such a case, the detection unit 11 detects traffic control.
  • FIG. 13 shows a state where the enforcement vehicle 53 is around the stop line.
  • the detection unit 11 detects the enforcement.
  • FIG. 16 is a flowchart illustrating the sensitive data creation processing of the detection unit 11 in the situation illustrated in FIG. The flow in FIG. 16 starts, for example, when the vehicle 50 starts running.
  • the detection unit 11 determines whether or not the vehicle 50 has passed the stop line based on the vehicle position information acquired from the vehicle information acquisition unit 17 and the map data acquired from the data storage unit 12 ( Step S301). If the vehicle 50 does not pass through the stop line, the detecting unit 11 repeats Step S301.
  • the detection unit 11 determines whether there is a road that intersects with the traveling road of the vehicle 50 ahead of the stop line based on the map data (step S302). If there is no road intersecting with the traveling road of the vehicle 50, the flow of FIG. 16 returns to step S301. If there is a road that intersects with the traveling road of the vehicle 50, the detection unit 11 determines from the image captured by the camera 31 whether the enforcement vehicle 53 is ahead of the road that intersects with the traveling road of the vehicle 50 (step S303). . If there is no control vehicle 53, the flow of FIG. 16 returns to step S301.
  • the detection unit 11 determines whether or not there is a stop line at the stop position of the control vehicle 53 (step S304). If there is a stop line at the stop position of the enforcement vehicle 53, the detection unit 11 determines that the enforcement vehicle 53 is only stopped at the stop line, and proceeds to the process of step S301 without creating caution data. Return. On the other hand, if there is no stop line at the stop position of the enforcement vehicle 53, the detection unit 11 determines that the enforcement vehicle 53 is under the enforcement of the suspension violation, and creates caution data (step S305).
  • FIG. 14 shows a state where the enforcement vehicle 53 is around the railroad crossing. In such a case, the detection unit 11 can detect the enforcement.
  • FIGS. 10 to 14 show an example of a detection location of an object to be detected for traffic control, and other examples are also assumed.
  • the detection unit 11 detects the enforcement vehicle 53 at the shoulder of a road that is higher in altitude than the main line of the road that joins the main line.
  • the detection-required data may be created.
  • the detection unit 11 may determine that the enforcement of the violation of the obligation to fasten the seat belt is being performed, and may create the data requiring caution.
  • the detection unit 11 may determine that a violation of the obligation to wear a seat belt is being enforced, and may create cautionary data.
  • the caution data includes image data of a captured image of the camera 31 in which the control area is reflected, time information at the time of detection of the control, position information of the control area, weather information, and violation type information.
  • the weather information includes information such as weather or temperature.
  • a suspension violation can be set as the violation type information.
  • the detection unit 11 can set the weather from the operation state of the wiper of the vehicle 50 acquired by the vehicle information acquisition unit 17, for example.
  • the temperature can be set from the temperature measured by the temperature sensor mounted on the vehicle 50 acquired by the vehicle information acquisition unit 17.
  • the driver can edit the cautionary data created in this way.
  • the enforcement area may be a point on the road or a fixed section.
  • the former is called a control point, and the latter is called a control section.
  • the detection unit 11 determines the position of the vehicle 50 at that point in time. 62 may be used. Thereby, the control point 62 can be easily set.
  • the detection unit 11 determines the road on which the vehicle 50 is traveling. May be set as the control section 63. Also, as shown in FIG. 20, when the detection unit 11 detects that the enforcement vehicle 53 is running ahead of the vehicle 50 on the highway, the detection unit 11 performs the same IC section including the current position of the vehicle 50, That is, a section from the nearest IC entrance to the next IC exit may be set as the control section 63.
  • the data storage unit 12 stores the history of violations of the driver of the vehicle 50.
  • the violation history includes image data of a captured image of the camera 31 at the time of the violation, time information at the time of the violation, and violation type information.
  • the violation history may be automatically created by the detection unit 11 when a driver performs a specific operation on the input receiving unit 16, for example, when a specific button is pressed, or the driver may generate the violation history. 16 may be created by manually inputting each item of the violation history. Further, the driver can manually edit the violation history stored in the data storage unit 12.
  • the detection unit 11 or the input reception unit 16 functions as a violation history acquisition unit that acquires a violation history including a type of traffic violation performed by the driver of the vehicle 50 in the past.
  • FIG. 22 When manually registering or editing the sensitive data and the violation history, use the setting screen shown in FIG.
  • the setting screen in FIG. 22 is displayed on the in-vehicle monitor 33 under the control of the output control unit 13.
  • a sensitive data registration button 64 On this setting screen, a sensitive data registration button 64, a sensitive data edit button 65, a violation history registration button 66, and a violation history edit button 67 are displayed.
  • the caution data registration button 64 is pressed, the screen of the in-vehicle monitor 33 transits to a caution data registration screen shown in FIG.
  • the sensitive data registration screen the registration status of each item of sensitive data such as image, time, position information, weather, violation type, and device information is shown.
  • the device information indicates an operation state of a device of the vehicle 50 such as a headlight or a wiper.
  • the screen of the in-vehicle monitor 33 transits to the image registration screen of FIG.
  • the current captured image 70 of the camera 31 is displayed.
  • the driver can temporarily determine the currently displayed captured image 70 by pressing the capture button, and register the captured image 70 as an image of the restricted area by pressing the registration button.
  • the position information button 69 is pressed on the caution data registration screen
  • the screen of the in-vehicle monitor 33 transits to the position information registration screen shown in FIG.
  • a map 71 is displayed. The driver can scroll the map 71 on the screen and register a designated point 72 on the map 71 as a point of the control area. The above is the operation of registering the caution data.
  • the cautionary data edit button 65 When the cautionary data edit button 65 is pressed on the setting screen of FIG. 22, the screen of the in-vehicle monitor 33 transits to a data list screen shown in FIG. On the data list screen, the registration date, distance, and violation type are displayed for each registered cautionary data. The distance indicates the distance from the current location of the vehicle 50 to the enforcement area.
  • the output control unit 13 may sort the data requiring attention based on the information of the pressed button.
  • the screen of the in-vehicle monitor 33 transits to a caution data editing screen shown in FIG.
  • the sensitive data edit screen similarly to the sensitive data registration screen, the registration status of each item of sensitive data such as image, time, position information, weather, violation type, and device information is shown. The driver can select an item to be edited on the screen and edit it.
  • the violation history registration button 66 When the violation history registration button 66 is pressed on the setting screen of FIG. 22, the screen of the in-vehicle monitor 33 transits to a violation history registration screen shown in FIG.
  • the violation history registration screen shows the registration status of each item such as image, time, position information, weather, violation type, and device information.
  • the violation type button 73 On the violation history registration screen, the screen of the in-vehicle monitor 33 transits to a violation type selection screen shown in FIG. The driver can select a corresponding violation type from the violation type selection screen.
  • the violation history edit button 67 When the violation history edit button 67 is pressed on the setting screen of FIG. 22, the screen of the in-vehicle monitor 33 transits to a violation history list screen shown in FIG. On the violation history list screen, the registration date and violation type of the violation history are displayed. When the driver presses each button of the registration date or violation type, the output control unit 13 may sort the violation history based on the information of the pressed button. The driver can select and edit the violation history to be edited on the screen.
  • FIG. 31 is a flowchart showing a process for transmitting the cautionary data from the output control device 102 to the server 40.
  • the flow in FIG. 31 starts, for example, after the accessory power supply of the vehicle 50 is turned on and power is supplied to the output control device 102.
  • the communication unit 15 determines whether or not cautionary data that has not been transmitted to the server 40 is stored in the data storage unit 12 (step S401). If untransmitted caution data is not stored in the data storage unit 12, the communication unit 15 repeats the process of step S401.
  • the communication unit 15 transmits the cautionary data to the server 40 (step S402), and returns to the process of step S401.
  • the sensitive data is transmitted to the server 40.
  • FIG. 32 is a flowchart showing a process of downloading the data requiring attention from the server 40 to the output control device 102.
  • the processing operation unit 43 of the server 40 determines whether or not there is any caution data newly stored in the data storage unit 42 (step S501). If there is newly stored caution data, the communication unit 41 transmits the caution data to another output control device 102 other than the output control device 102 to which the caution data is received (step S ⁇ b> 1). S502). Then, the operation of the server 40 returns to Step S501.
  • the server 40 may transmit new cautionary data to the output control device 102 after waiting for an inquiry from the output control device 102.
  • the cautionary data can be shared between the plurality of output control devices 102 via the server 40.
  • the data storage unit 12 as the storage unit stores the sensitive data, which is the enforcement information, in the server 40 outside the output control device 102. Then, the output control unit 13 controls the output of the output device using the cautionary data acquired from the server 40. Therefore, the server 40 and the plurality of output control devices 102 can share the data requiring caution. Accordingly, each output control device 102 can control the output of the output device using the cautionary data created by itself and the cautionary data created by another output control device 102.
  • FIGS. 33 to 36 show a state in which a sound is issued when the vehicle 50 approaches a predetermined distance from the enforcement area, for example, within 100 m.
  • the balloon attached to the vehicle 50 in these figures indicates that the notification sound is being output from the in-vehicle speaker 36.
  • the output control device 102 gives an audio notification when the vehicle 50 approaches within a predetermined distance from the enforcement point 62, for example, within 100 m.
  • the output control unit 13 acquires the cautionary data from the data storage unit 12 and acquires the position information of the vehicle 50 from the vehicle information acquisition unit 17.
  • the output control unit 13 controls the in-vehicle speaker 36 to output a notification sound.
  • the violation type of the enforcement in the enforcement area is speed in the examples of FIGS. 33 and 34, a stop at a railroad crossing in the example of FIG. 35, and a stop at a stop line in the example of FIG.
  • the driver can grasp the details of the control and can be prompted to drive appropriately.
  • the notification sound is, for example, "There is a point where the speed is likely to exceed in the future. Please travel within a safe speed limit.”
  • the notification sound is, for example, "There is a point where the speed is likely to exceed in the future. Please travel within the safe speed limit.”
  • FIG. 34 the notification sound is, for example, "There is a point where the speed is likely to exceed in the future. Please travel within the safe speed limit.”
  • FIG. 33 the notification sound is, for example, "There is a point where the speed is likely to exceed in the future. Please travel within the safe speed limit.”
  • the notification sound is, for example, "This is a crossing ahead.
  • the notification sound is, for example, "It is a danger point where a rear-end collision will occur.
  • the output control unit 13 can cause the in-vehicle speaker 36 to output the notification sound when the vehicle 50 enters within a predetermined distance from the enforcement area.
  • FIGS. 33 to 36 show examples of notification by voice, but the output control device 102 can also perform notification by display using the in-vehicle monitor 33.
  • the notification by the display is performed, for example, when the vehicle 50 approaches a predetermined distance, for example, within 100 m from the enforcement area, similarly to the notification by voice.
  • the output control unit 13 may display the captured image 70 of the control area included in the caution data as shown in FIG. 37 on the in-vehicle monitor 33, or as shown in FIG.
  • a map 71 indicating the position information of the area may be displayed on the in-vehicle monitor 33.
  • the output control unit 13 can cause the in-vehicle monitor 33 to output a notification display when the vehicle 50 enters within a predetermined distance from the enforcement area.
  • the bar may be notified to the driver by superimposing and displaying a bar 74 at a position indicating the control region in the map around the own vehicle position of the vehicle 50.
  • the driver can intuitively grasp the positional relationship between the vehicle 50 and the enforcement area.
  • the color of the bar 74 may be changed according to the degree of caution of the data requiring caution, so that the driver can grasp the degree of caution of the data requiring caution.
  • the bar 74 may be made more conspicuous or thicker as the cautionary data has a higher degree of caution.
  • the degree of caution is an index that the output control unit 13 sets for each violation type based on the driver's violation history.
  • the alert level is set high for a violation type in which the driver has violated a large number of times in the past. For example, it is assumed that four violation histories of the driver are stored in the data storage unit 12, of which three violation histories are speed violations, and one violation history is a suspension violation. In that case, the output control unit 13 sets a high degree of caution for the speed violation that is the most violating type, sets a medium level of caution for the speed violation that is the next most violating type, Set a small attention level for the violation type.
  • the output control unit 13 may notify the driver of only the cautionary data of the violation type with a high degree of caution to the driver. In any case, the output control unit 13 controls the output of the output device based on the degree of caution of the data requiring caution, so that the control area can be notified according to the driver.
  • the output control device 102 according to the second embodiment urges the driver to perform appropriate driving by notifying the driver by voice or display when the vehicle 50 approaches the control area.
  • the output control device 103 according to the third embodiment prompts the driver to perform appropriate driving by performing guidance display of a route that does not pass through the control area.
  • FIG. 40 is a block diagram showing a configuration of the output control device 103 according to the third embodiment.
  • the output control device 103 is connected to the camera 31, the GPS terminal 32, the in-vehicle monitor 33, the microphone 34, and the vehicle speed sensor 35, and can use these.
  • the output control device 103 includes a route search unit 18 in addition to the configuration of the output control device 102 according to the second embodiment.
  • the configuration of the output control device 103 other than the route search unit 18 is the same as that of the output control device 102.
  • the route searching unit 18 performs a process from the current position of the vehicle to the destination based on the position information of the vehicle acquired from the vehicle information acquiring unit 17, the map data and the caution data acquired from the data storage unit 12, and the destination of the vehicle. To find the route. At this time, the route search unit 18 searches for a route that avoids the enforcement area, that is, a route that does not pass through the enforcement area, based on the position information included in the caution data. Note that the route search unit 18 may search for a route that avoids only the control region with a high degree of attention described in the second embodiment, instead of avoiding all the control regions.
  • the output control unit 13 causes the in-vehicle monitor 33 to provide guidance display of the route searched by the route search unit 18. By driving along the guidance display of the in-vehicle monitor 33, the driver can perform appropriate driving while avoiding the control area.
  • the route search unit 18 searches for a route that avoids the enforcement area.
  • the route search unit 18 may determine the use priority of the road at the time of the route search according to the violation type of the driver's violation history described in the second embodiment. For example, when the driver has a violation history of a speed violation, the route search unit 18 lowers the use priority of a road that easily outputs a speed equal to or higher than the speed limit. “Roads that are likely to produce speeds higher than the speed limit” include, for example, roads with a small traffic volume, roads with long traffic signal installation intervals, and long straight roads.
  • the route search unit 18 When the driver has a violation history of the suspension, the route search unit 18 lowers the use priority of the road on which there is no traffic light and there is a suspension line. In addition, when the driver has a history of violation of the temporary stop at the railroad crossing, the route search unit 18 lowers the use priority of the road having the railroad crossing. As a result, the road on which the driver tends to violate the traffic can be excluded from the traveling route, and the driver can perform appropriate driving.
  • the detection unit 11, the data storage unit 12, the output control unit 13, the position information acquisition unit 14, and the route search unit 18 in the output control devices 101, 102, and 103 described above are realized by the processing circuit 81 illustrated in FIG. . That is, the processing circuit 81 includes the detection unit 11, the output control unit 13, the position information acquisition unit 14, and the route search unit 18 (hereinafter, referred to as the “detection unit 11 and the like”). As the processing circuit 81, dedicated hardware may be applied, or a processor that executes a program stored in a memory may be applied.
  • the processor is, for example, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like.
  • the communication unit 15 is realized by a communication interface, and the data storage unit 12 is realized by a storage medium such as an HDD.
  • the processing circuit 81 When the processing circuit 81 is dedicated hardware, the processing circuit 81 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable). Gate Array) or a combination of these.
  • the function of each unit such as the detection unit 11 may be realized by a plurality of processing circuits 81, or the function of each unit may be realized by one processing circuit.
  • the processing circuit 81 When the processing circuit 81 is a processor, the functions of the detection unit 11 and the like are realized by a combination of software and the like (software, firmware or software and firmware). Software and the like are described as programs and stored in a memory. As shown in FIG. 42, a processor 82 applied to the processing circuit 81 reads out and executes a program stored in a memory 83 to realize the function of each unit. That is, when the output control devices 101, 102, and 103 are executed by the processing circuit 81, the output control devices 101, 102, and 103 use the image captured by the camera 31 mounted on the vehicle 50 to determine the point or section of the road on which traffic control is being performed.
  • a memory 83 for storing a program to be executed as a result.
  • this program causes a computer to execute the procedure and method of the detection unit 11 and the like.
  • the memory 83 includes, for example, a non-volatile memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), and an EEPROM (Electrically Erasable Programmable Read Only Memory).
  • volatile semiconductor memory HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disk) and its drive device, or any storage medium used in the future There may be.
  • the present invention is not limited to this, and a configuration in which a part of the detection unit 11 and the like is realized by dedicated hardware and another part is realized by software and the like may be used.
  • the function of the detection unit 11 is realized by a processing circuit as dedicated hardware, and the processing circuit 81 as the processor 82 otherwise reads and executes a program stored in the memory 83 to execute the function. Can be realized.
  • the processing circuit can realize each function described above by hardware, software, or the like, or a combination thereof.
  • the data storage unit 12 is configured by the memory 83, they may be configured by a single memory 83 or may be configured by individual memories.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

本発明は、取締情報を用いて適切な運転を支援することを目的とする。本発明の出力制御装置は、車両(50)に搭載されたカメラ(31)の撮影画像を用いて、交通取締が行われている道路の地点または区間を取締領域として検出する検出部(11)と、取締領域の位置情報を含む取締情報を蓄積する蓄積部(12)と、取締情報を用いて車両(50)に搭載された出力装置の出力を制御する出力制御部(13)と、を備える。

Description

出力制御装置、出力制御方法、取締情報管理サーバ
 この発明は、道路の取締情報の表示制御に関する。
 特許文献1には、道路上の危険個所を車両のドライバに通知する技術が開示されている。特許文献1の技術では、周辺の物体の検知結果に基づき走行危険度を設定し、走行危険度に基づき表示モニタに注意喚起等の表示を行い、ドライバの安全走行等を支援している。
特開2014-211756号公報
 特許文献1の技術では、周辺の物体の検知結果に基づき走行危険度を設定するが、走行危険度が必ずしも実際の道路状況に適合しているとは限らない。その一方で、公共の取締機関は道路状況を把握しており、例えば事故が発生しやすい地点等で取締を行っている。そのため、取締機関の取締情報を活用すれば、より適切な運転支援を行うことが可能であるが、特許文献1の技術はそのようなものではなかった。
 本発明は上述の問題点に鑑み、取締情報を用いて適切な運転を支援することを目的とする。
 本発明の出力制御装置は、車両に搭載されたカメラの撮影画像を用いて、交通取締が行われている道路の地点または区間を取締領域として検出する検出部と、取締領域の位置情報を含む取締情報を蓄積する蓄積部と、取締情報を用いて車両に搭載された出力装置の出力を制御する出力制御部と、を備える。
 本発明の出力制御方法は、車両に搭載されたカメラの撮影画像を用いて、交通取締が行われている道路の地点または区間を取締領域として検出し、取締領域の位置情報を含む取締情報を蓄積し、取締情報を用いて車両に搭載された出力装置の出力を制御する。
 本発明の取締情報管理サーバは、車両に搭載されたカメラの撮影画像を用いて検出された、交通取締が行われている道路の地点または区間である取締領域の位置情報を含む取締情報を、車両に搭載された出力装置を出力制御する出力制御装置から取得する取得部と、取締情報を蓄積する蓄積部と、取締情報を出力制御装置に出力する出力部と、を備える。
 本発明によれば、取締情報を用いて車両に搭載された出力装置の出力制御が行われるため、ドライバに対する適切な運転支援が可能となる。
実施の形態1の出力制御装置の構成を示すブロック図である。 実施の形態1の出力制御装置による要注意データ作成処理を示すフローチャートである。 実施の形態2の出力制御システムの構成図である。 実施の形態2の出力制御装置の構成を示すブロック図である。 交通取締の検出方法を示す図である。 交通取締の検出方法を示す図である。 交通取締の検出方法を示す図である。 交通取締の検出方法を示す図である。 交通取締の検出方法を示す図である。 交通取締を検出すべき対象物の検出場所を示す図である。 交通取締を検出すべき対象物の検出場所を示す図である。 交通取締を検出すべき対象物の検出場所を示す図である。 交通取締を検出すべき対象物の検出場所を示す図である。 交通取締を検出すべき対象物の検出場所を示す図である。 図11に示す状況における検出部11の要注意データ作成処理を示すフローチャートである。 図13に示す状況における検出部11の要注意データ作成処理を示すフローチャートである。 要注意データを示す図である。 要注意地点を示す図である。 要注意区間を示す図である。 要注意区間を示す図である。 違反履歴を示す図である。 要注意データと違反履歴の設定画面を示す図である。 要注意データ登録画面を示す図である。 画像登録画面を示す図である。 位置情報登録画面を示す図である。 要注意データ一覧画面を示す図である。 要注意データ編集画面を示す図である。 違反履歴登録画面を示す図である。 違反種別選択画面を示す図である。 違反履歴一覧画面を示す図である。 要注意データの送信処理を示すフローチャートである。 要注意データのダウンロード処理を示すフローチャートである。 音声による取締領域の報知が行われる様子を示す図である。 音声による取締領域の報知が行われる様子を示す図である。 音声による取締領域の報知が行われる様子を示す図である。 音声による取締領域の報知が行われる様子を示す図である。 取締領域の報知表示の例を示す図である。 取締領域の報知表示の例を示す図である。 取締領域の報知表示の例を示す図である。 実施の形態3に係る出力制御装置の構成を示すブロック図である。 出力制御装置のハードウェア構成を示す図である。 出力制御装置のハードウェア構成を示す図である。
 <A.実施の形態1>
 図1は、実施の形態1の出力制御装置101の構成を示すブロック図である。出力制御装置101は、車両に搭載された出力装置の出力を交通取締に関する要注意データに基づき制御する。出力制御装置101は、カメラ31、GPS(Global Positioning System)端末32、車内モニタ33および車内スピーカ36と接続され、これらを利用可能に構成されている。カメラ31は、車両の例えば前方、後方、左右にそれぞれ取り付けられ、車両の周囲を撮影する。GPS端末32は車両に搭載され、GPS信号を受信する。車内モニタ33は、車両の車室に搭載された表示装置であり、例えばカーナビゲーションまたはヘッドユニットのディスプレイ、ヘッドアップディスプレイもしくはセンターディスプレイ等である。車内スピーカ36は、車両の車室に搭載されたスピーカである。
 出力制御装置101は、検出部11、データ格納部12、出力制御部13および位置情報取得部14を備えている。
 位置情報取得部14は、一定周期など随時にGPS端末32からGPS信号を取得し、取得したGPS信号に基づき車両の位置情報を把握する。位置情報取得部14が取得した位置情報は、検出部11と出力制御部13に出力される。
 検出部11は、カメラ31の撮影画像を取得し、撮影画像を解析することにより交通取締が行われている道路上の地点または区間を検出する。検出部11は、交通取締を検出すると、位置情報取得部14から取得した車両の位置情報から、取締が行われている道路上の地点または区間である取締領域の位置情報を推定し、取締領域の位置情報を含む取締情報を要注意データとしてデータ格納部12に格納する。検出部11は交通取締を検出する度に、要注意データをデータ格納部12に格納する。このように、データ格納部12は要注意データを蓄積する蓄積部として機能する。データ格納部12には、要注意データの他、地図データなど出力制御装置101の動作に必要な種々のデータが格納されている。
 出力制御部13は、位置情報取得部14から取得した車両の位置情報と、データ格納部12から取得した要注意データとに基づき、車内モニタ33または車内スピーカ36の出力を制御する。ここで、車内モニタ33または車内スピーカ36は、出力制御部13が出力制御する出力装置の一例であり、出力装置としてこれらの一方のみが用いられても良い。
 図2は、実施の形態1の出力制御装置101による要注意データの作成処理を示すフローチャートである。出力制御装置101は、例えば車両が走行を開始すると図2のフローを開始する。まず、検出部11が交通取締を検出したか否かを判断する(ステップS101)。検出部11は、例えば定期的にカメラ31から撮影画像を取得し、撮影画像を解析して交通取締が実施されているか否かを判断する。検出部11は交通取締を検出しなければ、ステップS101を繰り返し、常に最新の撮影画像から交通取締が実施されているか否かを判断する。
 検出部11が交通取締を検出すると、位置情報取得部14から車両の位置情報を取得する(ステップS102)。さらに、検出部11は、車両の位置情報から、取締領域の位置情報を推定し、推定した取締領域の位置情報を含む要注意データを作成し、データ格納部12に格納する(ステップS103)。その後、出力制御装置101の処理はステップS101に戻る。このような処理により、検出部11が交通取締を検出する度に要注意データが作成される。
 出力制御部13は、データ格納部12から取得した要注意データに基づき、車内モニタ33または車内スピーカ36の出力制御を行う。
 実施の形態1に係る出力制御装置101は、車両に搭載されたカメラ31の撮影画像を用いて、交通取締が行われている道路の地点または区間を取締領域として検出する検出部11と、取締領域の位置情報を含む取締情報を蓄積する蓄積部であるデータ格納部12と、取締情報を用いて車両に搭載された出力装置の出力を制御する出力制御部13と、を備える。従って、出力制御装置101によれば、過去に取締が行われた場所を車両が走行する際にドライバに当該場所を報知することによって、適切な運転を促すことができる。
 また、実施の形態1に係る出力制御方法は、車両に搭載されたカメラ31の撮影画像を用いて、交通取締が行われている道路の地点または区間を取締領域として検出し、取締領域の位置情報を含む取締情報を蓄積し、取締情報を用いて車両に搭載された出力装置の出力を制御する。従って、実施の形態1に係る出力制御方法によれば、過去に取締が行われた場所を車両が走行する際にドライバに当該場所を報知することによって、適切な運転を促すことができる。
 <B.実施の形態2>
 図3は、実施の形態2に係る出力制御システムの構成図である。実施の形態2に係る出力制御システムは、複数の車両50にそれぞれ搭載されたECU51と、ECU51とネットワーク52を介して通信するサーバ40とによって構成される。図3の構成例では、車両50に搭載されたECU51によって出力制御装置が実現されるが、これは出力制御装置のハードウェア構成の一例である。
 サーバ40は、各車両50で作成された要注意データを管理し、各車両50に要注意データを提供することによって、要注意データを各車両50間で有効活用することを可能とする、管理サーバである。なお、図3では3つの車両50を示しているが、サーバ40と連携する車両50の数は3つに限らない。
 図4は、実施の形態2に係る出力制御装置102の構成を示すブロック図である。図4では、1つの出力制御装置102とサーバ40との接続を示しているが、実際には複数の出力制御装置102がサーバ40に接続される。出力制御装置102は、カメラ31、GPS端末32、車内モニタ33、車内スピーカ36、マイク34、および車速センサ35を備えており、これらを利用可能に構成されている。出力制御装置102は、検出部11、データ格納部12、出力制御部13、通信部15、入力受付部16、および車両情報取得部17を備えている。なお、本明細書に添付される各図面において、同一または対応する構成には同一の参照符号が付されている。
 通信部15は、サーバ40の通信部41との間でデータの送受信を行う。サーバ40と出力制御装置102の通信は、通信モジュールを介して行われても良いし、直接行われても良い。具体的には、通信部15は出力制御装置102のデータ格納部12に格納された要注意データを通信部41に送信し、サーバ40のデータ格納部42に格納された要注意データを通信部41から受信する。
 入力受付部16は、出力制御装置102に対するユーザ(例えば、ドライバ)の入力操作を受け付ける入力インタフェースである。入力インタフェースがタッチパネルで構成される場合、入力受付部16は車内モニタ33と一体のタッチパネルとして構成される。
 車両情報取得部17は、車両情報として車両50の位置情報をGPS端末32から、速度情報を車速センサ35からそれぞれ取得する。
 マイク34は、車両50の例えば前方、後方、左右にそれぞれ搭載され、車両50の周囲の音を集音する。検出部11は、カメラ31の撮影画像とマイク34の集音音声を取得し、これらに基づき道路上で実施されている交通取締を検出する。具体的には、検出部11は、取締車両または掲示板など、交通取締に関係する特定の対象物がカメラ31の撮影画像に映った場合に、当該対象物が存在する地点または区間で交通取締が実施されていると判断することができる。
 サーバ40は、通信部41、データ格納部42および処理演算部43を備えている。通信部41は出力制御装置102の通信部15と要注意データの送受信を行う。すなわち、通信部41は、要注意データを出力制御装置102から取得する取得部と、要注意データを出力制御装置102に出力する出力部として機能する。データ格納部42は、通信部41が出力制御装置102から受信した要注意データを格納する。すなわち、データ格納部42は要注意データを蓄積する蓄積部として機能する。処理演算部43は、データ格納部42に格納された要注意データの集計、整理を行う。
 図5から図9は、交通取締と関係のある特定の対象物について例示している。図5は、車両50の前方にパトカーなどの取締車両53がある状態を示している。このとき、カメラ31の撮影画像には取締車両53が映る。検出部11は、車両の色、形状、車体に書かれた文字、および警光灯の有無の少なくともいずれかに基づき、撮影画像中の車両が取締車両53であるかを判断する。検出部11の判断に用いる車両の色、形状、文字等の情報は、データ格納部12に格納されているものとする。検出部11は、カメラ31の撮影画像に取締車両53が映っている場合に、交通取締の実施を検出することができる。
 図6は、車両50の前方で飲酒検問などの検問が実施されている状況を示している。この場合、カメラ31の撮影画像には取締車両53に加えて、「検問中」等と記載された掲示板55が映る。検出部11は、掲示板の大きさまたは掲示板に記載された文字等から検問に関する掲示板と判断した場合に、交通取締を検出する。ここで、掲示板は電光掲示板を含む。
 図7は、車両50の前方で取締車両53が停止旗を掲げている状況を示している。この場合、カメラ31の撮影画像には取締車両53に加えて、「止まれ」等と記載された停止旗56が映る。検出部11は、旗の形状、色、文字等から、撮影画像中に停止旗56が映っていると判断した場合に、交通取締を検出する。このように、検出部11は、撮影画像に映る取締車両53、掲示板55または停止旗56に基づき、取締領域を検出する。
 図8は、車両50の前方で取締車両53が停止しており、取締車両53の周辺にロードコーン57が置かれている状況を示している。この場合、検出部11は、撮影画像中に取締車両53が映っていると判断し、さらに取締車両53の周辺にロードコーン57が映っていると判断した場合に、交通取締を検出する。また、取締車両53の周囲にヘルメットを着用した人物がいることを、交通取締の検出条件としても良い。
 図9は、車両50の前方を取締車両53がサイレンを鳴らして走行している状況を示している。この場合、カメラ31の撮影画像には取締車両53が映る。さらに、マイク34の集音音声にはサイレンの音が含まれる。検出部11は、カメラ31の撮影画像に取締車両53が映っており、さらにマイク34の集音音声にサイレンが含まれる場合に、交通取締を検出する。マイク34の集音音声を用いることにより、検出の精度が向上する。また、検出部11は、マイク34の集音音声からサイレンを検出した場合に、カメラ31の撮影画像の取得頻度を上げても良い。
 図5から図9では、交通取締と関係のある特定の対象物が撮影画像に含まれる場合に、検出部11が交通取締を検出することについて説明した。しかし、検出部11は検出される対象物だけでなく、対象物の検出場所を考慮して交通取締の検出を行っても良い。図10から図14は、交通取締を検出すべき対象物の検出場所を示している。
 図10は、取締車両53が車両50の同一車線前方を走行している状態を示している。このような場合に、検出部11は交通取締を検出する。
 図11は、路肩に取締車両53が他の車両59と縦列で停車している状態を示している。このような場合に、検出部11は交通取締を検出する。図15は、図11に示す状況における検出部11の要注意データ作成処理を示すフローチャートである。図15のフローは、例えば車両50の走行開始と共に開始する。まず、検出部11はカメラ31の撮影画像を取得し、撮影画像を解析して、路肩に取締車両53がいるか否かを判断する(ステップS201)。路肩に取締車両53がいなければ、検出部11はステップS201を繰り返す。路肩に取締車両53がいれば、次に検出部11は取締車両53の前後に一般車両がいるか否かを判断する(ステップS202)。取締車両53の前後に一般車両がいなければ、図15のフローはステップS201に戻る。取締車両53の前後に一般車両がいれば、検出部11は、一般車両の運転席にドライバが座っているか否かを判断する(ステップS203)。一般車両の運転席にドライバが座っていれば、図15のフローはステップS201に戻る。一般車両の運転席にドライバが座っていれば、検出部11は、取締車両53の後部座席に人が座っているか否かを判断する(ステップS204)。取締車両53の後部座席に人が座っていなければ、図15のフローはステップS201に戻る。取締車両53の後部座席に人が座っていれば、検出部11は、取締車両53による取り締まりが行われているものと判断し、要注意データを作成する(ステップS205)。
 図12は、側道など一方通行の道路に取締車両53がいる状態を示している。このような場合に、検出部11は交通取締を検出する。
 図13は、一時停止線の周囲に取締車両53がいる状態を示している。このような場合に、検出部11は取締を検出する。図16は、図13に示す状況における検出部11の要注意データ作成処理を示すフローチャートである。図16のフローは、例えば車両50の走行開始と共に開始する。まず、検出部11は、車両情報取得部17から取得した車両の位置情報と、データ格納部12から取得した地図データとに基づき、車両50が一時停止線を通過したか否かを判断する(ステップS301)。車両50が一時停止線を通過しなければ、検出部11はステップS301を繰り返す。車両50が一時停止線を通過すると、検出部11は地図データに基づき、一時停止線の先に、車両50の走行道路と交差する道路が有るか否かを判断する(ステップS302)。車両50の走行道路と交差する道路がなければ、図16のフローはステップS301に戻る。車両50の走行道路と交差する道路があれば、検出部11はカメラ31の撮影画像から、車両50の走行道路と交差する道路の先に取締車両53がいるか否かを判断する(ステップS303)。取締車両53がいなければ図16のフローはステップS301に戻る。取締車両53がいれば、検出部11は取締車両53の停止位置に停止線が有るか否かを判断する(ステップS304)。取締車両53の停止位置に停止線が有れば、検出部11は、取締車両53が停止線で停止しているだけであると判断し、要注意データを作成することなくステップS301の処理に戻る。一方、取締車両53の停止位置に停止線がなければ、検出部11は、取締車両53が一時停止違反の取締を行っていると判断し、要注意データを作成する(ステップS305)。
 図14は、踏切の周囲に取締車両53がいる状態を示している。このような場合に、検出部11は取締を検出することができる。
 図10から図14は、交通取締を検出すべき対象物の検出場所の一例を示しており、他の例も想定される。例えば、検出部11は、本線に合流する道路の本線よりも標高が高い地点で路肩に取締車両53を検知した場合、要注意データを作成しても良い。また、検出部11は、一方通行の道路において路肩に警察官が立っている場合に、シートベルト装着義務違反の取締が行われていると判断し、要注意データを作成しても良い。また、検出部11は、高速道路の料金所の付近に警察官が立っている場合、シートベルト装着義務違反の取締が行われていると判断し、要注意データを作成しても良い。
 次に、要注意データについて説明する。図17に示すように、要注意データは取締領域が映ったカメラ31の撮影画像の画像データと、取締検出時の時刻情報と、取締領域の位置情報と、天気情報と、違反種別情報とを含む。天気情報は、天候または気温等の情報を含む。これらの各項目は、検出部11が取締領域を検出した際に自動的に作成しても良いし、ドライバに各項目を入力させても良い。自動的に要注意データを作成する場合、各項目は以下のように設定される。検出部11は、取締検出時の車両50の位置情報を車両情報取得部17から取得し、当該位置情報を取締領域の位置情報に設定することが可能である。また、違反種別情報は、取締を検出した際の状況から設定することが可能である。例えば、検出部11が図13に示す状況で取締を検出した場合、違反種別情報として一時停止違反を設定することができる。検出部11は、例えば車両情報取得部17が取得する車両50のワイパーの動作状況から天候を設定することができる。また、例えば車両情報取得部17が取得する車両50に搭載された温度センサの測定温度から温度を設定することができる。また、このように作成された要注意データをドライバが編集することも可能である。
 取締領域は、道路上の地点であっても良いし、一定の区間であっても良い。前者を取締地点、後者を取締区間と称する。図18に示すように、一般道または高速道で車両50の前方を取締車両53が走行していることを検出部11が検出した場合、検出部11はその時点の車両50の位置を取締地点62としても良い。これにより、容易に取締地点62を設定することができる。
 あるいは、図19に示すように、B市の一般道で車両50の前方を取締車両53が走行していることを検出部11が検出した場合、検出部11は車両50が走行している道路のB市の区間を全て取締区間63としても良い。また、図20に示すように、高速道路で車両50の前方を取締車両53が走行していることを検出部11が検出した場合、検出部11は車両50の現在位置を含む同一IC区間、すなわち直近のIC入口から次のIC出口までの区間を取締区間63としても良い。
 データ格納部12は、車両50のドライバの違反履歴を格納する。図21に示すように、違反履歴は、違反時のカメラ31の撮影画像の画像データと、違反時の時刻情報と、違反種別情報とを含む。違反履歴は、ドライバが入力受付部16に対して特定の操作を行う、例えば特定のボタンを押下することをトリガとして、検出部11が自動的に作成しても良いし、ドライバが入力受付部16から違反履歴の各項目を手動で入力することにより作成されても良い。また、ドライバはデータ格納部12に格納されている違反履歴を手動で編集することも可能である。このように、検出部11または入力受付部16は、車両50のドライバが過去に行った交通違反の違反種別を含む違反履歴を取得する違反履歴取得部として機能する。
 要注意データと違反履歴を手動で登録、または編集する場合、図22に示す設定画面を用いる。図22の設定画面は、出力制御部13の制御によって車内モニタ33に表示されるものである。この設定画面には、要注意データ登録ボタン64、要注意データ編集ボタン65、違反履歴登録ボタン66、および違反履歴編集ボタン67が表示される。要注意データ登録ボタン64が押下されると、車内モニタ33の画面は図23に示す要注意データ登録画面に遷移する。要注意データ登録画面には、画像、時刻、位置情報、天気、違反種別、機器情報といった要注意データの各項目の登録状態が示されている。なお、機器情報は、ヘッドライトまたはワイパーなど車両50の機器の動作状況を示す。
 要注意データ登録画面で画像ボタン68が押下されると、車内モニタ33の画面は図24の画像登録画面に遷移する。画像登録画面では、現在のカメラ31の撮影画像70が表示されている。画像登録画面で、ドライバは撮影ボタンを押すことにより、現在表示されている撮影画像70を仮決定し、登録ボタンを押すことにより、撮影画像70を取締領域の画像として登録することができる。また、要注意データ登録画面で位置情報ボタン69が押下されると、車内モニタ33の画面は図25に示す位置情報登録画面に遷移する。位置情報登録画面では、地図71が表示されている。ドライバは画面上で地図71をスクロールし、地図71上の指定した地点72を取締領域の地点として登録することができる。以上が、要注意データの登録操作である。
 次に、要注意データの編集操作について説明する。図22の設定画面で要注意データ編集ボタン65が押下されると、車内モニタ33の画面は図26に示すデータ一覧画面に遷移する。データ一覧画面には、登録されている各要注意データについて、登録日、距離、違反種別が表示されている。距離は、車両50の現在地から取締領域までの距離を示している。ドライバが登録日、距離、違反種別の各ボタンを押下すると、出力制御部13は押下されたボタンの情報を基に要注意データをソートしても良い。ドライバがデータ一覧画面から特定の要注意データを選択すると、車内モニタ33の画面は図27に示す要注意データ編集画面に遷移する。要注意データ編集画面には、要注意データ登録画面と同様、画像、時刻、位置情報、天気、違反種別、機器情報といった要注意データの各項目の登録状態が示されている。ドライバは画面上で編集したい項目を選択し、編集することが可能である。
 次に、違反履歴の登録操作について説明する。図22の設定画面で違反履歴登録ボタン66が押下されると、車内モニタ33の画面は図28に示す違反履歴登録画面に遷移する。違反履歴登録画面には、画像、時刻、位置情報、天気、違反種別、機器情報といった各項目の登録状態が示されている。例えば、ドライバが違反履歴登録画面で違反種別ボタン73を押下すると、車内モニタ33の画面は図29に示す違反種別選択画面に遷移する。ドライバは、違反種別選択画面から該当する違反種別を選択することが可能である。
 次に、違反履歴の編集操作について説明する。図22の設定画面で違反履歴編集ボタン67が押下されると、車内モニタ33の画面は図30に示す違反履歴一覧画面に遷移する。違反履歴一覧画面では、違反履歴の登録日と違反種別が表示されている。ドライバが登録日または違反種別の各ボタンを押下すると、出力制御部13は押下されたボタンの情報を基に違反履歴をソートしても良い。ドライバは画面上で編集したい違反履歴を選択し、編集することが可能である。
 データ格納部12に格納されている要注意データは、通信部15によりサーバ40に送信される。図31は、出力制御装置102からサーバ40への要注意データの送信処理を示すフローチャートである。図31のフローは、例えば車両50のアクセサリ電源がオンになり出力制御装置102に電力が供給された後に開始する。まず、通信部15は、まだサーバ40へ送信していない要注意データがデータ格納部12に格納されているか否かを判断する(ステップS401)。未送信の要注意データがデータ格納部12に格納されていなければ、通信部15はステップS401の処理を繰り返す。未送信の要注意データがデータ格納部12に格納されていれば、通信部15はサーバ40へ当該要注意データを送信し(ステップS402)、ステップS401の処理へ戻る。以上の処理により、出力制御装置102が取締領域を検出して要注意データを作成する度に、当該要注意データがサーバ40へ送信される。
 サーバ40は通信部15から要注意データを取得すると、これをデータ格納部42に格納する。図32は、サーバ40から出力制御装置102への要注意データのダウンロード処理を示すフローチャートである。まず、サーバ40の処理演算部43は、データ格納部42に新たに格納された要注意データが有るか否かを判断する(ステップS501)。新たに格納された要注意データがあれば、通信部41は、当該要注意データの受信先の出力制御装置102以外の他の出力制御装置102に対して、当該要注意データを送信する(ステップS502)。そして、サーバ40の動作はステップS501に戻る。
 図32では、サーバ40が自発的に新たな要注意データを出力制御装置102へ送信することについて説明した。しかし、サーバ40は出力制御装置102からの問い合わせを待って新たな要注意データを出力制御装置102へ送信しても良い。以上の処理により、サーバ40を介して複数の出力制御装置102間で要注意データを共有することができる。
 以上で説明したように、実施の形態2の出力制御装置102では、蓄積部であるデータ格納部12が取締情報である要注意データを出力制御装置102の外部のサーバ40に蓄積する。そして、出力制御部13は、サーバ40から取得した要注意データを用いて出力装置を出力制御する。従って、サーバ40と複数の出力制御装置102とで要注意データを共有することができる。これにより各出力制御装置102は、自身が作成した要注意データだけでなく他の出力制御装置102が作成した要注意データを用いて出力装置を出力制御することができる。
 次に、要注意データを用いたドライバに対する取締領域の報知について説明する。図33から図36は、車両50が取締領域から所定距離、例えば100m以内に近づいたときに、音声による報知が行われる様子を示している。これらの図で車両50に付された吹き出しは、車内スピーカ36から報知音声が出力されていることを示している。出力制御装置102は、車両50が取締地点62から所定距離以内、例えば100m以内に近づいたときに音声による報知を行う。具体的には、出力制御部13は要注意データをデータ格納部12から取得し、車両50の位置情報を車両情報取得部17から取得する。そして、出力制御部13は、要注意データと車両50の位置情報に基づき車両50が取締領域に近づいたと判断すると、車内スピーカ36を制御して報知音声を出力させる。
 取締領域における取締の違反種別は、図33と図34の例では速度であり、図35の例では踏切における一時停止であり、図36の例では一時停止線における一時停止である。報知音声の内容を、要注意データの違反種別情報に応じたものにすることで、ドライバに対して取締の内容を把握させ、適切な運転を促すことができる。例えば図33の場合には、報知音声は例えば「この先、速度超過しやすい地点があります。安全な制限速度内での通行をお願いします。」などとなる。また、図34の場合には、報知音声は例えば「この先、速度超過しやすい地点があります。安全な制限速度内での通行をお願いします。」などとなる。また、図35の場合には、報知音声は例えば「この先、踏切です。一時停止による安全確認の上、通行をお願いします。」などとなる。また、図36の場合には、報知音声は例えば「この先、追突事故発生危険地点です。一時停止による安全確認の上、通行をお願いします。」などとなる。このように、出力制御部13は、車両50が取締領域から予め定められた距離内に進入した場合に、車内スピーカ36に報知音声を出力させることができる。
 図33から図36では音声による報知例を示したが、出力制御装置102は車内モニタ33を用いた表示による報知を行うこともできる。表示による報知は、例えば音声による報知と同様、車両50が取締領域から所定距離、例えば100m以内に近づいた時点で行われる。その際、出力制御部13は、図37のように要注意データに含まれる取締領域の撮影画像70を車内モニタ33に表示させても良いし、図38のように要注意データに含まれる取締領域の位置情報を示す地図71を車内モニタ33に表示させても良い。このように、出力制御部13は、車両50が取締領域から予め定められた距離内に進入した場合に、車内モニタ33に報知表示を出力させることができる。
 また、図39に示すように、車両50の自車位置周辺地図において取締領域を示す位置にバー74を重畳表示することにより、ドライバに取締領域を報知しても良い。図39のような表示によれば、ドライバに車両50と取締領域との位置関係を直感的に把握させることができる。また、要注意データの注意度に応じてバー74の色を異ならせることによって、ドライバに要注意データの注意度を把握させても良い。あるいは、注意度の高い要注意データほどバー74を目立つ色にしたり、太くしたりしても良い。ここで注意度とは、出力制御部13がドライバの違反履歴に基づき違反種別ごとに設定する指標である。ドライバが過去に違反した回数が多い違反種別に対して、注意度は高く設定される。例えば、データ格納部12にドライバの違反履歴が4つ格納されており、そのうち3つの違反履歴の違反種別が速度違反であり、1つの違反履歴の違反種別が一時停止違反であるとする。その場合、出力制御部13は、最も多い違反種別である速度違反に対して高い注意度を設定し、次に多い違反種別である速度違反に対して中程度の注意度を設定し、それ以外の違反種別に対して小さい注意度を設定する。
 上記では、注意度別にバー74の色を変えることについて説明した。別の表示方法として、出力制御部13は、注意度の高い違反種別の要注意データのみをドライバに報知しても良い。いずれにせよ、出力制御部13は、要注意データの注意度に基づき出力装置の出力を制御することにより、ドライバに応じた取締領域の報知が可能となる。
 <C.実施の形態3>
 実施の形態2の出力制御装置102は、車両50が取締領域に近づいた際に音声または表示によりドライバに報知を行うことで、ドライバに適切な運転を促した。これに対して実施の形態3の出力制御装置103は、取締領域を通らない経路の案内表示を行うことにより、ドライバに適切な運転を促す。
 図40は、実施の形態3に係る出力制御装置103の構成を示すブロック図である。出力制御装置103は、カメラ31、GPS端末32、車内モニタ33、マイク34および車速センサ35と接続され、これらを利用可能に構成されている。出力制御装置103は、実施の形態2の出力制御装置102の構成に加えて、経路探索部18を備えている。経路探索部18以外の出力制御装置103の構成は、出力制御装置102と同様である。
 経路探索部18は、車両情報取得部17から取得した車両の位置情報と、データ格納部12から取得した地図データおよび要注意データと、車両の目的地とに基づき、車両の現在地から目的地までの経路を探索する。このとき、経路探索部18は、要注意データに含まれる位置情報を基に、取締領域を避けた経路、すなわち取締領域を通らない経路を探索する。なお、経路探索部18は取締領域を全て避けるのではなく、実施の形態2で説明した注意度が高い取締領域のみを避ける経路を探索しても良い。
 出力制御部13は、経路探索部18が探索した経路の案内表示を車内モニタ33に行わせる。ドライバは、車内モニタ33の案内表示に沿って走行することにより、取締領域を避けて適切な運転を行うことができる。
 上記では、経路探索部18が取締領域を避けた経路を探索することについて説明した。これに加えて経路探索部18は、経路探索の際の道路の利用優先度を、実施の形態2で説明したドライバの違反履歴の違反種別に応じて決定しても良い。例えば、ドライバにスピード違反の違反履歴が有る場合、経路探索部18は、制限速度以上の速度を出しやすい道路の利用優先度を低下させる。「制限速度以上の速度を出しやすい道路」とは、例えば交通量が少ない道路、または信号機の設置間隔が長い道路、直線の長い道路などである。また、ドライバに一時停止の違反履歴が有る場合、経路探索部18は、信号がなく一時停止線がある道路の利用優先度を低下させる。また、ドライバに踏切での一時停止の違反履歴が有る場合、経路探索部18は、踏切がある道路の利用優先度を低下させる。これにより、ドライバが交通違反をする傾向のある道路を走行経路から除外し、ドライバに適切な運転を行わせることができる。
 <D.ハードウェア構成>
 上述した出力制御装置101,102,103における、検出部11、データ格納部12、出力制御部13、位置情報取得部14、および経路探索部18は、図41に示す処理回路81により実現される。すなわち、処理回路81は、検出部11、出力制御部13、位置情報取得部14、および経路探索部18(以下、「検出部11等」と称する)を備える。処理回路81には、専用のハードウェアが適用されても良いし、メモリに格納されるプログラムを実行するプロセッサが適用されても良い。プロセッサは、例えば中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。また、通信部15は通信インタフェースにより実現され、データ格納部12はHDD等の記憶媒体により実現される。
 処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。検出部11等の各部の機能それぞれは、複数の処理回路81で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
 処理回路81がプロセッサである場合、検出部11等の機能は、ソフトウェア等(ソフトウェア、ファームウェアまたはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリに格納される。図42に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、出力制御装置101,102,103は、処理回路81により実行されるときに、車両50に搭載されたカメラ31の撮影画像を用いて、交通取締が行われている道路の地点または区間を取締領域として検出するステップと、取締領域の位置情報を含む取締情報である要注意データを蓄積するステップと、要注意データを用いて車両50に搭載された出力装置の出力を制御するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。換言すれば、このプログラムは、検出部11等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)及びそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
 以上、検出部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、検出部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、検出部11については専用のハードウェアとしての処理回路でその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、処理回路は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。なお、データ格納部12は、メモリ83から構成されるが、それらは単一のメモリ83から構成されてもよいし、それぞれが個別のメモリから構成されてもよい。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。この発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 11 検出部、12 データ格納部、13 出力制御部、14 位置情報取得部、15 通信部、16 入力受付部、17 車両情報取得部、18 経路探索部、31 カメラ、32 GPS端末、33 車内モニタ、34 マイク、35 車速センサ、36 車内スピーカ、40 サーバ、41 通信部、42 データ格納部、43 処理演算部、50,59 車両、51 ECU、52 ネットワーク、53 取締車両、55 掲示板、56 停止旗、57 ロードコーン、62 取締地点、63 取締区間、64 要注意データ登録ボタン、65 要注意データ編集ボタン、66 違反履歴登録ボタン、67 違反履歴編集ボタン、68 画像ボタン、69 位置情報ボタン、70 撮影画像、71 位置情報、72 地点、73 違反種別ボタン、74 バー、81 処理回路、82 プロセッサ、83 メモリ。

Claims (12)

  1.  車両に搭載されたカメラの撮影画像を用いて、交通取締が行われている道路の地点または区間を取締領域として検出する検出部と、
     前記取締領域の位置情報を含む取締情報を蓄積する蓄積部と、
     前記取締情報を用いて前記車両に搭載された出力装置の出力を制御する出力制御部と、を備える、
    出力制御装置。
  2.  前記蓄積部は、前記取締情報を前記出力制御装置の外部のサーバに蓄積し、
     前記出力制御部は、前記サーバから取得した前記取締情報を用いて前記出力装置を出力制御する、
    請求項1に記載の出力制御装置。
  3.  前記検出部は、前記撮影画像に映る取締車両、掲示板または停止旗に基づき、前記取締領域を検出する、
    請求項1に記載の出力制御装置。
  4.  前記検出部は、色、形状、車体に書かれた文字、および警光灯の有無の少なくともいずれかに基づき、前記取締車両を検出する、
    請求項3に記載の出力制御装置。
  5.  前記検出部は、前記取締車両を検出した時点の前記車両の位置を前記取締領域と検出する、
    請求項4に記載の出力制御装置。
  6.  前記出力制御部は、前記車両が前記取締領域から予め定められた距離内に進入した場合に、前記出力装置に報知音声または報知表示を出力させる、
    請求項1に記載の出力制御装置。
  7.  前記車両のドライバが過去に行った交通違反の違反種別を含む違反履歴を取得する違反履歴取得部をさらに備え、
     前記取締情報は、取締の違反種別の情報を含み、
     前記出力制御部は、前記違反履歴に基づき違反種別ごとに前記取締情報に注意度を設定し、前記取締情報の注意度に基づき前記出力装置の出力を制御する、
    請求項1に記載の出力制御装置。
  8.  前記取締情報に基づき前記車両の経路を探索する経路探索部をさらに備え、
     前記出力制御部は、前記経路探索部が探索した経路を前記出力装置に表示させる、
    請求項1に記載の出力制御装置。
  9.  前記経路探索部は、前記取締領域を避けた経路を探索する、
    請求項8に記載の出力制御装置。
  10.  前記車両のドライバが過去に行った交通違反の違反種別を含む違反履歴を取得する違反履歴取得部をさらに備え、
     前記取締情報は、取締の違反種別の情報を含み、
     前記経路探索部は、前記違反履歴の違反種別に対応する前記取締情報の前記取締領域を避けた経路を探索する、
    請求項9に記載の出力制御装置。
  11.  車両に搭載されたカメラの撮影画像を用いて、交通取締が行われている道路の地点または区間を取締領域として検出し、
     前記取締領域の位置情報を含む取締情報を蓄積し、
     前記取締情報を用いて前記車両に搭載された出力装置の出力を制御する、
    出力制御方法。
  12.  車両に搭載されたカメラの撮影画像を用いて検出された、交通取締が行われている道路の地点または区間である取締領域の位置情報を含む取締情報を、前記車両に搭載された出力装置を出力制御する出力制御装置から取得する取得部と、
     前記取締情報を蓄積する蓄積部と、
     前記取締情報を前記出力制御装置に出力する出力部と、を備える、
    取締情報管理サーバ。
PCT/JP2018/023802 2018-06-22 2018-06-22 出力制御装置、出力制御方法、取締情報管理サーバ WO2019244338A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2018/023802 WO2019244338A1 (ja) 2018-06-22 2018-06-22 出力制御装置、出力制御方法、取締情報管理サーバ
JP2020525195A JP7195715B2 (ja) 2018-06-22 2018-06-22 出力制御装置、出力制御方法、出力制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/023802 WO2019244338A1 (ja) 2018-06-22 2018-06-22 出力制御装置、出力制御方法、取締情報管理サーバ

Publications (1)

Publication Number Publication Date
WO2019244338A1 true WO2019244338A1 (ja) 2019-12-26

Family

ID=68982663

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/023802 WO2019244338A1 (ja) 2018-06-22 2018-06-22 出力制御装置、出力制御方法、取締情報管理サーバ

Country Status (2)

Country Link
JP (1) JP7195715B2 (ja)
WO (1) WO2019244338A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159206A (ja) * 2010-02-03 2011-08-18 Aisin Aw Co Ltd 車両制御装置、車両制御方法及びコンピュータプログラム
JP2012127708A (ja) * 2010-12-14 2012-07-05 Clarion Co Ltd ナビゲーション装置とその経路探索方法
JP2014089663A (ja) * 2012-10-31 2014-05-15 Yupiteru Corp 運転支援システム、投稿端末、報知端末、サーバー用プログラム、投稿用プログラム、及び報知用プログラム
US20140266853A1 (en) * 2013-03-12 2014-09-18 Escort Inc. Radar False Alert Reduction
US9171461B1 (en) * 2013-03-07 2015-10-27 Steve Dabell Method and apparatus for providing estimated patrol properties and historic patrol records
JP2015219054A (ja) * 2014-05-15 2015-12-07 日産自動車株式会社 交通量分散システム及び交通量分散方法
US20170267100A1 (en) * 2015-09-14 2017-09-21 At&T Intellectual Property I, L.P. Method and apparatus for enhancing driver situational awareness

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086783A (ja) * 2002-08-29 2004-03-18 Nobuhide Koga 交通違反取締まりシステム
JP4119855B2 (ja) * 2004-02-27 2008-07-16 株式会社ユピテル 交通取締り警告装置
JP2005254930A (ja) * 2004-03-10 2005-09-22 Mitsubishi Electric Corp 踏切内不正侵入車両監視装置、踏切内不正侵入車両監視システム及び踏切内不正侵入車両監視方法
US8731244B2 (en) * 2011-07-28 2014-05-20 Xerox Corporation Systems and methods for improving image recognition
JP6100466B2 (ja) * 2012-03-02 2017-03-22 株式会社コムテック 取締装置の探知システム
JP6439183B2 (ja) * 2017-05-30 2018-12-19 株式会社ユピテル 運転支援システム、情報生成方法、運転支援プログラム、及び生成プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159206A (ja) * 2010-02-03 2011-08-18 Aisin Aw Co Ltd 車両制御装置、車両制御方法及びコンピュータプログラム
JP2012127708A (ja) * 2010-12-14 2012-07-05 Clarion Co Ltd ナビゲーション装置とその経路探索方法
JP2014089663A (ja) * 2012-10-31 2014-05-15 Yupiteru Corp 運転支援システム、投稿端末、報知端末、サーバー用プログラム、投稿用プログラム、及び報知用プログラム
US9171461B1 (en) * 2013-03-07 2015-10-27 Steve Dabell Method and apparatus for providing estimated patrol properties and historic patrol records
US20140266853A1 (en) * 2013-03-12 2014-09-18 Escort Inc. Radar False Alert Reduction
JP2015219054A (ja) * 2014-05-15 2015-12-07 日産自動車株式会社 交通量分散システム及び交通量分散方法
US20170267100A1 (en) * 2015-09-14 2017-09-21 At&T Intellectual Property I, L.P. Method and apparatus for enhancing driver situational awareness

Also Published As

Publication number Publication date
JP7195715B2 (ja) 2022-12-26
JPWO2019244338A1 (ja) 2021-06-03

Similar Documents

Publication Publication Date Title
KR102226419B1 (ko) 차량용 전자 장치 및 차량용 전자 장치 동작 방법
US8498778B2 (en) Navigation system controlled turn signals
US7930096B2 (en) Navigation systems, methods, and programs
WO2011081154A1 (ja) ナビゲーション装置およびその案内方法
JP2007155352A (ja) 経路案内システム及び経路案内方法
PT1717777E (pt) Dispositivo para veículo a motor com uma unidade de computação
JP2007178358A (ja) 経路案内システム及び経路案内方法
JP2009031196A (ja) 情報通知システム及びプログラム
JP5966675B2 (ja) プローブ情報収集システム
JP2017111498A (ja) 運転支援装置
JP5109749B2 (ja) 車載報知装置
JP4692898B2 (ja) 車両用案内装置
US20200369291A1 (en) Driver warning system
WO2020121560A1 (ja) 運転支援装置、運転支援方法およびプログラム
JP6643606B2 (ja) 運転支援システム、投稿端末、報知端末、サーバー用プログラム、投稿用プログラム、及び報知用プログラム
WO2019244338A1 (ja) 出力制御装置、出力制御方法、取締情報管理サーバ
CN112950995B (zh) 泊车辅助装置、辅助装置、相应方法及车辆和服务器
JP6661264B2 (ja) 警報装置
JP2019113421A (ja) 案内システム、及び案内プログラム
JP2019074862A (ja) 推奨運転出力装置、推奨運転出力システム、及び推奨運転出力方法
JP6956687B2 (ja) 置き去り検知装置、置き去り検知方法および置き去り検知プログラム
JP2008164505A (ja) 情報提供装置
JP4794668B2 (ja) 電子機器、音声出力方法、音声出力プログラムおよび記録媒体
JP2007155342A (ja) 経路案内システム及び経路案内方法
JP7195029B2 (ja) システム、報知端末、サーバー装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18923568

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020525195

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18923568

Country of ref document: EP

Kind code of ref document: A1