WO2023166575A1 - 映像処理装置、防災支援システム、映像処理方法、および記録媒体 - Google Patents

映像処理装置、防災支援システム、映像処理方法、および記録媒体 Download PDF

Info

Publication number
WO2023166575A1
WO2023166575A1 PCT/JP2022/008707 JP2022008707W WO2023166575A1 WO 2023166575 A1 WO2023166575 A1 WO 2023166575A1 JP 2022008707 W JP2022008707 W JP 2022008707W WO 2023166575 A1 WO2023166575 A1 WO 2023166575A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
area
vehicle camera
disaster
camera image
Prior art date
Application number
PCT/JP2022/008707
Other languages
English (en)
French (fr)
Inventor
文人 山崎
浩 寺崎
大地 金野
淳之介 藤戸
裕介 勝見
啓汰 藤森
俊靖 沼田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/008707 priority Critical patent/WO2023166575A1/ja
Publication of WO2023166575A1 publication Critical patent/WO2023166575A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A50/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE in human health protection, e.g. against extreme weather

Definitions

  • the present invention relates to a video processing device, a disaster prevention support system, a video processing method, and a recording medium, and more particularly to a video processing device, a disaster prevention support system, a video processing method, and a recording medium for processing an in-vehicle camera image captured by an in-vehicle camera. Regarding.
  • Surveillance centers such as civil engineering offices and management offices monitor the occurrence of disasters within the monitored area based on surveillance images captured by surveillance cameras installed around rivers.
  • images taken by in-vehicle cameras such as drive recorders and rear cameras are diverted for purposes other than their original purpose, such as recording accidents.
  • Patent Literature 1 discloses an in-vehicle camera system that provides images obtained from an in-vehicle camera (hereinafter referred to as an in-vehicle camera image) for live observation of traffic accidents and crime prevention. According to the related technology described in Patent Document 1, if an in-vehicle camera image can be provided to a monitoring center that monitors the occurrence of a disaster, the monitoring center can use the in-vehicle camera image to monitor the area to be monitored. It is possible to investigate the damage situation in
  • JP 2011-180693 A JP-A-2020-57203
  • Patent Literature 1 is used to provide an in-vehicle camera image as it is to a monitoring center, there is a risk of infringing on the privacy of others.
  • a technique for providing on-vehicle camera images to a third party such as a monitoring center while taking privacy into consideration is a demand for a technique for providing on-vehicle camera images to a third party such as a monitoring center while taking privacy into consideration.
  • the present invention has been made in view of the above problems, and its purpose is to provide a mechanism for providing on-vehicle camera images to third parties while taking privacy into consideration.
  • a video processing device includes acquisition means for acquiring an on-vehicle camera image captured by an on-board camera mounted on a vehicle, while processing the obtained in-vehicle camera video to make it unclear except for the first part, if a disaster has occurred in the area where the vehicle is present, the acquired in-vehicle camera video has the first part and an output means for outputting the processed in-vehicle camera image.
  • an in-vehicle camera video captured by an in-vehicle camera mounted in a vehicle is acquired, and if no disaster has occurred in an area where the vehicle exists, the acquired in-vehicle While processing the camera video to make it unclear except for the first part, if a disaster occurs in the area where the vehicle is present, the acquired in-vehicle camera video has a second part that is wider than the first part. The portion 2 is removed to make it unclear, and the processed on-vehicle camera image is output.
  • a recording medium acquires an in-vehicle camera image taken by an in-vehicle camera installed in a vehicle, and when a disaster does not occur in the area where the vehicle exists, the acquired While the in-vehicle camera image is processed to be obscure except for the first part, if the disaster occurs in the area where the vehicle is present, the acquired in-vehicle camera image is wider than the first part. It stores a program for causing a computer to process the image to obscure except for the second part and to output the processed vehicle-mounted camera image.
  • a disaster prevention support system includes acquisition means for acquiring an on-vehicle camera image captured by an on-vehicle camera mounted on a vehicle; while processing the obtained in-vehicle camera video to make it unclear except for the first part, if a disaster has occurred in the area where the vehicle is present, the acquired in-vehicle camera video has the first part
  • a video processing device comprising: a processing means for processing the image to make it unclear except for a second portion wider than the second portion; and an output means for outputting the processed vehicle-mounted camera image; and a recording device.
  • an in-vehicle camera image can be provided to a third party while taking privacy into consideration.
  • FIG. 1 is a diagram schematically showing an example of a configuration of a disaster prevention support system provided with a video processing device according to any one of Embodiments 1-3;
  • FIG. 1 is a block diagram showing the configuration of a video processing device according to Embodiment 1;
  • FIG. 4 is a flowchart showing the operation of the video processing device according to Embodiment 1;
  • 1 schematically shows an example of an in-vehicle camera that has been obscured except for a first portion;
  • 1 schematically shows an example of an in-vehicle camera that has been obscured except for a second part;
  • 2 is a block diagram showing the configuration of a video processing device according to Embodiment 2;
  • FIG. FIG. 11 is a block diagram showing the configuration of a video processing device according to Embodiment 3;
  • 1 is a diagram showing an example of a hardware configuration of a video processing device according to any one of Embodiments 1-3;
  • FIG. 1 shows an example of the configuration of a disaster prevention support system 1 including any one of video processing devices 10, 20, and 30 according to Embodiments 1 to 3, which will be described later, will be described first.
  • video processing device 10 (20, 30) represents any one of the video processing devices 10, 20, 30 according to the first to third embodiments.
  • the disaster prevention support system 1 includes a drive recorder 100, a monitoring center 200, and a recording device 300. Each component of the disaster prevention support system 1 may be plural.
  • the drive recorder 100 is installed in vehicles owned by public offices and local governments.
  • the vehicle patrols within a predetermined monitored area.
  • the monitoring target area is designated based on, for example, administrative divisions such as prefectures and municipalities.
  • the vehicle is, for example, a patrol car or a publicity car.
  • the vehicle may be an emergency vehicle such as a fire engine, or a special vehicle such as a road sweeper.
  • the drive recorder 100 includes an in-vehicle camera 100A, a sensor device 100B, and a measuring device 100C.
  • In-vehicle camera 100A usually photographs the road on which the vehicle travels and its surroundings.
  • the data of the vehicle-mounted camera image obtained by the vehicle-mounted camera 100A is transmitted from the drive recorder 100 to the image processing device 10 (20, 30) through the Internet.
  • the vehicle-mounted camera 100A may be a general video camera or an IoT camera.
  • the sensor device 100B detects the state of the environment around the vehicle.
  • the sensor device 100B may be a millimeter wave sensor, an acceleration sensor, a GPS (Geographical Positioning System) sensor, or an IMU (Inertial Measurement Unit), which is generally mounted on a vehicle.
  • the sensor device 100B includes, for example, a temperature sensor, a humidity sensor, a snow sensor, an optical sensor, a water level sensor, a radiation sensor, or a gas detector, which are necessary for local governments to analyze the damage situation in the event of a disaster. may contain.
  • the measuring device 100C is for measuring the state of the vehicle, such as a speedometer, tachometer, and fuel gauge.
  • the measuring device 100C outputs an index (parameter) indicating the state of the vehicle based on the physical data obtained from the sensor device 100B.
  • the measuring device 100C measures the running state of the vehicle (that is, whether the vehicle is running).
  • the disaster prevention support system 1 does not have to include the sensor device 100B and the measuring device 100C.
  • the disaster prevention support system 1 includes a drive recorder 100, a monitoring center 200, which will be described later, and a recording device 300, which will be described later.
  • the monitoring center 200 is a facility for monitoring the occurrence of disasters within a monitoring target area, such as a civil engineering office or a management office.
  • a video monitor and an alarm are located in the surveillance center 200 .
  • the processed in-vehicle camera video is transferred to the monitoring center 200 from the video processing device 10 (20, 30).
  • the processed in-vehicle camera image is an in-vehicle camera image that has undergone processing to protect the privacy of ordinary people or the like who accidentally appear in the in-vehicle camera image.
  • the person performing the monitoring monitors the disaster risk areas (that is, rivers, forest roads, etc.) shown in the monitoring video while looking at the video monitor.
  • the video monitor of the monitoring center 200 also displays the processed vehicle-mounted camera video received from the video processing device 10 (20, 30).
  • In-vehicle camera video received from the drive recorder 100 by the video processing device 10 (20, 30) is output to the recording device 300.
  • In-vehicle camera video processed for the purpose of privacy protection is also output to the recording device 300 by the video processing device 10 (20, 30).
  • the vehicle-mounted camera video processed by the video processing device 10 (20, 30) is provided to a third party such as the monitoring center 200 or the like.
  • the video processing device 10 (20, 30) refers to a list prepared in advance and provides the processed vehicle-mounted camera video to the third party listed in the list.
  • the recording device 300 can be replaced by a cloud-type file server.
  • the disaster prevention support system 1 may not include the recording device 300 .
  • the video processing devices 10, 20, and 30 will be described in Embodiments 1 to 3 below.
  • Embodiment 1 Embodiment 1 will be described with reference to FIGS. 2 and 3.
  • FIG. 1 is a diagrammatic representation of Embodiment 1
  • FIG. 2 is a block diagram showing the configuration of the video processing device 10. As shown in FIG. As shown in FIG. 2 , the video processing device 10 includes an acquisition section 11 , a processing section 12 and an output section 13 .
  • the acquisition unit 11 acquires an in-vehicle camera image captured by the in-vehicle camera 100A (Fig. 1) mounted in the vehicle. Acquisition unit 11 is an example of acquisition means.
  • the acquisition unit 11 acquires an in-vehicle camera image captured by the in-vehicle camera 100A via the Internet from the drive recorder 100 (FIG. 1) installed in the vehicle.
  • the acquisition unit 11 searches for vehicles located within a monitored area, which is an area monitored for occurrence of disasters by the monitoring center 200 (FIG. 1). Then, the acquiring unit 11 acquires an in-vehicle camera image captured by a vehicle found within the monitoring target area from the drive recorder 100 mounted on the vehicle. Acquisition unit 11 outputs the in-vehicle camera image acquired from drive recorder 100 to processing unit 12 .
  • the processing unit 12 processes the acquired in-vehicle camera image to make it unclear except for the first part, while the disaster occurs in the area where the vehicle exists. If so, the obtained in-vehicle camera image is processed to be unclear except for the second portion, which is wider than the first portion.
  • the processing unit 12 is an example of processing means. A case where a disaster has occurred in an area where a vehicle is present is, for example, a case where the area is included in an announcement area of a weather warning or an earthquake early warning.
  • the processing unit 12 receives from the acquisition unit 11 the vehicle-mounted camera video captured by the vehicle-mounted camera 100A.
  • the processing unit 12 processes the received in-vehicle camera video.
  • the processing unit 12 determines the area in which the vehicle exists. For example, the processing unit 12 acquires vehicle position information. Then, the processing unit 12 determines an area in which the vehicle is present based on the acquired positional information of the vehicle. Alternatively, the processing unit 12 may determine whether or not a disaster has occurred within the area where the vehicle exists, based on sensor data acquired from the sensor device 100B attached to the vehicle.
  • the processing unit 12 determines whether a disaster has occurred in the area where the vehicle is present. For example, the processing unit 12 acquires disaster prevention weather information. Then, the processing unit 12 determines whether or not a disaster has occurred in the area where the vehicle is located, based on the acquired disaster prevention weather information.
  • Disaster prevention weather information is forecasts and information related to weather, earthquakes, volcanoes, etc., such as weather warnings, weather advisories, and earthquake early warnings.
  • the processing unit 12 processes the image from the in-vehicle camera to make it unclear except for the first part.
  • the first portion includes at least part of an area in which the road on which the vehicle travels is captured in the in-vehicle camera image.
  • the processing unit 12 processes the acquired in-vehicle camera image to make it unclear except for the second portion, which is wider than the first portion.
  • the second portion includes at least a part of an area in which the road on which the vehicle travels is captured in the in-vehicle camera image, and includes an area wider than that.
  • the processing unit 12 changes the region to be processed in the vehicle-mounted camera video between normal times and disaster times.
  • the second portion being “wider” than the first portion means that in the processed in-vehicle camera image, the area of the region corresponding to the second portion is larger than that of the first portion.
  • the width of the region corresponding to the second portion is longer than the width of the region corresponding to the first portion (Fig. 4) or corresponds to the second portion.
  • the height of the region (FIG. 5) should be higher than the height of the region (FIG. 4) corresponding to the first portion. That is, "wide” here may mean comparing the length in one dimension.
  • the processing unit 12 may detect areas such as license plates of other vehicles and nameplates of houses from the image of the vehicle-mounted camera, and process these areas to make them unclear. Furthermore, the processing unit 12 changes the size of the second portion step by step or continuously according to the magnitude of damage caused by the disaster occurring in the area where the vehicle exists and the speed of the vehicle. (Embodiment 3).
  • the processing unit 12 In normal times, that is, when no disaster has occurred in the area where the vehicle is present, the processing unit 12 outputs to the output unit 13 the in-vehicle camera image that has been processed to be unclear except for the first part. On the other hand, in the event of a disaster, that is, when a disaster occurs within the area where the vehicle exists, the processing unit 12 outputs to the output unit 13 the in-vehicle camera image that has been processed to be unclear except for the second part. do.
  • the output unit 13 outputs the processed in-vehicle camera video.
  • the output unit 13 is an example of output means.
  • the output unit 13 receives from the processing unit 12 an in-vehicle camera image that has been processed to be unclear except for the first part or the second part.
  • the output unit 13 In normal times, that is, when no disaster has occurred in the area where the vehicle is present, the output unit 13 outputs the in-vehicle camera image that has been processed to be unclear except for the first portion, to the recording device 300 (FIG. 1).
  • the output unit 13 outputs the in-vehicle camera image processed to be unclear except for the second part to the recording device 300. do.
  • the recording device 300 saves the in-vehicle camera video that has been processed to be unclear except for the first part.
  • the recording device 300 saves the in-vehicle camera video processed to be unclear except for the second part.
  • the in-vehicle camera image that has been processed to be unclear except for the second portion and that is stored in the recording device 300 may be provided to a third party such as a local government that conducts rescue operations, as long as necessary.
  • the output unit 13 may output the processed in-vehicle camera video to a subsequent processing function (not shown) that performs image analysis.
  • the post-processing function diagnoses the condition of the road reflected in the processed vehicle-mounted camera image by image analysis of the processed vehicle-mounted camera image. For example, the latter processing function checks for cracks, potholes, or irregularities in the road surface.
  • FIG. 3 is a flow chart showing the flow of processing executed by each unit of the video processing device 10. As shown in FIG.
  • the acquisition unit 11 acquires from the drive recorder 100 an in-vehicle camera image captured by an in-vehicle camera 100A mounted in the vehicle (S1). Acquisition unit 11 outputs the in-vehicle camera image acquired from drive recorder 100 to processing unit 12 .
  • the processing unit 12 determines whether or not a disaster has occurred in the area where the vehicle is located, based on disaster prevention weather information and the like (S2). If no disaster has occurred in the area where the vehicle exists (No in S2), the processing unit 12 processes the in-vehicle camera image acquired from the acquisition unit 11 to make it unclear except for the first part (S3A). . Then, the processing unit 12 outputs to the output unit 13 the in-vehicle camera image that has been processed to be unclear except for the first portion.
  • the processing unit 12 causes the obtained in-vehicle camera image to be unclear except for the second portion, which is wider than the first portion. (S3B). Then, the processing unit 12 outputs to the output unit 13 the in-vehicle camera image that has been processed to be unclear except for the second portion.
  • the output unit 13 outputs the in-vehicle camera image that has been processed to be unclear except for the first part or the second part to the recording device 300 or the like (S4).
  • FIG. 4 Example of processed in-vehicle camera video
  • FIG. 4 schematically shows an example of an in-vehicle camera processed to be unclear except for the first part.
  • the first portion is the lower central portion of the in-vehicle camera image.
  • the first portion corresponds to an area in which the front of the road on which the vehicle travels is shown.
  • the on-board camera footage is obscured.
  • the obscuring processing includes, for example, mosaic processing, making the pixel values of adjacent pixels the same (blurring), and lowering (darkening) the sharpness of pixels.
  • FIG. 5 schematically shows an example of an in-vehicle camera processed to be unclear except for the second part.
  • the second portion shown in FIG. 5 is wider than the first portion shown in FIG.
  • the second portion extends from the lower central portion of the vehicle-mounted camera image to the lower peripheral portion of the vehicle-mounted camera image.
  • the second portion includes not only the area in front of the road on which the vehicle travels, but also the area around the road on which the vehicle travels.
  • the width of the region corresponding to the second portion (FIG. 5) in the processed in-vehicle camera image is longer than the width of the region corresponding to the first portion (FIG. 4) is exemplified.
  • the height of the region corresponding to the second portion may be higher than the height of the region corresponding to the first portion.
  • the area of the region corresponding to the second portion does not necessarily have to be larger than the area of the region corresponding to the first portion (FIG. 4).
  • the first portion corresponds to the area of the vehicle lane on which the vehicle travels, while the second portion corresponds to the vehicle on which the vehicle travels. Corresponds to lanes and areas of adjacent vehicle lanes.
  • the first portion corresponds to the area of the lane in which the vehicle travels, while the second portion corresponds to the area of the lane in which the vehicle travels and the opposite lane. handle.
  • the image processing device 10 normally outputs an in-vehicle camera image (FIG. 4) processed to be unclear except for the lower central portion of the in-vehicle camera image.
  • FOG. 4 an in-vehicle camera image
  • the privacy of ordinary people (for example, pedestrians) who happen to be captured by the vehicle-mounted camera images can be well protected.
  • the image processing device 10 outputs an in-vehicle camera image (FIG. 5) that has been processed to be unclear except for the lower central portion and peripheral portion of the in-vehicle camera image.
  • FOG. 5 an in-vehicle camera image
  • third parties for example, local governments
  • restoration activities can easily visually recognize the damage conditions of roads, etc. from the processed in-vehicle camera images. It is easy to detect overflowing water and collapsed objects.
  • the acquisition unit 11 acquires an in-vehicle camera image captured by an in-vehicle camera mounted in a vehicle. If no disaster occurs in the area where the vehicle exists, the processing unit 12 processes the acquired in-vehicle camera image to make it unclear except for the first part, while the disaster occurs in the area where the vehicle exists. If so, the obtained in-vehicle camera image is processed to be unclear except for the second portion, which is wider than the first portion.
  • the output unit 13 outputs the processed in-vehicle camera video. The second portion is wider than the first portion. Conversely, a narrow unclear portion means a wide clear portion.
  • Embodiment 2 will be described with reference to FIG.
  • FIG. 6 is a block diagram showing the configuration of the video processing device 20.
  • the video processing device 20 includes an acquisition section 11 , a processing section 12 and an output section 13 .
  • the video processing device 20 further includes a providing unit 24 .
  • the providing unit 24 provides the processed vehicle-mounted camera video to the monitoring center 200 (FIG. 1) that monitors the occurrence of disasters.
  • the providing unit 24 is an example of providing means.
  • the providing unit 24 receives from the processing unit 12 an in-vehicle camera image that has been processed to be unclear except for the second part.
  • the providing unit 24 transmits the processed vehicle-mounted camera video to the monitoring center 200 via the Internet.
  • the provision unit 24 is requested by the monitoring center 200 for the processed vehicle-mounted camera video.
  • the providing unit 24 acquires the in-vehicle camera image that has been processed to be unclear except for the second portion from the recording device 300 (FIG. 1).
  • the providing unit 24 transmits the processed vehicle-mounted camera video to the monitoring center 200 via the Internet.
  • the providing unit 24 may also provide the in-vehicle camera video that has been processed to be unclear except for the first portion to the monitoring center 200 in response to a request from the monitoring center 200 .
  • the processed in-vehicle camera video provided from the providing unit 24 of the video processing device 20 is displayed on a video monitor (not shown).
  • a person who performs monitoring monitors the processed in-vehicle camera image while looking at the video monitor.
  • the operation of the image processing device 20 according to the second embodiment is common to the operation of the image processing device 10 according to the first embodiment (FIG. 3).
  • the description of the first embodiment is cited, and the description of the operation of the video processing device 20 is omitted.
  • the acquisition unit 11 acquires an in-vehicle camera image captured by an in-vehicle camera mounted in a vehicle. If no disaster occurs in the area where the vehicle exists, the processing unit 12 processes the acquired in-vehicle camera image to make it unclear except for the first part, while the disaster occurs in the area where the vehicle exists. If so, the obtained in-vehicle camera image is processed to be unclear except for the second portion, which is wider than the first portion.
  • the output unit 13 outputs the processed in-vehicle camera video. The second portion is wider than the first portion. Conversely, a narrow unclear portion means a wide clear portion.
  • the providing unit 24 provides the in-vehicle camera image that has been processed to be unclear except for the second portion to the monitoring center 200 that monitors the occurrence of disasters.
  • the processed vehicle-mounted camera video is displayed.
  • the person who performs the monitoring monitors the damage situation of the processed in-vehicle camera image while looking at the video monitor.
  • the in-vehicle camera image that has been processed to be unclear except for the second part can protect the privacy of the general public and provide information for grasping the state of the road etc. to the surveillance executor.
  • Embodiment 3 will be described with reference to FIG.
  • components that perform the same processes as the components described in the first or second embodiment are given the same reference numerals as those in the first or second embodiment.
  • a description of the constituent elements is omitted.
  • FIG. 7 is a block diagram showing the configuration of the video processing device 30.
  • the video processing device 30 includes an acquisition section 11, a processing section 12', and an output section 13.
  • FIG. The processing unit 12' of the image processing device 30 partially differs from the processing unit 12 of the image processing devices 10 and 20 according to the first and second embodiments in the details of the processing that it executes. Processing executed by the acquisition unit 11 will be described below.
  • the processing unit 12' processes the obtained in-vehicle camera image to make it unclear except for the first part. On the other hand, if a disaster has occurred within the area where the vehicle is present, the processing unit 12' processes the acquired in-vehicle camera image to make it unclear except for the second portion, which is wider than the first portion.
  • the processing unit 12' determines the extent of damage caused by the disaster occurring within the area where the vehicle exists, based on the disaster prevention weather information. Further determine the size. Then, the processed portion 12' widens the second portion as the damage caused by the disaster is greater. In other words, the greater the damage caused by the disaster, the processing unit 12' narrows the region to be processed to make it unclear in the vehicle-mounted camera image. As a result, the processed in-vehicle camera image clearly shows the damage situation of the road.
  • the acquisition unit 11 acquires running information indicating the running state of the vehicle from the measuring device 100C mounted on the vehicle together with the vehicle-mounted camera image.
  • the travel information includes information indicating the speed of the vehicle.
  • Acquisition unit 11 outputs driving information indicating the driving state of the vehicle to processing unit 12' together with the vehicle-mounted camera image.
  • the processing unit 12' processes the acquired in-vehicle camera image to make it unclear except for the second portion, which is wider than the first portion.
  • the processing unit 12 ′ determines the speed of the vehicle based on the travel information received from the acquisition unit 11 .
  • the processed portion 12' widens the second portion as the speed of the vehicle increases. In other words, the higher the vehicle speed, the processing unit 12' narrows the region to be processed to make it unclear in the vehicle-mounted camera image. If the vehicle speed is high, it is highly likely that the vehicle is traveling on a wide road. Therefore, the region to be processed to be unclear should be narrowed so that the damage situation of the entire wide road can be clearly reflected in the processed in-vehicle camera image.
  • the processing unit 12' may narrow the second portion as the speed of the vehicle decreases. In particular, when the vehicle comes to a stop, the processing portion 12' may align the second portion with the first portion. As long as the vehicle is stationary, no matter how large the second, non-obscured portion is, the processed in-vehicle camera footage will not provide any new information about the road damage situation, while the general traffic will be affected. This is because the possibility of violating a person's privacy increases.
  • the operation of the image processing device 30 according to the third embodiment is common to the operation of the image processing device 10 according to the first embodiment (FIG. 3).
  • the description of the first embodiment is cited, and the description of the operation of the video processing device 30 is omitted.
  • the acquisition unit 11 acquires an in-vehicle camera image captured by an in-vehicle camera mounted in a vehicle.
  • the processing unit 12' processes the acquired in-vehicle camera image to obscure except for the first portion when no disaster occurs in the area where the vehicle exists, while the processing unit 12' processes the acquired in-vehicle camera image so that the disaster does not occur in the area where the vehicle exists. If it occurs, the obtained in-vehicle camera image is processed to be unclear except for the second portion that is wider than the first portion.
  • the output unit 13 outputs the processed in-vehicle camera video. The second portion is wider than the first portion. Conversely, a narrow unclear portion means a wide clear portion.
  • the processing unit 12' further determines the extent of damage caused by a disaster occurring in the area where the vehicle is located based on disaster prevention weather information. The larger, the wider the second portion.
  • the acquisition unit 11 acquires the running information indicating the running state of the vehicle from the measuring device 100C mounted on the vehicle together with the vehicle-mounted camera image.
  • the processing unit 12' determines the speed of the vehicle based on the travel information, and widens the second portion as the speed of the vehicle increases.
  • FIG. 8 is a block diagram showing an example of the hardware configuration of the information processing device 900. As shown in FIG. 8
  • the information processing device 900 includes the following configuration as an example.
  • a program 904 that implements the function of each component is stored in advance in, for example, the storage device 905 or the ROM 902, and is loaded into the RAM 903 and executed by the CPU 901 as necessary.
  • the program 904 may be supplied to the CPU 901 via the communication network 909 or may be stored in the recording medium 906 in advance, and the drive device 907 may read the program and supply it to the CPU 901 .
  • the video processing apparatuses 10, 20, and 30 described in the first to third embodiments are implemented as hardware. Therefore, the same effects as those described in any one of the first to third embodiments can be obtained.
  • (Appendix 1) Acquisition means for acquiring an in-vehicle camera image captured by an in-vehicle camera mounted in a vehicle; When a disaster does not occur within the area where the vehicle exists, the obtained in-vehicle camera image is processed to be obscure except for a first portion, while a disaster occurs within the area where the vehicle exists. if there is, processing means for processing the acquired in-vehicle camera image to make it unclear except for a second portion wider than the first portion; and output means for outputting the processed in-vehicle camera video.
  • the processing means is further determining the magnitude of damage caused by a disaster occurring in the area where the vehicle is located, based on the disaster prevention weather information;
  • the video processing device according to appendix 3, wherein the larger the damage caused by the disaster, the wider the second portion.
  • appendix 5 The video processing device according to appendix 1, further comprising providing means for providing the in-vehicle camera video processed to be unclear except for the second part to a monitoring center that monitors the occurrence of a disaster.
  • the acquisition means is searching for vehicles located within a monitoring target area, which is an area monitored for occurrence of a disaster by the monitoring center;
  • the video processing device according to appendix 5, wherein the vehicle-mounted camera video captured by the vehicle found in the monitoring target area is acquired.
  • the acquisition means acquires sensor data from a sensor device attached to the vehicle together with the vehicle-mounted camera image,
  • the processing means determines whether or not a disaster has occurred in the area where the vehicle exists, based on the sensor data acquired from the sensor device attached to the vehicle.
  • the video processing device according to appendix 1.
  • the acquisition means acquires running information indicating a running state of the vehicle from a measuring device mounted on the vehicle together with the vehicle-mounted camera image,
  • the video processing device according to appendix 1, wherein the processing means determines the speed of the vehicle based on the travel information, and widens the second portion as the speed of the vehicle increases.
  • the first portion includes at least part of an area where the road on which the vehicle travels is captured in the in-vehicle camera image
  • (Appendix 11) Acquiring an in-vehicle camera image captured by an in-vehicle camera mounted in a vehicle; When a disaster has not occurred within the area where the vehicle exists, the acquired in-vehicle camera image is processed to be unclear except for a first portion, while a disaster has occurred within the area where the vehicle exists. if there is, processing the acquired in-vehicle camera image to make it unclear except for a second portion that is wider than the first portion; A non-temporary recording medium storing a program for causing a computer to output the processed in-vehicle camera video.
  • the present invention provides, for example, a video processing device that performs video processing for privacy protection on an on-vehicle camera image taken by an on-board camera mounted on a vehicle, and a flooding of a road based on the on-vehicle camera image in the event of a disaster. , cave-ins, and cracks.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)

Abstract

プライバシーに配慮しつつ、車載カメラ映像を第三者へ提供するための仕組みを提供する。取得部(11)は、車両に搭載された車載カメラにより撮影された車載カメラ映像を取得し、加工部(12)は、取得した車載カメラ映像における第1の部分を除いて不明瞭に加工し、出力部(13)は、加工された車載カメラ映像を出力し、監視対象地域内において、災害が発生した後、加工部(12)は、取得した車載カメラ映像において、第1の部分よりも広い第2の部分を除いて不明瞭に加工する。

Description

映像処理装置、防災支援システム、映像処理方法、および記録媒体
 本発明は、映像処理装置、防災支援システム、映像処理方法、および記録媒体に関し、特に、車載カメラにより撮影された車載カメラ映像を加工する映像処理装置、防災支援システム、映像処理方法、および記録媒体に関する。
 地震や集中豪雨など、大規模な自然災害が発生したとき、河川氾濫、土砂崩れ、道路の冠水、陥没、およびひび割れなどの被災が、広範囲で発生する可能性がある。土木事務所や管理事務所等の監視センタでは、河川の周辺に設置された監視カメラが撮影した監視映像に基づいて、監視対象地域内における災害の発生を監視している。
 固定された監視カメラのみでは、監視対象地域の被災状況を十分に把握できない可能性がある。例えば、大雨により、内水氾濫が発生することによって、市街地が冠水したとき、河川の周辺に設置された監視カメラは、市街地を撮影することができない。
 関連する技術では、ドライブレコーダやバックカメラ等の車載カメラが撮影した映像を、事故の記録等の本来の用途とは異なる用途に転用する。
 特許文献1には、車載カメラから得た映像(以下、車載カメラ映像と呼ぶ)を、交通事故の実況見分や防犯のために提供する車載用カメラシステムが開示されている。特許文献1に記載の関連する技術によれば、車載カメラ映像を、災害の発生を監視する監視センタに提供することができたとすれば、監視センタが、車載カメラ映像を用いて、監視対象地域における被災状況を調査することができる。
特開2011-180693号公報 特開2020- 57203号公報
 車載カメラ映像には、一般の通行人が偶然に映っている場合がある。特許文献1に記載の関連する技術を用いて、車載カメラ映像をそのまま、監視センタに提供した場合、他人のプライバシーを侵害する恐れがある。プライバシーに配慮しつつ、車載カメラ映像を、監視センタなどの第三者へ提供するための技術が要望されている。
 本発明は、上記の課題に鑑みてなされたものであり、その目的は、プライバシーに配慮しつつ、車載カメラ映像を第三者へ提供するための仕組みを提供することにある。
 本発明の一態様に係る映像処理装置は、車両に搭載された車載カメラにより撮影された車載カメラ映像を取得する取得手段と、前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在する前記エリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工する加工手段と、加工された前記車載カメラ映像を出力する出力手段とを備えている。
 本発明の一態様に係る映像処理方法では、車両に搭載された車載カメラにより撮影された車載カメラ映像を取得し、前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在するエリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工し、加工された前記車載カメラ映像を出力する。
 本発明の一態様に係る記録媒体は、車両に搭載された車載カメラにより撮影された車載カメラ映像を取得することと、前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在するエリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工することと、加工された前記車載カメラ映像を出力することとをコンピュータに実行させるためのプログラムを格納している。
 本発明の一態様に係る防災支援システムは、車両に搭載された車載カメラにより撮影された車載カメラ映像を取得する取得手段と、前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在する前記エリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工する加工手段と、加工された前記車載カメラ映像を出力する出力手段とを備えた映像処理装置と、加工された前記車載カメラ映像が保存される録画装置とを備えている。
 本発明の一態様によれば、プライバシーに配慮しつつ、車載カメラ映像を第三者へ提供することができる。
実施形態1~3のいずれかに係る映像処理装置を備えた防災支援システムの構成の一例を概略的に示す図である。 実施形態1に係る映像処理装置の構成を示すブロック図である。 実施形態1に係る映像処理装置の動作を示すフローチャートである。 第1の部分を除いて不明瞭に加工された車載カメラの一例を模式的に示す。 第2の部分を除いて不明瞭に加工された車載カメラの一例を模式的に示す。 実施形態2に係る映像処理装置の構成を示すブロック図である。 実施形態3に係る映像処理装置の構成を示すブロック図である。 実施形態1~3のいずれかに係る映像処理装置のハードウェア構成の一例を示す図である。
 本発明のいくつかの実施形態について、図面を参照しながら、以下で説明する。
 (防災支援システム1)
 図1を参照して、後述する実施形態1~3に係る映像処理装置10,20,30のいずれかを備えた防災支援システム1の構成の一例を、最初に説明する。図1において、「映像処理装置10(20,30)」とは、実施形態1~3に係る映像処理装置10,20,30のいずれかを表す。
 図1に示すように、防災支援システム1は、ドライブレコーダ100、監視センタ200、および録画装置300を含む。防災支援システム1の各構成要素は、複数であってもよい。
 ドライブレコーダ100は、官公庁や地方自治体が保有する車両に搭載される。車両は、あらかじめ定められた監視対象地域内を巡回する。監視対象地域は、例えば、都道府県や市町村などの行政区画に基づいて指定される。車両は、例えば、パトロールカー、または広報車である。車両は、消防車などの緊急車両や、道路清掃車などの特殊車両であってもよい。
 ドライブレコーダ100は、車載カメラ100A、センサ機器100B、および計測機器100Cを備えている。車載カメラ100Aは、通常、車両が走行する道路およびその周辺を撮影する。車載カメラ100Aによって得られた車載カメラ映像のデータは、ドライブレコーダ100から、インターネットを通じて、映像処理装置10(20,30)へ送信される。一例では、車載カメラ100Aは、一般的なビデオカメラまたはIoTカメラであってもよい。
 センサ機器100Bは、車両の周辺における環境の状態を検知する。センサ機器100Bは、ミリ波センサ、加速度センサ、GPS(Geographical Positioning System)センサ、あるいはIMU(Inertial Measurement Unit)など、車両に一般的に搭載されるものであってよい。さらに、センサ機器100Bは、例えば、温度センサ、湿度センサ、積雪センサ、光センサ、水位センサ、放射線センサ、あるいは、ガス検知器など、災害時に自治体等が被災状況を分析するために必要なものを含んでいてもよい。
 計測機器100Cは、速度計、回転数計、および燃料計など、車両の状態を計測するためのものである。計測機器100Cは、センサ機器100Bから得た物理データに基づいて、車両の状態を示す指標(パラメータ)を出力する。具体的には、計測機器100Cは、車両の走行状態(すなわち車両が走行しているかどうか)を計測する。なお、防災支援システム1は、センサ機器100Bおよび計測機器100Cを備えていなくてもよい。この場合、防災支援システム1は、ドライブレコーダ100、後述する監視センタ200、および、後述する録画装置300で構成される。
 監視センタ200は、土木事務所や管理事務所等、監視対象地域内における災害の発生を監視するための施設である。監視センタ200には、ビデオモニタおよび警報機(どちらも図示せず)が配置されている。監視センタ200には、映像処理装置10(20,30)から、加工された車載カメラ映像が転送される。加工された車載カメラ映像とは、車載カメラ映像に偶然に写り込んだ一般人等のプライバシーを保護するための加工が、車載カメラ映像に対して施されたものである。
 監視センタ200では、監視実行者がビデオモニタを見ながら、監視映像に映る災害危険区域(すなわち河川や林道等)を監視している。また、監視センタ200のビデオモニタには、映像処理装置10(20,30)から受信した、加工された車載カメラ映像も表示される。
 録画装置300には、映像処理装置10(20,30)がドライブレコーダ100から受信した車載カメラ映像が出力される。また、録画装置300には、映像処理装置10(20,30)によって、プライバシー保護の目的で加工された車載カメラ映像も出力される。災害時、映像処理装置10(20,30)によって加工された車載カメラ映像は、監視センタ200等の第三者へ提供される。
 なお、プライバシーをより確実に保護するために、加工された車載カメラ映像の提供先は、信頼できる第三者(例えば、自治体や行政機関)のみに限定されていてもよい。映像処理装置10(20,30)は、予め準備されたリストを参照して、リストに記載された第三者へ、加工された車載カメラ映像を提供する。
 録画装置300は、クラウド型ファイルサーバによって、代替することができる。この場合、防災支援システム1は、録画装置300を含まなくてもよい。
 映像処理装置10,20,30については、後述する実施形態1~3において説明する。
 〔実施形態1〕
 図2~図3を参照して、実施形態1について説明する。
 (映像処理装置10)
 図2を参照して、本実施形態1に係る映像処理装置10の構成を説明する。図2は、映像処理装置10の構成を示すブロック図である。図2に示すように、映像処理装置10は、取得部11、加工部12、および出力部13を備えている。
 取得部11は、車両に搭載された車載カメラ100A(図1)により撮影された車載カメラ映像を取得する。取得部11は、取得手段の一例である。
 一例では、取得部11は、車両に搭載されたドライブレコーダ100(図1)から、インターネットを通じて、車載カメラ100Aが撮影した車載カメラ映像を取得する。
 他の一例では、取得部11は、監視センタ200(図1)により災害の発生を監視される領域である監視対象地域内に位置する車両を捜索する。そして、取得部11は、監視対象地域内において発見された車両により撮影された車載カメラ映像を、車両に搭載されたドライブレコーダ100から取得する。取得部11は、ドライブレコーダ100から取得した車載カメラ映像を、加工部12へ出力する。
 加工部12は、車両が存在するエリア内で災害が発生していない場合、取得した車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、車両が存在するエリア内で災害が発生している場合、取得した車載カメラ映像において、第1の部分よりも広い第2の部分を除いて不明瞭に加工する。加工部12は、加工手段の一例である。車両が存在するエリア内で災害が発生している場合とは、例えば、当該エリアが気象警報や地震速報の発表区域に含まれている場合である。
 一例では、加工部12は、取得部11から、車載カメラ100Aによって撮影された車載カメラ映像を受信する。加工部12は、受信した車載カメラ映像を加工する。
 まず、加工部12は、車両が存在するエリアを判定する。例えば、加工部12は、車両の位置情報を取得する。そして、加工部12は、取得した車両の位置情報に基づいて、車両が存在するエリアを判定する。あるいは、加工部12は、車両に取り付けられたセンサ機器100Bから取得されたセンサデータに基づいて、車両が存在するエリア内で災害が発生しているか否かを判定してもよい。
 また、加工部12は、車両が存在するエリア内で災害が発生したかどうかを判定する。例えば、加工部12は、防災気象情報を取得する。そして、加工部12は、取得した防災気象情報に基づいて、車両が存在するエリア内で災害が発生したかどうかを判定する。防災気象情報とは、気象・地震・火山等に関する予報や情報であり、例えば、気象警報、気象注意報、または地震速報である。
 その後、加工部12は、車両が存在するエリア内で災害が発生していない場合、加工部12は、車載カメラ映像における第1の部分を除いて不明瞭に加工する。一例では、第1の部分は、車載カメラ映像において、車両が走行する道路が映る領域の少なくとも一部を含む。
 一方、車両が存在するエリア内で災害が発生している場合、加工部12は、取得した車載カメラ映像において、第1の部分よりも広い第2の部分を除いて不明瞭に加工する。一例では、第2の部分は、車載カメラ映像において、車両が走行する道路が映る領域の少なくとも一部を包含し、かつそれよりも広い領域を含む。より包括的に言えば、加工部12は、平常時と災害時とで、車載カメラ映像において加工する領域を変える。また、上述した例において、第2の部分が、第1の部分よりも「広い」とは、加工された車載カメラ映像において、第2の部分に相当する領域の面積が、第1の部分に相当する領域の面積よりも広いという意味に限定されない。加工された車載カメラ映像において、第2の部分に相当する領域(図5)の幅が、第1の部分に相当する領域(図4)の幅よりも長いか、第2の部分に相当する領域(図5)の高さが、第1の部分に相当する領域(図4)の高さよりも高ければよい。すなわち、ここでの「広い」とは、1次元の長さを比較することを意味する場合もある。
 加えて、加工部12は、車載カメラ映像から、他の車両のナンバープレートや、人家の表札などの領域を検出して、それらの領域を不明瞭に加工してもよい。さらに、加工部12は、車両が存在するエリア内で発生している災害による被害の大きさや、車両の速度に応じて、段階的にまたは連続的に、第2の部分の広さを変えてもよい(実施形態3)。
 平常時、すなわち、車両が存在するエリア内で災害が発生していない場合、加工部12は、第1の部分を除いて不明瞭に加工された車載カメラ映像を、出力部13へ出力する。一方、災害時、すなわち、車両が存在するエリア内で災害が発生している場合、加工部12は、第2の部分を除いて不明瞭に加工された車載カメラ映像を、出力部13へ出力する。
 出力部13は、加工された車載カメラ映像を出力する。出力部13は、出力手段の一例である。
 一例では、出力部13は、加工部12から、第1の部分または第2の部分を除いて不明瞭に加工された車載カメラ映像を受信する。平常時、すなわち、車両が存在するエリア内で災害が発生していない場合、出力部13は、第1の部分を除いて不明瞭に加工された車載カメラ映像を、録画装置300(図1)へ出力する。一方、災害時、すなわち、車両が存在するエリア内で災害が発生している場合、出力部13は、第2の部分を除いて不明瞭に加工された車載カメラ映像を、録画装置300へ出力する。
 平常時、録画装置300には、第1の部分を除いて不明瞭に加工された車載カメラ映像が保存される。災害時、録画装置300には、第2の部分を除いて不明瞭に加工された車載カメラ映像が保存される。録画装置300に保存された、第2の部分を除いて不明瞭に加工された車載カメラ映像は、救助活動を行う自治体等の第三者へ、必要な限りにおいて提供されてもよい。
 出力部13は、加工された車載カメラ映像を、画像解析を実行する後段の処理機能(図示せず)へ出力してもよい。後段の処理機能は、加工された車載カメラ映像を画像解析することによって、加工された車載カメラ映像に映る道路の状態を診断する。例えば、後段の処理機能は、路面のひび割れや陥没、あるいは凹凸などを調査する。
 (映像処理装置10の動作)
 図3を参照して、本実施形態1に係る映像処理装置10の動作を説明する。図3は、映像処理装置10の各部が実行する処理の流れを示すフローチャートである。
 図3に示すように、取得部11は、車両に搭載された車載カメラ100Aにより撮影された車載カメラ映像を、ドライブレコーダ100から取得する(S1)。取得部11は、ドライブレコーダ100から取得した車載カメラ映像を、加工部12へ出力する。
 加工部12は、防災気象情報などに基づいて、車両が存在するエリア内で災害が発生しているか否かを判定する(S2)。車両が存在するエリア内で災害が発生していない場合(S2でNo)、加工部12は、取得部11から取得した車載カメラ映像における第1の部分を除いて不明瞭に加工する(S3A)。そして、加工部12は、第1の部分を除いて不明瞭に加工された車載カメラ映像を、出力部13へ出力する。
 一方、車両が存在するエリア内で災害が発生している場合(S2でYes)、加工部12は、取得した車載カメラ映像において、第1の部分よりも広い第2の部分を除いて不明瞭に加工する(S3B)。そして、加工部12は、第2の部分を除いて不明瞭に加工された車載カメラ映像を、出力部13へ出力する。
 出力部13は、第1の部分または第2の部分を除いて不明瞭に加工された車載カメラ映像を、録画装置300等へ出力する(S4)。
 以上で、本実施形態1に係る映像処理装置10の動作は終了する。
 (加工された車載カメラ映像の一例)
 図4および図5を参照して、加工された車載カメラ映像の一例を説明する。
 図4は、第1の部分を除いて不明瞭に加工された車載カメラの一例を模式的に示す。図4に示すように、第1の部分は、車載カメラ映像の下側の中央部である。第1の部分は、車両が走行する道路の前方が映る領域と対応している。第1の部分を除いて、車載カメラ映像は不明瞭に加工されている。不明瞭にする加工とは、例えば、モザイク加工のほか、互いに隣接する画素の画素値を同じにする(ぼかす)ことや、画素の鮮明度を下げる(暗くする)ことである。
 図5は、第2の部分を除いて不明瞭に加工された車載カメラの一例を模式的に示す。図5を図4と比較すれば、図5に示す第2の部分は、図4に示す第1の部分よりも広くなっている。図5に示すように、第2の部分は、車載カメラ映像の下側の中央部から、車載カメラ映像の下側の周縁部まで広がっている。第2の部分は、車両が走行する道路の前方が映る領域のみではなく、車両が走行する道路の周辺の領域まで含む。ここでは、加工された車載カメラ映像において、第2の部分に相当する領域(図5)の幅が、第1の部分に相当する領域(図4)の幅よりも長い場合のみを例示した。しかし、加工された車載カメラ映像において、第2の部分に相当する領域の高さが、第1の部分に相当する領域の高さよりも高くてもよい。また、必ずしも、加工された車載カメラ映像において、第2の部分に相当する領域(図5)の面積が、第1の部分に相当する領域(図4)の面積よりも大きくなくてもよい。
 例えば、車両が複数の車両通行帯を有する道路を走行している場合、第1の部分は、車両が走行する車両通行帯の領域と対応する一方、第2の部分は、車両が走行する車両通行帯および隣接する車両通行帯の領域と対応する。あるいは、車両が2車線の道路を走行している場合、第1の部分は、車両が走行する車線の領域と対応する一方、第2の部分は、車両が走行する車線および反対車線の領域と対応する。
 映像処理装置10は、平常時には、車載カメラ映像の下側の中央部を除いて不明瞭に加工された車載カメラ映像(図4)を出力する。これにより、車載カメラ映像に偶然に映った一般人(例えば歩行者)のプライバシーをよく保護することができる。
 映像処理装置10は、災害時には、車載カメラ映像の下側の中央部および周縁部を除いて不明瞭に加工された車載カメラ映像(図5)を出力する。これにより、一般人のプライバシーを保護しつつ、復旧活動を実施する第三者(例えば、自治体)が、加工された車載カメラ映像から、道路等の被災状況を視認しやすく、また、排水溝やマンホールからの溢水や倒壊物等を発見しやすい。
 (本実施形態の効果)
 本実施形態の構成によれば、取得部11は、車両に搭載された車載カメラにより撮影された車載カメラ映像を取得する。加工部12は、車両が存在するエリア内で災害が発生していない場合、取得した車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、車両が存在するエリア内で災害が発生している場合、取得した車載カメラ映像において、第1の部分よりも広い第2の部分を除いて不明瞭に加工する。出力部13は、加工された車載カメラ映像を出力する。第1の部分よりも第2の部分の方が広い。不明瞭な部分が狭いことは、逆に言えば、明瞭な部分が広いことを意味する。災害時には、平常時よりも、不明瞭な部分が狭く、明瞭な部分が広い、加工された車載カメラ映像が出力される。これにより、プライバシーに配慮しつつ、車載カメラから得た車載カメラ映像を第三者へ提供することができる。
 〔実施形態2〕
 図6を参照して、実施形態2について説明する。
 (映像処理装置20)
 図6を参照して、本実施形態2に係る映像処理装置20の構成を説明する。図6は、映像処理装置20の構成を示すブロック図である。図6に示すように、映像処理装置20は、取得部11、加工部12、および出力部13を備えている。映像処理装置20は、提供部24をさらに備えている。
 提供部24は、加工した車載カメラ映像を、災害の発生を監視する監視センタ200(図1)へ提供する。提供部24は提供手段の一例である。
 一例では、提供部24は、加工部12から、第2部分を除いて不明瞭に加工された車載カメラ映像を受信する。提供部24は、加工された車載カメラ映像を、インターネットを通じて、監視センタ200へ送信する。
 他の一例では、提供部24は、監視センタ200から、加工された車載カメラ映像を要求される。提供部24は、監視センタ200の要求に応じて、録画装置300(図1)から、第2部分を除いて不明瞭に加工された車載カメラ映像を取得する。提供部24は、加工された車載カメラ映像を、インターネットを通じて、監視センタ200へ送信する。
 なお、提供部24は、第1部分を除いて不明瞭に加工された車載カメラ映像も、監視センタ200からの要望に応じて、監視センタ200へ提供してもよい。
 監視センタ200では、映像処理装置20の提供部24から提供された、加工された車載カメラ映像が、図示しないビデオモニタ上に表示される。監視実行者は、ビデオモニタを見ながら、加工された車載カメラ映像を監視する。
 (映像処理装置20の動作)
 本実施形態2に係る映像処理装置20の動作は、前記実施形態1に係る映像処理装置10の動作(図3)と共通である。本実施形態2では、前記実施形態1における説明を引用して、映像処理装置20の動作に関する説明を省略する。
 (本実施形態の効果)
 本実施形態の構成によれば、取得部11は、車両に搭載された車載カメラにより撮影された車載カメラ映像を取得する。加工部12は、車両が存在するエリア内で災害が発生していない場合、取得した車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、車両が存在するエリア内で災害が発生している場合、取得した車載カメラ映像において、第1の部分よりも広い第2の部分を除いて不明瞭に加工する。出力部13は、加工された車載カメラ映像を出力する。第1の部分よりも第2の部分の方が広い。不明瞭な部分が狭いことは、逆に言えば、明瞭な部分が広いことを意味する。災害時には、平常時よりも、不明瞭な部分が狭く、明瞭な部分が広い、加工された車載カメラ映像が出力される。これにより、プライバシーに配慮しつつ、車載カメラから得た車載カメラ映像を第三者へ提供することができる。
 さらに本実施形態の構成によれば、提供部24は、第2の部分を除いて不明瞭に加工された車載カメラ映像を、災害の発生を監視する監視センタ200へ提供する。監視センタ200では、加工された車載カメラ映像が表示される。監視実行者は、ビデオモニタを見ながら、加工された車載カメラ映像の被災状況を監視する。第2の部分を除いて不明瞭に加工された車載カメラ映像は、一般人等のプライバシーを保護しつつ、道路等の状態を把握するための情報を、監視実行者に提供することができる。
 〔実施形態3〕
 図7を参照して、実施形態3について説明する。本実施形態3では、前記実施形態1または前記実施形態2で説明した構成要素と同じ処理を実行する構成要素に対して、前記実施形態1または前記実施形態2と同じ符号を付して、その構成要素に関する説明を省略する。
 本実施形態3では、段階的にまたは連続的に、加工された車載カメラ映像における第2の部分の広さを変える構成を説明する。
 (映像処理装置30)
 図7を参照して、本実施形態3に係る映像処理装置30の構成を説明する。図7は、映像処理装置30の構成を示すブロック図である。図7に示すように、映像処理装置30は、取得部11、加工部12′、および出力部13を備えている。映像処理装置30の加工部12′は、前記実施形態1、2に係る映像処理装置10、20の加工部12とは、それが実行する処理の内容が部分的に異なる。以下で、取得部11が実行する処理を説明する。
 車両が存在するエリア内で災害が発生していない場合、加工部12′は、取得した車載カメラ映像における第1の部分を除いて不明瞭に加工する。一方、車両が存在するエリア内で災害が発生している場合、加工部12′は、取得した車載カメラ映像において、第1の部分よりも広い第2の部分を除いて不明瞭に加工する。
 後者の場合、すなわち、車両が存在するエリア内で災害が発生している場合において、加工部12′は、防災気象情報に基づいて、車両が存在するエリア内で発生している災害による被害の大きさをさらに判定する。そして、加工部12′は、災害による被害が大きいほど、第2の部分を広くする。言い換えれば、加工部12′は、災害による被害が大きいほど、車載カメラ映像において、不明瞭に加工する領域を狭くする。これにより、加工された車載カメラ映像には、道路の被災状況が明瞭に映る。
 あるいはまた、後者の場合において、取得部11は、車載カメラ映像とともに、車両に搭載された計測機器100Cより、車両の走行状態を示す走行情報を取得する。走行情報は、車両の速度を示す情報を含む。取得部11は、車載カメラ映像とともに、車両の走行状態を示す走行情報を、加工部12′へ出力する。
 加工部12′は、取得した車載カメラ映像において、第1の部分よりも広い第2の部分を除いて不明瞭に加工する。このとき、加工部12′は、取得部11から受信した走行情報に基づいて、車両の速度を判定する。そして、加工部12′は、車両の速度が高いほど、第2の部分を広くする。言い換えれば、加工部12′は、車両の速度が高いほど、車載カメラ映像において、不明瞭に加工する領域を狭くする。車両の速度が高い場合、車両が広い道路を走行している可能性が高い。したがって、広い道路の全体の被災状況が、加工された車載カメラ映像に明瞭に映るように、不明瞭に加工する領域を狭くすべきであるからである。
 逆に、加工部12′は、車両の速度が低いほど、第2の部分を狭くしてもよい。特に、車両が停止したとき、加工部12′は、第2の部分を第1の部分と一致させてもよい。車両が停止している限り、不明瞭に加工しない第2の部分がどれだけ広かったとしても、加工された車載カメラ映像から、道路の被災状況についての新しい情報は得られない一方、一般の通行人のプライバシーを侵害する可能性は高くなるからである。
 (映像処理装置30の動作)
 本実施形態3に係る映像処理装置30の動作は、前記実施形態1に係る映像処理装置10の動作(図3)と共通である。本実施形態3では、前記実施形態1における説明を引用して、映像処理装置30の動作に関する説明を省略する。
 (本実施形態の効果)
 本実施形態の構成によれば、取得部11は、車両に搭載された車載カメラにより撮影された車載カメラ映像を取得する。加工部12′は、車両が存在するエリア内で災害が発生していない場合、取得した車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、車両が存在するエリア内で災害が発生している場合、取得した車載カメラ映像において、第1の部分よりも広い第2の部分を除いて不明瞭に加工する。出力部13は、加工された車載カメラ映像を出力する。第1の部分よりも第2の部分の方が広い。不明瞭な部分が狭いことは、逆に言えば、明瞭な部分が広いことを意味する。災害時には、平常時よりも、不明瞭な部分が狭く、明瞭な部分が広い、加工された車載カメラ映像が出力される。これにより、プライバシーに配慮しつつ、車載カメラから得た車載カメラ映像を第三者へ提供することができる。
 さらに、本実施形態の構成によれば、加工部12′は、防災気象情報に基づいて、車両が存在するエリア内で発生している災害による被害の大きさをさらに判定し、災害による被害が大きいほど、第2の部分を広くする。
 あるいは、取得部11は、車載カメラ映像とともに、車両に搭載された計測機器100Cより、車両の走行状態を示す走行情報を取得する。加工部12′は、走行情報に基づいて、車両の速度を判定し、車両の速度が高いほど、第2の部分を広くする。これにより、プライバシーを保護しつつ、自治体等の第三者が、加工された車載カメラ映像から、復旧や救助活動に必要な情報を得ることができる。
 (ハードウェア構成について)
 前記実施形態1~3で説明した映像処理装置10,20,30の各構成要素は、機能単位のブロックを示している。これらの構成要素の一部又は全部は、例えば図8に示すような情報処理装置900により実現される。図8は、情報処理装置900のハードウェア構成の一例を示すブロック図である。
 図8に示すように、情報処理装置900は、一例として、以下のような構成を含む。
  ・CPU(Central Processing Unit)901
  ・ROM(Read Only Memory)902
  ・RAM(Random Access Memory)903
  ・RAM903にロードされるプログラム904
  ・プログラム904を格納する記憶装置905
  ・記録媒体906の読み書きを行うドライブ装置907
  ・通信ネットワーク909と接続する通信インタフェース908
  ・データの入出力を行う入出力インタフェース910
  ・各構成要素を接続するバス911
 前記実施形態1~3で説明した映像処理装置10,20,30の各構成要素は、これらの機能を実現するプログラム904をCPU901が読み込んで実行することで実現される。各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やROM902に格納されており、必要に応じてCPU901がRAM903にロードして実行される。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
 上記の構成によれば、前記実施形態1~3において説明した映像処理装置10,20,30が、ハードウェアとして実現される。したがって、前記実施形態1~3のいずれかにおいて説明した効果と同様の効果を奏することができる。
 〔付記〕
 本発明の一態様は、以下の付記のようにも記載され得るが、以下に限定されない。
 (付記1)
 車両に搭載された車載カメラにより撮影された車載カメラ映像を取得する取得手段と、
 前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在する前記エリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工する加工手段と、
 加工された前記車載カメラ映像を出力する出力手段とを備えた
 映像処理装置。
 (付記2)
 前記加工手段は、前記車両の位置情報を取得し、取得した前記車両の前記位置情報に基づいて、前記車両が存在する前記エリアを判定する
 ことを特徴とする付記1に記載の映像処理装置。
 (付記3)
 前記加工手段は、防災気象情報を取得し、取得した前記防災気象情報に基づいて、前記車両が存在する前記エリア内で災害が発生したかどうかを判定する
 ことを特徴とする付記1に記載の映像処理装置。
 (付記4)
 前記加工手段は、
  前記防災気象情報に基づいて、前記車両が存在する前記エリア内で発生している災害による被害の大きさをさらに判定し、
  前記災害による被害が大きいほど、前記第2の部分を広くする
 ことを特徴とする付記3に記載の映像処理装置。
 (付記5)
 前記第2の部分を除いて不明瞭に加工された前記車載カメラ映像を、災害の発生を監視する監視センタへ提供する提供手段をさらに備えた
 ことを特徴とする付記1に記載の映像処理装置。
 (付記6)
 前記取得手段は、
  前記監視センタにより災害の発生を監視される領域である監視対象地域内に位置する車両を捜索し、
  前記監視対象地域内において発見された前記車両により撮影された前記車載カメラ映像を取得する
 ことを特徴とする付記5記載の映像処理装置。
 (付記7)
 前記取得手段は、前記車載カメラ映像とともに、前記車両に取り付けられたセンサ機器よりセンサデータを取得し、
 前記加工手段は、前記車両に取り付けられた前記センサ機器から取得された前記センサデータに基づいて、前記車両が存在する前記エリア内で災害が発生しているか否かを判定する
 ことを特徴とする付記1に記載の映像処理装置。
 (付記8)
 前記取得手段は、前記車載カメラ映像とともに、前記車両に搭載された計測機器より、前記車両の走行状態を示す走行情報を取得し、
 前記加工手段は、前記走行情報に基づいて、前記車両の速度を判定し、前記車両の速度が高いほど、前記第2の部分を広くする
 ことを特徴とする付記1に記載の映像処理装置。
 (付記9)
 前記第1の部分は、前記車載カメラ映像において、前記車両が走行する道路が映る領域の少なくとも一部を含み、
 前記第2の部分は、前記車載カメラ映像において、前記車両が走行する道路が映る領域の少なくとも一部を包含し、かつそれよりも広い領域を含む
 ことを特徴とする付記1に記載の映像処理装置。
 (付記10)
 車両に搭載された車載カメラにより撮影された車載カメラ映像を取得し、
 前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在するエリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工し、
 加工された前記車載カメラ映像を出力する
 映像処理方法。
 (付記11)
 車両に搭載された車載カメラにより撮影された車載カメラ映像を取得することと、
 前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在するエリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工することと、
 加工された前記車載カメラ映像を出力することと
 をコンピュータに実行させるためのプログラムを格納した、一時的でない記録媒体。
 (付記12)
  車両に搭載された車載カメラにより撮影された車載カメラ映像を取得する取得手段と、
  前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在する前記エリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工する加工手段と、
  加工された前記車載カメラ映像を出力する出力手段とを備えた
 映像処理装置と、
 加工された前記車載カメラ映像が保存される録画装置とを備えた
 防災支援システム。
 以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。上記実施形態(及び実施例)の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 本発明は、例えば、車両に搭載された車載カメラが撮影した車載カメラ映像に対し、プライバシー保護のための映像処理を行う映像処理装置、および、災害時、車載カメラ映像に基づいて、道路の冠水、陥没、及びひび割れなどの有無を検査する防災支援システムに利用することができる。
   1 防災支援システム
  10 映像処理装置
  11 取得部
  12 加工部
  13 出力部
  20 映像処理装置
  30 映像処理装置
 100 ドライブレコーダ
100A 車載カメラ
100B センサ機器
100C 計測機器
 200 監視センタ
 300 録画装置

Claims (12)

  1.  車両に搭載された車載カメラにより撮影された車載カメラ映像を取得する取得手段と、
     前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在する前記エリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工する加工手段と、
     加工された前記車載カメラ映像を出力する出力手段とを備えた
     映像処理装置。
  2.  前記加工手段は、前記車両の位置情報を取得し、取得した前記車両の前記位置情報に基づいて、前記車両が存在する前記エリアを判定する
     ことを特徴とする請求項1に記載の映像処理装置。
  3.  前記加工手段は、防災気象情報を取得し、取得した前記防災気象情報に基づいて、前記車両が存在する前記エリア内で災害が発生したかどうかを判定する
     ことを特徴とする請求項1に記載の映像処理装置。
  4.  前記加工手段は、
      前記防災気象情報に基づいて、前記車両が存在する前記エリア内で発生している災害による被害の大きさをさらに判定し、
      前記災害による被害が大きいほど、前記第2の部分を広くする
     ことを特徴とする請求項3に記載の映像処理装置。
  5.  前記第2の部分を除いて不明瞭に加工された前記車載カメラ映像を、災害の発生を監視する監視センタへ提供する提供手段をさらに備えた
     ことを特徴とする請求項1に記載の映像処理装置。
  6.  前記取得手段は、
      前記監視センタにより災害の発生を監視される領域である監視対象地域内に位置する車両を捜索し、
      前記監視対象地域内において発見された前記車両により撮影された前記車載カメラ映像を取得する
     ことを特徴とする請求項5記載の映像処理装置。
  7.  前記取得手段は、前記車載カメラ映像とともに、前記車両に取り付けられたセンサ機器よりセンサデータを取得し、
     前記加工手段は、前記車両に取り付けられた前記センサ機器から取得された前記センサデータに基づいて、前記車両が存在する前記エリア内で災害が発生しているか否かを判定する
     ことを特徴とする請求項1に記載の映像処理装置。
  8.  前記取得手段は、前記車載カメラ映像とともに、前記車両に搭載された計測機器より、前記車両の走行状態を示す走行情報を取得し、
     前記加工手段は、前記走行情報に基づいて、前記車両の速度を判定し、前記車両の速度が高いほど、前記第2の部分を広くする
     ことを特徴とする請求項1に記載の映像処理装置。
  9.  前記第1の部分は、前記車載カメラ映像において、前記車両が走行する道路が映る領域の少なくとも一部を含み、
     前記第2の部分は、前記車載カメラ映像において、前記車両が走行する道路が映る領域の少なくとも一部を包含し、かつそれよりも広い領域を含む
     ことを特徴とする請求項1に記載の映像処理装置。
  10.  車両に搭載された車載カメラにより撮影された車載カメラ映像を取得し、
     前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在するエリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工し、
     加工された前記車載カメラ映像を出力する
     映像処理方法。
  11.  車両に搭載された車載カメラにより撮影された車載カメラ映像を取得することと、
     前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在するエリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工することと、
     加工された前記車載カメラ映像を出力することと
     をコンピュータに実行させるためのプログラムを格納した、一時的でない記録媒体。
  12.   車両に搭載された車載カメラにより撮影された車載カメラ映像を取得する取得手段と、
      前記車両が存在するエリア内で災害が発生していない場合、取得した前記車載カメラ映像における第1の部分を除いて不明瞭に加工する一方、前記車両が存在する前記エリア内で災害が発生している場合、取得した前記車載カメラ映像において、前記第1の部分よりも広い第2の部分を除いて不明瞭に加工する加工手段と、
      加工された前記車載カメラ映像を出力する出力手段とを備えた
     映像処理装置と、
     加工された前記車載カメラ映像が保存される録画装置とを備えた
     防災支援システム。
PCT/JP2022/008707 2022-03-02 2022-03-02 映像処理装置、防災支援システム、映像処理方法、および記録媒体 WO2023166575A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008707 WO2023166575A1 (ja) 2022-03-02 2022-03-02 映像処理装置、防災支援システム、映像処理方法、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008707 WO2023166575A1 (ja) 2022-03-02 2022-03-02 映像処理装置、防災支援システム、映像処理方法、および記録媒体

Publications (1)

Publication Number Publication Date
WO2023166575A1 true WO2023166575A1 (ja) 2023-09-07

Family

ID=87883190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008707 WO2023166575A1 (ja) 2022-03-02 2022-03-02 映像処理装置、防災支援システム、映像処理方法、および記録媒体

Country Status (1)

Country Link
WO (1) WO2023166575A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117812582A (zh) * 2024-03-01 2024-04-02 合肥工业大学 一种车辆的哨兵模式数据监管方法及监管系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012907A (ja) * 2011-06-29 2013-01-17 Mitsubishi Electric Corp 災害監視システム、ネットワークカメラ及びレコーダ
JP2014131211A (ja) * 2012-12-28 2014-07-10 Canon Inc 撮像装置及び映像監視システム
JP2016119629A (ja) * 2014-12-22 2016-06-30 セコム株式会社 画像取得装置
JP2017046196A (ja) * 2015-08-27 2017-03-02 キヤノン株式会社 画像情報生成装置、画像情報生成方法、画像処理システム及びプログラム
JP2017158080A (ja) * 2016-03-03 2017-09-07 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012907A (ja) * 2011-06-29 2013-01-17 Mitsubishi Electric Corp 災害監視システム、ネットワークカメラ及びレコーダ
JP2014131211A (ja) * 2012-12-28 2014-07-10 Canon Inc 撮像装置及び映像監視システム
JP2016119629A (ja) * 2014-12-22 2016-06-30 セコム株式会社 画像取得装置
JP2017046196A (ja) * 2015-08-27 2017-03-02 キヤノン株式会社 画像情報生成装置、画像情報生成方法、画像処理システム及びプログラム
JP2017158080A (ja) * 2016-03-03 2017-09-07 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117812582A (zh) * 2024-03-01 2024-04-02 合肥工业大学 一种车辆的哨兵模式数据监管方法及监管系统
CN117812582B (zh) * 2024-03-01 2024-04-30 合肥工业大学 一种车辆的哨兵模式数据监管方法及监管系统

Similar Documents

Publication Publication Date Title
CN109410573B (zh) 基于道路全息感知的交通服务与管理系统
JP6713505B2 (ja) 舗装情報収集点検システム、舗装情報収集点検方法、及びプログラム
CA3124173C (en) System and method for detecting and transmitting incidents of interest of a roadway to a remote server
US20140196529A1 (en) System and method for sensing and managing pothole location and pothole characteristics
CN108844754A (zh) 用于评估高级驾驶员辅助系统的测试装置
TWI649729B (zh) 一種自動舉證交通違規車輛的系統與方法
US10839683B2 (en) Identifying wrong-way travel events
MX2013001605A (es) Sistemas para asegurar que todos los vehiculos estan registrados con un sistema de posicionamiento global.
JP6252693B2 (ja) 表示装置およびこれを備えた交通違反管理システム
WO2023166575A1 (ja) 映像処理装置、防災支援システム、映像処理方法、および記録媒体
WO2016113973A1 (ja) 交通違反管理システムおよび交通違反管理方法
WO2021199915A1 (ja) 劣化表示システム、劣化表示方法と記録媒体
KR100993205B1 (ko) 재난발생 감지 시스템 및 방법
KR20190030328A (ko) 도로의 손상을 탐지하는 단말 및 이를 적용한 도로 손상 탐지 시스템
CN112071058A (zh) 基于深度学习的道路交通监控及车辆异常、违禁、火灾的检测方法及系统
JP2021118499A (ja) 記録制御装置、記録制御方法及びプログラム
CN107615347B (zh) 车辆确定装置及包括所述车辆确定装置的车辆确定系统
KR101045300B1 (ko) 개인정보 보호를 위한 차량 촬영 시스템 및 그 제어방법
CN107615346B (zh) 车辆确定装置及包括所述车辆确定装置的车辆确定系统
KR101963353B1 (ko) 법규 위반 스마트 적발 시스템
CN116913099A (zh) 一种智能交通实时监控系统
KR101768380B1 (ko) 자동차 도로 노면진단 시스템
JP7293174B2 (ja) 道路周辺物監視装置、道路周辺物監視プログラム
JP6892197B1 (ja) 劣化表示システム、劣化表示方法、及び、プログラム
Aliane et al. Driver behavior monitoring system based on traffic violation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22929723

Country of ref document: EP

Kind code of ref document: A1