WO2023210397A1 - 観察装置及び観察方法 - Google Patents

観察装置及び観察方法 Download PDF

Info

Publication number
WO2023210397A1
WO2023210397A1 PCT/JP2023/015077 JP2023015077W WO2023210397A1 WO 2023210397 A1 WO2023210397 A1 WO 2023210397A1 JP 2023015077 W JP2023015077 W JP 2023015077W WO 2023210397 A1 WO2023210397 A1 WO 2023210397A1
Authority
WO
WIPO (PCT)
Prior art keywords
threshold
control unit
observation device
sensor
condition
Prior art date
Application number
PCT/JP2023/015077
Other languages
English (en)
French (fr)
Inventor
志帆 竹村
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2023210397A1 publication Critical patent/WO2023210397A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed

Definitions

  • the present disclosure relates to an observation device and an observation method.
  • Patent Document 1 discloses an image-based speed detection system that processes image information about a vehicle moving on a road taken by an imaging device to detect the speed and position of the vehicle.
  • An observation device includes: Calculating the speed of the object based on position information of the object, and determining whether to adopt the calculated speed of the object based on the result of comparing a value based on the calculated speed of the object with a set threshold value.
  • a control unit is provided.
  • An observation method includes: Calculating the speed of the object based on position information of the object; The method includes determining whether or not to adopt the calculated speed of the object based on a result of comparing a value based on the calculated speed of the object with a set threshold value.
  • FIG. 1 is a diagram showing a schematic configuration of a communication system according to an embodiment of the present disclosure.
  • 2 is a block diagram of the communication system shown in FIG. 1.
  • FIG. FIG. 7 is a diagram showing an example of reference threshold values set for each type of object.
  • 2 is a flowchart showing the flow of a method for calculating the velocity of an object using the observation device shown in FIG. 1.
  • FIG. 2 is a flowchart showing a flow of a setting threshold value setting method using the observation device shown in FIG. 1.
  • the detection accuracy of sensors decreases due to various factors. If the detection accuracy of the sensor decreases, the error in calculating the velocity of the object may increase. In the conventional technology, there is room for improvement regarding the calculation error of the velocity of an object. According to an embodiment of the present disclosure, it is possible to provide a technique that is improved regarding calculation errors in the velocity of an object.
  • the observation device of the present disclosure is a roadside device.
  • the observation device of the present disclosure may be applied to any purpose.
  • the observation device of the present disclosure may be a surveillance camera device or the like.
  • the communication system 1 includes an observation device 10.
  • the communication system 1 is, for example, a safe driving support communication system for Intelligent Transport Systems (ITS).
  • ITS Intelligent Transport Systems
  • the safe driving support communication system is sometimes called a safe driving support system or a safe driving support radio system.
  • the observation device 10 is fixed to the structure 3 so as to be able to observe the road surface 2, which is an observation area, for example.
  • the structure 3 is, for example, a signal device, a utility pole, a street light, or the like.
  • the observation device 10 detects an object 4 existing in the observation area.
  • the object 4 is, for example, a vehicle, a motorized bicycle, a bicycle, or a pedestrian.
  • the observation device 10 calculates the speed of the detected object 4, as described later.
  • the support information includes data on the type of the detected object 4, the speed of the object 4, and the like.
  • the observation device 10 wirelessly communicates with a moving object 5 as shown in FIG.
  • the observation device 10 notifies the mobile object 5 of the generated support information.
  • the moving body 5 exists around the observation device 10 .
  • the moving body 5 is a vehicle or the like located on the road surface 2.
  • the observation device 10 can be connected to the network 6.
  • the network 6 may be any network including a mobile communication network, the Internet, and the like. However, the observation device 10 does not need to be connectable to the network 6.
  • the observation device 10 includes a plurality of sensors 11, a communication section 12, a storage section 13, and a control section 14.
  • the observation device 10 includes a plurality of sensors 11.
  • the number of sensors 11 included in the observation device 10 may be one.
  • the sensor 11 captures an image of the observation area and generates an image.
  • the sensor 11 is, for example, a monocular camera.
  • the monocular camera may be, for example, an imaging device such as a visible light camera or a FIR (Far Infrared Rays) camera.
  • the sensor 11 may be an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device).
  • the sensor 11 may be any sensor other than a monocular camera and an image sensor.
  • the sensor 11 may be LiDAR (Light Detection And Ranging) or millimeter wave radar.
  • the plurality of sensors 11 included in the observation device 10 may be of the same type or may be of different types.
  • Each of the plurality of sensors 11 may generate images at a predetermined frame rate.
  • the sensor 11 may be configured to include a processing device, a storage device, and the like that can perform image recognition processing, etc., which will be described later, on the generated image data.
  • the sensor 11 detects the object 4, the type of the object 4, and the position of the object 4 in the image in real space by performing image recognition processing on the generated image data. You can also obtain information.
  • the communication unit 12 is configured to include at least one communication module capable of communicating with the moving object 5 on the road surface 2.
  • the communication module is, for example, a communication module compatible with a road-to-vehicle communication standard.
  • the communication unit 12 may wirelessly communicate with the mobile object 5 on the road surface 2 using this communication module, for example, in the 700 MHz band allocated to the ITS.
  • the communication unit 12 is configured to include at least one communication module connectable to the network 6.
  • the communication module is, for example, a communication module compatible with standards such as wired LAN (Local Area Network) or wireless LAN.
  • the communication module is not limited to this.
  • the communication module may support any communication standard.
  • the communication unit 12 is connected to the network 6 via a wired LAN or wireless LAN by a communication module.
  • the storage unit 13 is configured to include at least one semiconductor memory, at least one magnetic memory, at least one optical memory, or a combination of at least two of these.
  • the semiconductor memory is, for example, RAM (Random Access Memory) or ROM (Read Only Memory).
  • the RAM is, for example, SRAM (Static Random Access Memory) or DRAM (Dynamic Random Access Memory).
  • the ROM is, for example, an EEPROM (Electrically Erasable Programmable Read Only Memory).
  • the storage unit 13 may function as a main storage device, an auxiliary storage device, or a cache memory.
  • the storage unit 13 stores data used for the operation of the observation device 10 and data obtained by the operation of the observation device 10.
  • correspondence data is stored in the storage unit 13.
  • the correspondence data associates the coordinates in the image generated by the sensor 11 with the position information in real space of the object reflected in the pixel of the image corresponding to the coordinates.
  • the corresponding data is generated, for example, when the observation device 10 is calibrated.
  • the corresponding data may be stored in the storage device of the sensor 11 if the sensor 11 is configured to include a storage device.
  • the control unit 14 is configured to include at least one processor, at least one dedicated circuit, or a combination thereof.
  • the processor is, for example, a general-purpose processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), or a dedicated processor specialized for specific processing.
  • the dedicated circuit is, for example, an FPGA (Field-Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit).
  • the control unit 14 executes processing related to the operation of the observation device 10 while controlling each part of the observation device 10.
  • the sensor 11 detects the object 4 from the image data by performing image recognition processing on the generated image data.
  • the sensor 11 may detect the type of the object 4 by performing image recognition processing on the data of the generated image.
  • the type of object 4 is, for example, a vehicle, a motorized bicycle, a bicycle, or a pedestrian.
  • the image recognition process is, for example, a process such as pattern matching or machine learning such as deep learning.
  • the sensor 11 includes LiDAR or millimeter wave radar
  • the sensor 11 generates image data based on point cloud data obtained from measurement results of LiDAR or millimeter wave radar and performs image recognition processing. may be executed.
  • the sensor 11 includes a millimeter wave radar
  • the sensor 11 may detect the object 4 and the type of the object based on, for example, velocity data obtained from the measurement results of the millimeter wave radar.
  • the sensor 11 acquires position information of the object 4 in the image.
  • the position of the object 4 in the image is, for example, the position of a pixel in the image where the object 4 appears.
  • the sensor 11 identifies the coordinates of a pixel in the image where the object 4 appears.
  • the sensor 11 acquires the correspondence data from the storage unit 13 or the storage device included in the sensor 11, and acquires the position information in real space associated with the coordinates specified in the correspondence data as the position information of the object 4 in real space. do.
  • the sensor 11 includes LiDAR or millimeter wave radar
  • the sensor 11 acquires position information of the object 4 in real space based on data obtained from measurement results of LiDAR or millimeter wave radar, for example. It's okay.
  • the sensor 11 transmits data including the type of the detected object 4 and position information of the object 4 in real space to the control unit 14 .
  • the object detection process described above is not limited to the sensor 11, and may be performed by the control unit 14.
  • Object detection processing by the control unit 14 will be described below as another example of object detection processing.
  • the control unit 14 acquires data of an image generated by the sensor 11 from the sensor 11 .
  • the control unit 14 detects the object 4 from the image data by performing image recognition processing on the acquired image data.
  • the control unit 14 may detect the type of the object 4 by performing image recognition processing on the data of the acquired image.
  • the control unit 14 may acquire point cloud data obtained from the measurement results of LiDAR or millimeter wave radar from the sensor 11, for example.
  • the control unit 14 detects the object 4 and the type of the object 4 from the image data by generating image data based on the acquired point cloud data and performing image recognition processing on the generated image data. You may.
  • the control unit 14 may acquire, for example, speed data etc. obtained from the measurement results of the millimeter wave radar from the sensor 11.
  • the control unit 14 may detect the object 4 and the type of the object 4 based on the acquired velocity data and the like.
  • the control unit 14 specifies the coordinates of a pixel in the image where the object 4 appears as position information in the image of the object 4.
  • the control unit 14 acquires the correspondence data from the storage unit 13, and acquires the position information in the real space associated with the coordinates specified in the correspondence data as the position information of the object 4 in the real space.
  • the control unit 14 may acquire position information of the object 4 in real space based on point cloud data obtained from the measurement results of LiDAR or millimeter wave radar. .
  • the control unit 14 calculates the velocity V1 of the object 4 based on the position information of the object 4 in real space detected by the sensor 11 or acquired by the control unit 14.
  • the time at which the velocity V1 of the object 4 is calculated (measured) is also referred to as measurement time t1.
  • the control unit 14 uses the position information of the object 4 in the real space at the measurement time t1 and the position information of the object 4 in the real space at a predetermined time before the measurement time t1 to determine the position from a predetermined time before to the measurement time t1.
  • the distance traveled by the object 4 is calculated.
  • the control unit 14 calculates the speed V1 of the object 4 by dividing the calculated moving distance of the object 4 by a predetermined time.
  • the predetermined time may be set based on the time interval at which the sensor 11 transmits data including the type of the object 4 and the position information of the object 4 in real space to the control unit 14 .
  • the predetermined time may be longer than the time interval at which the sensor 11 transmits the data to the control unit 14 .
  • the control unit 14 acquires position information of the object 4 in real space by executing image recognition processing or the like, the predetermined time is determined based on the time interval at which the sensor 11 transmits image data to the control unit 14. , may be set.
  • the predetermined time is, for example, 100 [ms].
  • the control unit 14 calculates the speed of the object 4 at every predetermined time.
  • the control unit 14 calculates the acceleration A1 of the object 4 at the measurement time t1 based on the velocity V1 of the object 4. For example, the control unit 14 acquires data on the velocity V0 of the object 4 that has already been stored in the storage unit 13. The speed V0 of the object 4 is the speed of the object 4 calculated immediately before the measurement time t1. In this embodiment, the control unit 14 calculates the velocity of the object 4 at predetermined intervals, so that the data of the velocity V0 of the object 4 is the same as the data measured at the measurement time t0, which is a predetermined time before the measurement time t1. Become.
  • the control unit 14 calculates the acceleration A1 of the object 4 by subtracting the speed V0 from the speed V1 of the object 4 and dividing the difference by a predetermined time.
  • the calculated acceleration A1 of the object 4 may be a positive acceleration or a negative acceleration.
  • Positive acceleration is acceleration in the same direction as the traveling direction of the object 4.
  • Negative acceleration is acceleration in the direction opposite to the direction of movement of the object 4.
  • a negative acceleration is also a deceleration of the object 4.
  • the control unit 14 calculates the acceleration of the object 4 at predetermined time intervals, as well as the speed of the object 4.
  • the control unit 14 determines whether or not to adopt the speed V1 of the object 4 based on the result of comparing the value based on the speed V1 of the object 4 and the set threshold T1.
  • the set threshold T1 is set based on predetermined conditions, as will be described later.
  • the value based on the velocity V1 of the object 4 will be explained as being the acceleration A1 of the object 4.
  • the control unit 14 determines whether or not to adopt the velocity V1 of the object 4 based on the result of comparing the acceleration A1 of the object 4 with the set threshold value T1.
  • the value based on the velocity V1 of the object 4 is not limited to the acceleration A1 of the object 4.
  • the value based on the velocity V1 of the object 4 may be any value based on the velocity V1 of the object 4.
  • the value based on the velocity V1 of the object 4 may be any physical quantity that can be calculated from the velocity V1 of the object 4.
  • the control unit 14 determines whether the absolute value of the acceleration A1 of the object 4 is greater than or equal to the set threshold T1 by comparing the acceleration A1 of the object 4 with the set threshold T1.
  • the control unit 14 determines that the absolute value of the acceleration A1 of the object 4 is greater than or equal to the set threshold value T1
  • the control unit 14 determines not to adopt the velocity V1 of the object 4.
  • the control unit 14 determines that the absolute value of the acceleration A1 of the object is less than the set threshold T1
  • the control unit 14 determines to adopt the speed V1 of the object 4.
  • control unit 14 determines to adopt the speed V1 of the object 4, it executes a predetermined process using the speed V1 of the object 4. As an example of the predetermined process, the control unit 14 generates the above-mentioned support information using the velocity V1 of the object 4. Further, the control unit 14 causes the storage unit 13 to store data on the velocity V1 and acceleration A1 of the object 4 in association with the measurement time t1.
  • the control unit 14 determines not to adopt the velocity V1 of the object 4, it acquires the data of the velocity V0 and acceleration A0 of the object 4 stored in the storage unit 13.
  • the velocity V0 and acceleration A0 of the object 4 are calculated immediately before the measurement time t1.
  • the control unit 14 calculates the acceleration of the object 4 at predetermined time intervals, so that the velocity V0 and acceleration A0 of the object 4 are calculated at the measurement time t0, which is a predetermined time before the measurement time t1. becomes.
  • the control unit 14 newly calculates the velocity V1a of the object 4 at the measurement time t1 based on the data of the velocity V0 and acceleration A0 of the object 4. For example, the control unit 14 newly calculates the speed V1a at the measurement time t1 using the following equation (1).
  • V1a V0+A0 ⁇ (t1-t0) Formula (1)
  • the control unit 14 adopts the newly calculated speed V1a. That is, the control unit 14 executes the above-described predetermined process using the speed V1a. Further, the control unit 14 regards the acceleration A0 as the acceleration at the measurement time t1, and stores the data of the velocity V1a and the acceleration A0 in the storage unit 13 in association with the measurement time t1.
  • the control unit 14 sets the set threshold T1 based on predetermined conditions.
  • the predetermined condition includes at least one of a first condition, a second condition, a third condition, and a fourth condition.
  • the predetermined conditions may be arbitrarily set based on factors that affect the type of object 4 or the detection accuracy of sensor 11, for example.
  • the control unit 14 obtains the reference threshold value TH0 based on the first condition.
  • the first condition is information regarding the type of object 4.
  • the acceleration of the object 4 differs depending on the type of the object 4. For example, the acceleration of the object 4 when the object 4 is a pedestrian is smaller than the acceleration of the object 4 when the object 4 is a vehicle.
  • the reference threshold TH0 is set in advance for each type of object 4.
  • the reference threshold TH0 may be set in advance based on the absolute value of the average acceleration of the object 4 for each type of object 4.
  • the reference threshold value TH0 may be stored in advance in the storage unit 13 in association with each type of object 4.
  • the reference threshold value TH0 is set in advance as shown in FIG. In FIG. 3, the vehicle reference threshold TH0 is set to AA [m/s 2 ].
  • the reference threshold value TH0 for a motorized bicycle is set to BB [m/s 2 ].
  • the bicycle reference threshold TH0 is set to CC [m/s 2 ].
  • the pedestrian reference threshold TH0 is set to DD [m/s 2 ].
  • the control unit 14 acquires the standard threshold TH0 corresponding to the type of the object 4 from the storage unit 13 to acquire the standard threshold TH0 based on the first condition.
  • the control unit 14 sets the set threshold T1 based on the acquired reference threshold TH0. For example, the control unit 14 may set the acquired reference threshold TH0 as the set threshold T1. Alternatively, as described below, the control unit 14 may generate the first threshold TH1 from the reference threshold TH0.
  • the control unit 14 generates the first threshold TH1 from the reference threshold TH0 based on the second condition.
  • the second condition is a condition regarding the type of sensor 11 that detected the information regarding the position of the object 4 used to calculate the velocity V1 of the object 4.
  • the information regarding the position of the object 4 becomes information that allows the position of the object 4 to be specified in the real space by calculating the velocity V1 of the object 4 based on the position information of the object 4 in the real space. For example, when the control unit 14 calculates the velocity V1 of the object 4 based on the position information of the object 4 in real space detected by the sensor 11, the information regarding the position of the object 4 becomes the position information of the object 4 in real space. .
  • information regarding the position of the object 4 becomes image data when the control unit 14 acquires position information of the object 4 in real space based on image data generated by the sensor 11.
  • the sensors 11 include a type of sensor 11 that detects information regarding the position of the object 4 with high accuracy, and a type of sensor 11 that detects information regarding the position of the object 4 with low accuracy. If the sensor 11 that detected the information regarding the position of the object 4 used to calculate the speed V1 of the object 4 is a type of sensor 11 with low detection accuracy of information regarding the position of the object 4, the calculation error of the speed V1 of the object 4 is likely to become large. On the other hand, if the sensor 11 that detected the information regarding the position of the object 4 used to calculate the velocity V1 of the object 4 is a type of sensor 11 that has high accuracy in detecting information regarding the position of the object 4, then the velocity of the object 4 It is unlikely that the calculation error of V1 will become large.
  • the detection accuracy of the information regarding the position of the object 4 may be the resolution of the image.
  • the coarser the resolution of the image the lower the detection accuracy of the position information in real space of the object 4 acquired based on the image data.
  • the control unit 14 determines whether the type of the sensor 11 that detected the information regarding the position of the object 4 used to calculate the velocity V1 of the object 4 is included in the predetermined types.
  • the predetermined type is a type of sensor 11 that has low accuracy in detecting information regarding the position of object 4.
  • the predetermined type may be selected in advance based on the desired calculation accuracy of the velocity of the object 4. That is, whether the detection accuracy of the sensor 11 of information regarding the position of the object 4 is low or high may be determined depending on the desired calculation accuracy of the speed of the object 4.
  • the control unit 14 determines that the type of the sensor 11 is not included in the predetermined types, the control unit 14 directly acquires the reference threshold TH0 as the first threshold TH1.
  • the control unit 14 generates the first threshold TH1 from the reference threshold TH0 by acquiring the reference threshold TH0 as it is as the first threshold TH1.
  • the control unit 14 determines that the type of the sensor 11 is included in the predetermined type, the control unit 14 adjusts the reference threshold TH0 to be higher by a first percentage Y1, and acquires the adjusted reference threshold TH0 as the first threshold TH1. do.
  • the control unit 14 generates the first threshold TH1 from the reference threshold TH0 by acquiring the adjusted reference threshold TH0 as the first threshold TH1. In adjusting the reference threshold TH0, the control unit 14 adds the first ratio Y1 of the reference threshold TH0 to the reference threshold TH0.
  • the first ratio Y1 may be set based on the detection accuracy of a predetermined type of sensor 11.
  • the control unit 14 may calculate the first threshold TH1 using the following equation (2).
  • the first ratio Y1 is given as a percentage.
  • TH1 TH0(1+0.01 ⁇ Y1)
  • the control unit 14 sets the set threshold T1 based on the generated first threshold TH1. For example, the control unit 14 may set the generated first threshold TH1 as the set threshold T1. Alternatively, as described below, the control unit 14 may generate the second threshold TH2 from the first threshold TH1.
  • the control unit 14 generates the second threshold TH2 from the first threshold TH1 based on the third condition.
  • the third condition is a condition regarding the distance from the observation device 10 to the object 4.
  • the control unit 14 calculates the velocity V1 of the object 4 based on the position information of the object 4 in real space detected by the sensor 11, the farther the distance from the observation device 10 to the object 4 is, the more the object 4 is detected by the sensor 11. 4, the detection accuracy of position information in real space decreases.
  • the control unit 14 acquires the position information of the object 4 in real space based on the data of the image generated by the sensor 11, the longer the distance from the observation device 10 to the object 4, the more the image generated by the sensor 11. The distance per pixel becomes longer. The longer the distance per pixel of the image generated by the sensor 11, the lower the detection error of the position information in real space of the object 4 that the control unit 14 acquires based on the image data.
  • the detection accuracy of the position information of the object 4 in real space decreases, the calculation error of the velocity V1 of the object 4 increases.
  • the control unit 14 determines whether the distance from the observation device 10 to the object 4 is equal to or greater than the distance threshold.
  • the control unit 14 may acquire (calculate) the distance from the observation device 10 to the object 4 from position information of the object 4 in real space or from the sensor 11.
  • the distance threshold may be preset based on the boundary between a long distance and a short distance for the sensor 11.
  • a long distance for the sensor 11 is a distance at which the detection accuracy of the sensor tends to decrease compared to a short distance for the sensor 11.
  • the long distance and short distance for the sensor 11 differ depending on the type of sensor 11. For example, the higher the accuracy of the sensor 11 in detecting information about a distant object, the longer the distance for the sensor 11.
  • the distance threshold value may be set for each type of sensor 11 and stored in the storage unit 13 in advance.
  • the control unit 14 acquires from the storage unit 13 the distance threshold set for the sensor 11 that detected the information regarding the position of the object 4 used to calculate the velocity V1 of the object 4, and It may be determined whether the distance to is equal to or greater than the acquired distance threshold.
  • the control unit 14 determines that the distance from the observation device 10 to the object 4 is less than the distance threshold, the control unit 14 directly acquires the first threshold TH1 as the second threshold TH2.
  • the control unit 14 generates the second threshold TH2 from the first threshold TH1 by acquiring the first threshold TH1 as is as the second threshold TH2.
  • the control unit 14 adjusts the first threshold TH1 to be higher by the second ratio Y2, and adjusts the adjusted first threshold TH1. is obtained as the second threshold TH2.
  • the control unit 14 generates the second threshold TH2 from the first threshold TH1 by acquiring the adjusted first threshold TH1 as the second threshold TH2.
  • the control unit 14 adds a second ratio Y2 of the first threshold TH1 to the first threshold TH1.
  • the second ratio Y2 may be set depending on the type of sensor 11.
  • the control unit 14 may calculate the second threshold TH2 using the following equation (3).
  • equation (3) the second ratio Y2 is given as a percentage.
  • TH2 TH1(1+0.01 ⁇ Y2) Formula (3)
  • the control unit 14 sets the set threshold T1 based on the generated second threshold TH2. For example, the control unit 14 may set the generated second threshold TH2 as the set threshold T1. Alternatively, as described below, the control unit 14 may generate the set threshold T1 from the second threshold TH2.
  • the control unit 14 generates the set threshold T1 from the second threshold TH2 based on the fourth condition.
  • the fourth condition is a condition regarding the environment around the observation device 10.
  • the detection accuracy of the sensor 11 may decrease. For example, when taking the weather as an example of the environment surrounding the observation device 10, when the weather is rain, snow, fog, or a dust storm, the detection accuracy of the sensor 11 is lower than when the weather is sunny or cloudy. . Further, when the sensor 11 is a visible light camera, the detection accuracy of the sensor 11 is lower when the amount of light in the environment surrounding the observation device 10 is low than when the amount of light is high.
  • the fourth condition is set to be an environment surrounding the observation device 10 in which the detection accuracy of the sensor 11 is reduced.
  • rain, snow, fog, or dust storm is set as a weather condition in which the detection accuracy of the sensor 11 is reduced.
  • a nighttime time zone is set as a condition for a time zone in which the detection accuracy of the visible light camera decreases. In the night time period, the amount of light around the observation device 10 is lower than in the daytime time period.
  • the control unit 14 determines whether or not the environment around the observation device 10 satisfies the environmental condition in which the detection accuracy of the sensor 11 is reduced, which is set as the fourth condition.
  • the control unit 14 receives information about the weather in the area where the observation device 10 is installed from the external server 7 via the network 6. Information is received by the communication unit 12.
  • the external server 7 is, for example, a server that provides weather information released by the Japan Meteorological Agency.
  • the control unit 14 may estimate the weather in the area where the observation device 10 is installed by analyzing images acquired by the sensor 11, which is a visible light camera. If the weather in the area where the observation device 10 is installed matches the weather condition set as the fourth condition, the control unit 14 detects the sensor 11 in which the environment around the observation device 10 is set as the fourth condition. It is determined that the environmental conditions that reduce accuracy are met.
  • the control unit 14 detects the sensor 11 in which the environment around the observation device 10 is set as the fourth condition. It is determined that the environmental conditions that reduce accuracy are not met.
  • the control unit 14 detects information regarding the position of the object 4 used to calculate the velocity V1 of the object 4. It is determined whether the sensor 11 is a visible light camera. If the control unit 14 determines that the sensor 11 that detected the information regarding the position of the object 4 used to calculate the velocity V1 of the object 4 is a visible light camera, the control unit 14 acquires the current time. The control unit 14 determines whether the current time is included in the night time period set as the fourth condition. When the control unit 14 determines that the current time is included in the night time period set in the fourth condition, the detection accuracy of the sensor 11 in which the environment around the observation device 10 is set in the fourth condition decreases.
  • control unit 14 determines that the current time is not included in the night time period set as the fourth condition, the detection accuracy of the sensor 11 in which the environment around the observation device 10 is set as the fourth condition is reduced. It is determined that the environment conditions to be used are not met.
  • the control unit 14 determines that the environment around the observation device 10 does not satisfy the environmental condition that reduces the detection accuracy of the sensor 11 set as the fourth condition, the control unit 14 acquires the second threshold TH2 as it is as the set threshold T1. do.
  • the control unit 14 generates the setting threshold T1 from the second threshold TH2 by acquiring the second threshold TH2 as it is as the setting threshold T1.
  • the second threshold TH2 is increased by a third percentage Y3.
  • the adjusted second threshold TH2 is obtained as the set threshold T1.
  • the control unit 14 generates the set threshold T1 from the second threshold TH2 by acquiring the adjusted second threshold TH2 as the set threshold T1. In adjusting the second threshold TH2, the control unit 14 adds a third ratio Y3 of the second threshold TH2 to the second threshold TH2.
  • FIG. 4 is a flowchart showing a method for calculating the velocity of the object 4 using the observation device 10 shown in FIG.
  • This velocity calculation method corresponds to an example of the observation method according to the present embodiment.
  • the control unit 14 acquires data including the type of the object 4 and the position information of the object 4 in real space from the sensor 11, it starts the process of step S1.
  • the control unit 14 calculates the velocity V1 of the object 4 at the measurement time t1 based on the position information of the object 4 in real space (step S1).
  • the control unit 14 acquires data on the velocity V0 of the object 4 that has already been stored in the storage unit 13 (step S2).
  • the control unit 14 calculates the acceleration A1 of the object 4 at the measurement time t1 based on the velocity V1 of the object 4 calculated in the process of step S1 and the velocity V0 of the object 4 acquired in the process of step S2 (step S3). .
  • the control unit 14 determines whether the absolute value of the acceleration A1 of the object 4 is greater than or equal to the set threshold T1 (step S4). When the control unit 14 determines that the absolute value of the acceleration A1 of the object 4 is less than the set threshold T1 (step S4: NO), the process proceeds to step S5. On the other hand, when the control unit 14 determines that the absolute value of the acceleration A1 of the object 4 is greater than or equal to the set threshold T1 (step S4: YES), the process proceeds to step S7.
  • step S5 the control unit 14 determines to adopt the velocity V1 of the object 4.
  • the control unit 14 stores the data of the velocity V1 and acceleration A1 of the object 4 in the storage unit 13 in association with the measurement time t1 (step S6).
  • the control unit 14 determines not to adopt the velocity V1 of the object 4.
  • the control unit 14 acquires the data of the acceleration A0 of the object 4 stored in the storage unit 13 (step S8).
  • the control unit 14 newly calculates the velocity V1a of the object 4 at the measurement time t1 based on the velocity V0 of the object 4 acquired in the process of step S2 and the acceleration A0 of the object 4 acquired in the process of step S8 (step S9 ).
  • the control unit 14 employs the calculated velocity V1a as the velocity of the object at the measurement time t1 (step S10).
  • the control unit 14 stores the data of the velocity V1a and the acceleration A0 in the storage unit 13 in association with the measurement time t1 (step S11).
  • the control unit 14 ends the process after executing the process of step S11. However, the control unit 14 may execute the process of step S1 again, for example, after a predetermined period of time.
  • control unit 14 may acquire image data from the sensor 11.
  • the control unit 14 may start the process of step S1.
  • the control unit 14 calculates the velocity V1 of the object 4 at the measurement time t1 based on the position information of the object 4 in the image.
  • FIG. 5 is a flowchart showing the flow of a method for setting the setting threshold T1 by the observation device 10 shown in FIG.
  • This method of setting the setting threshold T1 corresponds to an example of the observation method according to the present embodiment.
  • the control unit 14 may perform processing as shown in FIG. 5 before executing step S4 as shown in FIG. 4.
  • the control unit 14 detects the type of the object 4, for example, by acquiring data including the type of the object 4 from the sensor 11 (step S21).
  • the control unit 14 acquires the reference threshold value TH0 corresponding to the type of the object 4 from the storage unit 13 (step S22).
  • the control unit 14 determines whether the type of sensor 11 is included in the predetermined types (step S23). When the control unit 14 determines that the type of the sensor 11 is included in the predetermined types (step S23: YES), the process proceeds to step S24. On the other hand, when the control unit 14 determines that the type of the sensor 11 is not included in the predetermined types (step S23: NO), the process proceeds to step S25.
  • step S24 the control unit 14 adjusts the reference threshold TH0 to be higher by the first percentage Y1, and obtains the adjusted reference threshold TH0 as the first threshold TH1. After executing the process in step S24, the control unit 14 proceeds to the process in step S26.
  • step S25 the control unit 14 obtains the reference threshold TH0 as it is as the first threshold TH1. After executing the process in step S25, the control unit 14 proceeds to the process in step S26.
  • step S26 the control unit 14 determines whether the distance from the observation device 10 to the object 4 is greater than or equal to the distance threshold.
  • step S26: YES the control unit 14 determines that the distance from the observation device 10 to the object 4 is equal to or greater than the distance threshold.
  • step S26: NO the control unit 14 determines that the distance from the observation device 10 to the object 4 is less than the distance threshold.
  • step S27 the control unit 14 adjusts the first threshold TH1 to be higher by the second percentage Y2, and obtains the adjusted first threshold TH1 as the second threshold TH2.
  • step S29 the control unit 14 proceeds to the process in step S29.
  • step S28 the control unit 14 obtains the first threshold TH1 as it is as the second threshold TH2. After executing the process in step S28, the control unit 14 proceeds to the process in step S29.
  • step S29 the control unit 14 determines whether the weather in the area where the observation device 10 is installed matches a weather condition that reduces the detection accuracy of the sensor 11, which is set as the fourth condition.
  • step S29: YES the control unit 14 determines that the weather in the area where the observation device 10 is installed matches the weather set as the fourth condition.
  • step S29: NO the control unit 14 determines that the weather in the area where the observation device 10 is installed does not match the weather set as the fourth condition.
  • control unit 14 adjusts the second threshold TH2 to be higher by a third proportion Y3, and obtains the adjusted second threshold TH2 as the set threshold T1.
  • control unit 14 obtains the second threshold TH2 as it is as the set threshold T1.
  • control unit 14 may detect the type of the object 4 by, for example, performing image recognition processing on the image data acquired from the sensor 11.
  • the control unit 14 determines whether the sensor 11 that detected the position information of the object 4 used to calculate the velocity V1 of the object 4 is a visible light camera. good. If the control unit 14 determines that the sensor 11 that detected the information regarding the position of the object 4 used to calculate the velocity V1 of the object 4 is a visible light camera, the control unit 14 may acquire the current time. The control unit 14 may determine whether the current time is included in a night time period in which the detection accuracy of the visible light camera set to the fourth condition is reduced. When the control unit 14 determines that the current time is included in the night time period set in the fourth condition (step S29: YES), the control unit 14 may proceed to the process of step S30. If the control unit 14 determines that the current time is not included in the night time period set in the fourth condition (step S29: NO), the control unit 14 may proceed to the process of step S31.
  • the control unit 14 calculates the velocity V1 of the object 4 based on the position information of the object 4 in real space.
  • the control unit 14 determines whether or not to adopt the speed V1 of the object 4 based on the result of comparing the value based on the speed V1 of the object 4 with the set threshold T1.
  • the detection accuracy of the sensor 11 decreases due to various factors. If the detection accuracy of the sensor 11 decreases, the error in calculating the velocity of the object 4 may increase. If the calculation error in the velocity of the object 4 is large, for example, when the moving body 5 that has received support information including data on the velocity of the object 4 displays the position of the object 4 on the display based on its velocity, the object 4 may suddenly move. It may appear to move or stop.
  • the detection accuracy of the sensor 11 is reduced by determining whether or not to adopt the speed V1 of the object 4 based on the result of comparing the value based on the speed V1 of the object 4 and the set threshold value T1. In this case, it may be determined not to adopt the velocity V1 of the object 4. In addition, by determining whether or not to adopt the speed V1 of the object 4 based on the result of comparing the value based on the speed V1 of the object 4 and the set threshold value T1, it is possible to detect the object when the detection accuracy of the sensor 11 does not decrease. It can be determined to adopt the speed V1 of 4.
  • the value based on the velocity V1 of the object 4 may be the acceleration A1 of the object 4.
  • the control unit 14 may determine whether or not to adopt the speed of the object 4 based on the result of comparing the acceleration A1 of the object 4 and the set threshold value T1. As described above, when the detection accuracy of the sensor 11 decreases due to some factor and the calculation error of the velocity V1 of the object 4 increases, the absolute value of the acceleration A1 of the object 4 increases. By using the acceleration A1 of the object 4 as a value based on the speed V1 of the object 4, the control unit 14 can more accurately determine whether to employ the speed V1 of the object 4.
  • control unit 14 when the control unit 14 determines to adopt the calculated velocity V1 of the object 4, it may store the acceleration A1 of the object 4 and the velocity V1 of the object 4 in association with the measurement time t1.
  • the control unit 14 determines not to adopt the velocity of the object 4 calculated at the measurement time t2 after the measurement time t1, the control unit 14 updates the velocity of the object 4 at the measurement time t2 using the stored acceleration A1 and the velocity V1 of the object 4. It can be calculated as follows.
  • control unit 14 may newly calculate the velocity V1a of the object 4 at the measurement time t1 based on the stored acceleration A0 and velocity V0 of the object 4. good.
  • the acceleration A0 and velocity V0 of the object 4 may be measured (calculated) immediately before the measurement time t1.
  • the control unit 14 can calculate the velocity V1a of the object 4 at the measurement time t1 with higher accuracy.
  • control unit 14 may set the setting threshold T1 based on predetermined conditions.
  • the predetermined conditions may be arbitrarily set based on factors that affect the type of object 4 or the detection accuracy of sensor 11, for example. With such a configuration, it is possible to prevent the setting threshold T1 from being set unnecessarily high or unnecessarily low. Therefore, the control unit 14 can more accurately determine whether or not to adopt the velocity V1 of the object 4.
  • control unit 14 may obtain the reference threshold TH0 based on the first condition regarding the type of the object 4.
  • the control unit 14 may obtain the reference threshold TH0 corresponding to the type of the object 4 by obtaining the reference threshold TH0 based on the first condition.
  • the acceleration of the object 4 differs depending on the type of the object 4.
  • the control unit 14 generates the first threshold TH1 from the reference threshold TH0 based on a second condition regarding the type of the sensor 11 that detected the information regarding the position of the object 4 used to calculate the velocity V1 of the object 4. It's okay.
  • a second condition regarding the type of the sensor 11 that detected the information regarding the position of the object 4 used to calculate the velocity V1 of the object 4. It's okay.
  • control unit 14 may determine whether the type of sensor 11 is included in the predetermined types. When the control unit 14 determines that the type of the sensor 11 is included in the predetermined type, the control unit 14 adjusts the reference threshold TH0 to be higher by a first proportion Y1, and obtains the adjusted reference threshold TH0 as the first threshold TH1.
  • the first threshold TH1 may be generated from the reference threshold TH0.
  • the predetermined type is the type of sensor 11 in which the accuracy of detecting information regarding the position of the object 4 is low.
  • the first The threshold value TH1 can be increased.
  • the setting threshold value T1 that is set based on the first threshold value TH1 can be increased depending on the type of sensor 11.
  • the control unit 14 may generate the first threshold TH1 from the reference threshold TH0 by acquiring the reference threshold TH0 as it is as the first threshold TH1. good.
  • the sensor 11 that detects information regarding the position of the object 4 used to calculate the velocity V1 of the object 4 is a type of sensor 11 that has high accuracy in detecting information regarding the position of the object 4, the first It is possible to prevent the threshold value TH1 from becoming unnecessarily high. By suppressing the first threshold value TH1 from becoming unnecessarily high, it is possible to suppress the setting threshold value T1 that is set based on the first threshold value TH1 from becoming unnecessarily high.
  • control unit 14 may generate the second threshold TH2 from the first threshold TH1 based on a third condition regarding the distance from the observation device 10 to the object 4. As described above, the longer the distance from the observation device 10 to the object 4, the lower the detection accuracy of the position information of the object 4 in real space.
  • the control unit 14 may generate the second threshold TH2 from the first threshold TH1 based on the third condition, it is possible to prevent the setting threshold T1 set based on the second threshold TH2 from becoming unnecessarily high or unnecessarily low. Can be suppressed.
  • the control unit 14 may adjust the first threshold TH1 to be higher by the second ratio Y2.
  • the control unit 14 may generate the second threshold TH2 from the first threshold TH1 by acquiring the adjusted first threshold TH1 as the second threshold TH2.
  • the distance threshold value may be set for each type of sensor 11. As described above, the long distance and short distance for the sensor 11 differ depending on the type of sensor 11.
  • the second threshold TH2 is increased according to the type of sensor 11 by adjusting the first threshold TH1 to be higher by a second proportion Y2 when the distance from the observation device 10 to the object 4 is equal to or greater than the distance threshold. I can do it. With such a configuration, it is possible to increase the setting threshold T1 that is set based on the second threshold TH2 depending on the type of sensor 11.
  • the control unit 14 determines that the distance from the observation device 10 to the object 4 is less than the distance threshold, the control unit 14 changes the first threshold TH1 to the second threshold TH2 by acquiring the first threshold TH1 as it is as the second threshold TH2. may be generated.
  • the second threshold value TH2 it is possible to prevent the second threshold value TH2 from becoming unnecessarily high depending on the type of sensor 11.
  • By suppressing the second threshold TH2 from becoming unnecessarily high it is possible to suppress the setting threshold T1, which is set based on the second threshold TH2, from becoming unnecessarily high.
  • control unit 14 may generate the set threshold T1 from the second threshold TH2 based on a fourth condition regarding the environment around the observation device 10. As described above, depending on the environment around the observation device 10, the detection accuracy of the sensor 11 may decrease. By generating the set threshold T1 from the second threshold TH2 based on the fourth condition, it is possible to prevent the set threshold T1 from becoming unnecessarily high or low.
  • the observation device includes: Calculating the speed of the object based on position information of the object, and determining whether to adopt the calculated speed of the object based on the result of comparing a value based on the calculated speed of the object with a set threshold value.
  • a control unit is provided.
  • the value based on the velocity of the object is the acceleration of the object
  • the control unit determines whether to adopt the calculated velocity of the object based on a result of comparing the acceleration of the object with the set threshold.
  • the control unit includes: Comparing the acceleration of the object with the set threshold, determining whether the absolute value of the acceleration of the object is equal to or greater than the set threshold; If it is determined that the absolute value of the acceleration of the object is greater than or equal to the set threshold, it is determined that the calculated speed of the object is not adopted.
  • the control unit includes: Comparing the acceleration of the object with the set threshold, determining whether the absolute value of the acceleration of the object is equal to or greater than the set threshold; If it is determined that the absolute value of the acceleration of the object is less than the set threshold, it is determined that the calculated speed of the object is to be adopted.
  • control unit determines to employ the calculated velocity of the object
  • the control unit stores the acceleration of the object calculated based on the calculated velocity of the object and the calculated velocity of the object.
  • control unit determines not to use the calculated velocity of the object
  • the control unit newly calculates the velocity of the object based on the stored acceleration and velocity of the object.
  • the set threshold value is set based on a predetermined condition.
  • the predetermined conditions are: a first condition regarding the type of the object; a second condition regarding the type of sensor that detected the information regarding the position of the object used to calculate the speed of the object; a third condition regarding the distance from the observation device to the object; and a fourth condition regarding the environment surrounding the observation device; Contains at least one of the following.
  • the control unit includes: obtaining a reference threshold based on the first condition; The set threshold is set based on the reference threshold.
  • the control unit obtains the reference threshold value corresponding to the type of the object.
  • the control unit includes: generating a first threshold from the reference threshold based on the second condition; The set threshold is set based on the first threshold.
  • the control unit includes: When it is determined that the type of the sensor is included in the predetermined type, the reference threshold value is adjusted to be higher by a first percentage, and the adjusted reference threshold value is obtained as the first threshold value, thereby increasing the reference threshold value from the reference threshold value by a first percentage. generate a first threshold; When it is determined that the type of the sensor is not included in the predetermined type, the first threshold is generated from the reference threshold by acquiring the reference threshold as the first threshold.
  • the control unit includes: generating a second threshold from the first threshold based on the third condition; The set threshold is set based on the second threshold.
  • the control unit includes: If it is determined that the distance from the observation device to the object is equal to or greater than a distance threshold, the first threshold is adjusted to be higher by a second percentage, and the adjusted first threshold is obtained as the second threshold. generating the second threshold from the first threshold; When it is determined that the distance from the observation device to the object is less than the distance threshold, the second threshold is generated from the first threshold by acquiring the first threshold as is as the second threshold.
  • the control unit includes: The set threshold is generated from the second threshold based on the fourth condition.
  • the fourth condition includes an environment surrounding the observation device in which the detection accuracy of a sensor that detects position information of the object is reduced;
  • the control unit includes: When the environment around the observation device satisfies the environmental condition set in the fourth condition, the second threshold is adjusted to be higher by a third percentage, and the adjusted second threshold is set as the set threshold. generating the set threshold from the second threshold by acquiring; If the environment around the observation device does not satisfy the environmental conditions set in the fourth condition, the second threshold is directly acquired as the set threshold, thereby generating the set threshold from the second threshold.
  • the observation method includes: Calculating the speed of the object based on position information of the object; The method includes determining whether or not to adopt the calculated speed of the object based on a result of comparing a value based on the calculated speed of the object with a set threshold value.
  • each functional unit, each means, each step, etc. may be added to other embodiments so as not to be logically contradictory, or each functional unit, each means, each step, etc. of other embodiments may be added to other embodiments to avoid logical contradiction. It is possible to replace it with Further, in each embodiment, it is possible to combine or divide a plurality of functional units, means, steps, etc. into one. Further, each embodiment of the present disclosure described above is not limited to being implemented faithfully to each described embodiment, but may be implemented by combining each feature or omitting a part as appropriate. You can also do that.
  • the predetermined conditions are described as including the first condition, the second condition, the third condition, and the fourth condition.
  • the predetermined conditions may include any one of the first condition, the second condition, the third condition, and the fourth condition.
  • the predetermined conditions may include only the first condition and the fourth condition.
  • the control unit 14 obtains the reference threshold TH0 based on the first condition, as described above.
  • the control unit 14 generates the set threshold T1 from the reference threshold TH0 based on the fourth condition using the same or similar processing as described above.
  • the method of calculating the velocity V1 and acceleration A1 of the object 4 is not limited to the example described above. Another example of the method for calculating the velocity V1 of the object 4 will be described below.
  • the control unit 14 uses the position information of the object 4 in real space at the measurement time t1 and the position information of the object 4 in the real space at a set time before the measurement time t1 to determine the position from before the set time to the measurement time t1.
  • the distance traveled by the object 4 may be calculated.
  • the control unit 14 may calculate the speed V1 of the object 4 by dividing the calculated moving distance by the set time.
  • the set time may be longer than the predetermined time.
  • the set time is the same as the time interval at which the sensor 11 transmits the above-mentioned data to the control unit 14, or It may be longer than the interval.
  • the control unit 14 calculates the acceleration A1 of the object 4 by subtracting the velocity before the measurement time t1 from the velocity V1 of the object 4, and dividing the difference by the set time. You may calculate the acceleration A1 of . Even when calculating the speed and acceleration of the object 4 in other examples, the control unit 14 may calculate the speed and acceleration of the object 4 at predetermined time intervals.
  • control unit 14 was described as setting the set threshold value T1 for comparison with the absolute value of the acceleration A1 of the object 4.
  • the control unit 14 may set the setting threshold T1 based on predetermined conditions for other uses.
  • the control unit 14 may set a set threshold T1 in order to determine whether objects detected by a plurality of different sensors 11 are the same object.
  • the control unit 14 may determine whether the objects detected by the plurality of different sensors 11 are the same object.
  • the plurality of sensors 11 include a sensor 11A and a sensor 11B. The type of sensor 11A and the type of sensor 11B are different.
  • the control unit 14 uses the position of the object detected by the sensor 11A in real space and the position of the object detected by the sensor 11B in real space. It is determined whether or not the position is within a set threshold value T1. If the control unit 14 determines that the position of the object detected by the sensor 11A in real space and the position of the object detected by the sensor 11B in real space are within the set threshold T1, the control unit 14 controls the objects detected by the sensors 11A and 11B, respectively. are determined to be the same object.
  • the control unit 14 determines that the position of the object detected by the sensor 11A in the real space and the position of the object detected by the sensor 11B in the real space are not within the set threshold T1, the control unit 14 controls the sensors 11A and 11B respectively. It is determined that the detected objects are not the same object.
  • the detection accuracy of the sensor 11 decreases due to various factors. When the detection accuracy of the sensor 11 decreases, the measurement error of the position in real space of the object detected by each of the plurality of sensors 11 may increase. Even in such a case, by determining whether the positions of the objects detected by the sensors 11A and 11B in real space are within the set threshold T1, it is possible to determine whether the objects detected by the sensors 11A and 11B are the same object.
  • descriptions such as “first” and “second” are identifiers for distinguishing the configurations.
  • the numbers in the configurations can be exchanged.
  • the first condition and the second condition can exchange the identifiers "first” and "second”.
  • the exchange of identifiers takes place simultaneously.
  • the configurations are distinguished.
  • Identifiers may be removed.
  • Configurations with removed identifiers are distinguished by codes. The description of identifiers such as “first” and “second” in this disclosure should not be used to interpret the order of the configuration or to determine the existence of lower-numbered identifiers.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

観察装置は、制御部を備える。制御部は、物体の位置情報に基づいて物体の速度を算出し、算出した物体の速度に基づく値と設定閾値とを比較した結果に基づいて算出した物体の速度を採用するか否かを決定する。

Description

観察装置及び観察方法 関連出願へのクロスリファレンス
 本出願は、2022年4月26日に日本国に特許出願された特願2022-072588の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 本開示は、観察装置及び観察方法に関する。
 従来、センサの検出結果に基づいて物体の速度を算出する観察装置が知られている。例えば、特許文献1には、撮像手段により撮影された路上を移動中の車両についての画像情報を処理して該車両の速度と位置を検出する画像式速度検知システムが開示されている。
特開2003-217082号公報
 本開示の一実施形態に係る観察装置は、
 物体の位置情報に基づいて前記物体の速度を算出し、算出した前記物体の速度に基づく値と設定閾値とを比較した結果に基づいて前記算出した物体の速度を採用するか否かを決定する制御部を備える。
 本開示の一実施形態に係る観察方法は、
 物体の位置情報に基づいて前記物体の速度を算出することと、
 算出した前記物体の速度に基づく値と設定閾値とを比較した結果に基づいて前記算出した物体の速度を採用するか否かを決定することと、を含む。
本開示の一実施形態に係る通信システムの概略構成を示す図である。 図1に示す通信システムのブロック図である。 物体の種類毎に設定された基準閾値の一例を示す図である。 図1に示す観察装置による物体の速度の算出方法の流れを示すフローチャートである。 図1に示す観察装置による設定閾値の設定方法の流れを示すフローチャートである。
 センサの検出精度は、多様な要因によって低下する。センサの検出精度が低下すると、物体の速度の算出誤差が大きくなる場合がある。従来の技術には、物体の速度の算出誤差について改善の余地がある。本開示の一実施形態によれば、物体の速度の算出誤差について改善された技術を提供することができる。
 以下、本開示の実施形態について、図面を参照して説明する。以下の実施形態では、本開示の観察装置は、路側機であるものとする。ただし、本開示の観察装置は、任意の用途に適用されてよい。他の例として、本開示の観察装置は、監視カメラ装置等であってもよい。
 図1に示すように、通信システム1は、観察装置10を備える。通信システム1は、例えば、高度道路交通システム(ITS:Intelligent Transport Systems)の安全運転支援通信システムである。安全運転支援通信システムは、安全運転支援システムと呼ばれたり、安全運転支援無線システムと呼ばれたりする。
 観察装置10は、例えば、観察領域である路面2を観察可能に構造物3に固定される。構造物3は、例えば、信号装置、電柱又は街灯等である。観察装置10は、観察領域に存在する物体4を検出する。物体4は、例えば、車両、原動機付自転車、自転車又は歩行者等である。観察装置10は、後述するように、検出した物体4の速度を算出する。観察装置10は、物体4の速度を算出すると、支援情報を生成する。支援情報は、検出した物体4の種類及び物体4の速度のデータ等を含む。観察装置10は、図2に示すような移動体5と無線通信する。観察装置10は、生成した支援情報を移動体5に通知する。移動体5は、観察装置10の周囲に存在する。移動体5は、路面2上に位置する車両等である。
 図2に示すように、観察装置10は、ネットワーク6に接続可能である。ネットワーク6は、移動体通信網及びインターネット等を含む任意のネットワークであってよい。ただし、観察装置10は、ネットワーク6に接続可能でなくてもよい。
 図2に示すように、観察装置10は、複数のセンサ11と、通信部12と、記憶部13と、制御部14とを備える。図2では、観察装置10は、複数のセンサ11を備える。ただし、観察装置10が備えるセンサ11の数は、1つであってもよい。
 センサ11は、観察領域を撮像して画像を生成する。センサ11は、例えば、単眼カメラである。単眼カメラは、例えば、可視光カメラ又はFIR(Far Infrared Rays)カメラ等の撮像装置であってよい。センサ11は、CMOS(Complementary Metal Oxide Semiconductor)又はCCD(Charge Coupled Device)等のイメージセンサであってもよい。ただし、センサ11は、単眼カメラ及びイメージセンサ以外の任意のセンサであってよい。例えば、センサ11は、LiDAR(Light Detection And Ranging)又はミリ波レーダであってもよい。観察装置10が備える複数のセンサ11は、同じ種類のセンサであってもよいし、異なる種類のセンサであってもよい。複数のセンサ11のそれぞれは、所定のフレームレートで画像を生成してよい。センサ11は、生成した画像データに対して後述する画像認識処理等を実行可能な処理装置及び記憶装置等を含んで構成されてもよい。この場合、センサ11は、生成した画像データに対して画像認識処理等を実行することにより、物体4を検出したり、物体4の種類を検出したり、画像内の物体4の実空間における位置情報を取得したりすることができる。
 通信部12は、路面2上の移動体5と通信可能な少なくとも1つの通信モジュールを含んで構成される。通信モジュールは、例えば、路車間通信の規格に対応した通信モジュールである。通信部12は、この通信モジュールによって、例えばITSに割り当てられている700MHz帯において路面2上の移動体5と無線通信してよい。
 通信部12は、ネットワーク6に接続可能な少なくとも1つの通信モジュールを含んで構成される。通信モジュールは、例えば、有線LAN(Local Area Network)又は無線LAN等の規格に対応した通信モジュールである。ただし、通信モジュールは、これに限定されない。通信モジュールは、任意の通信規格に対応してよい。通信部12は、通信モジュールによって有線LAN又は無線LANを介して、ネットワーク6に接続される。
 記憶部13は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ又はこれらのうちの少なくとも2種類の組み合わせを含んで構成される。半導体メモリは、例えば、RAM(Random Access Memory)又はROM(Read Only Memory)等である。RAMは、例えば、SRAM(Static Random Access Memory)又はDRAM(Dynamic Random Access Memory)等である。ROMは、例えば、EEPROM(Electrically Erasable Programmable Read Only Memory)等である。記憶部13は、主記憶装置、補助記憶装置又はキャッシュメモリとして機能してよい。記憶部13には、観察装置10の動作に用いられるデータと、観察装置10の動作によって得られたデータとが記憶される。
 記憶部13には、例えば、対応データが記憶される。対応データは、センサ11によって生成される画像内の座標と、その座標の画像の画素に写る物体の実空間における位置情報とを対応付けたものである。対応データは、例えば、観察装置10のキャリブレーション時に生成される。対応データは、センサ11が記憶装置を含んで構成される場合、センサ11の記憶装置に記憶されてもよい。
 制御部14は、少なくとも1つのプロセッサ、少なくとも1つの専用回路又はこれらの組み合わせを含んで構成される。プロセッサは、例えば、CPU(Central Processing Unit)若しくはGPU(Graphics Processing Unit)等の汎用プロセッサ又は特定の処理に特化した専用プロセッサである。専用回路は、例えば、FPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等である。制御部14は、観察装置10の各部を制御しながら、観察装置10の動作に関わる処理を実行する。
 <物体の検出処理>
 センサ11は、生成した画像のデータに対して画像認識処理を実行することにより、画像のデータから物体4を検出する。センサ11は、生成した画像のデータに対して画像認識処理を実行することにより、物体4の種類を検出してもよい。物体4の種類は、例えば、車両、原動機付自転車、自転車又は歩行者等である。画像認識処理は、例えば、パターンマッチング又は深層学習等の機械学習等の処理である。センサ11がLiDAR又はミリ波レーダを含んで構成される場合、センサ11は、例えば、LiDAR又はミリ波レーダの測定結果から得られた点群データを基に画像のデータを生成して画像認識処理を実行してもよい。センサ11がミリ波レーダを含んで構成される場合、センサ11は、例えば、ミリ波レーダの測定結果から得られた速度データ等を基に物体4及び物体の種類を検出してもよい。
 センサ11は、物体4の画像における位置情報を取得する。物体4の画像における位置とは、例えば、画像内の物体4が写る画素の位置である。センサ11は、画像内の物体4が写る画素の座標を特定する。センサ11は、記憶部13又はセンサ11に含まれる記憶装置から対応データを取得し、対応データにおいて特定した座標に対応付けられた実空間における位置情報を、物体4の実空間における位置情報として取得する。センサ11がLiDAR又はミリ波レーダを含んで構成される場合、センサ11は、例えば、LiDAR又はミリ波レーダの測定結果から得られたデータを基に、物体4の実空間における位置情報を取得してもよい。センサ11は、検出した物体4の種類と、物体4の実空間における位置情報とを含むデータを、制御部14に送信する。
 上述した物体の検出処理は、センサ11に限定されず、制御部14によって実行されてもよい。以下、物体の検出処理の他の例として、制御部14による物体の検出処理を説明する。
 <物体の検出処理の他の例>
 制御部14は、センサ11から、センサ11が生成した画像のデータを取得する。制御部14は、取得した画像のデータに対して画像認識処理を実行することにより、画像のデータから物体4を検出する。制御部14は、取得した画像のデータに対して画像認識処理を実行することにより、物体4の種類を検出してもよい。センサ11がLiDAR又はミリ波レーダを含んで構成される場合、制御部14は、例えば、センサ11から、LiDAR又はミリ波レーダの測定結果から得られた点群データを取得してよい。制御部14は、取得した点群データを基に画像のデータを生成し、生成した画像のデータに対して画像認識処理を実行することにより、画像のデータから物体4及び物体4の種類を検出してもよい。センサ11がミリ波レーダを含んで構成される場合、制御部14は、例えば、センサ11から、ミリ波レーダの測定結果から得られた速度データ等を取得してよい。制御部14は、取得した速度データ等を基に、物体4及び物体4の種類を検出してもよい。
 制御部14は、物体4の画像における位置情報として、画像内の物体4が写る画素の座標を特定する。制御部14は、記憶部13から対応データを取得し、対応データにおいて特定した座標に対応付けられた実空間における位置情報を、物体4の実空間における位置情報として取得する。センサ11がLiDAR又はミリ波レーダである場合、制御部14は、LiDAR又はミリ波レーダの測定結果から得られた点群データを基に、物体4の実空間における位置情報を取得してもよい。
 <速度の算出処理>
 制御部14は、センサ11が検出した又は制御部14が取得した物体4の実空間における位置情報に基づいて、物体4の速度V1を算出する。以下、物体4の速度V1を算出(測定)する時刻は、測定時刻t1とも記載される。制御部14は、測定時刻t1での物体4の実空間における位置情報と、測定時刻t1よりも所定時間前での物体4の実空間における位置情報とによって、所定時間前から測定時刻t1までに物体4が移動した移動距離を算出する。制御部14は、算出した物体4の移動距離を所定時間で除算することより、物体4の速度V1を算出する。所定時間は、センサ11が制御部14に、物体4の種類と、物体4の実空間における位置情報とを含むデータを送信する時間間隔に基づいて、設定されてよい。所定時間は、センサ11が制御部14に当該データを送信する時間間隔よりも長くてよい。なお、制御部14が画像認識処理等を実行することにより物体4の実空間における位置情報を取得する場合、所定時間は、センサ11が制御部14に画像のデータを送信する時間間隔に基づいて、設定されてよい。所定時間は、例えば、100[ms]である。以下、制御部14は、所定時間毎に物体4の速度を算出するものとする。
 制御部14は、物体4の速度V1に基づいて、測定時刻t1における物体4の加速度A1を算出する。例えば、制御部14は、記憶部13に保存済みの物体4の速度V0のデータを取得する。物体4の速度V0は、測定時刻t1の直前に算出した物体4の速度である。本実施形態では、制御部14が所定時間毎に物体4の速度を算出することにより、物体4の速度V0のデータは、測定時刻t1よりも所定時間前の測定時刻t0に測定されたデータとなる。制御部14は、物体4の速度V1から速度V0を減算した差分を所定時間で除算することにより、物体4の加速度A1を算出する。算出される物体4の加速度A1は、正の加速度であってもよいし、負の加速度であってもよい。正の加速度は、物体4の進行方向と同じ方向の加速度である。負の加速度は、物体4の進行方向とは反対方向の加速度である。負の加速度は、物体4の減速度でもある。以下、制御部14は、物体4の速度と同じく、所定時間毎に物体4の加速度を算出するものとする。
 制御部14は、物体4の速度V1に基づく値と設定閾値T1とを比較した結果に基づいて、物体4の速度V1を採用するか否かを決定する。設定閾値T1は、後述するように、所定条件に基づいて設定される。以下、物体4の速度V1に基づく値は、物体4の加速度A1であるものとして説明する。つまり、制御部14は、物体4の加速度A1と設定閾値T1とを比較した結果に基づいて、物体4の速度V1を採用するか否かを決定するものとして説明する。ただし、物体4の速度V1に基づく値は、物体4の加速度A1に限定されない。物体4の速度V1に基づく値は、物体4の速度V1に基づけば、任意のものであってよい。他の例として、物体4の速度V1に基づく値は、物体4の速度V1から算出可能な任意の物理量であってよい。
 本実施形態では、制御部14は、物体4の加速度A1と設定閾値T1とを比較することとして、物体4の加速度A1の絶対値が設定閾値T1以上であるか否かを判定する。ここで、何等かの要因によってセンサ11の検出精度が低下し、物体4の速度V1の算出誤差が大きくなると、物体4の加速度A1の絶対値が大きくなる。そこで、制御部14は、物体4の加速度A1の絶対値が設定閾値T1以上であると判定した場合、物体4の速度V1を採用しないと決定する。一方で、制御部14は、物体の加速度A1の絶対値が設定閾値T1を下回ると判定した場合、物体4の速度V1を採用すると決定する。
 制御部14は、物体4の速度V1を採用する決定した場合、物体4の速度V1を用いて所定処理を実行する。所定処理の一例として、制御部14は、物体4の速度V1を用いて上述した支援情報を生成する。また、制御部14は、物体4の速度V1及び加速度A1のデータを測定時刻t1と対応付けて記憶部13に保存させる。
 制御部14は、物体4の速度V1を採用しないと決定した場合、記憶部13に保存済みの物体4の速度V0及び加速度A0のデータを取得する。物体4の速度V0及び加速度A0は、測定時刻t1の直前に算出されたものである。本実施形態では、制御部14が所定時間毎に物体4の加速度を算出することにより、物体4の速度V0及び加速度A0は、測定時刻t1よりも所定時間前の測定時刻t0に算出されたものとなる。制御部14は、物体4の速度V0及び加速度A0のデータによって、測定時刻t1における物体4の速度V1aを新たに算出する。例えば、制御部14は、以下の式(1)によって測定時刻t1における速度V1aを新たに算出する。
 V1a=V0+A0×(t1-t0)   式(1)
 制御部14は、新たに算出した速度V1aを採用する。つまり、制御部14は、速度V1aを用いて上述した所定処理を実行する。また、制御部14は、加速度A0を測定時刻t1における加速度とみなし、速度V1a及び加速度A0のデータを測定時刻t1と対応付けて記憶部13に保存させる。
 <設定閾値の設定処理>
 制御部14は、所定条件に基づいて、設定閾値T1を設定する。所定条件は、第1条件、第2条件、第3条件及び第4条件の少なくとも何れかを含む。ただし、所定条件は、例えば物体4の種類又はセンサ11の検出精度に影響する要因に基づいて、任意に設定されてよい。
 <<第1条件>>
 制御部14は、第1条件に基づいて、基準閾値TH0を取得する。第1条件は、物体4の種類に関する情報である。物体4の種類に応じて、物体4の加速度が異なる。例えば、物体4が歩行者である場合の物体4の加速度は、物体4が車両である場合の物体4の加速度よりも小さくなる。
 そこで、本実施形態では、基準閾値TH0は、物体4の種類毎に予め設定される。基準閾値TH0は、物体4の種類毎の物体4の平均加速度の絶対値に基づいて予め設定されてよい。基準閾値TH0は、物体4の種類毎に対応付けられて記憶部13に予め記憶されてよい。例えば、基準閾値TH0は、図3に示すように予め設定される。図3では、車両の基準閾値TH0は、AA[m/s]と設定される。原動機付自転車の基準閾値TH0は、BB[m/s]と設定される。自転車の基準閾値TH0は、CC[m/s]と設定される。歩行者の基準閾値TH0は、DD[m/s]と設定される。制御部14は、第1条件に基づいて基準閾値TH0を取得することとして、物体4の種類に対応する基準閾値TH0を記憶部13から取得する。
 制御部14は、取得した基準閾値TH0に基づいて設定閾値T1を設定する。例えば、制御部14は、取得した基準閾値TH0を設定閾値T1に設定してもよい。又は、以下に説明するように、制御部14は、基準閾値TH0から第1閾値TH1を生成してもよい。
 <<第2条件>>
 制御部14は、第2条件に基づいて、基準閾値TH0から第1閾値TH1を生成する。第2条件は、物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11の種類に関する条件である。物体4の位置に関する情報は、物体4の速度V1が物体4の実空間における位置情報に基づいて算出されることにより、物体4の位置を実空間において特定可能な情報となる。例えば、物体4の位置に関する情報は、センサ11が検出した物体4の実空間における位置情報に基づいて制御部14が物体4の速度V1を算出した場合、物体4の実空間における位置情報となる。例えば、物体4の位置に関する情報は、センサ11が生成した画像のデータに基づいて制御部14が物体4の実空間における位置情報を取得した場合、画像のデータとなる。
 センサ11には、物体4の位置に関する情報の検出精度が高い種類のセンサ11と、物体4の位置に関する情報の検出精度が低い種類のセンサ11とがある。物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11が物体4の位置に関する情報の検出精度が低い種類のセンサ11である場合、物体4の速度V1の算出誤差が大きくなる可能性が高い。これに対し、物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11が物体4の位置に関する情報の検出精度が高い種類のセンサ11である場合、物体4の速度V1の算出誤差が大きくなる可能性は低い。なお、物体4の位置に関する情報の検出精度は、物体4の位置に関する情報が画像のデータである場合、画像の解像度であってよい。画像の解像度が粗いほど、その画像データに基づいて取得される物体4の実空間における位置情報の検出精度が低下する。
 そこで、本実施形態では、制御部14は、物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11の種類が所定種類に含まれるか否かを判定する。所定種類は、物体4の位置に関する情報の検出精度が低くなるセンサ11の種類である。所定種類は、物体4の速度の所望の算出精度に基づいて、予め選択されてよい。つまり、物体4の位置に関する情報のセンサ11の検出精度が低いか又は高いかは、物体4の速度の所望の算出精度に応じて決定されてよい。制御部14は、センサ11の種類が所定種類に含まれないと判定した場合、基準閾値TH0をそのまま第1閾値TH1として取得する。制御部14は、基準閾値TH0をそのまま第1閾値TH1として取得することにより、基準閾値TH0から第1閾値TH1を生成する。一方、制御部14は、センサ11の種類が所定種類に含まれると判定した場合、基準閾値TH0が第1割合Y1高くなるように調整し、調整後の基準閾値TH0を第1閾値TH1として取得する。制御部14は、調整後の基準閾値TH0を第1閾値TH1として取得することにより、基準閾値TH0から第1閾値TH1を生成する。基準閾値TH0の調整では、制御部14は、基準閾値TH0に、基準閾値TH0の第1割合Y1を加算する。第1割合Y1は、所定種類のセンサ11の検出精度に基づいて設定されてよい。例えば、制御部14は、以下の式(2)によって第1閾値TH1を算出してよい。式(2)では、第1割合Y1は、パーセンテージとして与えられる。
 TH1=TH0(1+0.01×Y1)   式(2)
 制御部14は、生成した第1閾値TH1に基づいて設定閾値T1を設定する。例えば、制御部14は、生成した第1閾値TH1を設定閾値T1に設定してもよい。又は、以下に説明するように、制御部14は、第1閾値TH1から第2閾値TH2を生成してもよい。
 <<第3条件>>
 制御部14は、第3条件に基づいて、第1閾値TH1から第2閾値TH2を生成する。第3条件は、観察装置10から物体4までの距離に関する条件である。ここで、センサ11が検出した物体4の実空間における位置情報に基づいて制御部14が物体4の速度V1を算出する場合、観察装置10から物体4までの距離が遠いほど、センサ11の物体4の実空間における位置情報の検出精度が低下する。また、センサ11が生成した画像のデータに基づいて制御部14が物体4の実空間における位置情報を取得する場合、観察装置10から物体4までの距離が遠いほど、センサ11が生成する画像の1画素あたりの距離が長くなる。センサ11が生成する画像の1画素あたりの距離が長いほど、制御部14が画像のデータに基づいて取得する物体4の実空間における位置情報の検出誤差が低下する。
 このように観察装置10から物体4までの距離が遠いほど、物体4の実空間における位置情報の検出精度が低下する。物体4の実空間における位置情報の検出精度が低下すると、物体4の速度V1の算出誤差が大きくなる。
 そこで、本実施形態では、制御部14は、観察装置10から物体4までの距離が距離閾値以上であるか否かを判定する。制御部14は、観察装置10から物体4までの距離を、物体4の実空間における位置情報から取得(算出)してもよいし、センサ11から取得してもよい。距離閾値は、センサ11にとっての遠距離と近距離との間の境界に基づいて、予め設定されてよい。センサ11にとっての遠距離とは、センサ11にとっての近距離と比較して、センサの検出精度が低下し易くなる距離である。センサ11にとっての遠距離及び近距離は、センサ11の種類によって異なる。例えば、遠距離の物体の情報を検出する精度が高いセンサ11ほど、センサ11にとっての遠距離が長くなる。また、遠距離の物体の情報を検出する精度が低いセンサ11ほど、センサ11にとっての遠距離が短くなる。距離閾値は、センサ11の種類毎に設定されて記憶部13に予め記憶されてよい。この場合、制御部14は、物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11に設定された距離閾値を記憶部13から取得し、観察装置10から物体4までの距離が取得した距離閾値以上であるか否かを判定してよい。
 制御部14は、観察装置10から物体4までの距離が距離閾値を下回ると判定した場合、第1閾値TH1をそのまま第2閾値TH2として取得する。制御部14は、第1閾値TH1をそのまま第2閾値TH2として取得することにより、第1閾値TH1から第2閾値TH2を生成する。一方、制御部14は、観察装置10から物体4までの距離が距離閾値以上であると判定した場合、第1閾値TH1が第2割合Y2高くなるように調整し、調整後の第1閾値TH1を第2閾値TH2として取得する。制御部14は、調整後の第1閾値TH1を第2閾値TH2として取得することにより、第1閾値TH1から第2閾値TH2を生成する。第1閾値TH1の調整では、制御部14は、第1閾値TH1に、第1閾値TH1の第2割合Y2を加算する。第2割合Y2は、センサ11の種類に応じて設定されてよい。例えば、制御部14は、以下の式(3)によって第2閾値TH2を算出してよい。式(3)では、第2割合Y2は、パーセンテージとして与えられる。
 TH2=TH1(1+0.01×Y2)   式(3)
 制御部14は、生成した第2閾値TH2に基づいて設定閾値T1を設定する。例えば、制御部14は、生成した第2閾値TH2を設定閾値T1に設定してもよい。又は、以下に説明するように、制御部14は、第2閾値TH2から設定閾値T1を生成してもよい。
 <<第4条件>>
 制御部14は、第4条件に基づいて、第2閾値TH2から設定閾値T1を生成する。第4条件は、観察装置10の周囲の環境に関する条件である。観察装置10の周囲の環境によっては、センサ11の検出精度が低下する場合がある。例えば、観察装置10の周囲の環境として天気を例に挙げる場合、天気が雨、雪、霧又は砂塵嵐であるとき、天気が晴れ又は曇りであるときよりも、センサ11の検出精度が低下する。また、センサ11が可視光カメラである場合、観察装置10の周囲の環境として周囲の光量が低いときは、光量が高いときよりも、センサ11の検出精度が低下する。
 そこで、本実施形態では、第4条件には、観察装置10の周囲の環境であって、センサ11の検出精度が低下する環境の条件が設定される。例えば、第4条件には、センサ11の検出精度が低下する天気の条件として、雨、雪、霧又は砂塵嵐との天気が設定される。また、第4条件には、センサ11が可視光カメラである場合、可視光カメラの検出精度が低下する時間帯の条件として、夜間の時間帯が設定される。夜間の時間帯では、昼間の時間帯と比較して、観察装置10の周囲の光量が低下する。
 制御部14は、観察装置10の周囲の環境が第4条件に設定されたセンサ11の検出精度が低下する環境の条件を満たすか否かを判定する。
 例えば、第4条件にセンサ11の検出精度が低下する天気の条件が設定される場合、制御部14は、ネットワーク6を介して外部のサーバ7から、観察装置10が設置された地域の天気の情報を通信部12によって受信する。外部のサーバ7は、例えば、気象庁が発表する気象情報を提供するサーバである。又は、制御部14は、可視光カメラであるセンサ11が取得した画像を解析することにより、観察装置10が設置された地域の天気を推定してもよい。制御部14は、観察装置10が設置された地域の天気が第4条件として設定された天気の条件と一致する場合、観察装置10の周囲の環境が第4条件に設定されたセンサ11の検出精度が低下する環境の条件を満たすと判定する。制御部14は、観察装置10が設置された地域の天気が第4条件として設定された天気の条件と一致しない場合、観察装置10の周囲の環境が第4条件に設定されたセンサ11の検出精度が低下する環境の条件を満たさないと判定する。
 例えば、第4条件に可視光カメラの検出精度が低下する夜間の時間帯が設定される場合、制御部14は、物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11が可視光カメラであるか否かを判定する。制御部14は、物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11が可視光カメラであると判定した場合、現在時刻を取得する。制御部14は、現在時刻が第4条件に設定された夜間の時間帯に含まれるか否かを判定する。制御部14は、現在時刻が第4条件に設定された夜間の時間帯に含まれると判定する場合、観察装置10の周囲の環境が第4条件に設定されたセンサ11の検出精度が低下する環境の条件を満たすと判定する。制御部14は、現在時刻が第4条件に設定された夜間の時間帯に含まれないと判定する場合、観察装置10の周囲の環境が第4条件に設定されたセンサ11の検出精度が低下する環境の条件を満たさないと判定する。
 制御部14は、観察装置10の周囲の環境が第4条件に設定されたセンサ11の検出精度が低下する環境の条件を満たさないと判定した場合、第2閾値TH2をそのまま設定閾値T1として取得する。制御部14は、第2閾値TH2をそのまま設定閾値T1として取得することにより、第2閾値TH2から設定閾値T1を生成する。一方、制御部14は、観察装置10の周囲の環境が第4条件に設定されたセンサ11の検出精度が低下する環境の条件を満たすと判定した場合、第2閾値TH2が第3割合Y3高くなるように調整し、調整後の第2閾値TH2を設定閾値T1として取得する。制御部14は、調整後の第2閾値TH2を設定閾値T1として取得することにより、第2閾値TH2から設定閾値T1を生成する。第2閾値TH2の調整では、制御部14は、第2閾値TH2に、第2閾値TH2の第3割合Y3を加算する。第3割合Y3は、センサ11の種類に応じて設定されてよい。例えば、制御部14は、以下の式(4)によって設定閾値T1を算出してよい。式(4)では、第3割合Y3は、パーセンテージとして与えられる。
 T1=TH2(1+0.01×Y3)   式(4)
 (観察装置の動作)
 図4は、図1に示す観察装置10による物体4の速度の算出方法の流れを示すフローチャートである。この速度の算出方法は、本実施形態に係る観察方法の一例に相当する。例えば、制御部14は、センサ11から物体4の種類と、物体4の実空間における位置情報とを含むデータを取得すると、ステップS1の処理を開始する。
 制御部14は、物体4の実空間における位置情報に基づいて、測定時刻t1における物体4の速度V1を算出する(ステップS1)。
 制御部14は、記憶部13に保存済みの物体4の速度V0のデータを取得する(ステップS2)。制御部14は、ステップS1の処理で算出した物体4の速度V1と、ステップS2の処理で取得した物体4の速度V0とによって、測定時刻t1における物体4の加速度A1を算出する(ステップS3)。
 制御部14は、物体4の加速度A1の絶対値が設定閾値T1以上であるか否かを判定する(ステップS4)。制御部14は、物体4の加速度A1の絶対値が設定閾値T1を下回ると判定した場合(ステップS4:NO)、ステップS5の処理に進む。一方、制御部14は、物体4の加速度A1の絶対値が設定閾値T1以上であると判定した場合(ステップS4:YES)、ステップS7の処理に進む。
 ステップS5の処理では、制御部14は、物体4の速度V1を採用すると決定する。制御部14は、物体4の速度V1及び加速度A1のデータを測定時刻t1と対応付けて記憶部13に保存させる(ステップS6)。
 ステップS7の処理では、制御部14は、物体4の速度V1を採用しないと決定する。制御部14は、記憶部13に保存済みの物体4の加速度A0のデータを取得する(ステップS8)。制御部14は、ステップS2の処理で取得した物体4の速度V0とステップS8の処理で取得した物体4の加速度A0とによって、測定時刻t1における物体4の速度V1aを新たに算出する(ステップS9)。制御部14は、算出した速度V1aを測定時刻t1における物体の速度に採用する(ステップS10)。制御部14は、速度V1a及び加速度A0のデータを測定時刻t1と対応付けて記憶部13に保存させる(ステップS11)。
 制御部14は、ステップS11の処理を実行すると、処理を終了する。ただし、制御部14は、例えば所定時間後に、ステップS1の処理を再び実行してよい。
 ここで、制御部14は、センサ11から、画像のデータを取得してもよい。制御部14は、取得した画像のデータから物体4を検出すると、ステップS1の処理を開始してもよい。この場合、ステップS1の処理では、制御部14は、物体4の画像における位置情報に基づいて、測定時刻t1における物体4の速度V1を算出する。
 図5は、図1に示す観察装置10による設定閾値T1の設定方法の流れを示すフローチャートである。この設定閾値T1の設定方法は、本実施形態に係る観察方法の一例に相当する。制御部14は、図4に示すようなステップS4を実行する前に、図5に示すような処理を実行してよい。
 制御部14は、例えば、センサ11から物体4の種類を含むデータを取得することにより、物体4の種類を検出する(ステップS21)。制御部14は、物体4の種類に対応する基準閾値TH0を記憶部13から取得する(ステップS22)。
 制御部14は、センサ11の種類が所定種類に含まれるか否かを判定する(ステップS23)。制御部14は、センサ11の種類が所定種類に含まれると判定した場合(ステップS23:YES)、ステップS24の処理に進む。一方、制御部14は、センサ11の種類が所定種類に含まれないと判定した場合(ステップS23:NO)、ステップS25の処理に進む。
 ステップS24の処理では、制御部14は、基準閾値TH0が第1割合Y1高くなるように調整し、調整後の基準閾値TH0を第1閾値TH1として取得する。制御部14は、ステップS24の処理の実行後、ステップS26の処理に進む。
 ステップS25の処理では、制御部14は、基準閾値TH0をそのまま第1閾値TH1として取得する。制御部14は、ステップS25の処理の実行後、ステップS26の処理に進む。
 ステップS26の処理では、制御部14は、観察装置10から物体4までの距離が距離閾値以上であるか否かを判定する。制御部14は、観察装置10から物体4までの距離が距離閾値以上であると判定した場合(ステップS26:YES)、ステップS27の処理に進む。一方、制御部14は、観察装置10から物体4までの距離が距離閾値を下回ると判定した場合(ステップS26:NO)、ステップS28の処理に進む。
 ステップS27の処理では、制御部14は、第1閾値TH1が第2割合Y2高くなるように調整し、調整後の第1閾値TH1を第2閾値TH2として取得する。制御部14は、ステップS27の処理の実行後、ステップS29の処理に進む。
 ステップS28の処理では、制御部14は、第1閾値TH1をそのまま第2閾値TH2として取得する。制御部14は、ステップS28の処理の実行後、ステップS29の処理に進む。
 ステップS29の処理では、制御部14は、観察装置10が設置された地域の天気が第4条件として設定されたセンサ11の検出精度が低下する天気の条件と一致するか否かを判定する。制御部14は、観察装置10が設置された地域の天気が第4条件として設定された天気と一致すると判定した場合(ステップS29:YES)、ステップS30の処理に進む。一方、制御部14は、観察装置10が設置された地域の天気が第4条件として設定された天気と一致しないと判定した場合(ステップS29:NO)、ステップS31の処理に進む。
 ステップS30の処理では、制御部14は、第2閾値TH2が第3割合Y3高くなるように調整し、調整後の第2閾値TH2を設定閾値T1として取得する。
 ステップS31の処理では、制御部14は、第2閾値TH2をそのまま設定閾値T1として取得する。
 ここで、ステップS21の処理において、制御部14は、例えば、センサ11から取得した画像のデータに対して画像認識処理を実行することにより、物体4の種類を検出してもよい。
 ステップS29の処理に代えて又は加えて、制御部14は、物体4の速度V1の算出に用いられた物体4の位置情報を検出したセンサ11が可視光カメラであるか否かを判定してよい。制御部14は、物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11が可視光カメラであると判定した場合、現在時刻を取得してよい。制御部14は、現在時刻が第4条件に設定された可視光カメラの検出精度が低下する夜間の時間帯に含まれるか否かを判定してもよい。制御部14は、現在時刻が第4条件に設定された夜間の時間帯に含まれると判定した場合(ステップS29:YES)、ステップS30の処理に進んでよい。制御部14は、現在時刻が第4条件に設定された夜間の時間帯に含まれないと判定した場合(ステップS29:NO)、ステップS31の処理に進んでよい。
 このように観察装置10では、制御部14は、物体4の実空間における位置情報に基づいて物体4の速度V1を算出する。制御部14は、物体4の速度V1に基づく値と設定閾値T1とを比較した結果に基づいて、物体4の速度V1を採用するか否かを決定する。ここで、センサ11の検出精度は、多様な要因によって低下する。センサ11の検出精度が低下すると、物体4の速度の算出誤差が大きくなる場合がある。物体4の速度の算出誤差が大きいと、例えば、物体4の速度のデータを含む支援情報を受信した移動体5において物体4の位置をその速度に基づきディスプレイに表示させた際、物体4が急に動いたり、又は停止したりするように見える場合がある。本実施形態では、物体4の速度V1に基づく値と設定閾値T1とを比較した結果に基づいて物体4の速度V1を採用するか否かを決定することにより、センサ11の検出精度が低下した場合に物体4の速度V1を採用しないと決定することができる。また、物体4の速度V1に基づく値と設定閾値T1とを比較した結果に基づいて物体4の速度V1を採用するか否かを決定することにより、センサ11の検出精度が低下しない場合に物体4の速度V1を採用すると決定することができる。このような構成により、上述したような移動体5において物体4の位置をディスプレイに表示させた際、物体4が急に動いたり、又は停止したりするように見えるといった事態の発生が低減する。よって、本実施形態によれば、物体4の速度の算出誤差について改善された技術を提供することができる。
 さらに、物体4の速度V1に基づく値は、物体4の加速度A1であってもよい。制御部14は、物体4の加速度A1と設定閾値T1とを比較した結果に基づいて、物体4の速度を採用するか否かを決定してもよい。上述したように、何等かの要因によってセンサ11の検出精度が低下し、物体4の速度V1の算出誤差が大きくなると、物体4の加速度A1の絶対値が大きくなる。制御部14は、物体4の速度V1に基づく値として物体4の加速度A1を用いることにより、より的確に、物体4の速度V1を採用するか否かを決定することができる。
 また、制御部14は、算出した物体4の速度V1を採用すると決定した場合、物体4の加速度A1及び物体4の速度V1を測定時刻t1に対応付けて保存してもよい。制御部14は、測定時刻t1以降の測定時刻t2に算出した物体4の速度を採用しないと決定した場合、保存済みの加速度A1及び物体4の速度V1によって測定時刻t2における物体4の速度を新たに算出することができる。
 また、制御部14は、物体4の速度V1を採用しないと決定した場合、測定時刻t1における物体4の速度V1aを保存済みの物体4の加速度A0及び速度V0に基づいて新たに算出してもよい。物体4の加速度A0及び速度V0は、測定時刻t1の直前に測定(算出)したものであってよい。このような構成により、制御部14は、測定時刻t1における物体4の速度V1aをより精度良く算出することができる。
 また、制御部14は、所定条件に基づいて設定閾値T1を設定してもよい。所定条件は、例えば物体4の種類又はセンサ11の検出精度に影響する要因に基づいて任意に設定されてよい。このような構成により、設定閾値T1を不要に高く設定したり、又は不要に低く設定したりすることを抑制することができる。よって、制御部14は、物体4の速度V1を採用するか否かをより精度良く決定することができる。
 また、制御部14は、物体4の種類に関する第1条件に基づいて基準閾値TH0を取得してもよい。制御部14は、第1条件に基づいて基準閾値TH0を取得することとして、物体4の種類に対応する基準閾値TH0を取得してもよい。上述したように、物体4の種類に応じて、物体4の加速度が異なる。物体4の種類に対応する基準閾値TH0を取得することにより、基準閾値TH0に基づいて設定される設定閾値T1が不要に高くなったり、又は不要に低くなったりすることを抑制することができる。
 また、制御部14は、物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11の種類に関する第2条件に基づいて、基準閾値TH0から第1閾値TH1を生成してもよい。上述したように、センサ11には、物体4の位置に関する情報の検出精度が高い種類のセンサ11と、物体4の位置に関する情報の検出精度が低い種類のセンサ11とがある。第2条件に基づいて基準閾値TH0から第1閾値TH1を生成することにより、第1閾値TH1に基づいて設定される設定閾値T1が不要に高くなったり、又は不要に低くなったりすることを抑制することができる。
 また、制御部14は、センサ11の種類が所定種類に含まれるか否かを判定してもよい。制御部14は、センサ11の種類が所定種類に含まれると判定した場合、基準閾値TH0が第1割合Y1高くなるように調整し、調整後の基準閾値TH0を第1閾値TH1として取得することにより基準閾値TH0から第1閾値TH1を生成してもよい。所定種類は、上述したように、物体4の位置に関する情報の検出精度が低くなるセンサ11の種類である。このような構成により、物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11が物体4の位置に関する情報の検出精度が低い種類のセンサ11である場合、第1閾値TH1を高くすることができる。第1閾値TH1を高くすることにより、第1閾値TH1に基づいて設定される設定閾値T1をセンサ11の種類に応じて高くすることができる。
 また、制御部14は、センサ11の種類が所定種類に含まれないと判定した場合、基準閾値TH0をそのまま第1閾値TH1として取得することにより基準閾値TH0から第1閾値TH1を生成してもよい。このような構成により、物体4の速度V1の算出に用いられた物体4の位置に関する情報を検出したセンサ11が物体4の位置に関する情報の検出精度が高い種類のセンサ11である場合、第1閾値TH1が不要に高くなることを抑制することができる。第1閾値TH1が不要に高くなることを抑制することにより、第1閾値TH1に基づいて設定される設定閾値T1が不要に高くなることを抑制することができる。
 また、制御部14は、観察装置10から物体4までの距離に関する第3条件に基づいて、第1閾値TH1から第2閾値TH2を生成してもよい。上述したように、観察装置10から物体4までの距離が遠いほど、物体4の実空間における位置情報の検出精度が低下する。第3条件に基づいて第1閾値TH1から第2閾値TH2を生成することにより、第2閾値TH2に基づいて設定される設定閾値T1が不要に高くなったり、又は不要に低くなったりすることを抑制することができる。
 また、制御部14は、観察装置10から物体4までの距離が距離閾値以上であると判定した場合、第1閾値TH1が第2割合Y2高くなるように調整してもよい。制御部14は、調整後の第1閾値TH1を第2閾値TH2として取得することにより第1閾値TH1から第2閾値TH2を生成してもよい。距離閾値は、センサ11の種類毎に設定されてもよい。上述したように、センサ11にとっての遠距離及び近距離は、センサ11の種類によって異なる。観察装置10から物体4までの距離が距離閾値以上である場合に第1閾値TH1が第2割合Y2高くなるように調整することにより、センサ11の種類に応じて第2閾値TH2を高くすることができる。このような構成により、第2閾値TH2に基づいて設定される設定閾値T1をセンサ11の種類に応じて高くすることができる。
 また、制御部14は、観察装置10から物体4までの距離が距離閾値を下回ると判定した場合、第1閾値TH1をそのまま第2閾値TH2として取得することにより第1閾値TH1から第2閾値TH2を生成してもよい。このような構成により、センサ11の種類に応じて、第2閾値TH2が不要に高くなることを抑制することができる。例えば、他のセンサ11よりも遠距離の物体の情報を精度良く検出可能なセンサ11に対して、第2閾値TH2が不要に高くなることを抑制することができる。第2閾値TH2が不要に高くなることを抑制することにより、第2閾値TH2に基づいて設定される設定閾値T1が不要に高くなることを抑制することができる。
 また、制御部14は、観察装置10の周囲の環境に関する第4条件に基づいて、第2閾値TH2から設定閾値T1を生成してもよい。上述したように観察装置10の周囲の環境によっては、センサ11の検出精度が低下する場合がある。第4条件に基づいて第2閾値TH2から設定閾値T1を生成することにより、設定閾値T1が不要に高くなったり、又は不要に低くなったりすることを抑制することができる。
 一実施形態において、(1)観察装置は、
 物体の位置情報に基づいて前記物体の速度を算出し、算出した前記物体の速度に基づく値と設定閾値とを比較した結果に基づいて前記算出した物体の速度を採用するか否かを決定する制御部を備える。
 (2)上記(1)の観察装置では、
 前記物体の速度に基づく値は、前記物体の加速度であり、
 前記制御部は、前記物体の加速度と前記設定閾値とを比較した結果に基づいて、前記算出した物体の速度を採用するか否かを決定する。
 (3)上記(1)又は(2)の観察装置では、
 前記制御部は、
 前記物体の加速度と前記設定閾値とを比較することとして、前記物体の加速度の絶対値が前記設定閾値以上であるか否かを判定し、
 前記物体の加速度の絶対値が前記設定閾値以上であると判定した場合、前記算出した物体の速度を採用しないと決定する。
 (4)上記(1)から(3)までの何れかの観察装置では、
 前記制御部は、
 前記物体の加速度と前記設定閾値とを比較することとして、前記物体の加速度の絶対値が前記設定閾値以上であるか否かを判定し、
 前記物体の加速度の絶対値が前記設定閾値を下回ると判定した場合、前記算出した物体の速度を採用すると決定する。
 (5)上記(1)から(4)までの何れかの観察装置では、
 前記制御部は、前記算出した物体の速度を採用すると決定した場合、前記算出した物体の速度に基づいて算出される前記物体の加速度と、前記算出した物体の速度とを保存する。
 (6)上記(1)から(5)までの何れかの観察装置では、
 前記制御部は、前記算出した物体の速度を採用しないと決定した場合、前記物体の速度を保存済みの前記物体の加速度及び速度に基づいて新たに算出する。
 (7)上記(1)から(6)までの何れかの観察装置では、
 前記保存済みの物体の加速度及び速度は、前記採用するか否かが決定される前記物体の速度を算出した時刻の直前に算出されたものである。
 (8)上記(1)から(7)までの何れかの観察装置では、
 前記設定閾値は、所定条件に基づいて設定される。
 (9)上記(1)から(8)までの何れかの観察装置では、
 前記所定条件は、
 前記物体の種類に関する第1条件、
 前記物体の速度の算出に用いられた前記物体の位置に関する情報を検出したセンサの種類に関する第2条件、
 前記観察装置から前記物体までの距離に関する第3条件、及び、
 前記観察装置の周囲の環境に関する第4条件、
の少なくとも何れかを含む。
 (10)上記(1)から(9)までの何れかの観察装置では、
 前記制御部は、
 前記第1条件に基づいて基準閾値を取得し、
 前記基準閾値に基づいて前記設定閾値を設定する。
 (11)上記(1)から(10)までの何れかの観察装置では、
 前記制御部は、前記物体の種類に対応する前記基準閾値を取得する。
 (12)上記(1)から(11)までの何れかの観察装置では、
 前記制御部は、
 前記第2条件に基づいて前記基準閾値から第1閾値を生成し、
 前記第1閾値に基づいて前記設定閾値を設定する。
 (13)上記(1)から(12)までの何れかの観察装置では、
 前記制御部は、
 前記センサの種類が所定種類に含まれると判定した場合、前記基準閾値が第1割合高くなるように調整し、調整後の前記基準閾値を前記第1閾値として取得することにより前記基準閾値から前記第1閾値を生成し、
 前記センサの種類が所定種類に含まれないと判定した場合、前記基準閾値をそのまま前記第1閾値として取得することにより前記基準閾値から前記第1閾値を生成する。
 (14)上記(1)から(13)までの何れかの観察装置では、
 前記制御部は、
 前記第3条件に基づいて前記第1閾値から第2閾値を生成し、
 前記第2閾値に基づいて前記設定閾値を設定する。
 (15)上記(1)から(14)までの何れかの観察装置では、
 前記制御部は、
 前記観察装置から前記物体までの距離が距離閾値以上であると判定した場合、前記第1閾値が第2割合高くなるように調整し、調整後の前記第1閾値を前記第2閾値として取得することにより前記第1閾値から前記第2閾値を生成し、
 前記観察装置から前記物体までの距離が前記距離閾値を下回ると判定した場合、前記第1閾値をそのまま前記第2閾値として取得することにより前記第1閾値から前記第2閾値を生成する。
 (16)上記(1)から(15)までの何れかの観察装置では、
 前記制御部は、
 前記第4条件に基づいて前記第2閾値から前記設定閾値を生成する。
 (17)上記(1)から(16)までの何れかの観察装置では、
 前記第4条件には、前記観察装置の周囲の環境であって、前記物体の位置情報を検出するセンサの検出精度が低下する環境の条件が設定され、
 前記制御部は、
 前記観察装置の周囲の環境が前記第4条件に設定された環境の条件を満たす場合、前記第2閾値が第3割合高くなるように調整し、調整後の前記第2閾値を前記設定閾値として取得することにより前記第2閾値から前記設定閾値を生成し、
 前記観察装置の周囲の環境が前記第4条件に設定された環境の条件を満たさない場合、前記第2閾値をそのまま前記設定閾値として取得することにより前記第2閾値から前記設定閾値を生成する。
 一実施形態において、(18)観察方法は、
 物体の位置情報に基づいて前記物体の速度を算出することと、
 算出した前記物体の速度に基づく値と設定閾値とを比較した結果に基づいて前記算出した物体の速度を採用するか否かを決定することと、を含む。
 本開示を諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。したがって、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各機能部に含まれる機能等は論理的に矛盾しないように再配置可能である。複数の機能部等は、1つに組み合わせられたり、分割されたりしてよい。上述した本開示に係る各実施形態は、それぞれ説明した各実施形態に忠実に実施することに限定されるものではなく、適宜、各特徴を組み合わせたり、一部を省略したりして実施され得る。つまり、本開示の内容は、当業者であれば本開示に基づき種々の変形及び修正を行うことができる。したがって、これらの変形及び修正は本開示の範囲に含まれる。例えば、各実施形態において、各機能部、各手段、各ステップ等は論理的に矛盾しないように他の実施形態に追加し、若しくは、他の実施形態の各機能部、各手段、各ステップ等と置き換えることが可能である。また、各実施形態において、複数の各機能部、各手段、各ステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、上述した本開示の各実施形態は、それぞれ説明した各実施形態に忠実に実施することに限定されるものではなく、適宜、各特徴を組み合わせたり、一部を省略したりして実施することもできる。
 例えば、上述した実施形態では、所定条件は、第1条件、第2条件、第3条件及び第4条件を含むものとして説明した。ただし、所定条件は、第1条件、第2条件、第3条件及び第4条件の何れかを含めばよい。例えば、所定条件は、第1条件及び第4条件のみを含んでもよい。この場合、制御部14は、上述したように、第1条件に基づいて、基準閾値TH0を取得する。制御部14は、上述した処理と同じ又は類似にして、第4条件に基づいて、基準閾値TH0から設定閾値T1を生成する。
 例えば、物体4の速度V1及び加速度A1の算出方法は、上述した例に限定されない。以下、物体4の速度V1の算出方法の他の例について説明する。制御部14は、測定時刻t1での物体4の実空間における位置情報と、測定時刻t1よりも設定時間前での物体4の実空間における位置情報とによって、設定時間前から測定時刻t1までに物体4が移動した移動距離を算出してもよい。制御部14は、算出した移動距離を設定時間で除算することにより、物体4の速度V1を算出してもよい。設定時間は、所定時間よりも長くてよい。設定時間は、センサ11が制御部14に上述したデータを送信する時間間隔が所定時間よりも短い場合、センサ11が制御部14に上述したデータを送信する時間間隔と同じであるか又は当該時間間隔よりも長くてよい。物体4の加速度A1の算出方法の他の例として、制御部14は、物体4の速度V1から、測定時刻t1の設定時刻前の速度を減算した差分を設定時間で除算することにより、物体4の加速度A1を算出してもよい。他の例で物体4の速度及び加速度を算出する場合であっても、制御部14は、所定時間毎に物体4の速度及び加速度を算出してよい。
 例えば、上述した実施形態では、制御部14は、物体4の加速度A1の絶対値との比較のために設定閾値T1を設定するものとして説明した。ただし、制御部14は、他の用途のために、所定条件に基づいて設定閾値T1を設定してもよい。他の例として、制御部14は、複数の異なるセンサ11が検出した物体が同じ物体であるか否かを判定するために、設定閾値T1を設定してもよい。制御部14は、複数の異なるセンサ11の検出結果を統合するか否かを判定するために、複数の異なるセンサ11が検出した物体が同じ物体であるか否かを判定することがある。以下、この他の例について説明する。複数のセンサ11は、センサ11A及びセンサ11Bを含むものとする。センサ11Aの種類とセンサ11Bの種類とは異なる。制御部14は、センサ11A,11Bがそれぞれ検出した物体が同じ物体であるか否かを判定するために、センサ11Aが検出した物体の実空間における位置とセンサ11Bが検出した物体の実空間における位置とが設定閾値T1以内に存在するか否かを判定する。制御部14は、センサ11Aが検出した物体の実空間における位置とセンサ11Bが検出した物体の実空間における位置とが設定閾値T1以内に存在すると判定した場合、センサ11A,11Bがそれぞれ検出した物体が同じ物体であると判定する。一方、制御部14は、センサ11Aが検出した物体の実空間における位置とセンサ11Bが検出した物体の実空間における位置とが設定閾値T1以内に存在しないと判定した場合、センサ11A,11Bがそれぞれ検出した物体が同じ物体ではないと判定する。センサ11の検出精度は、多様な要因によって低下する。センサ11の検出精度が低下すると、複数のセンサ11がそれぞれ検出した物体の実空間における位置の測定誤差が大きくなる場合がある。このような場合でも、センサ11A,11Bが検出した物体のそれぞれの実空間における位置が設定閾値T1以内に存在するか否かを判定することにより、センサ11A,11Bがそれぞれ検出した物体が同じ物体であるか否かを判定することができる。センサ11A,11Bがそれぞれ検出した物体が同じ物体であるか否かを判定することにより、センサ11Aの検出結果とセンサ11Bの検出結果とを統合するか否かを決定することができる。例えば、制御部14は、センサ11A,11Bがそれぞれ検出した物体が同じ物体であると判定した場合、センサ11Aの検出結果とセンサ11Bの検出結果とを統合すると決定することができる。一方、制御部14は、センサ11A,11Bがそれぞれ検出した物体が同じ物体ではないと判定した場合、センサ11Aの検出結果とセンサ11Bの検出結果とを統合しないと決定することができる。
 本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1条件は、第2条件と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
 1 通信システム
 2 路面
 3 構造物
 4 物体
 5 移動体
 6 ネットワーク
 7 サーバ
 10 観察装置
 11,11A,11B センサ
 12 通信部
 13 記憶部
 14 制御部
 A0 加速度
 A1 加速度
 T1 設定閾値
 TH0 基準閾値
 TH1 第1閾値
 TH2 第2閾値
 V0,V1,V1a 速度
 Y1 第1割合
 Y2 第2割合
 Y3 第3割合
 t0,t1 測定時刻

Claims (18)

  1.  物体の位置情報に基づいて前記物体の速度を算出し、算出した前記物体の速度に基づく値と設定閾値とを比較した結果に基づいて前記算出した物体の速度を採用するか否かを決定する制御部を備える、観察装置。
  2.  前記物体の速度に基づく値は、前記物体の加速度であり、
     前記制御部は、前記物体の加速度と前記設定閾値とを比較した結果に基づいて、前記算出した物体の速度を採用するか否かを決定する、請求項1に記載の観察装置。
  3.  前記制御部は、
     前記物体の加速度と前記設定閾値とを比較することとして、前記物体の加速度の絶対値が前記設定閾値以上であるか否かを判定し、
     前記物体の加速度の絶対値が前記設定閾値以上であると判定した場合、前記算出した物体の速度を採用しないと決定する、請求項2に記載の観察装置。
  4.  前記制御部は、
     前記物体の加速度と前記設定閾値とを比較することとして、前記物体の加速度の絶対値が前記設定閾値以上であるか否かを判定し、
     前記物体の加速度の絶対値が前記設定閾値を下回ると判定した場合、前記算出した物体の速度を採用すると決定する、請求項2に記載の観察装置。
  5.  前記制御部は、前記算出した物体の速度を採用すると決定した場合、前記算出した物体の速度に基づいて算出される前記物体の加速度と、前記算出した物体の速度とを保存する、請求項1から4までの何れか一項に記載の観察装置。
  6.  前記制御部は、前記算出した物体の速度を採用しないと決定した場合、前記物体の速度を保存済みの前記物体の加速度及び速度に基づいて新たに算出する、請求項1から4までの何れか一項に記載の観察装置。
  7.  前記保存済みの物体の加速度及び速度は、前記採用するか否かが決定される前記物体の速度を算出した時刻の直前に算出されたものである、請求項6に記載の観察装置。
  8.  前記設定閾値は、所定条件に基づいて設定される、請求項1に記載の観察装置。
  9.  前記所定条件は、
     前記物体の種類に関する第1条件、
     前記物体の速度の算出に用いられた前記物体の位置に関する情報を検出したセンサの種類に関する第2条件、
     前記観察装置から前記物体までの距離に関する第3条件、及び、
     前記観察装置の周囲の環境に関する第4条件、
    の少なくとも何れかを含む、請求項8に記載の観察装置。
  10.  前記制御部は、
     前記第1条件に基づいて基準閾値を取得し、
     前記基準閾値に基づいて前記設定閾値を設定する、請求項9に記載の観察装置。
  11.  前記制御部は、前記物体の種類に対応する前記基準閾値を取得する、請求項10に記載の観察装置。
  12.  前記制御部は、
     前記第2条件に基づいて前記基準閾値から第1閾値を生成し、
     前記第1閾値に基づいて前記設定閾値を設定する、請求項10又は11に記載の観察装置。
  13.  前記制御部は、
     前記センサの種類が所定種類に含まれると判定した場合、前記基準閾値が第1割合高くなるように調整し、調整後の前記基準閾値を前記第1閾値として取得することにより前記基準閾値から前記第1閾値を生成し、
     前記センサの種類が所定種類に含まれないと判定した場合、前記基準閾値をそのまま前記第1閾値として取得することにより前記基準閾値から前記第1閾値を生成する、請求項12に記載の観察装置。
  14.  前記制御部は、
     前記第3条件に基づいて前記第1閾値から第2閾値を生成し、
     前記第2閾値に基づいて前記設定閾値を設定する、請求項12に記載の観察装置。
  15.  前記制御部は、
     前記観察装置から前記物体までの距離が距離閾値以上であると判定した場合、前記第1閾値が第2割合高くなるように調整し、調整後の前記第1閾値を前記第2閾値として取得することにより前記第1閾値から前記第2閾値を生成し、
     前記観察装置から前記物体までの距離が前記距離閾値を下回ると判定した場合、前記第1閾値をそのまま前記第2閾値として取得することにより前記第1閾値から前記第2閾値を生成する、請求項14に記載の観察装置。
  16.  前記制御部は、
     前記第4条件に基づいて前記第2閾値から前記設定閾値を生成する、請求項14に記載の観察装置。
  17.  前記第4条件には、前記観察装置の周囲の環境であって、前記物体の位置情報を検出するセンサの検出精度が低下する環境の条件が設定され、
     前記制御部は、
     前記観察装置の周囲の環境が前記第4条件に設定された環境の条件を満たす場合、前記第2閾値が第3割合高くなるように調整し、調整後の前記第2閾値を前記設定閾値として取得することにより前記第2閾値から前記設定閾値を生成し、
     前記観察装置の周囲の環境が前記第4条件に設定された環境の条件を満たさない場合、前記第2閾値をそのまま前記設定閾値として取得することにより前記第2閾値から前記設定閾値を生成する、請求項16に記載の観察装置。
  18.  物体の位置情報に基づいて前記物体の速度を算出することと、
     算出した前記物体の速度に基づく値と設定閾値とを比較した結果に基づいて前記算出した物体の速度を採用するか否かを決定することと、を含む、観察方法。
PCT/JP2023/015077 2022-04-26 2023-04-13 観察装置及び観察方法 WO2023210397A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-072588 2022-04-26
JP2022072588 2022-04-26

Publications (1)

Publication Number Publication Date
WO2023210397A1 true WO2023210397A1 (ja) 2023-11-02

Family

ID=88518513

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/015077 WO2023210397A1 (ja) 2022-04-26 2023-04-13 観察装置及び観察方法

Country Status (1)

Country Link
WO (1) WO2023210397A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002022832A (ja) * 2000-07-10 2002-01-23 Denso Corp 物体認識方法及び装置、記録媒体
JP2016192169A (ja) * 2015-03-31 2016-11-10 株式会社デンソー 物体検知装置、及び物体検知方法
WO2018079297A1 (ja) * 2016-10-27 2018-05-03 日立オートモティブシステムズ株式会社 故障検知装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002022832A (ja) * 2000-07-10 2002-01-23 Denso Corp 物体認識方法及び装置、記録媒体
JP2016192169A (ja) * 2015-03-31 2016-11-10 株式会社デンソー 物体検知装置、及び物体検知方法
WO2018079297A1 (ja) * 2016-10-27 2018-05-03 日立オートモティブシステムズ株式会社 故障検知装置

Similar Documents

Publication Publication Date Title
CN109829351B (zh) 车道信息的检测方法、装置及计算机可读存储介质
US7580548B2 (en) Abnormality detecting apparatus for imaging apparatus
US20180232947A1 (en) Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US7619668B2 (en) Abnormality detecting apparatus for imaging apparatus
JP5939357B2 (ja) 移動軌跡予測装置及び移動軌跡予測方法
CN112215306B (zh) 一种基于单目视觉与毫米波雷达融合的目标检测方法
CN109703460B (zh) 多摄像头的复杂场景自适应车辆碰撞预警装置及预警方法
WO2018212346A1 (ja) 制御装置、走査システム、制御方法、およびプログラム
CN113044059A (zh) 用于车辆的安全系统
US11538241B2 (en) Position estimating device
CN111461048B (zh) 基于视觉的停车场可行驶区域检测与局部地图构建方法
US20220373353A1 (en) Map Updating Method and Apparatus, and Device
CN110766760B (zh) 用于相机标定的方法、装置、设备和存储介质
CN112666535A (zh) 一种基于多雷达数据融合的环境感知方法及系统
JP2022079777A (ja) 情報処理装置
US11676403B2 (en) Combining visible light camera and thermal camera information
JP2021117048A (ja) 変化点検出装置及び地図情報配信システム
US11189162B2 (en) Information processing system, program, and information processing method
JP5910180B2 (ja) 移動物体位置姿勢推定装置及び方法
US10839522B2 (en) Adaptive data collecting and processing system and methods
CN113734176A (zh) 智能驾驶车辆的环境感知系统、方法、车辆及存储介质
WO2023210397A1 (ja) 観察装置及び観察方法
CN108416305B (zh) 连续型道路分割物的位姿估计方法、装置及终端
US20210039658A1 (en) Object identification device
CN115512542B (zh) 一种基于路侧激光雷达的考虑遮挡的轨迹复原方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23796141

Country of ref document: EP

Kind code of ref document: A1