WO2021217859A1 - 目标异常识别方法、装置、电子设备及存储介质 - Google Patents

目标异常识别方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
WO2021217859A1
WO2021217859A1 PCT/CN2020/099068 CN2020099068W WO2021217859A1 WO 2021217859 A1 WO2021217859 A1 WO 2021217859A1 CN 2020099068 W CN2020099068 W CN 2020099068W WO 2021217859 A1 WO2021217859 A1 WO 2021217859A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
image
image data
target
attribute information
Prior art date
Application number
PCT/CN2020/099068
Other languages
English (en)
French (fr)
Inventor
曹素云
Original Assignee
平安国际智慧城市科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202010359984.8A external-priority patent/CN111652940B/zh
Application filed by 平安国际智慧城市科技股份有限公司 filed Critical 平安国际智慧城市科技股份有限公司
Publication of WO2021217859A1 publication Critical patent/WO2021217859A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/07Controlling traffic signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Definitions

  • This application relates to the field of artificial intelligence technology, and in particular to a method, device, electronic equipment, and storage medium for identifying target anomalies.
  • the main purpose of this application is to provide a target anomaly identification method, device, electronic equipment and storage medium, aiming at the problem of how to achieve timely and comprehensive management and control of road traffic equipment.
  • a target anomaly identification method provided in this application is applied to an electronic device, and the method includes:
  • Acquisition step acquiring acquisition data uploaded by a data acquisition terminal, the acquisition data including depth distance data between the data acquisition terminal and the target to be measured, the first image data containing the target to be measured, and the first image data of the data acquisition terminal Coordinate data and the azimuth angle of the data collection terminal, and calculate the second coordinate data of the target to be measured according to the depth distance data, the first coordinate data, and the azimuth angle of the data collection terminal;
  • Recognition step input the first image data into a pre-trained image recognition model, and output first image attribute information corresponding to the first image data;
  • the first processing step locate the area corresponding to the second coordinate data from a pre-created map according to the second coordinate data, extract the second image attribute information corresponding to the second image data in the area, and determine the first Whether the image attribute information is consistent with the second image attribute information;
  • the second processing step when it is determined that the first image attribute information is consistent with the second image attribute information, the similarity algorithm is used to calculate the similarity value between the first image data and the second image data. If the degree value is less than or equal to the first preset threshold, it is determined that the target to be tested is abnormal, and feedback information including the first image attribute information and the abnormal state information of the target to be tested is generated and sent to the client.
  • the present application also provides an electronic device, the device includes a memory and a processor, the memory stores a target abnormality recognition program that can run on the processor, and the target abnormality recognition The following steps are implemented when the program is executed by the processor:
  • Acquisition step acquiring acquisition data uploaded by a data acquisition terminal, the acquisition data including depth distance data between the data acquisition terminal and the target to be measured, the first image data containing the target to be measured, and the first image data of the data acquisition terminal Coordinate data and the azimuth angle of the data collection terminal, and calculate the second coordinate data of the target to be measured according to the depth distance data, the first coordinate data, and the azimuth angle of the data collection terminal;
  • Recognition step input the first image data into a pre-trained image recognition model, and output first image attribute information corresponding to the first image data;
  • the first processing step locate the area corresponding to the second coordinate data from a pre-created map according to the second coordinate data, extract the second image attribute information corresponding to the second image data in the area, and determine the first Whether the image attribute information is consistent with the second image attribute information;
  • the second processing step when it is determined that the first image attribute information is consistent with the second image attribute information, the similarity algorithm is used to calculate the similarity value between the first image data and the second image data. If the degree value is less than or equal to the first preset threshold, it is determined that the target to be tested is abnormal, and feedback information including the first image attribute information and the abnormal state information of the target to be tested is generated and sent to the client.
  • the present application also provides a computer-readable storage medium on which a target abnormality recognition program is stored, and the target abnormality recognition program can be executed by one or more processors, To achieve the steps of the target anomaly identification method as described below:
  • Acquisition step acquiring acquisition data uploaded by a data acquisition terminal, the acquisition data including depth distance data between the data acquisition terminal and the target to be measured, the first image data containing the target to be measured, and the first image data of the data acquisition terminal A coordinate data and the azimuth angle of the data collection terminal, and the second coordinate data of the target to be measured is calculated according to the depth distance data, the first coordinate data, and the azimuth angle;
  • Recognition step input the first image data into a pre-trained image recognition model, and output first image attribute information corresponding to the first image data;
  • the first processing step locate the area corresponding to the second coordinate data from a pre-created map according to the second coordinate data, extract the second image attribute information corresponding to the second image data in the area, and determine the first Whether the image attribute information is consistent with the second image attribute information;
  • the second processing step when it is determined that the first image attribute information is consistent with the second image attribute information, the similarity algorithm is used to calculate the similarity value between the first image data and the second image data. If the degree value is less than or equal to the first preset threshold, it is determined that the target to be tested is abnormal, and feedback information including the first image attribute information and the abnormal state information of the target to be tested is generated and sent to the client.
  • the present application also provides a target anomaly recognition device, the target anomaly recognition device includes:
  • Acquisition module used to acquire acquisition data uploaded by the data acquisition terminal, the acquisition data including the depth distance data between the data acquisition terminal and the target to be measured, the first image data containing the target to be measured, and the data acquisition terminal
  • the first coordinate data of and the azimuth angle of the data collection terminal, and the second coordinate data of the target to be measured is calculated according to the depth distance data, the first coordinate data, and the azimuth angle of the data collection terminal;
  • Recognition module used to input the first image data into a pre-trained image recognition model, and output first image attribute information corresponding to the first image data;
  • the first processing module is used to locate the area corresponding to the second coordinate data from a pre-created map according to the second coordinate data, extract the second image attribute information corresponding to the second image data in the area, and determine the Whether the first image attribute information is consistent with the second image attribute information;
  • the second processing module is used to calculate the similarity value between the first image data and the second image data by using a similarity algorithm when it is determined that the first image attribute information is consistent with the second image attribute information. If the similarity value is less than or equal to the first preset threshold, it is determined that the object to be tested is abnormal, and feedback information including the first image attribute information and the abnormal state information of the object to be tested is generated and sent to the client.
  • the target anomaly identification method, device, electronic equipment, and storage medium proposed in this application obtain the collected data uploaded by the data collection terminal installed on the vehicle, and calculate the second position coordinate data of the target to be measured according to the collected data, and the first
  • the image data input image recognition model outputs the first image attribute information, finds the area corresponding to the second position coordinate data from the map according to the second position coordinate data, and extracts the second image attribute information corresponding to the second image data on the area, Determine whether it is consistent with the second image attribute information. If they are consistent, calculate the similarity value between the first image data and the second image data. When the similarity value is less than or equal to the first preset threshold, then determine the first image data The corresponding target to be tested is abnormal, and feedback information is generated and sent to the client.
  • This application can achieve timely and comprehensive management and control of road traffic equipment.
  • FIG. 1 is a schematic diagram of the internal structure of an electronic device for implementing a target abnormality recognition method provided by an embodiment of the application;
  • FIG. 2 is a schematic diagram of modules of a target anomaly identification device provided by an embodiment of the application.
  • FIG. 3 is a schematic flowchart of a target anomaly recognition method provided by an embodiment of the application.
  • This application provides a method for identifying target anomalies.
  • FIG. 1 it is a schematic flowchart of a target abnormality recognition method provided by an embodiment of this application.
  • the method can be executed by a device, and the device can be implemented by software and/or hardware.
  • the method for identifying target anomalies includes:
  • this application can be applied to an application scenario based on the crowdsourcing method of the Internet of Vehicles.
  • Crowdsourcing refers to the practice of a company or organization outsourcing tasks previously performed by employees to unspecified (and usually large-scale) public volunteers in a free and voluntary manner.
  • a data collection terminal is installed on each vehicle, and the data collected by all data collection terminals are uploaded to the electronic device 1 to realize data sharing, which has high timeliness, wide range, and collection. The advantage of large quantity.
  • the collected data uploaded by the data collection terminal is acquired through the electronic device 1, and the collected data is processed and analyzed to obtain the target to be measured (such as road markings, signs, traffic isolation and collision avoidance facilities, signal lights, gantry cranes, etc.). , Camera, etc.) of the second coordinate data.
  • the target to be measured such as road markings, signs, traffic isolation and collision avoidance facilities, signal lights, gantry cranes, etc.
  • Camera etc.
  • the collected data includes the depth distance data between the data collection terminal and the target to be measured, the first image data including the target to be measured, the first coordinate data and the azimuth angle of the data collection terminal, and according to the acquired collected data, That is, the depth distance data, the first coordinate data, and the azimuth angle of the data collection terminal are calculated to obtain the second coordinate data of the target to be measured.
  • the first coordinate data is the geodetic longitude and the geodetic latitude of the data collection terminal
  • the second coordinate data is the geodetic longitude and the geodetic latitude of the target to be measured.
  • the data collection terminal includes a binocular camera
  • the depth distance data collection process includes:
  • binocular camera uses Sobel edge features as feature points to match the target images to be measured taken between the two sub-cameras to calculate the visual difference between the two sub-cameras;
  • the predetermined calculation rule calculates the depth distance data according to the calibration parameter and the visual difference.
  • the binocular camera uses the principle of binocular positioning, uses two sub-cameras to locate the target to be measured, and uses two sub-cameras fixed at different positions to capture a feature point on the target to be measured. Measure the image of the target, and obtain the coordinates of the point on the two sub-camera image planes. As long as the precise relative positions of the two sub-cameras are known, the predetermined calculation rules can be used to calculate the coordinates of the feature point in the camera's fixed coordinate system, that is, the depth distance data of the feature point is determined, as described in this embodiment The feature point refers to the target to be tested.
  • the calculation rules are:
  • Z represents the depth distance between the binocular camera and the target to be measured
  • f and B are the calibration parameters
  • f represents the focal length of the binocular camera
  • B represents the center distance between the two sub-cameras
  • X R and X T represent the optical centers of the two sub-cameras
  • X R -X T represent the visual difference.
  • the data collection terminal further includes a GPS processing unit, a mileage encoding unit, and an inertial navigation unit, and the collection process of the first coordinate data and azimuth angle includes:
  • GPS processing unit uses the GPS processing unit to receive the differential signal sent by the differential reference station, output the position information with the first preset accuracy, and send it to the inertial navigation unit;
  • the inertial navigation unit is used to receive the position information and mileage information, and to fuse the position information and mileage information, and output the first position coordinates and azimuth angle of the collection terminal with a second preset accuracy.
  • the second preset accuracy is higher than the first preset accuracy.
  • S120 Input the first image data into a pre-trained image recognition model, and output first image attribute information corresponding to the first image data.
  • a pre-trained image recognition model can be used to recognize the first image attribute information corresponding to the first image data.
  • the first image attribute information represents the name of the target to be measured in the first image data, such as road markings, sign boards, traffic isolation and collision avoidance facilities, signal lights, gantry cranes, cameras, and so on.
  • the image recognition model is obtained by training a Convolutional Neural Network (CNN) model, and the training process of the image recognition model is as follows:
  • the first image data sample in the training set is input to the convolutional neural network model for training, and the verification set is used to verify the convolutional neural network model every preset period (for example, every 1000 iterations) , Verifying the accuracy of the image recognition model by using each piece of first image data in the verification set and the corresponding first image attribute information; and
  • the training is ended, and the image recognition model is obtained.
  • the first preset threshold for example, 85%
  • the corresponding area is found from the pre-created map according to the second coordinate data of the target to be measured, and the second image attribute information corresponding to the second image data on the area is extracted, and the first image attribute is determined by Whether the information is consistent with the second image attribute information can determine whether the data uploaded by the data collection terminal is accurate.
  • the map is an electronic map with higher precision and more data dimensions. Higher accuracy is reflected in the accuracy to the centimeter level, and the data dimension is more reflected in the fact that it includes traffic-related surrounding static information in addition to road information.
  • the map stores a large amount of driving assistance information as structured data, which can be divided into two categories.
  • the first category is road data, such as lane information such as the location, type, width, slope, and curvature of the lane line.
  • the second category is information about fixed objects around the lane, such as traffic signs, traffic lights and other information, lane height limits, sewer crossings, obstacles and other road details, as well as elevated objects, guardrails, number, road edge types, roadsides Infrastructure information such as landmarks.
  • the navigation system can accurately locate terrain, objects and road contours to guide vehicles.
  • the most important of these is the accurate three-dimensional representation of the road network (centimeter-level accuracy), such as the geometric structure of the road surface, the location of road markings, and the point cloud model of the surrounding road environment.
  • the autonomous driving system can accurately confirm its current location by comparing the data of the vehicle's GPS, IMU, LiDAR or camera.
  • the map contains rich semantic information, such as the location and type of traffic lights, the type of road markings, and which roads are available for driving.
  • S140 When it is determined that the first image attribute information is consistent with the second image attribute information, use a similarity algorithm to calculate a similarity value between the first image data and the second image data, and if the similarity value is less than If it is equal to the first preset threshold value, it is determined that the target to be tested is abnormal, and feedback information including the first image attribute information and the abnormal state information of the target to be tested is generated and sent to the client.
  • the similarity algorithm is used to calculate the similarity value between the first image data and the second image data. If the similarity value is less than or equal to the second preset threshold, it is determined that the object to be tested corresponding to the first image data is abnormal (for example, Deformation, breakage, etc.), and generate feedback information and send it to the client to notify the technician to detect and maintain the target that may be abnormal.
  • the feedback information includes the first image attribute information (for example, a telephone pole) and the abnormal state information of the target to be measured (for example, there may be damage).
  • the similarity algorithm is the SURF algorithm, and the SURF (Speeded Up Robust Features) algorithm is an interest point detection and descriptor algorithm similar to SIFT.
  • the second processing step further includes:
  • the similarity value is less than or equal to the second preset threshold and the number of first image data corresponding to the second preset threshold is greater than or equal to the third preset threshold, it is determined that the object to be tested corresponding to the first image data is abnormal.
  • the same target to be tested is verified through data uploaded by multiple data collection terminals.
  • the same target to be tested is verified through data uploaded by multiple data collection terminals.
  • the similarity between each first image data and the corresponding second image data is calculated respectively Value, the statistical similarity value is less than or equal to the second preset threshold (for example, 10), and if the similarity value is less than or equal to the second preset threshold, the number of first image data corresponding to the number is greater than or equal to the third preset threshold.
  • Setting a threshold for example, 7
  • it is determined that the object to be tested corresponding to the first image data is abnormal.
  • FIG. 2 it is a functional block diagram of the target anomaly identification device 100 of the present application.
  • the target anomaly recognition device 100 described in this application can be installed in an electronic device.
  • the target abnormality identification device 100 may include an acquisition module 110, an identification module 120, a first processing module 130, and a second processing module 140.
  • the module described in this application can also be called a unit, which refers to a series of computer program segments that can be executed by the processor of an electronic device and can complete fixed functions, and are stored in the memory of the electronic device.
  • each module/unit is as follows:
  • the acquisition module 110 is configured to acquire the collected data uploaded by the data collection terminal, the collected data including the depth distance data between the data collection terminal and the target to be measured, the first image data containing the target to be measured, and the data collection
  • the first coordinate data of the terminal and the azimuth angle of the data collection terminal are calculated according to the depth distance data, the first coordinate data, and the azimuth angle to obtain the second coordinate data of the target to be measured.
  • this application can be applied to an application scenario based on the crowdsourcing method of the Internet of Vehicles.
  • Crowdsourcing refers to the practice of a company or organization outsourcing tasks previously performed by employees to unspecified (and usually large-scale) public volunteers in a free and voluntary manner.
  • a data collection terminal is installed on each vehicle, and the data collected by all data collection terminals are uploaded to the electronic device 1 to realize data sharing, which has high timeliness, wide range, and collection. The advantage of large quantity.
  • the collected data uploaded by the data collection terminal is acquired through the electronic device 1, and the collected data is processed and analyzed to obtain the target to be measured (such as road markings, signs, traffic isolation and collision avoidance facilities, signal lights, gantry cranes, etc.). , Camera, etc.) of the second coordinate data.
  • the target to be measured such as road markings, signs, traffic isolation and collision avoidance facilities, signal lights, gantry cranes, etc.
  • Camera etc.
  • the collected data includes the depth distance data between the data collection terminal and the target to be measured, the first image data including the target to be measured, the first coordinate data of the data collection terminal, and the azimuth angle of the data collection terminal.
  • the collected data that is, the depth distance data, the first coordinate data and the azimuth angle, are calculated to obtain the second coordinate data of the target to be measured.
  • the first coordinate data is the geodetic longitude and the geodetic latitude of the data collection terminal
  • the second coordinate data is the geodetic longitude and the geodetic latitude of the target to be measured.
  • the data collection terminal includes a binocular camera
  • the depth distance data collection process includes:
  • binocular camera uses Sobel edge features as feature points to match the target images to be measured taken between the two sub-cameras to calculate the visual difference between the two sub-cameras;
  • the depth distance data is calculated according to the calibration parameter and the visual difference value by using a predetermined calculation rule.
  • the binocular camera uses the principle of binocular positioning, uses two sub-cameras to locate the target to be measured, and uses two sub-cameras fixed at different positions to capture a feature point on the target to be measured. Measure the image of the target, and obtain the coordinates of the point on the two sub-camera image planes. As long as the precise relative positions of the two sub-cameras are known, the predetermined calculation rules can be used to calculate the coordinates of the feature point in the camera's fixed coordinate system, that is, the depth distance data of the feature point is determined, as described in this embodiment The feature point refers to the target to be tested.
  • the calculation rules are:
  • Z represents the depth distance between the binocular camera and the target to be measured
  • f and B are the calibration parameters
  • f represents the focal length of the binocular camera
  • B represents the center distance between the two sub-cameras
  • X R and X T represent the optical centers of the two sub-cameras
  • X R -X T represent the visual difference.
  • the data collection terminal further includes a GPS processing unit, a mileage encoding unit, and an inertial navigation unit, and the collection process of the first coordinate data and azimuth angle includes:
  • GPS processing unit uses the GPS processing unit to receive the differential signal sent by the differential reference station, output the position information with the first preset accuracy, and send it to the inertial navigation unit;
  • the inertial navigation unit is used to receive the position information and mileage information, and to fuse the position information and mileage information, and output the first position coordinates and azimuth angle of the collection terminal with a second preset accuracy.
  • the second preset accuracy is higher than the first preset accuracy.
  • the recognition module 120 is configured to input the first image data into a pre-trained image recognition model, and output first image attribute information corresponding to the first image data.
  • a pre-trained image recognition model can be used to recognize the first image attribute information corresponding to the first image data.
  • the first image attribute information represents the name of the target to be measured in the first image data, such as road markings, sign boards, traffic isolation and collision avoidance facilities, signal lights, gantry cranes, cameras, and so on.
  • the image recognition model is obtained by training a Convolutional Neural Network (CNN) model, and the training process of the image recognition model is as follows:
  • the first image data sample in the training set is input to the convolutional neural network model for training, and the verification set is used to verify the convolutional neural network model every preset period (for example, every 1000 iterations) , Verifying the accuracy of the image recognition model by using each piece of first image data in the verification set and the corresponding first image attribute information; and
  • the training is ended, and the image recognition model is obtained.
  • the first preset threshold for example, 85%
  • the first processing module 130 is configured to locate an area corresponding to the second coordinate data from a pre-created map according to the second coordinate data, extract the second image attribute information corresponding to the second image data in the area, and determine Whether the first image attribute information is consistent with the second image attribute information.
  • the corresponding area is found from the pre-created map based on the second coordinate data of the target to be measured, and the second image attribute information corresponding to the second image data on the area is extracted, and the first image attribute is determined Whether the information is consistent with the second image attribute information can determine whether the data uploaded by the data collection terminal is accurate.
  • the map is an electronic map with higher precision and more data dimensions. Higher accuracy is reflected in the accuracy to the centimeter level, and the data dimension is more reflected in the fact that it includes traffic-related surrounding static information in addition to road information.
  • the map stores a large amount of driving assistance information as structured data, which can be divided into two categories.
  • the first category is road data, such as lane information such as the location, type, width, slope, and curvature of the lane line.
  • the second category is information about fixed objects around the lane, such as traffic signs, traffic lights and other information, lane height limits, sewer crossings, obstacles and other road details, as well as elevated objects, guardrails, number, road edge types, roadsides Infrastructure information such as landmarks.
  • the navigation system can accurately locate terrain, objects and road contours to guide vehicles.
  • the most important of these is the accurate three-dimensional representation of the road network (centimeter-level accuracy), such as the geometric structure of the road surface, the location of road markings, and the point cloud model of the surrounding road environment.
  • the autonomous driving system can accurately confirm its current location by comparing the data of the vehicle's GPS, IMU, LiDAR or camera.
  • the map contains rich semantic information, such as the location and type of traffic lights, the type of road markings, and which roads are available for driving.
  • the second processing module 140 is configured to use a similarity algorithm to calculate the similarity value between the first image data and the second image data when it is determined that the first image attribute information is consistent with the second image attribute information, if If the similarity value is less than or equal to the first preset threshold, it is determined that the target to be tested is abnormal, and feedback information including the first image attribute information and the abnormal state information of the target to be tested is generated and sent to the client.
  • the similarity algorithm is used to calculate the similarity value between the first image data and the second image data. If the similarity value is less than or equal to the second preset threshold, it is determined that the object to be tested corresponding to the first image data is abnormal (for example, Deformation, breakage, etc.), and generate feedback information and send it to the client to notify the technician to detect and maintain the target that may be abnormal.
  • the feedback information includes the first image attribute information (for example, a telephone pole) and the abnormal state information of the target to be measured (for example, there may be damage).
  • the similarity algorithm is the SURF algorithm, and the SURF (Speeded Up Robust Features) algorithm is an interest point detection and descriptor algorithm similar to SIFT.
  • the second processing module is also used for:
  • the similarity value is less than or equal to the second preset threshold and the number of first image data corresponding to the second preset threshold is greater than or equal to the third preset threshold, it is determined that the object to be tested corresponding to the first image data is abnormal.
  • the same target to be tested is verified through data uploaded by multiple data collection terminals.
  • the similarity between each first image data and the corresponding second image data is calculated respectively Value, the statistical similarity value is less than or equal to the second preset threshold (for example, 10), if the similarity value is less than or equal to the second preset threshold, the number of the first image data corresponding to the number is greater than or equal to the third If the preset threshold (for example, 7) is set, it is determined that the object to be tested corresponding to the first image data is abnormal.
  • the second preset threshold for example, 10
  • FIG. 3 it is a schematic diagram of the structure of an electronic device that implements the target abnormality identification method of the present application.
  • the electronic device 1 may include a processor 12, a memory 11, and a bus, and may also include a computer program stored in the memory 11 and running on the processor 12, such as a target abnormality recognition program 10.
  • the memory 11 includes at least one type of readable storage medium.
  • the computer-usable storage medium may mainly include a storage program area and a storage data area.
  • the storage program area may store an operating system and at least one function required Applications, etc.; the data storage area can store data created based on the use of blockchain nodes, etc.
  • the readable storage medium includes flash memory, mobile hard disk, multimedia card, card-type memory (for example: SD or DX memory, etc.), magnetic memory, magnetic disk, optical disk, etc.
  • the memory 11 may be an internal storage unit of the electronic device 1 in some embodiments, for example, a mobile hard disk of the electronic device 1.
  • the memory 11 may also be an external storage device of the electronic device 1, such as a plug-in mobile hard disk, a smart media card (SMC), and a secure digital (Secure Digital) equipped on the electronic device 1. , SD) card, flash card (Flash Card), etc. Further, the memory 11 may also include both an internal storage unit of the electronic device 1 and an external storage device. The memory 11 can be used not only to store application software and various data installed in the electronic device 1, such as the code of the target abnormality recognition program 10, etc., but also to temporarily store data that has been output or will be output.
  • the processor 12 may be composed of integrated circuits in some embodiments, for example, may be composed of a single packaged integrated circuit, or may be composed of multiple integrated circuits with the same function or different functions, including one or more Combinations of central processing unit (CPU), microprocessor, digital processing chip, graphics processor, and various control chips, etc.
  • the processor 12 is the control unit of the electronic device, which uses various interfaces and lines to connect the various components of the entire electronic device, and runs or executes programs or modules (such as target modules) stored in the memory 11 An abnormality recognition program, etc.), and call data stored in the memory 11 to execute various functions of the electronic device 1 and process data.
  • the bus may be a peripheral component interconnect standard (PCI) bus or an extended industry standard architecture (EISA) bus, etc.
  • PCI peripheral component interconnect standard
  • EISA extended industry standard architecture
  • the bus can be divided into address bus, data bus, control bus and so on.
  • the bus is configured to implement connection and communication between the memory 11 and at least one processor 12 and the like.
  • FIG. 3 only shows an electronic device with components. Those skilled in the art can understand that the structure shown in FIG. 3 does not constitute a limitation on the electronic device 1, and may include fewer or more components than shown in the figure. Components, or a combination of certain components, or different component arrangements.
  • the electronic device 1 may also include a power source (such as a battery) for supplying power to various components.
  • the power source may be logically connected to the at least one processor 12 through a power management device, thereby controlling power
  • the device implements functions such as charge management, discharge management, and power consumption management.
  • the power supply may also include any components such as one or more DC or AC power supplies, recharging devices, power failure detection circuits, power converters or inverters, and power status indicators.
  • the electronic device 1 may also include various sensors, Bluetooth modules, Wi-Fi modules, etc., which will not be repeated here.
  • the electronic device 1 may also include a network interface 13.
  • the network interface 13 may include a wired interface and/or a wireless interface (such as a WI-FI interface, a Bluetooth interface, etc.), which is usually used in the The electronic device 1 establishes a communication connection with other electronic devices.
  • the electronic device 1 may also include a user interface.
  • the user interface may be a display (Display) and an input unit (such as a keyboard (Keyboard)).
  • the user interface may also be a standard wired interface or a wireless interface.
  • the display may be an LED display, a liquid crystal display, a touch-sensitive liquid crystal display, an OLED (Organic Light-Emitting Diode, organic light-emitting diode) touch device, etc.
  • the display can also be appropriately called a display screen or a display unit, which is used to display the information processed in the electronic device 1 and to display a visualized user interface.
  • the target abnormality recognition program 10 stored in the memory 11 in the electronic device 1 is a combination of multiple instructions. When running in the processor 12, it can realize:
  • Acquisition step acquiring acquisition data uploaded by a data acquisition terminal, the acquisition data including depth distance data between the data acquisition terminal and the target to be measured, the first image data containing the target to be measured, and the first image data of the data acquisition terminal Coordinate data and the azimuth angle of the data collection terminal, and calculate the second coordinate data of the target to be measured according to the depth distance data, the first coordinate data, and the azimuth angle of the data collection terminal;
  • Recognition step input the first image data into a pre-trained image recognition model, and output first image attribute information corresponding to the first image data;
  • the first processing step locate the area corresponding to the second coordinate data from a pre-created map according to the second coordinate data, extract the second image attribute information corresponding to the second image data in the area, and determine the first Whether the image attribute information is consistent with the second image attribute information;
  • the second processing step when it is determined that the first image attribute information is consistent with the second image attribute information, the similarity algorithm is used to calculate the similarity value between the first image data and the second image data. If the degree value is less than or equal to the first preset threshold, it is determined that the target to be tested is abnormal, and feedback information including the first image attribute information and the abnormal state information of the target to be tested is generated and sent to the client.
  • the program further executes the following steps:
  • the similarity value is less than or equal to the second preset threshold and the number of first image data corresponding to the second preset threshold is greater than or equal to the third preset threshold, it is determined that the object to be tested corresponding to the first image data is abnormal.
  • the collected data can also be stored in a node of a blockchain.
  • the integrated module/unit of the electronic device 1 is implemented in the form of a software functional unit and sold or used as an independent product, it can be stored in a computer readable storage medium.
  • the computer-readable medium may include: any entity or device capable of carrying the computer program code, recording medium, U disk, mobile hard disk, magnetic disk, optical disk, computer memory, read-only memory (ROM, Read-Only Memory) .
  • the computer-readable storage medium may be non-volatile or volatile.
  • modules described as separate components may or may not be physically separated, and the components displayed as modules may or may not be physical units, that is, they may be located in one place, or they may be distributed on multiple network units. Some or all of the modules can be selected according to actual needs to achieve the objectives of the solutions of the embodiments.
  • the functional modules in the various embodiments of the present application may be integrated into one processing unit, or each unit may exist alone physically, or two or more units may be integrated into one unit.
  • the above-mentioned integrated unit may be implemented in the form of hardware, or may be implemented in the form of hardware plus software functional modules.
  • the blockchain referred to in this application is a new application mode of computer technology such as distributed data storage, point-to-point transmission, consensus mechanism, and encryption algorithm.
  • Blockchain essentially a decentralized database, is a series of data blocks associated with cryptographic methods. Each data block contains a batch of network transaction information for verification. The validity of the information (anti-counterfeiting) and the generation of the next block.
  • the blockchain can include the underlying platform of the blockchain, the platform product service layer, and the application service layer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

一种目标异常识别方法,涉及人工智能,应用于电子设备,方法包括根据采集数据计算待测目标的第二位置坐标数据(S110),将第一图像数据输入图像识别模型输出第一图像属性信息(S120),根据第二位置坐标数据从地图上找到与第二位置坐标数据对应的区域,提取该区域上的第二图像数据对应的第二图像属性信息,判断与第二图像属性信息是否一致(S130),若一致则计算第一图像数据与第二图像数据之间的相似度值,当相似度值小于或等于第一预设阈值时,则判断第一图像数据对应的待测目标存在异常,并生成反馈信息发送至客户端(S140)。此外,还涉及区块链技术,数据采集终端上传的采集数据可存储于区块链节点中。目标异常识别方法能够对道路交通设备做到及时、全面的管控。

Description

目标异常识别方法、装置、电子设备及存储介质
本申请要求于2020年04月30日提交中国专利局、申请号为202010359984.8、发明名称为“目标异常识别方法、装置、电子设备及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在申请中。
技术领域
本申请涉及人工智能技术领域,尤其涉及一种目标异常识别方法、装置、电子设备及存储介质。
背景技术
随着我国交通行业的飞速发展,道路上成千上万的交通设备(道路标线、标志牌、交通隔离和防撞设施、信号灯、龙门吊、摄像机等等)都需要做到精准运维管理,而目前在这方面主要采用人工取证维护,整个过程对交通设备数据的采集全靠人工参与,由巡查人员地毯式的道路巡查,对损坏的道路交通设备进行人工取证,用手持终端拍照上传系统。发明人意识到采用该方式容易遗漏部分出现损坏的道路交通设备,造成损坏的道路交通设备长时间无人维护。且采用该方式难以做到及时管控道路交通设备的情况。因此如何对道路交通设备做到及时、全面的管控成为了亟需解决的技术问题。
发明内容
本申请的主要目的在于提供一种目标异常识别方法、装置、电子设备及存储介质,旨在如何对道路交通设备做到及时、全面的管控的问题。
为实现上述目的,本申请提供的一种目标异常识别方法,应用于电子设备,该方法包括:
获取步骤:获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及数据采集终端的方位角计算得到所述待测目标的第二坐标数据;
识别步骤:将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像数据对应的第一图像属性信息;
第一处理步骤:根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致;及
第二处理步骤:当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
此外,为实现上述目的,本申请还提供一种电子装置,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的目标异常识别程序,所述目标异常识别程序被所述处理器执行时实现如下步骤:
获取步骤:获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及数据采集终端的方位角计算得到所述待测目标的第二坐标数据;
识别步骤:将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像 数据对应的第一图像属性信息;
第一处理步骤:根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致;及
第二处理步骤:当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
此外,为实现上述目的,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有目标异常识别程序,所述目标异常识别程序可被一个或者多个处理器执行,以实现如下所述的目标异常识别方法的步骤:
获取步骤:获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及方位角计算得到所述待测目标的第二坐标数据;
识别步骤:将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像数据对应的第一图像属性信息;
第一处理步骤:根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致;及
第二处理步骤:当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
此外,为实现上述目的,本申请还提供一种目标异常识别装置,所述目标异常识别装置包括:
获取模块:用于获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及数据采集终端的方位角计算得到所述待测目标的第二坐标数据;
识别模块:用于将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像数据对应的第一图像属性信息;
第一处理模块:用于根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致;及
第二处理模块:用于当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
本申请提出的目标异常识别方法、装置、电子设备及存储介质,通过获取安装于车辆上的数据采集终端上传的采集数据,根据采集数据计算得到待测目标的第二位置坐标数据,将第一图像数据输入图像识别模型输出第一图像属性信息,根据第二位置坐标数据从地图上找到与第二位置坐标数据对应的区域,提取该区域上的第二图像数据对应的第二图像属性信息,判断与第二图像属性信息是否一致,若一致则计算第一图像数据与第二图像数据之间的相似度值,当相似度值小于或等于第一预设阈值时,则判断第一图像数据对应的待 测目标存在异常,并生成反馈信息发送至客户端。本申请能够对道路交通设备做到及时、全面的管控。
附图说明
图1为本申请一实施例提供的实现目标异常识别方法的电子设备的内部结构示意图;
图2为本申请一实施例提供的目标异常识别装置的模块示意图;
图3为本申请一实施例提供的目标异常识别方法的流程示意图。
本申请目的的实现、功能特点及优点将结合实施例,参附图做进一步说明。
具体实施方式
为了使本申请的目的、技术本实施例及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,在本申请中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术本实施例可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术本实施例的结合出现相互矛盾或无法实现时应当认为这种技术本实施例的结合不存在,也不在本申请要求的保护范围之内。
本申请提供一种目标异常识别方法。参照图1所示,为本申请一实施例提供的目标异常识别方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,目标异常识别方法包括:
S110,获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及数据采集终端的方位角计算得到所述待测目标的第二坐标数据。
举例来说,本申请可以应用于一个基于车联网众包方式的应用场景。众包指的是一个公司或机构把过去由员工执行的工作任务,以自由自愿的形式外包给非特定的(而且通常是大型的)大众志愿者的做法。利用众包的概念,结合车联网技术,在每辆车上分别安装数据采集终端,并将所有数据采集终端采集的数据上传电子设备1实现在数据共享,具有在时效性高、范围广、采集量大的优点。
在本实施例中,通过电子设备1获取数据采集终端上传的采集数据,并对采集数据进行数据处理分析得到待测目标(例如道路标线、标志牌、交通隔离和防撞设施、信号灯、龙门吊、摄像机等等)的第二坐标数据。需要强调的是,为进一步保证上述采集数据的私密和安全性,上述采集数据还可以存储于一区块链的节点中。
其中,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含待测目标的第一图像数据、数据采集终端的第一坐标数据及方位角,根据获取到的采集数据,即深度距离数据、第一坐标数据及数据采集终端的方位角通过计算得到待测目标的第二坐标数据。
所述第一坐标数据为数据采集终端的大地经度及大地纬度,第二坐标数据为待测目标的大地经度及大地纬度。通过第一坐标数据及方位角,利用大地主题算法可计算出待测目标的第二坐标数据。
具体地,所述数据采集终端包括双目相机,所述深度距离数据的采集过程包括:
利用所述双目相机从不同角度拍摄标定物,根据拍摄的标定物图像对双目相机的两个子相机进行标定,计算得出标定参数;
利用所述双目相机拍摄所述待测目标,采用Sobel边缘特征作为特征点对两个子相机之间所拍摄的待测目标图像进行匹配,以计算出两个子相机之间的视觉差值;
预先确定的计算规则根据所述标定参数及视觉差值计算得出所述深度距离数据。
在本实施例中,所述双目相机利用双目定位的原理,采用两个子相机来对待测目标进行定位,对待测目标上的一个特征点,用两个固定于不同位置的子相机拍摄待测目标的图像,分别获得该点在两个子相机图像平面上的坐标。只要知道两个子相机精确的相对位置,就可利用预先确定的计算规则计算得到该特征点在相机固定的坐标系中的坐标,即确定了特征点的深度距离数据,在本实施例中所述特征点指的是待测目标。
所述计算规则为:
Figure PCTCN2020099068-appb-000001
Z表示所述双目相机与所述待测目标之间的深度距离,f、B为所述标定参数,f表示所述双目相机的焦距,B表示所述两个子相机之间的中心距,X R与X T表示所述两个子相机的光心,X R-X T表示视觉差值。
进一步地,所述数据采集终端还包括GPS处理单元、里程编码单元及惯性导航单元,所述第一坐标数据及方位角的采集过程包括:
利用所述GPS处理单元接收由差分基准站发送的差分信号,输出第一预设精度的位置信息,并发送给所述惯性导航单元;
利用所述里程编码单元获取车辆的里程信息,并发送给所述惯性导航单元;
利用所述惯性导航单元接收所述位置信息及里程信息,并对所述位置信息及里程信息进行融合,输出第二预设精度的所述采集终端的第一位置坐标及方位角,其中,所述第二预设精度高于所述第一预设精度。
S120,将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像数据对应的第一图像属性信息。
在本实施例中,利用预先训练的图像识别模型能够识别出第一图像数据对应的第一图像属性信息。
其中,所述第一图像属性信息代表第一图像数据中待测目标的名称,例如道路标线、标志牌、交通隔离和防撞设施、信号灯、龙门吊、摄像机等等。
所述图像识别模型由卷积神经网络(Convolutional Neural Network,CNN)模型训练得到,所述图像识别模型的训练过程如下:
获取预设数量(例如10万)的第一图像数据样本,每张第一图像数据样本中标注有对应的第一图像属性信息;
将所述第一图像数据样本按照预设比例(例如5:1)分成训练集和验证集,所述训练集中的第一图像数据样本数量大于所述验证集中的第一图像数据样本数量;
将所述训练集中的第一图像数据样本输入所述卷积神经网络模型进行训练,每隔预设周期(例如每进行1000次迭代)使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各张第一图像数据和对应的第一图像属性信息对该图像识别模型的准确率进行验证;及
当验证的准确率大于第一预设阈值(例如85%)时,结束训练,得到所述图像识别模型。
S130,根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致。
在本实施例中,根据待测目标的第二坐标数据从预先创建的地图上找到对应的区域,并提取该区域上的第二图像数据对应的第二图像属性信息,通过判断第一图像属性信息与 第二图像属性信息是否一致能够得出数据采集终端上传的数据是否准确。
所述地图是精度更高、数据维度更多的电子地图。精度更高体现在精确到厘米级别,数据维度更多体现在其包括了除道路信息之外的与交通相关的周围静态信息。
地图将大量的行车辅助信息存储为结构化数据,这些信息可以分为两类。第一类是道路数据,比如车道线的位置、类型、宽度、坡度和曲率等车道信息。第二类是车道周边的固定对象信息,比如交通标志、交通信号灯等信息、车道限高、下水道口、障碍物及其他道路细节,还包括高架物体、防护栏、数目、道路边缘类型、路边地标等基础设施信息。
以上这些信息都有地理编码,导航系统可以准确定位地形、物体和道路轮廓,从而引导车辆行驶。其中最重要的是对路网精确的三维表征(厘米级精度),比如路面的几何结构、道路标示线的位置、周边道路环境的点云模型等。有了这些高精度的三维表征,自动驾驶系统可以通过比对车载的GPS、IMU、LiDAR或摄像头的数据精确确认自己当前的位置。另外,地图中包含有丰富的语义信息,比如交通信号灯的位置和类型、道路标示线的类型、以及哪些路面是可以行驶等。
S140,当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
在本实施例中,当判断第一图像属性信息与第二图像属性信息一致时,例如第一图像属性信息与第二图像属性信息均为电线杆,则说明数据采集终端上传你的数据属实。接着利用相似度算法计算第一图像数据与第二图像数据之间的相似度值,若相似度值小于或等于第二预设阈值,则判断第一图像数据对应的待测目标存在异常(例如变形、折断等),并生成反馈信息发送至客户端,通知技术人员对可能存在异常的待测目标进行检测维护。
反馈信息包括第一图像属性信息(例如电线杆)及待测目标的异常状态信息(例如可能存在损坏)。
所述相似度算法为SURF算法,SURF(Speeded Up Robust Features)算法是一种类似于SIFT的兴趣点检测及描述子算法。
进一步地,所述第二处理步骤还包括:
获取预设数量的由不同数据采集终端上传的具有相同第二坐标数据的第一图像数据;
分别计算每个所述第一图像数据与其对应的第二图像数据之间的相似度值,统计所述相似度值小于或等于第二预设阈值的个数;及
若所述相似度值小于或等于第二预设阈值对应的第一图像数据个数大于或等于第三预设阈值,则判断所述第一图像数据对应的待测目标存在异常。
为了验证待测目标是否存在异常的准确性,因此,在本实施例中,通过多个数据采集终端上传的数据对同一待测目标进行验证。
为了验证待测目标是否存在异常的准确性,因此,在本实施例中,通过多个数据采集终端上传的数据对同一待测目标进行验证。
具体地,通过获取预设数量(例如10)不同数据采集终端上传的具有相同第二坐标数据的第一图像数据,分别计算每个第一图像数据与对应的第二图像数据之间的相似度值,统计相似度值小于或等于第二预设阈值(例如10)的个数,若所述相似度值小于或等于第二预设阈值对应的第一图像数据个数大于或等于第三预设阈值(例如7),则判断第一图像数据对应的待测目标存在异常。
关于上述步骤的详细介绍,请参照下述图2关于目标异常识别程序10实施例的程序模块示意图及图3关于目标异常识别方法实施例的方法流程示意图的说明。
如图2所示,是本申请目标异常识别装置100的功能模块图。
本申请所述目标异常识别装置100可以安装于电子设备中。根据实现的功能,所述目 标异常识别装置100可以包括获取模块110、识别模块120、第一处理模块130及第二处理模块140。本申请所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
获取模块110,用于获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及方位角计算得到所述待测目标的第二坐标数据。
举例来说,本申请可以应用于一个基于车联网众包方式的应用场景。众包指的是一个公司或机构把过去由员工执行的工作任务,以自由自愿的形式外包给非特定的(而且通常是大型的)大众志愿者的做法。利用众包的概念,结合车联网技术,在每辆车上分别安装数据采集终端,并将所有数据采集终端采集的数据上传电子设备1实现在数据共享,具有在时效性高、范围广、采集量大的优点。
在本实施例中,通过电子设备1获取数据采集终端上传的采集数据,并对采集数据进行数据处理分析得到待测目标(例如道路标线、标志牌、交通隔离和防撞设施、信号灯、龙门吊、摄像机等等)的第二坐标数据。需要强调的是,为进一步保证上述采集数据的私密和安全性,上述采集数据还可以存储于一区块链的节点中。
其中,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含待测目标的第一图像数据、数据采集终端的第一坐标数据及数据采集终端的方位角,根据获取到的采集数据,即深度距离数据、第一坐标数据及方位角通过计算得到待测目标的第二坐标数据。
所述第一坐标数据为数据采集终端的大地经度及大地纬度,第二坐标数据为待测目标的大地经度及大地纬度。通过第一坐标数据及数据采集终端的方位角,利用大地主题算法可计算出待测目标的第二坐标数据。
具体地,所述数据采集终端包括双目相机,所述深度距离数据的采集过程包括:
利用所述双目相机从不同角度拍摄标定物,根据拍摄的标定物图像对双目相机的两个子相机进行标定,计算得出标定参数;
利用所述双目相机拍摄所述待测目标,采用Sobel边缘特征作为特征点对两个子相机之间所拍摄的待测目标图像进行匹配,以计算出两个子相机之间的视觉差值;
利用预先确定的计算规则根据所述标定参数及视觉差值计算得出所述深度距离数据。
在本实施例中,所述双目相机利用双目定位的原理,采用两个子相机来对待测目标进行定位,对待测目标上的一个特征点,用两个固定于不同位置的子相机拍摄待测目标的图像,分别获得该点在两个子相机图像平面上的坐标。只要知道两个子相机精确的相对位置,就可利用预先确定的计算规则计算得到该特征点在相机固定的坐标系中的坐标,即确定了特征点的深度距离数据,在本实施例中所述特征点指的是待测目标。
所述计算规则为:
Figure PCTCN2020099068-appb-000002
Z表示所述双目相机与所述待测目标之间的深度距离,f、B为所述标定参数,f表示所述双目相机的焦距,B表示所述两个子相机之间的中心距,X R与X T表示所述两个子相机的光心,X R-X T表示视觉差值。
进一步地,所述数据采集终端还包括GPS处理单元、里程编码单元及惯性导航单元,所述第一坐标数据及方位角的采集过程包括:
利用所述GPS处理单元接收由差分基准站发送的差分信号,输出第一预设精度的位置信息,并发送给所述惯性导航单元;
利用所述里程编码单元获取车辆的里程信息,并发送给所述惯性导航单元;
利用所述惯性导航单元接收所述位置信息及里程信息,并对所述位置信息及里程信息进行融合,输出第二预设精度的所述采集终端的第一位置坐标及方位角,其中,所述第二预设精度高于所述第一预设精度。
识别模块120,用于将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像数据对应的第一图像属性信息。
在本实施例中,利用预先训练的图像识别模型能够识别出第一图像数据对应的第一图像属性信息。
其中,所述第一图像属性信息代表第一图像数据中待测目标的名称,例如道路标线、标志牌、交通隔离和防撞设施、信号灯、龙门吊、摄像机等等。
所述图像识别模型由卷积神经网络(Convolutional Neural Network,CNN)模型训练得到,所述图像识别模型的训练过程如下:
获取预设数量(例如10万)的第一图像数据样本,每张第一图像数据样本中标注有对应的第一图像属性信息;
将所述第一图像数据样本按照预设比例(例如5:1)分成训练集和验证集,所述训练集中的第一图像数据样本数量大于所述验证集中的第一图像数据样本数量;
将所述训练集中的第一图像数据样本输入所述卷积神经网络模型进行训练,每隔预设周期(例如每进行1000次迭代)使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各张第一图像数据和对应的第一图像属性信息对该图像识别模型的准确率进行验证;及
当验证的准确率大于第一预设阈值(例如85%)时,结束训练,得到所述图像识别模型。
第一处理模块130,用于根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致。
在本实施例中,根据待测目标的第二坐标数据从预先创建的地图上找到对应的区域,并提取该区域上的第二图像数据对应的第二图像属性信息,通过判断第一图像属性信息与第二图像属性信息是否一致能够得出数据采集终端上传的数据是否准确。
所述地图是精度更高、数据维度更多的电子地图。精度更高体现在精确到厘米级别,数据维度更多体现在其包括了除道路信息之外的与交通相关的周围静态信息。
地图将大量的行车辅助信息存储为结构化数据,这些信息可以分为两类。第一类是道路数据,比如车道线的位置、类型、宽度、坡度和曲率等车道信息。第二类是车道周边的固定对象信息,比如交通标志、交通信号灯等信息、车道限高、下水道口、障碍物及其他道路细节,还包括高架物体、防护栏、数目、道路边缘类型、路边地标等基础设施信息。
以上这些信息都有地理编码,导航系统可以准确定位地形、物体和道路轮廓,从而引导车辆行驶。其中最重要的是对路网精确的三维表征(厘米级精度),比如路面的几何结构、道路标示线的位置、周边道路环境的点云模型等。有了这些高精度的三维表征,自动驾驶系统可以通过比对车载的GPS、IMU、LiDAR或摄像头的数据精确确认自己当前的位置。另外,地图中包含有丰富的语义信息,比如交通信号灯的位置和类型、道路标示线的类型、以及哪些路面是可以行驶等。
第二处理模块140,用于当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
在本实施例中,当判断第一图像属性信息与第二图像属性信息一致时,例如第一图像 属性信息与第二图像属性信息均为电线杆,则说明数据采集终端上传你的数据属实。接着利用相似度算法计算第一图像数据与第二图像数据之间的相似度值,若相似度值小于或等于第二预设阈值,则判断第一图像数据对应的待测目标存在异常(例如变形、折断等),并生成反馈信息发送至客户端,通知技术人员对可能存在异常的待测目标进行检测维护。
反馈信息包括第一图像属性信息(例如电线杆)及待测目标的异常状态信息(例如可能存在损坏)。
所述相似度算法为SURF算法,SURF(Speeded Up Robust Features)算法是一种类似于SIFT的兴趣点检测及描述子算法。
进一步地,所述第二处理模块还用于:
获取预设数量的由不同数据采集终端上传的具有相同第二坐标数据的第一图像数据;
分别计算每个所述第一图像数据与其对应的第二图像数据之间的相似度值,统计所述相似度值小于或等于第二预设阈值的个数;及
若所述相似度值小于或等于第二预设阈值对应的第一图像数据个数大于或等于第三预设阈值,则判断所述第一图像数据对应的待测目标存在异常。
为了验证待测目标是否存在异常的准确性,因此,在本实施例中,通过多个数据采集终端上传的数据对同一待测目标进行验证。
具体地,通过获取预设数量(例如10)不同数据采集终端上传的具有相同第二坐标数据的第一图像数据,分别计算每个第一图像数据与对应的第二图像数据之间的相似度值,统计相似度值小于或等于第二预设阈值(例如10)的个数,若若所述相似度值小于或等于第二预设阈值对应的第一图像数据个数大于或等于第三预设阈值(例如7),则判断第一图像数据对应的待测目标存在异常。
如图3所示,是本申请实现目标异常识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器12、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器12上运行的计算机程序,如目标异常识别程序10。
其中,所述存储器11至少包括一种类型的可读存储介质,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如目标异常识别程序10的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器12在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器12是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如目标异常识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总 线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器12等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器12逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口13,可选地,所述网络接口13可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的目标异常识别程序10是多个指令的组合,在所述处理器12中运行时,可以实现:
获取步骤:获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及数据采集终端的方位角计算得到所述待测目标的第二坐标数据;
识别步骤:将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像数据对应的第一图像属性信息;
第一处理步骤:根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致;及
第二处理步骤:当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
在另一实施例中,该程序还执行以下步骤:
获取预设数量的由不同数据采集终端上传的具有相同第二坐标数据的第一图像数据;
分别计算每个所述第一图像数据与其对应的第二图像数据之间的相似度值,统计所述相似度值小于或等于第二预设阈值的个数;及
若所述相似度值小于或等于第二预设阈值对应的第一图像数据个数大于或等于第三预设阈值,则判断所述第一图像数据对应的待测目标存在异常。
具体地,所述处理器11对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。需要强调的是,为进一步保证上述采集数据的私密和安全性,上述采集数据还可以存储于一区块链的节点中。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。所述计算机可读存储介质可以是非易失性,也可以是易失性。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本申请的技术方案而非限制,尽管参照较佳实施例对本申请进行了详细说明,本领域的普通技术人员应当理解,可以对本申请的技术方案进行修改或等同替换,而不脱离本申请技术方案的精神和范围。

Claims (20)

  1. 一种目标异常识别方法,应用于电子设备,其中,该方法包括:
    获取步骤:获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及方位角计算得到所述待测目标的第二坐标数据;
    识别步骤:将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像数据对应的第一图像属性信息;
    第一处理步骤:根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致;及
    第二处理步骤:当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
  2. 如权利要求1所述的目标异常识别方法,其中,所述数据采集终端包括双目相机,所述深度距离数据的采集过程包括:
    利用所述双目相机从不同角度拍摄标定物,根据拍摄的标定物图像对双目相机的两个子相机进行标定,计算得出标定参数;
    利用所述双目相机拍摄所述待测目标,采用Sobel边缘特征作为特征点对两个子相机之间所拍摄的待测目标图像进行匹配,以计算出两个子相机之间的视觉差值;及
    预先确定的计算规则根据所述标定参数及视觉差值计算得出所述深度距离数据。
  3. 如权利要求2所述的目标异常识别方法,其中,所述计算规则为:
    Figure PCTCN2020099068-appb-100001
    Z表示所述双目相机与所述待测目标之间的深度距离,f、B为所述标定参数,f表示所述双目相机的焦距,B表示所述两个子相机之间的中心距,X R与X T表示所述两个子相机的光心,X R-X T表示视觉差值。
  4. 如权利要求1所述的目标异常识别方法,其中,所述数据采集终端还包括GPS处理单元、里程编码单元及惯性导航单元,所述第一坐标数据及方位角的采集过程包括:
    利用所述GPS处理单元接收由差分基准站发送的差分信号,输出第一预设精度的位置信息,并发送给所述惯性导航单元;
    利用所述里程编码单元获取车辆的里程信息,并发送给所述惯性导航单元;及
    利用所述惯性导航单元接收所述位置信息及里程信息,并对所述位置信息及里程信息进行融合,输出第二预设精度的所述采集终端的第一位置坐标及方位角,其中,所述第二预设精度高于所述第一预设精度。
  5. 如权利要求1所述的目标异常识别方法,其中,所述图像识别模型由卷积神经网络模型训练得到,所述图像识别模型的训练过程如下:
    获取预设数量的第一图像数据样本,每张第一图像数据样本中标注有对应的第一图像属性信息;
    将所述第一图像数据样本按照预设比例分成训练集和验证集,所述训练集中的第一图像数据样本数量大于所述验证集中的第一图像数据样本数量;
    将所述训练集中的第一图像数据样本输入所述卷积神经网络模型进行训练,每隔预设周期使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各张第一图像 数据和对应的第一图像属性信息对该图像识别模型的准确率进行验证;及
    当验证的准确率大于第一预设阈值时,结束训练,得到所述图像识别模型。
  6. 如权利要求1所述的目标异常识别方法,其中,所述采集数据存储于区块链中,所述第二处理步骤还包括:
    获取预设数量的由不同数据采集终端上传的具有相同第二坐标数据的第一图像数据;
    分别计算每个所述第一图像数据与其对应的第二图像数据之间的相似度值,统计所述相似度值小于或等于第二预设阈值的个数;及
    若所述相似度值小于或等于第二预设阈值对应的第一图像数据个数大于或等于第三预设阈值,则判断所述第一图像数据对应的待测目标存在异常。
  7. 一种电子装置,其中,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的目标异常识别程序,所述目标异常识别程序被所述处理器执行时实现如下步骤:
    获取步骤:获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及数据采集终端的方位角计算得到所述待测目标的第二坐标数据;
    识别步骤:将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像数据对应的第一图像属性信息;
    第一处理步骤:根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致;及
    第二处理步骤:当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
  8. 如权利要求7所述的电子装置,其中,所述数据采集终端包括双目相机,所述深度距离数据的采集过程包括:
    利用所述双目相机从不同角度拍摄标定物,根据拍摄的标定物图像对双目相机的两个子相机进行标定,计算得出标定参数;
    利用所述双目相机拍摄所述待测目标,采用Sobel边缘特征作为特征点对两个子相机之间所拍摄的待测目标图像进行匹配,以计算出两个子相机之间的视觉差值;及
    预先确定的计算规则根据所述标定参数及视觉差值计算得出所述深度距离数据。
  9. 如权利要求8所述的电子装置,其中,所述计算规则为:
    Figure PCTCN2020099068-appb-100002
    Z表示所述双目相机与所述待测目标之间的深度距离,f、B为所述标定参数,f表示所述双目相机的焦距,B表示所述两个子相机之间的中心距,X R与X T表示所述两个子相机的光心,X R-X T表示视觉差值。
  10. 如权利要求7所述的电子装置,其中,所述数据采集终端还包括GPS处理单元、里程编码单元及惯性导航单元,所述第一坐标数据及方位角的采集过程包括:
    利用所述GPS处理单元接收由差分基准站发送的差分信号,输出第一预设精度的位置信息,并发送给所述惯性导航单元;
    利用所述里程编码单元获取车辆的里程信息,并发送给所述惯性导航单元;及
    利用所述惯性导航单元接收所述位置信息及里程信息,并对所述位置信息及里程信息进行融合,输出第二预设精度的所述采集终端的第一位置坐标及方位角,其中,所述第 二预设精度高于所述第一预设精度。
  11. 如权利要求7所述的电子装置,其中,所述图像识别模型由卷积神经网络模型训练得到,所述图像识别模型的训练过程如下:
    获取预设数量的第一图像数据样本,每张第一图像数据样本中标注有对应的第一图像属性信息;
    将所述第一图像数据样本按照预设比例分成训练集和验证集,所述训练集中的第一图像数据样本数量大于所述验证集中的第一图像数据样本数量;
    将所述训练集中的第一图像数据样本输入所述卷积神经网络模型进行训练,每隔预设周期使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各张第一图像数据和对应的第一图像属性信息对该图像识别模型的准确率进行验证;及
    当验证的准确率大于第一预设阈值时,结束训练,得到所述图像识别模型。
  12. 如权利要求7所述的电子装置,其中,所述采集数据存储于区块链中,所述第二处理步骤还包括:
    获取预设数量的由不同数据采集终端上传的具有相同第二坐标数据的第一图像数据;
    分别计算每个所述第一图像数据与其对应的第二图像数据之间的相似度值,统计所述相似度值小于或等于第二预设阈值的个数;及
    若所述相似度值小于或等于第二预设阈值对应的第一图像数据个数大于或等于第三预设阈值,则判断所述第一图像数据对应的待测目标存在异常。
  13. 一种计算机可读存储介质,其中,所述计算机可读存储介质上存储有目标异常识别程序,所述目标异常识别程序可被一个或者多个处理器执行,以实现如下所述的目标异常识别方法的步骤:
    获取步骤:获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及方位角计算得到所述待测目标的第二坐标数据;
    识别步骤:将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像数据对应的第一图像属性信息;
    第一处理步骤:根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致;及
    第二处理步骤:当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
  14. 如权利要求13所述的计算机可读存储介质,其中,所述数据采集终端包括双目相机,所述深度距离数据的采集过程包括:
    利用所述双目相机从不同角度拍摄标定物,根据拍摄的标定物图像对双目相机的两个子相机进行标定,计算得出标定参数;
    利用所述双目相机拍摄所述待测目标,采用Sobel边缘特征作为特征点对两个子相机之间所拍摄的待测目标图像进行匹配,以计算出两个子相机之间的视觉差值;及
    预先确定的计算规则根据所述标定参数及视觉差值计算得出所述深度距离数据。
  15. 如权利要求14所述的计算机可读存储介质,其中,所述计算规则为:
    Figure PCTCN2020099068-appb-100003
    Z表示所述双目相机与所述待测目标之间的深度距离,f、B为所述标定参数,f表示 所述双目相机的焦距,B表示所述两个子相机之间的中心距,X R与X T表示所述两个子相机的光心,X R-X T表示视觉差值。
  16. 如权利要求13所述的计算机可读存储介质,其中,所述数据采集终端还包括GPS处理单元、里程编码单元及惯性导航单元,所述第一坐标数据及方位角的采集过程包括:
    利用所述GPS处理单元接收由差分基准站发送的差分信号,输出第一预设精度的位置信息,并发送给所述惯性导航单元;
    利用所述里程编码单元获取车辆的里程信息,并发送给所述惯性导航单元;及
    利用所述惯性导航单元接收所述位置信息及里程信息,并对所述位置信息及里程信息进行融合,输出第二预设精度的所述采集终端的第一位置坐标及方位角,其中,所述第二预设精度高于所述第一预设精度。
  17. 如权利要求13所述的计算机可读存储介质,其中,所述图像识别模型由卷积神经网络模型训练得到,所述图像识别模型的训练过程如下:
    获取预设数量的第一图像数据样本,每张第一图像数据样本中标注有对应的第一图像属性信息;
    将所述第一图像数据样本按照预设比例分成训练集和验证集,所述训练集中的第一图像数据样本数量大于所述验证集中的第一图像数据样本数量;
    将所述训练集中的第一图像数据样本输入所述卷积神经网络模型进行训练,每隔预设周期使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各张第一图像数据和对应的第一图像属性信息对该图像识别模型的准确率进行验证;及
    当验证的准确率大于第一预设阈值时,结束训练,得到所述图像识别模型。
  18. 如权利要求13所述的计算机可读存储介质,其中,所述采集数据存储于区块链中,所述第二处理步骤还包括:
    获取预设数量的由不同数据采集终端上传的具有相同第二坐标数据的第一图像数据;
    分别计算每个所述第一图像数据与其对应的第二图像数据之间的相似度值,统计所述相似度值小于或等于第二预设阈值的个数;及
    若所述相似度值小于或等于第二预设阈值对应的第一图像数据个数大于或等于第三预设阈值,则判断所述第一图像数据对应的待测目标存在异常。
  19. 一种目标异常识别装置,其中,所述目标异常识别装置包括:
    获取模块:用于获取数据采集终端上传的采集数据,所述采集数据包括数据采集终端与待测目标之间的深度距离数据、包含所述待测目标的第一图像数据、所述数据采集终端的第一坐标数据及所述数据采集终端的方位角,根据所述深度距离数据、第一坐标数据及数据采集终端的方位角计算得到所述待测目标的第二坐标数据;
    识别模块:用于将所述第一图像数据输入预先训练的图像识别模型,输出与所述第一图像数据对应的第一图像属性信息;
    第一处理模块:用于根据所述第二坐标数据从预先创建的地图上定位所述第二坐标数据对应的区域,提取该区域上第二图像数据对应的第二图像属性信息,判断所述第一图像属性信息与第二图像属性信息是否一致;及
    第二处理模块:用于当判断所述第一图像属性信息与第二图像属性信息一致时,利用相似度算法计算所述第一图像数据与第二图像数据之间的相似度值,若所述相似度值小于或等于第一预设阈值,则判断所述待测目标存在异常,并生成包括第一图像属性信息及待测目标的异常状态信息的反馈信息发送至客户端。
  20. 如权利要求19所述的目标异常识别装置,其中,所述第二处理模块还包括:
    第二获取模块:用于获取预设数量的由不同数据采集终端上传的具有相同第二坐标数据的第一图像数据;
    计算模块:用于分别计算每个所述第一图像数据与其对应的第二图像数据之间的相似 度值,统计所述相似度值小于或等于第二预设阈值的个数;及
    判断模块:用于若所述相似度值小于或等于第二预设阈值对应的第一图像数据个数大于或等于第三预设阈值,则判断所述第一图像数据对应的待测目标存在异常。
PCT/CN2020/099068 2020-04-30 2020-06-30 目标异常识别方法、装置、电子设备及存储介质 WO2021217859A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010359984.8 2020-04-30
CN202010359984.8A CN111652940B (zh) 2020-04-30 目标异常识别方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
WO2021217859A1 true WO2021217859A1 (zh) 2021-11-04

Family

ID=72346559

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/099068 WO2021217859A1 (zh) 2020-04-30 2020-06-30 目标异常识别方法、装置、电子设备及存储介质

Country Status (1)

Country Link
WO (1) WO2021217859A1 (zh)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113902047A (zh) * 2021-12-10 2022-01-07 腾讯科技(深圳)有限公司 图像元素匹配方法、装置、设备以及存储介质
CN114115162A (zh) * 2021-11-29 2022-03-01 扬州三星塑胶有限公司 一种pet生产过程物料投放控制方法及系统
CN114157526A (zh) * 2021-12-23 2022-03-08 广州新华学院 一种基于数字图像识别的家居安全远程监控方法及装置
CN114200877A (zh) * 2021-11-12 2022-03-18 珠海大横琴科技发展有限公司 一种用电设备的监控方法和装置
CN114252013A (zh) * 2021-12-22 2022-03-29 深圳市天昕朗科技有限公司 一种基于有线通讯模式下的agv视觉识别精准定位系统
CN114254038A (zh) * 2021-12-03 2022-03-29 中安链科技(重庆)有限公司 基于区块链网络的校园安防数据同步系统
CN114519499A (zh) * 2022-01-10 2022-05-20 湖北国际物流机场有限公司 一种基于bim模型的检验批定位方法和系统
CN114642125A (zh) * 2022-03-25 2022-06-21 中国铁建重工集团股份有限公司 一种青贮机抛料筒控制方法、装置、设备及存储介质
CN114662617A (zh) * 2022-05-18 2022-06-24 国网浙江省电力有限公司杭州供电公司 基于多模态学习策略的多源数据编织系统处理方法及装置
CN114719799A (zh) * 2022-03-04 2022-07-08 武汉海微科技有限公司 一种软性材质边界检测方法、装置以及存储介质
CN114896363A (zh) * 2022-04-19 2022-08-12 北京月新时代科技股份有限公司 一种数据管理方法、装置、设备及介质
CN115047008A (zh) * 2022-07-19 2022-09-13 苏州大学 基于Faster R-CNN的道路裂纹检测系统
CN115112024A (zh) * 2022-05-31 2022-09-27 江苏濠汉信息技术有限公司 线材长度测量过程中纹理定位的算法
CN115345878A (zh) * 2022-10-18 2022-11-15 广州市易鸿智能装备有限公司 一种高精度的锂电池镍片与巴片间距的检测方法及装置
CN115527199A (zh) * 2022-10-31 2022-12-27 通号万全信号设备有限公司 轨道交通列车定位方法、装置、介质和电子设备
CN115546710A (zh) * 2022-08-09 2022-12-30 国网湖北省电力有限公司黄龙滩水力发电厂 水电厂的人员定位方法、装置、设备及可读存储介质
CN115861912A (zh) * 2022-09-27 2023-03-28 北京京天威科技发展有限公司 一种螺栓松动状态检测系统和方法
CN116026859A (zh) * 2023-01-30 2023-04-28 讯芸电子科技(中山)有限公司 一种光电子模块的安装检测方法、装置、设备及存储介质
CN116048124A (zh) * 2023-02-23 2023-05-02 北京思维实创科技有限公司 无人机地铁隧道巡检方法、装置、计算机设备及存储介质
CN116343137A (zh) * 2023-02-21 2023-06-27 北京海上升科技有限公司 一种基于人工智能的尾气异常汽车大数据检测方法及系统
CN116593151A (zh) * 2023-07-17 2023-08-15 创新奇智(青岛)科技有限公司 牙套拉力器测试方法、装置、电子设备及可读存储介质
CN116665138A (zh) * 2023-08-01 2023-08-29 临朐弘泰汽车配件有限公司 一种汽车配件冲压加工视觉检测方法及系统
CN116758400A (zh) * 2023-08-15 2023-09-15 安徽容知日新科技股份有限公司 运输皮带异常检测方法、装置及计算机可读存储介质
CN116778202A (zh) * 2023-06-02 2023-09-19 广州粤建三和软件股份有限公司 一种基于电子封志的检测试样施封验封方法、系统及装置
CN117314890A (zh) * 2023-11-07 2023-12-29 东莞市富明钮扣有限公司 打扣加工的安全控制方法、装置、设备及存储介质
CN117456482A (zh) * 2023-12-25 2024-01-26 暗物智能科技(广州)有限公司 一种面向交通监控场景的异常事件识别方法及系统
CN117671507A (zh) * 2024-01-29 2024-03-08 南昌大学 一种结合气象数据的河流水质预测方法
CN117830295A (zh) * 2024-02-21 2024-04-05 广州搏辉特自动化设备有限公司 缠绕机自动调节缠绕参数的控制方法、系统、设备及介质
CN117830961A (zh) * 2024-03-06 2024-04-05 山东达斯特信息技术有限公司 一种基于图像分析的环保设备运维行为分析方法及系统
CN117850216A (zh) * 2024-03-08 2024-04-09 深圳市锐赛科技有限公司 一种亚克力镜片生产设备智能控制方法及系统
CN117934481A (zh) * 2024-03-25 2024-04-26 国网浙江省电力有限公司宁波供电公司 基于人工智能的输电线缆状态识别处理方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104766086A (zh) * 2015-04-15 2015-07-08 湖南师范大学 一种公路标识的监管方法和系统
WO2015122658A1 (ko) * 2014-02-13 2015-08-20 영남대학교 산학협력단 비전 센서 데이터베이스를 이용한 거리 측정 방법
CN105674993A (zh) * 2016-01-15 2016-06-15 武汉光庭科技有限公司 基于双目相机的高精度视觉定位地图生成系统及方法
CN107194383A (zh) * 2017-07-10 2017-09-22 上海应用技术大学 基于改进Hu不变矩和ELM的交通标志牌识别方法和装置
CN109559347A (zh) * 2018-11-28 2019-04-02 中南大学 对象识别方法、装置、系统及存储介质
CN109782364A (zh) * 2018-12-26 2019-05-21 中设设计集团股份有限公司 基于机器视觉的交通标志牌缺失检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015122658A1 (ko) * 2014-02-13 2015-08-20 영남대학교 산학협력단 비전 센서 데이터베이스를 이용한 거리 측정 방법
CN104766086A (zh) * 2015-04-15 2015-07-08 湖南师范大学 一种公路标识的监管方法和系统
CN105674993A (zh) * 2016-01-15 2016-06-15 武汉光庭科技有限公司 基于双目相机的高精度视觉定位地图生成系统及方法
CN107194383A (zh) * 2017-07-10 2017-09-22 上海应用技术大学 基于改进Hu不变矩和ELM的交通标志牌识别方法和装置
CN109559347A (zh) * 2018-11-28 2019-04-02 中南大学 对象识别方法、装置、系统及存储介质
CN109782364A (zh) * 2018-12-26 2019-05-21 中设设计集团股份有限公司 基于机器视觉的交通标志牌缺失检测方法

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114200877B (zh) * 2021-11-12 2024-02-27 珠海大横琴科技发展有限公司 一种用电设备的监控方法和装置
CN114200877A (zh) * 2021-11-12 2022-03-18 珠海大横琴科技发展有限公司 一种用电设备的监控方法和装置
CN114115162A (zh) * 2021-11-29 2022-03-01 扬州三星塑胶有限公司 一种pet生产过程物料投放控制方法及系统
CN114115162B (zh) * 2021-11-29 2024-05-10 扬州三星塑胶有限公司 一种pet生产过程物料投放控制方法及系统
CN114254038B (zh) * 2021-12-03 2024-05-14 中安链科技(重庆)有限公司 基于区块链网络的校园安防数据同步系统
CN114254038A (zh) * 2021-12-03 2022-03-29 中安链科技(重庆)有限公司 基于区块链网络的校园安防数据同步系统
CN113902047A (zh) * 2021-12-10 2022-01-07 腾讯科技(深圳)有限公司 图像元素匹配方法、装置、设备以及存储介质
CN114252013A (zh) * 2021-12-22 2022-03-29 深圳市天昕朗科技有限公司 一种基于有线通讯模式下的agv视觉识别精准定位系统
CN114252013B (zh) * 2021-12-22 2024-03-22 深圳市天昕朗科技有限公司 一种基于有线通讯模式下的agv视觉识别精准定位系统
CN114157526B (zh) * 2021-12-23 2022-08-12 广州新华学院 一种基于数字图像识别的家居安全远程监控方法及装置
CN114157526A (zh) * 2021-12-23 2022-03-08 广州新华学院 一种基于数字图像识别的家居安全远程监控方法及装置
CN114519499A (zh) * 2022-01-10 2022-05-20 湖北国际物流机场有限公司 一种基于bim模型的检验批定位方法和系统
CN114519499B (zh) * 2022-01-10 2024-05-24 湖北国际物流机场有限公司 一种基于bim模型的检验批定位方法和系统
CN114719799A (zh) * 2022-03-04 2022-07-08 武汉海微科技有限公司 一种软性材质边界检测方法、装置以及存储介质
CN114719799B (zh) * 2022-03-04 2024-04-26 武汉海微科技股份有限公司 一种软性材质边界检测方法、装置以及存储介质
CN114642125A (zh) * 2022-03-25 2022-06-21 中国铁建重工集团股份有限公司 一种青贮机抛料筒控制方法、装置、设备及存储介质
CN114896363A (zh) * 2022-04-19 2022-08-12 北京月新时代科技股份有限公司 一种数据管理方法、装置、设备及介质
CN114896363B (zh) * 2022-04-19 2023-03-28 北京月新时代科技股份有限公司 一种数据管理方法、装置、设备及介质
CN114662617A (zh) * 2022-05-18 2022-06-24 国网浙江省电力有限公司杭州供电公司 基于多模态学习策略的多源数据编织系统处理方法及装置
CN115112024B (zh) * 2022-05-31 2023-09-26 江苏濠汉信息技术有限公司 线材长度测量过程中纹理定位的算法
CN115112024A (zh) * 2022-05-31 2022-09-27 江苏濠汉信息技术有限公司 线材长度测量过程中纹理定位的算法
CN115047008A (zh) * 2022-07-19 2022-09-13 苏州大学 基于Faster R-CNN的道路裂纹检测系统
CN115047008B (zh) * 2022-07-19 2024-04-30 苏州大学 基于Faster R-CNN的道路裂纹检测系统
CN115546710A (zh) * 2022-08-09 2022-12-30 国网湖北省电力有限公司黄龙滩水力发电厂 水电厂的人员定位方法、装置、设备及可读存储介质
CN115861912A (zh) * 2022-09-27 2023-03-28 北京京天威科技发展有限公司 一种螺栓松动状态检测系统和方法
CN115345878B (zh) * 2022-10-18 2023-01-31 广州市易鸿智能装备有限公司 一种高精度的锂电池镍片与巴片间距的检测方法及装置
CN115345878A (zh) * 2022-10-18 2022-11-15 广州市易鸿智能装备有限公司 一种高精度的锂电池镍片与巴片间距的检测方法及装置
CN115527199A (zh) * 2022-10-31 2022-12-27 通号万全信号设备有限公司 轨道交通列车定位方法、装置、介质和电子设备
CN116026859B (zh) * 2023-01-30 2023-12-12 讯芸电子科技(中山)有限公司 一种光电子模块的安装检测方法、装置、设备及存储介质
CN116026859A (zh) * 2023-01-30 2023-04-28 讯芸电子科技(中山)有限公司 一种光电子模块的安装检测方法、装置、设备及存储介质
CN116343137A (zh) * 2023-02-21 2023-06-27 北京海上升科技有限公司 一种基于人工智能的尾气异常汽车大数据检测方法及系统
CN116343137B (zh) * 2023-02-21 2024-04-19 北京海上升科技有限公司 一种基于人工智能的尾气异常汽车大数据检测方法及系统
CN116048124A (zh) * 2023-02-23 2023-05-02 北京思维实创科技有限公司 无人机地铁隧道巡检方法、装置、计算机设备及存储介质
CN116778202A (zh) * 2023-06-02 2023-09-19 广州粤建三和软件股份有限公司 一种基于电子封志的检测试样施封验封方法、系统及装置
CN116778202B (zh) * 2023-06-02 2024-04-12 广州粤建三和软件股份有限公司 一种基于电子封志的检测试样施封验封方法、系统及装置
CN116593151B (zh) * 2023-07-17 2023-09-12 创新奇智(青岛)科技有限公司 牙套拉力器测试方法、装置、电子设备及可读存储介质
CN116593151A (zh) * 2023-07-17 2023-08-15 创新奇智(青岛)科技有限公司 牙套拉力器测试方法、装置、电子设备及可读存储介质
CN116665138B (zh) * 2023-08-01 2023-11-07 临朐弘泰汽车配件有限公司 一种汽车配件冲压加工视觉检测方法及系统
CN116665138A (zh) * 2023-08-01 2023-08-29 临朐弘泰汽车配件有限公司 一种汽车配件冲压加工视觉检测方法及系统
CN116758400A (zh) * 2023-08-15 2023-09-15 安徽容知日新科技股份有限公司 运输皮带异常检测方法、装置及计算机可读存储介质
CN116758400B (zh) * 2023-08-15 2023-10-17 安徽容知日新科技股份有限公司 运输皮带异常检测方法、装置及计算机可读存储介质
CN117314890A (zh) * 2023-11-07 2023-12-29 东莞市富明钮扣有限公司 打扣加工的安全控制方法、装置、设备及存储介质
CN117314890B (zh) * 2023-11-07 2024-04-23 东莞市富明钮扣有限公司 打扣加工的安全控制方法、装置、设备及存储介质
CN117456482B (zh) * 2023-12-25 2024-05-10 暗物智能科技(广州)有限公司 一种面向交通监控场景的异常事件识别方法及系统
CN117456482A (zh) * 2023-12-25 2024-01-26 暗物智能科技(广州)有限公司 一种面向交通监控场景的异常事件识别方法及系统
CN117671507B (zh) * 2024-01-29 2024-05-10 南昌大学 一种结合气象数据的河流水质预测方法
CN117671507A (zh) * 2024-01-29 2024-03-08 南昌大学 一种结合气象数据的河流水质预测方法
CN117830295A (zh) * 2024-02-21 2024-04-05 广州搏辉特自动化设备有限公司 缠绕机自动调节缠绕参数的控制方法、系统、设备及介质
CN117830961B (zh) * 2024-03-06 2024-05-10 山东达斯特信息技术有限公司 一种基于图像分析的环保设备运维行为分析方法及系统
CN117830961A (zh) * 2024-03-06 2024-04-05 山东达斯特信息技术有限公司 一种基于图像分析的环保设备运维行为分析方法及系统
CN117850216A (zh) * 2024-03-08 2024-04-09 深圳市锐赛科技有限公司 一种亚克力镜片生产设备智能控制方法及系统
CN117850216B (zh) * 2024-03-08 2024-05-24 深圳市锐赛科技有限公司 一种亚克力镜片生产设备智能控制方法及系统
CN117934481A (zh) * 2024-03-25 2024-04-26 国网浙江省电力有限公司宁波供电公司 基于人工智能的输电线缆状态识别处理方法及系统

Also Published As

Publication number Publication date
CN111652940A (zh) 2020-09-11

Similar Documents

Publication Publication Date Title
WO2021217859A1 (zh) 目标异常识别方法、装置、电子设备及存储介质
WO2022007818A1 (zh) 高精地图更新方法、车辆、服务器及存储介质
US20190204094A1 (en) Method, apparatus, and computer readable storage medium for updating electronic map
CN110146097B (zh) 自动驾驶导航地图的生成方法、系统、车载终端及服务器
WO2015051718A1 (zh) 一种动态轨迹导航方法及云平台
Ai et al. Automatic horizontal curve identification and measurement method using GPS data
CN111380543A (zh) 地图数据生成方法及装置
CN109785637B (zh) 车辆违规的分析评价方法及装置
CN107430815A (zh) 用于自动识别停车区的方法和系统
JP2011215973A (ja) 風景マッチング用参照データ生成システム及び位置測位システム
CN113034566B (zh) 高精度地图构建方法、装置、电子设备及存储介质
JP2016217084A (ja) 路面状況計測システム、路面状況計測方法並びに路面状況計測プログラム
CN111288890A (zh) 基于双目摄影测量技术的道路标志尺寸及高度自动测量方法
JP2018084126A (ja) 道路状態の管理プログラム、道路状態の管理装置、及び道路状態の管理方法
CN112432650A (zh) 高精地图数据的获取方法、车辆控制方法以及设备
CN112639763A (zh) 地图更新数据的处理方法、装置及系统
CN112883236B (zh) 一种地图更新方法、装置、电子设备及存储介质
CN117197227A (zh) 计算目标车辆偏航角方法、装置、设备以及介质
CN111652940B (zh) 目标异常识别方法、装置、电子设备及存储介质
CN116753935A (zh) 地图图像处理及地图制作方法、装置、设备、存储介质
EP3502618B1 (en) A geolocation system
CN113449687B (zh) 兴趣点出入口的识别方法、装置及电子设备
Moseva et al. Development of a Platform for Road Infrastructure Digital Certification
CN113048988B (zh) 一种导航地图对应场景的变化元素检测方法及装置
Wang et al. GPS trajectory-based segmentation and multi-filter-based extraction of expressway curbs and markings from mobile laser scanning data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20933116

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 15.03.2023)

122 Ep: pct application non-entry in european phase

Ref document number: 20933116

Country of ref document: EP

Kind code of ref document: A1