WO2020075954A1 - 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법 - Google Patents

다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법 Download PDF

Info

Publication number
WO2020075954A1
WO2020075954A1 PCT/KR2019/008478 KR2019008478W WO2020075954A1 WO 2020075954 A1 WO2020075954 A1 WO 2020075954A1 KR 2019008478 W KR2019008478 W KR 2019008478W WO 2020075954 A1 WO2020075954 A1 WO 2020075954A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
feature
value
unit
positioning
Prior art date
Application number
PCT/KR2019/008478
Other languages
English (en)
French (fr)
Inventor
엄태영
최영호
배기덕
박지현
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to CN201980066879.0A priority Critical patent/CN112823321B/zh
Publication of WO2020075954A1 publication Critical patent/WO2020075954A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic

Definitions

  • the present invention relates to a position positioning system and method in which multi-sensor-based position recognition results are mixed, and more specifically, a position positioning system capable of accurately positioning a moving object by mixing information detected by a multi-sensor. It's about how.
  • Robots and drones capable of autonomous driving are increasingly used in industrial and other fields.
  • the most important technology in the autonomous driving of these robots and drones is the technology of accurately positioning the current position of a moving robot or drone.
  • the robot or drone In order to locate the robot or drone in this way, it receives signals from GPS satellites to determine the current position, and uses an odometer, inertial navigation system (INS), electronic compass, and more. CDGPS can also be used for identification.
  • INS inertial navigation system
  • CDGPS can also be used for identification.
  • the GPS satellite signal has a large error range (for example, about 5 to 10 m or so), and cannot be used indoors where the satellite cannot see, and the CDGPS has a high price.
  • Rader / Laser Due to this problem, research and technology development of Rader / Laser, wireless LAN, and RFID capable of positioning in different ways is continuously being conducted, but these Rader / Laser, wireless LAN, and RFID are optimized for location positioning in the room. There is a problem that is difficult to be used outdoors with technology.
  • Korean Patent Registration No. 10-1255024 which is a prior art for this purpose, discloses a position estimation system and method capable of estimating the position and direction of another object based on an ultrasonic sensor.
  • this prior art has a problem in that it is difficult to accurately estimate the position of the object because it estimates the position and direction of the object based only on the ultrasonic sensor capable of weak position recognition.
  • the present invention is to solve the problems as described above, the present invention is configured to detect the obstacle information by configuring a plurality of sensors capable of weak position recognition, and detects and detects feature values from the detected obstacle information and a plurality of positioning information.
  • An object of the present invention is to provide a position positioning system and method capable of performing strong position recognition capable of accurately positioning a moving object by correcting it by weighting a feature value and mixing it.
  • a position positioning system mixing multi-sensor-based position recognition results is mounted on an object, and a multi-sensor for sensing obstacle information located around the object
  • a sensor unit configured;
  • a database unit configured with a multi-database in which a plurality of positioning information for positioning an object is stored;
  • a feature detection unit that extracts a feature point from the obstacle information and performs feature-based matching to recognize an obstacle and compares the feature point with a plurality of positioning information to perform a model-based matching to recognize an obstacle having a matching feature point to detect a feature value;
  • Initialize the object value area and obstacle position by applying the fuzzy logic, calculating the object's position area value and obstacle position value through the corrected feature value by weighting the feature value.
  • a fuzzy mapping unit generating a map;
  • a position positioning unit for positioning the position of the object from the map in which the object position area and the obstacle position are reflected.
  • the multi-sensor includes at least a 3D rider, a vision sensor, and an ultrasonic sensor.
  • the multi-species database includes at least a 3D model database, an image model database, and a relational database.
  • the fuzzy mapping unit is a set operation unit that is programmed to perform a set operation of the feature value;
  • a correction unit that calculates weights between the set computed feature values, and corrects the set computed feature values by assigning the calculated weights to the set computed feature values;
  • a position calculating unit for calculating the object position area value and the obstacle position value with the corrected feature value;
  • a map generation unit that generates an initial map when the position value of the mulch and the position of the obstacle are calculated;
  • a fuzzy control unit programmed to apply fuzzy logic.
  • the correction unit may correct by calculating a relatively high weight from the set computed feature values including the feature values detected through relatively many matching performances among the set computed feature values.
  • the correction unit may correct by calculating a relatively high weight from a set computed feature value including a feature value from which relatively many feature points have been extracted by performing matching among the set computed feature values.
  • the position positioning unit a display unit for displaying an object position area according to the object position area value and an obstacle according to the obstacle position value on the initial map; And a position point measuring unit that calculates a distance between an obstacle displayed in the object position area and an actual object to measure the object position point in the object position area.
  • a method for locating multi-sensor-based location recognition results includes detecting obstacle information located around an object; Detecting feature values by extracting feature points from obstacle information and performing model-based matching to recognize obstacles having matching feature points by comparing feature points based matching that recognizes obstacles and comparing feature points with a plurality of stored location information; The feature values are weighted to correct the feature values, the object's location area values and obstacle position values are calculated through the corrected feature values, and the fuzzy logic is applied to generate the initial map to reflect the object location areas and obstacle locations.
  • a fuzzy mapping step And positioning the position of the object from the map in which the object position area and the obstacle position are reflected.
  • a strong position recognition is possible by configuring a plurality of sensors capable of weak position recognition, and thus, relative to a positioning system consisting of only one sensor, such as conventional GPS, CDGPS, Rader / Laser, wireless LAN, RFID, etc. It has the advantage of accurately positioning the position of the object being moved.
  • FIG. 1 is a block diagram schematically showing a configuration of a location positioning system in which multi-sensor based location recognition results according to an embodiment of the present invention are mixed.
  • FIG. 2 is a block diagram showing the overall configuration of a location positioning system in which multi-sensor based location recognition results according to an embodiment of the present invention are mixed.
  • FIG. 3 is a flowchart of a method for locating a location in which multi-sensor based location recognition results are mixed according to an embodiment of the present invention.
  • FIG. 7 is a view for explaining a process in which the position of the object is positioned according to the object position positioning step.
  • FIG. 1 is a block diagram schematically showing a configuration of a location positioning system in which multi-sensor based location recognition results according to an embodiment of the present invention are mixed
  • FIG. 2 is a multi-sensor based location according to an embodiment of the present invention. It is a block diagram showing the overall configuration of a location positioning system that mixes recognition results.
  • the position positioning system 10 (hereinafter, referred to as a “position positioning system”) in which multi-sensor-based position recognition results according to an embodiment of the present invention are mixed is a weak position It is composed of multiple recognizable sensors to detect obstacle information, detects feature values from the detected obstacle information and a plurality of positioning information, weights the detected feature values, corrects them, and mixes them to determine the position of the moving object. It is to provide a position positioning system capable of performing a strong position recognition capable of accurately positioning.
  • the position positioning system 10 of this embodiment will be described in detail with reference to FIGS. 1 to 2, and is mounted on an object, and a sensor unit 100 configured with a multi-sensor for detecting obstacle information located around the object , Database unit 300 in which a multi-database for storing a plurality of positioning information for positioning an object is constructed, and feature point-based matching and feature point and a plurality of positioning information for recognizing obstacles by extracting feature points from obstacle information
  • a feature detection unit 200 that detects feature values by performing model-based matching that recognizes obstacles with matching feature points by comparing, and corrects feature values by assigning weights to feature values, and assigns weights to feature values Corrects the feature value, calculates the object's position area value and obstacle position value through the corrected feature value, and applies fuzzy logic to the object. It is configured to include a positioning unit 500 for positioning the position of the object from the value area and the obstacle fuzzy mapping unit 400 and the object region and the position where the obstacle reflected in the map which is located generates the initial map is reflected.
  • the object in one embodiment means all movable objects such as a robot, a drone, a vehicle, an airplane, a train, and more specifically, may mean a drone or a robot.
  • the multi-sensors 110, 120, and 130 configured in the sensor unit 100 are specifically composed of the 3D rider 110, the vision sensor 120, and the ultrasonic sensor 130, as described in detail with reference to FIG.
  • the sensor unit 100 is not limited to that the 3D rider 110, the vision sensor 120, and the ultrasonic sensor 130 are configured, and other methods (optical, radio wave type) for more accurately positioning the position of the object. , Acoustic, etc.) It would be desirable to additionally configure other types of sensors capable of detecting obstacle information.
  • the 3D rider 110 among the multi-sensors configured in the sensor unit 100 is a sensor that detects an object using a laser, calculates a distance from the object, and detects the surrounding environment as 3D stereoscopic data.
  • the vision sensor 120 is a type of sensor called an image sensor, and is a sensor that photographs an image with a camera and converts an image of an object formed on the image plane into an electrical signal.
  • the ultrasonic sensor 130 is a sensor that transmits ultrasonic signals of 20Khz or more to an object and measures a time to return from being reflected from the object to measure a distance from the object.
  • the object sensed by the 3D rider 110, the vision sensor 120, and the ultrasonic sensor 130 means an obstacle in an embodiment of the present invention
  • the obstacle means an object that moves, including a building There is a possibility of collision as it moves, and it means surrounding structures, facilities, or another moving object sensed by the sensor unit 100.
  • the 3D rider 110, the vision sensor 120, and the ultrasonic sensor 130 will preferably be understood as sensing obstacle information for an obstacle.
  • the feature detection unit 200 will be described in detail with reference to FIG. 2, the first feature detection unit 210 detecting the feature value through the obstacle information detected by the 3D rider 110 and the obstacle information detected by the vision sensor 120 It comprises a second feature detection unit 220 for detecting the feature value and a third feature detection unit 230 for detecting the feature value through the obstacle information detected by the ultrasonic sensor 130.
  • the feature detection unit 200 is not limited to that the first feature detection unit 210, the second feature detection unit 220 and the third feature detection unit 230 are configured, and the sensor unit 100 includes a 3D rider 110 ),
  • a separate feature detection unit is further configured to detect a feature value through obstacle information sensed by the additional configured sensor. .
  • the first feature detection unit 210 among the feature detection units configured in the feature detection unit 200 extracts feature points from obstacle information sensed by the 3D rider 110 and performs feature-based matching to recognize obstacles.
  • the first feature detection unit 210 may extract a feature point from a group of points measured on the surface of the object generated by the point cloud processing by the 3D rider 110.
  • the second feature detection unit 220 extracts the feature points from the obstacle information sensed by the vision sensor 120 to perform matching based on the feature points to recognize the obstacles.
  • the second feature detection unit 220 may extract the feature points from the electrical signal that the vision sensor 120 converted the image of the obstacle.
  • the third feature detection unit 230 extracts feature points from obstacle information sensed by the ultrasonic sensor 130 and performs feature point-based matching for recognizing obstacles.
  • the third feature detection unit 230 may extract the feature points from the distance from the obstacle measured by the ultrasonic sensor 130.
  • the database unit 300 is a 3D model database 310 and a second feature detection unit 220 in which positioning information necessary for the first feature detection unit 210 to perform model-based matching is stored.
  • the database unit 300 is not limited to the configuration of the 3D model database 310, the new model database 320, and the relational database 330, and other types of sensors are additionally configured in the sensor unit 100. If another feature detection unit is additionally configured in the detection unit 200, it may be desirable to further configure a separate database so that the additionally configured feature detection unit performs model-based matching.
  • the 3D model database 310 means a database in which positioning information including 3D stereoscopic data of an obstacle is stored.
  • the first feature detection unit 210 recognizes a matching obstacle by comparing the feature points extracted through the 3D rider 110 and the 3D stereoscopic data of the obstacles stored in the 3D model database 310.
  • the feature value can be detected by performing model-based matching.
  • the feature value detected by the first feature detection unit 210 is a point in which obstacle information detected by the 3D rider 110 as 3D stereoscopic data and obstacle information stored as 3D stereoscopic data in the 3D model database 310 are matched. It should be understood as a group (or set) of.
  • the new model database 320 means a database in which positioning information including scene obstacle data is stored.
  • the second feature detection unit 220 compares feature points extracted through the vision sensor 120 and scene data of the scene model database 320 to match obstacles.
  • the feature value can be detected by performing matching based on the recognized model.
  • the feature value detected by the second feature detection unit 220 is an image or scene that matches the obstacle information detected by the vision sensor 120 as an image and obstacle information stored as scene data in the scene model database 320 (Secne, Scene).
  • the relational database 330 refers to a database in which obstacle data to be reconstructed through ultrasound generated by the ultrasound sensor 130 is stored.
  • the third feature detection unit 230 performs a model-based matching for recognizing a matching obstacle by comparing feature points extracted through the ultrasonic sensor 130 and obstacle data in the relational database 330 By doing so, the feature value can be detected.
  • the feature value detected by the third feature detector 230 is a relational database 330 through obstacle information including data (eg, graphs, tables) in which the distance from the object is calculated by the ultrasonic sensor 130 through ultrasonic waves. ).
  • the fuzzy mapping unit 400 is applied to a fuzzy logic, which is a logical concept of expressing an unclear state such as a natural language, an ambiguous state as a multivalue that deviates from a binary logic of true or false, and is based on the fuzzy logic. Fuzzy control is performed.
  • the fuzzy mapping unit 400 is set to be programmed to collectively calculate feature values detected by the first, second, and third feature detection units 210, 220, and 230, respectively.
  • Compensation unit 420 for calculating the weights between the set computed feature values and correcting the set computed feature values by assigning the calculated weights to the set computed feature values, and the object location area values and obstacle position values with the corrected feature values It comprises a position calculation unit 430 for calculating, a map generation unit 440 for generating an initial map when the value of the position value of the position and the obstacle position value is calculated, and a fuzzy control unit 450 programmed to apply a fuzzy logic do.
  • the aggregate operation unit 410 collectively computes the feature values detected by the first, second, and third feature detection units 210, 220, and 230 in a hierarchical structure.
  • the set operation unit 410 performs a fuzzy set for fuzzy control.
  • the fuzzy set means defining a feature value as a set according to a fuzzy rule.
  • the compensator 420 is relative from the set computed feature values including feature values detected through relatively many matching performed by the first, second, and third feature detection units 210, 220, and 230 among the set computed feature values. Can calculate a high weight.
  • the correction unit 420 is a set including feature values from which relatively many feature points are extracted from the first, second, and third feature detection units 210, 220, and 230 among the set computed feature values. It is also possible to calculate a relatively high weight from the calculated feature values.
  • correction unit 420 merges the weight calculation methods described above, and the first, second, and third feature detection units 210, 220, and 230 detect through relatively many matching performances, thereby extracting relatively many feature points. It is also possible to calculate a relatively high weight from the set computed feature values including.
  • the correction unit 420 assigns the calculated weight to each of the set-computed feature values so that the feature values are corrected, and the feature values corrected through the compensator 420 are set hierarchically to the set operation unit 410. do.
  • the correction unit 420 performs purging for fuzzy control.
  • fuzzy means converting a feature value into a fuzzy value having a function belonging to the fuzzy rule.
  • the position calculator 430 performs inverse purge for fuzzy control.
  • the inverse purge means that the corrected feature value converted from the correction unit 420 to a fuzzy value is digitized.
  • the position calculator 430 quantifies the feature values because the object position area value and the obstacle position value cannot be calculated using a fuzzy value having a belonging function.
  • the position calculator 430 performs inverse purge to quantify the corrected feature value, and extracts object location region information from the digitized feature value to calculate the object location region value.
  • the object position area value is an area value including the point where the object is located, and means a numerical value.
  • the position calculator 430 extracts the obstacle position information from the digitized feature values to calculate the position value of the obstacle.
  • the obstacle position value is a value including a point where the obstacle is located, and means a numerical value.
  • the map generating unit 440 generates an initial map in which the object position area and the obstacle according to the object position area value and the obstacle position value are displayed when the object position area value and the obstacle position value are calculated by the position calculator 430.
  • the initial map may be understood as a map in which no data is input.
  • the position positioning unit 500 is an object map area and an obstacle position value according to the object position area value calculated by the position calculation unit 430 on the initial map generated from the map generation unit 440. It comprises a display unit 510 for displaying the obstacle according to and a position point measuring unit 520 for measuring the object position point in the object position area by calculating the distance between the obstacle and the actual object displayed in the object position area.
  • the display unit 510 may be configured as a display for displaying the initial map, and it may be desirable to display at least one object location area and an obstacle on the initial map for positioning of the object location.
  • the display unit 510 may not only display the object location area and the obstacle, but may further display information on the object location area and the obstacle.
  • the position point measurement unit 520 calculates the distance between an obstacle displayed in the object location area and a real object through at least one of GPS, MEMs, Wi-fi, RFID, bluetooth, Zigbee, wireless LAN, Rader / Laser, and LBS. would be desirable. In addition, the position point measuring unit 520 causes the measured object position point to be displayed on the map.
  • FIG. 3 is a flowchart of a location positioning method in which multi-sensor-based location recognition results are mixed according to an embodiment of the present invention
  • FIG. 4 is a detailed flowchart of a feature value detection step
  • FIG. 5 is a detailed flowchart of a fuzzy mapping step
  • FIG. 6 is a detailed flowchart of the object position positioning step
  • FIG. 7 is a view for explaining a process in which the position of the object is positioned according to the object position positioning step.
  • the location positioning method in which these multi-sensor based location recognition results are mixed is detected in step S10 of detecting obstacle information located around an object and recognizing obstacles by extracting a feature point from the obstacle information. Detecting feature values by performing model-based matching that recognizes obstacles having matching feature points by comparing feature point-based matching and comparing a plurality of stored location information with the feature points (S20). Fuzzy mapping step (S30) and an object that corrects, calculates the position area value and the obstacle position value of the object through the corrected feature value, and applies an fuzzy logic to generate an initial map to reflect the object position area and the obstacle position (S30). Positioning the position of the object from the map reflecting the location area and the obstacle location (S40).
  • the feature value detection step (S20) will be described in detail with reference to FIG. 4, and consists of a feature point-based matching step (S21) and a model-based matching step (S22).
  • the feature point-based matching step S21 is a step of recognizing an obstacle based on the extracted feature points.
  • the model-based matching step S22 is a step of recognizing an obstacle having a matching feature point by comparing the extracted feature point and a plurality of positioning information.
  • the feature value detection step (S20) proceeds to the model-based matching step (S22) after the feature point-based matching step (S21), or the feature-based matching step (S21) and the model-based matching step (S22) at the same time. Is done.
  • the fuzzy mapping step (S30) will be described in detail with reference to FIGS. 5 and 7, a set operation step (S31), a weight calculation step (S32), a weighting step (S33), a correction step (S34), and a position calculation step ( S35) and an initial map generation step (S36), which is also a step in which fuzzy control is performed.
  • the set operation step S31 is a step of collectively computing the feature values detected in the feature value detection step S20 in a hierarchical manner, and also performing a fuzzy set for fuzzy control in the fuzzy mapping step S30.
  • the weight calculation step (S32) is a step of calculating a weight on the feature values aggregated in the set operation step (S31).
  • the weight is the same as that described through the correction unit 420, which is a component of the position positioning system 10 of the present invention, detailed description will be omitted.
  • the weighting step (S33) is a step of applying the weight calculated in the weighting step (S32) to the set computed feature values.
  • the correcting step S34 is a step of correcting the feature value according to the weight given in the weighting step S33. At this time, as the feature values are corrected, the hierarchical set structure of the set operation step S31 may be changed.
  • the above-described weight calculation step (S32), the weighting step (S33), and the correction step 34 is also a step of performing a purge control for the fuzzy control in the fuzzy mapping step (S30).
  • the position calculation step (S35) is a step of calculating the object position area value and the obstacle position value through the feature values corrected in the correction step (S34). Specifically, the position calculation step (S35) is the object from the corrected feature values. This is a step of calculating the position value of the object by extracting the position area information and calculating the position of the obstacle by extracting the position information of the obstacle from the corrected feature value.
  • the position calculation step (S35) is also a step of performing inverse purging for fuzzy control in the fuzzy mapping step (S30).
  • the initial map generation step (S36) the object map area (2) according to the object position area value calculated in the position calculation step (S35) and the obstacle position (3) according to the obstacle position value are reflected by applying fuzzy logic. (1) is generated.
  • the initial map 1 means a map in which no data is input.
  • the object location area 2 according to the object position area value calculated in the position calculation step S35 and the obstacle 3 according to the obstacle position value are generated in the initial map generation step S36.
  • This is the step of displaying on the initial map (1).
  • the object location area 2 means a certain area including the object position point 4 displayed on the initial map 1, and the obstacle 3 indicates an object existing in the same position as the actual obstacle position. it means.
  • the object position point measurement step (S42) calculates the distance between the obstacles (3a, 3b, 3c) in the object position area (2) displayed on the initial map (1) and the actual object through the initial map display step (S41). This is the step of measuring the object location point 4 within the region 2.
  • the number of obstacles (3a, 3b, 3c) may vary depending on the position of the object location area (2), it will be desirable to be at least one for the measurement of the object location point (4).
  • step S42 of measuring the position of the object GPS, MEMs, Wi-fi, RFID, bluetooth, Zigbee, wireless LAN, Rader / Laser, to calculate the distance between the obstacles 3a, 3b, 3c and the actual object. It is also a stage in which at least one of the LBSs is used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Acoustics & Sound (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Algebra (AREA)
  • Artificial Intelligence (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명은 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법에 관한 것으로, 일 실시예의 시스템은 물체의 주변에 위치한 장애물 정보를 감지하기 위한 다종 센서가 구성되는 센서부; 물체의 위치를 측위하기 위한 복수의 측위 정보가 저장되는 다종 데이터베이스가 구성되는 데이터베이스부; 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 특징점과 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 특징검출부; 특징값에 가중치를 부여하여 특징값을 보정하며, 보정된 특징값을 통해 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 물체 위치 영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑부; 및 물체 위치 영역과 장애물 위치가 반영된 맵으로부터 물체의 위치를 측위하는 위치측위부;를 포함하여 구성된다.

Description

다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
본 발명은 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법에 관한 것으로, 더욱 상세하게는 다종 센서가 감지하는 정보를 혼합하여 이동되는 물체의 위치를 정확히 측위할 수 있는 위치 측위 시스템 및 방법에 관한 것이다.
본 출원은 2018년 10월 10일자로 출원된 한국특허출원 제 10-2018-0120261호에 대한 우선권 주장출원으로서, 해당출원의 명세서 및 도면에 개시된 모든 내용은 인용에 의해 본 출원에 원용된다.
자율 주행이 가능한 로봇이나 드론은 산업용을 비롯한 각 분야에서 점차 사용이 증가되고 있는 추세이다. 이러한 로봇과 드론의 자율 주행에서 가장 중요한 기술은 이동되는 로봇이나 드론의 현재 위치를 정확하게 측위하는 기술이다.
이와 같이 로봇이나 드론의 위치를 측위하기 위해, GPS 위성으로부터 신호를 수신하여 현재 위치를 판단하기도 하고, 주행계(Odometer)와 관성항법장치(INS), 전자나침반 등을 사용하고 있으며, 이보다 정밀한 위치 파악을 위한 CDGPS를 사용하기도 한다.
그러나 GPS 위성 신호는 오차 범위가 크고(예: 약 5~10m 내외), 위성이 볼 수 없는 실내에서는 전혀 사용할 수 없으며 CDGPS는 가격이 비싸다는 문제점이 있었다.
이와 같은 문제점에 의해 다른 방식으로 위치 측위가 가능한 Rader/Laser, 무선랜, RFID의 연구 및 기술 개발이 지속적으로 이루어지고 있으나, 이러한 Rader/Laser, 무선랜, RFID는 실내에서의 위치 측위에 최적화되어 있는 기술로 실외에서는 사용되기 어려운 문제점이 있었다.
이러한 문제점에 의해 실내/실외에 상관 없이 로봇이나 드론의 위치를 정확히 측위할 수 있는 연구 및 기술 개발이 요구되고 있다.
이를 위한 선행기술인 대한민국 등록특허 제10-1255024호는 초음파 센서를 기반으로 타 물체의 위치와 방향을 추정할 수 있는 위치 추정 시스템 및 방법이 개시되어 있다. 그러나, 이러한 선행기술은 약한 위치인식이 가능한 초음파 센서만을 기반으로 물체의 위치와 방향을 추정하기 때문에 물체의 위치를 정확하게 추정하기 어려운 문제점이 있었다.
[선행기술문헌]
[특허문헌]
대한민국 등록특허 제10-1255024호
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 본 발명은 약한 위치인식이 가능한 센서를 다종으로 구성하여 장애물 정보를 감지하며, 감지한 장애물 정보와 복수의 측위 정보로부터 특징값을 검출하고, 검출한 특징값에 가중치를 두어 보정한 후 혼합하여 이동되는 물체의 위치를 정확히 측위할 수 있는 강한 위치인식이 수행 가능한 위치 측위 시스템 및 방법을 제공하는데 그 목적이 있다.
한편, 본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 다종 센서 기반 위치인식 결과들을 혼합한 위치 측위 시스템은 물체에 장착되며, 물체의 주변에 위치한 장애물 정보를 감지하기 위한 다종 센서가 구성되는 센서부; 물체의 위치를 측위하기 위한 복수의 측위 정보가 저장되는 다종 데이터베이스가 구성되는 데이터베이스부; 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 특징점과 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 특징검출부; 특징값에 가중치를 부여하여 특징값을 보정하며, 보정된 특징값을 통해 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지(Fuzzy)논리를 적용하여 물체 위치 영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑부; 및 물체 위치 영역과 장애물 위치가 반영된 맵으로부터 물체의 위치를 측위하는 위치측위부;를 포함하여 구성된다.
그리고 다종 센서는 3D 라이더, 비전센서 및 초음파센서를 적어도 포함하여 구성된다.
또한, 다종 데이터베이스는 3D 모델 데이터베이스, 이미지 모델 데이터베이스 및 관계형 데이터베이스를 적어도 포함하여 구성된다.
한편, 퍼지매핑부는 특징값을 집합연산하도록 프로그래밍되는 집합연산부; 집합연산된 특징값간의 가중치를 산출하며, 산출된 가중치를 집합연산된 특징값에 부여하여 집합연산된 특징값을 보정하는 보정부; 보정된 특징값으로 물체 위치영역값과 장애물 위치값을 계산하는 위치계산부; 물치 위치영역값과 장애물 위치값이 계산될 때 초기맵을 생성하는 맵 생성부; 및 퍼지논리를 적용하도록 프로그래밍되는 퍼지제어부;를 포함하여 구성된다.
그리고 보정부는, 집합연산된 특징값 중 상대적으로 많은 매칭 수행을 통해 검출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출하여 보정할 수 있다.
또한, 보정부는, 집합연산된 특징값 중 매칭 수행을 통해 상대적으로 많은 특징점이 추출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출하여 보정할 수 있다.
한편, 위치측위부는, 초기맵에 물체 위치영역값에 따른 물체 위치영역과 장애물 위치값에 따른 장애물을 표시하는 표시부; 및 물체 위치영역 내에 표시된 장애물과 실제 물체 간의 거리를 계산하여 물체 위치영역 내에 물체 위치지점을 측정하는 위치지점 측정부;를 포함하여 구성된다.
그리고 상기 목적을 달성하기 위한 또 다른 기술적 수단으로서, 본 발명의 일 실시예에 따른 다종 센서 기반 위치인식 결과들을 혼합한 위치 측위 방법은 물체의 주변에 위치한 장애물 정보를 감지하는 단계; 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 특징점과 저장된 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 단계; 특징값에 가중치를 부여하여 특징값을 보정하며, 보정된 특징값을 통해 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 물체 위치영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑 단계; 물체 위치 영역과 장애물 위치가 반영된 맵으로부터 물체의 위치를 측위하는 단계;를 포함한다.
본 발명에 따르면, 약한 위치인식이 가능한 센서를 다종으로 구성하여 강한 위치인식이 가능함으로써, 기존의 GPS, CDGPS, Rader/Laser, 무선랜, RFID 등과 같이 하나의 센서로만 구성된 위치 측위 시스템에 비해 상대적으로 이동되는 물체의 위치를 정확히 측위할 수 있는 장점이 있다.
한편, 본 발명에서 얻을 수 있는 효과들은 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템의 구성을 개략적으로 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템의 전체적인 구성을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위방법의 순서도이다.
도 4는 특징값 검출 단계의 세부 순서도이다.
도 5는 퍼지매핑 단계의 세부 순서도이다.
도 6은 물체 위치 측위 단계의 세부 순서도이다.
도 7은 물체 위치 측위 단계에 따라 물체의 위치가 측위되는 과정을 설명하기 위한 도면이다.
[부호의 설명]
1: 초기맵,
2: 물체 위치영역,
3: 장애물,
4: 물체 위치지점,
10: 위치 측위 시스템,
100: 센서부,
110: 3D 라이더,
120: 비전 센서,
130: 초음파 센서,
200: 특징검출부,
210: 제1 특징검출부,
220: 제2 특징검출부,
230: 제3 특징검출부,
300: 데이터베이스부,
310: 3D 모델 데이터베이스,
320: 신 모델 데이터베이스,
330: 관계형 데이터베이스,
400: 퍼지매핑부,
410: 집합연산부,
420: 보정부,
430: 위치계산부,
440: 맵 생성부,
450: 퍼지제어부,
500: 위치측위부,
510: 위치영역 표시부,
520: 위치지점 측정부.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. 또한, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
시스템의 구성
도 1은 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템의 구성을 개략적으로 나타내는 블록도이며, 도 2는 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템의 전체적인 구성을 나타내는 블록도이다.
도 1 및 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템(10)(이하에서는, '위치 측위 시스템'이라 함)은 약한 위치인식이 가능한 센서를 다종으로 구성하여 장애물 정보를 감지하며, 감지한 장애물 정보와 복수의 측위 정보로부터 특징값을 검출하고, 검출한 특징값에 가중치를 두어 보정한 후 혼합하여 이동되는 물체의 위치를 정확히 측위할 수 있는 강한 위치인식이 수행 가능한 위치 측위 시스템을 제공하는 것이다.
이러한 일 실시예의 위치 측위 시스템(10)은 도 1 내지 도 2를 참조하여 구체적으로 살펴보면, 물체에 장착되며, 물체의 주변에 위치한 장애물 정보를 감지하기 위한 다종 센서가 구성되는 센서부(100)와, 물체의 위치를 측위하기 위한 복수의 측위 정보가 저장되는 다종 데이터베이스가 구성되는 데이터베이스부(300)와, 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 특징점과 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 특징검출부(200)와, 특징값에 가중치를 부여하여 특징값을 보정하며, 특징값에 가중치를 부여하여 특징값을 보정하며, 보정된 특징값을 통해 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 물체 위치 영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑부(400) 및 물체 위치 영역과 장애물 위치가 반영된 맵으로부터 물체의 위치를 측위하는 위치측위부(500)를 포함하여 구성된다.
첨언하여, 일 실시예에서의 물체라 함은 로봇, 드론, 차량, 비행기, 기차 등의 이동 가능한 모든 객체를 의미하며, 보다 자세하게는 드론 또는 로봇을 의미할 수 있다.
*센서부(100)에 구성된 다종 센서(110, 120, 130)는 도 2를 참조하여 구체적으로 살펴보면, 3D 라이더(110), 비전센서(120) 및 초음파센서(130)로 구성된다. 다만, 센서부(100)는 3D 라이더(110), 비전센서(120) 및 초음파센서(130)가 구성되는 것으로 한정하는 것이 아니며, 물체의 위치를 보다 정확히 측위하기 위해 다른 방식(광학식, 전파식, 음향식 등)으로 장애물 정보를 감지할 수 있는 다른 종류의 센서가 추가 구성되는 것이 바람직할 것이다.
센서부(100)에 구성되는 다종 센서 중 3D 라이더(110)는 레이저를 이용하여 객체를 감지하고 객체와의 거리를 계산하며, 주변환경을 3차원 입체 데이터로 감지하는 센서이다.
비전센서(120)는 이미지센서라고 불리는 센서의 한 종류로서, 카메라로 영상을 촬영하여 영상평면에 형성되는 객체의 영상을 전기신호로 변환하는 센서이다.
초음파센서(130)는 20Khz대 이상의 초음파 신호를 객체에 내보내고 객체로부터 반사되어 되돌아오는 시간을 측정하여 객체와의 거리를 측정하는 센서이다.
한편, 3D 라이더(110), 비전센서(120) 및 초음파센서(130)가 감지하는 객체라 함은, 본 발명의 일 실시예에서는 장애물을 의미하며, 장애물이라 함은, 건물을 비롯하여 이동되는 물체가 이동되면서 충돌할 가능성이 있으며, 센서부(100)가 감지하는 주변의 구조물, 시설물 또는 또다른 이동 물체 등을 의미한다. 이에 따라, 본 발명의 일 실시예에서는 3D 라이더(110), 비전센서(120) 및 초음파센서(130)는 장애물에 대한 장애물 정보를 감지하는 것으로 이해되는 것이 바람직할 것이다.
특징검출부(200)는 도 2를 참조하여 구체적으로 살펴보면, 3D 라이더(110)가 감지한 장애물 정보를 통해 특징값을 검출하는 제1 특징검출부(210), 비전센서(120)가 감지한 장애물 정보를 통해 특징값을 검출하는 제2 특징검출부(220) 및 초음파센서(130)가 감지한 장애물 정보를 통해 특징값을 검출하는 제3 특징검출부(230)를 포함하여 구성된다.
다만, 특징검출부(200)는 제1 특징검출부(210), 제2 특징검출부(220) 및 제3 특징검출부(230)가 구성되는 것으로 한정하는 것이 아니며, 센서부(100)에 3D 라이더(110), 비전센서(120) 및 초음파센서(130)와 다른 종류의 센서가 추가 구성되면, 추가 구성된 센서가 감지한 장애물 정보를 통해 특징값을 검출하도록 별도의 특징검출부가 더 구성되는 것이 바람직할 것이다.
특징검출부(200)에 구성된 특징검출부 중 제1 특징검출부(210)는 3D 라이더(110)가 감지한 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭을 수행하게 된다. 여기서, 제1 특징검출부(210)는 3D 라이더(110)가 포인트 클라우드(Point Cloud) 처리를 통해 생성한 객체의 표면에 측정된 점의 그룹으로부터 특징점을 추출할 수 있다.
제2 특징검출부(220)는 비전센서(120)가 감지한 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭을 수행하게 된다. 여기서, 제2 특징검출부(220)는 비전센서(120)가 장애물의 영상을 변환한 전기신호로부터 특징점을 추출할 수 있다.
제3 특징검출부(230)는 초음파센서(130)가 감지한 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭을 수행하게 된다. 여기서, 제3 특징검출부(230)는 초음파센서(130)가 측정한 장애물과의 거리로부터 특징점을 추출할 수 있다.
데이터베이스부(300)는 도 2를 참조하여 구체적으로 살펴보면, 제1 특징검출부(210)가 모델 기반의 매칭을 수행하기 위해 필요한 측위 정보가 저장되는 3D 모델 데이터베이스(310), 제2 특징검출부(220)가 모델 기반의 매칭을 수행하기 위해 필요한 측위 정보가 저장되는 신(장면) 모델 데이터베이스(320) 및 제3 특징검출부(230)가 모델 기반의 매칭을 수행하기 위해 필요한 측위 정보가 저장되는 관계형 데이터베이스(330)를 포함하여 구성된다.
다만, 데이터베이스부(300)는 3D 모델 데이터베이스(310), 신모델 데이터베이스(320) 및 관계형 데이터베이스(330)가 구성되는 것으로 한정하는 것이 아니며, 센서부(100)에 다른 종류의 센서가 추가 구성되어 특징검출부(200)에도 다른 특징검출부가 추가 구성되면, 추가 구성된 특징검출부가 모델 기반의 매칭을 수행하도록 별도의 데이터베이스가 더 구성되는 것이 바람직할 것이다.
데이터베이스부(300)에 구성된 데이터베이스 중 3D 모델 데이터베이스(310)는 장애물의 3차원 입체 데이터를 포함하는 측위 정보가 저장되는 데이터베이스를 의미한다.
이러한 3D 모델 데이터베이스(310)에 의해, 제1 특징검출부(210)는 3D 라이더(110)를 통해 추출한 특징점과 3D 모델 데이터베이스(310)에 저장된 장애물의 3차원 입체 데이터를 비교하여 일치되는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출할 수 있게 된다.
여기서, 제1 특징검출부(210)가 검출하는 특징값은 3D 라이더(110)가 3차원 입체 데이터로 감지한 장애물 정보와 3D 모델 데이터베이스(310)에 3차원 입체 데이터로 저장된 장애물 정보에서 일치되는 점의 그룹(또는 집합)으로 이해되어야 할 것이다.
신모델 데이터베이스(320)는 장애물의 신 데이터를 포함하는 측위 정보가 저장되는 데이터베이스를 의미한다.
이러한 신(Scene) 모델 데이터베이스(320)에 의해, 제2 특징검출부(220)는 비전센서(120)를 통해 추출한 특징점과 신 모델 데이터베이스(320)의 신(Scene) 데이터를 비교하여 일치되는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출할 수 있게 된다.
여기서, 제2 특징검출부(220)가 검출하는 특징값은 비전센서(120)가 이미지로 감지한 장애물 정보와 신 모델 데이터베이스(320)에 신 데이터로 저장된 장애물 정보에서 일치되는 이미지 또는 신(Secne, 장면)으로 이해되어야 할 것이다.
관계형 데이터베이스(330)는 초음파센서(130)가 발생시킨 초음파를 통해 재구성할 장애물 데이터가 저장되는 데이터베이스를 의미한다.
이러한 관계형 데이터베이스(330)에 의해, 제3 특징검출부(230)는 초음파센서(130)를 통해 추출한 특징점과 관계형 데이터베이스(330)의 장애물 데이터를 비교하여 일치되는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출할 수 있게 된다.
여기서, 제3 특징검출부(230)가 검출하는 특징값은 초음파센서(130)가 초음파를 통해 객체와의 거리가 계산된 데이터(예: 그래프, 표)를 포함하는 장애물 정보를 통해 관계형 데이터베이스(330)에서 재구성되는 장애물 데이터로 이해되어야 할 것이다.
퍼지매핑부(400)는 자연 언어 등의 불분명한 상태, 모호한 상태를 참 혹은 거짓의 이진 논리에서 벗어난 다치성으로 표현하는 논리개념인 퍼지논리(Fuzzy logic)가 적용되며, 이러한 퍼지논리를 기반으로 퍼지제어(Fuzzy control)를 수행하게 된다.
이러한 퍼지매핑부(400)는 도 2를 참조하여 구체적으로 살펴보면, 제1, 2, 3 특징검출부(210, 220, 230)에서 각각 검출한 특징값을 집합연산하도록 프로그래밍되는 집합연산부(410), 집합연산된 특징값간의 가중치를 산출하며, 산출된 가중치를 집합연산된 특징값에 부여하여 집합연산된 특징값을 보정하는 보정부(420), 보정된 특징값으로 물체 위치영역값과 장애물 위치값을 계산하는 위치계산부(430), 물치 위치영역값과 장애물 위치값이 계산될 때 초기맵을 생성하는 맵 생성부(440) 및 퍼지논리를 적용하도록 프로그래밍되는 퍼지제어부(450)를 포함하여 구성된다.
집합연산부(410)는 제1, 2, 3 특징검출부(210, 220, 230)에서 각각 검출한 특징값을 계층 구조로 집합연산한다.
더 나아가, 집합연산부(410)는 퍼지제어를 위한 퍼지집합을 수행하게 된다. 여기서, 퍼지집합이라 함은 특징값을 퍼지규칙(Fuzzy rule)에 따른 집합으로 정의하는 것을 의미한다.
*보정부(420)는 집합연산된 특징값 중 제1, 2, 3 특징검출부(210, 220, 230)에서 상대적으로 많은 매칭 수행을 통해 검출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출할 수 있다.
이러한 가중치를 산출하는 방식과 달리, 보정부(420)는 집합연산된 특징값 중 제1, 2, 3 특징검출부(210, 220, 230)에서 상대적으로 많은 특징점이 추출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출할 수도 있다.
또한, 보정부(420)는 전술한 가중치 산출 방식을 병합하여 제1, 2, 3 특징검출부(210, 220, 230)에서 상대적으로 많은 매칭 수행을 통해 검출되면서 상대적으로 많은 특징점이 추출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출할 수도 있다.
그리고 보정부(420)는 산출한 가중치를 집합연산된 특징값에 각각 부여하여 특징값이 보정되도록 하며, 이러한 보정부(420)를 통해 보정된 특징값은 집합연산부(410)에 계층형으로 집합된다.
더 나아가, 보정부(420)는 퍼지제어를 위한 퍼지화를 수행하게 된다. 여기서, 퍼지화라 함은 특징값을 퍼지규칙에 따른 소속함수를 가진 퍼지값으로 변환하는 것을 의미한다.
위치계산부(430)는 퍼지제어를 위한 역퍼지화를 수행하게 된다. 여기서, 역퍼지화라 함은 보정부(420)로부터 퍼지값으로 변환되는 보정된 특징값을 수치화하는 것을 의미한다. 여기서, 위치계산부(430)가 특징값을 수치화하는 것은 소속함수를 가지는 퍼지값으로는 물체 위치영역값과 장애물 위치값을 계산할 수 없기 때문이다.
이와 같이, 위치계산부(430)는 역퍼지화를 수행하여 보정된 특징값을 수치화하며, 수치화된 특징값으로부터 물체 위치영역 정보를 추출하여 물체 위치영역값을 계산한다. 여기서, 물체 위치영역값은 물체가 위치되는 지점을 포함하는 영역값이며, 수치화된 값을 의미한다.
또한, 위치계산부(430)는 수치화된 특징값으로부터 장애물 위치 정보를 추출하여 장애물의 위치값을 계산한다. 여기서, 장애물 위치값은 장애물이 위치되는 지점을 포함하는 값이며, 수치화된 값을 의미한다.
맵 생성부(440)는 위치계산부(430)에서 물체 위치영역값과 장애물 위치값이 계산될 때, 물체 위치영역값과 장애물 위치값에 따른 물체 위치영역과 장애물이 표시될 초기맵을 생성한다. 여기서, 초기맵이라 함은 어떠한 데이터도 입력되지 않은 상태의 맵으로 이해되는 것이 바람직할 것이다.
위치측위부(500)는 도 2를 참조하여 구체적으로 살펴보면, 맵 생성부(440)로부터 생성된 초기맵에 위치계산부(430)에서 계산된 물체 위치영역값에 따른 물체 위치영역과 장애물 위치값에 따른 장애물을 표시하는 표시부(510) 및 물체 위치영역 내에 표시된 장애물과 실제 물체 간의 거리를 계산하여 물체 위치영역 내에 물체 위치지점을 측정하는 위치지점 측정부(520)를 포함하여 구성된다.
표시부(510)는 초기맵을 표시하기 위한 디스플레이로 구성될 수 있으며, 물체 위치의 측위를 위해 초기맵에 적어도 하나 이상의 물체 위치영역과 장애물을 표시하는 것이 바람직할 것이다.
그리고 표시부(510)는 물체 위치영역과 장애물만 표시하는 것이 아니라, 물체 위치영역과 장애물의 정보를 추가 표시할 수 있다.
위치지점 측정부(520)는 GPS, MEMs, Wi-fi, RFID, bluetooth, 지그비, 무선랜, Rader/Laser, LBS 중 적어도 하나를 통해 물체 위치영역 내에 표시된 장애물과 실제 물체간의 거리를 계산하는 것이 바람직할 것이다. 그리고 위치지점 측정부(520)는 측정한 물체 위치지점이 맵에 표시되도록 한다.
측위 방법
도 3은 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위방법의 순서도이며, 도 4는 특징값 검출 단계의 세부 순서도이고, 도 5는 퍼지매핑 단계의 세부 순서도이며, 도 6은 물체 위치 측위 단계의 세부 순서도이고, 도 7은 물체 위치 측위 단계에 따라 물체의 위치가 측위되는 과정을 설명하기 위한 도면이다.
이러한 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 방법은 도 3을 참조하여 구체적으로 살펴보면, 물체의 주변에 위치한 장애물 정보를 감지하는 단계(S10), 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 특징점과 저장된 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 단계(S20), 특징값에 가중치를 부여하여 특징값을 보정하며, 보정된 특징값을 통해 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 물체 위치영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑 단계(S30) 및 물체 위치 영역과 장애물 위치가 반영된 맵으로부터 물체의 위치를 측위하는 단계(S40)를 포함한다.
먼저, 특징값 검출 단계(S20)는 도 4를 참조하여 구체적으로 살펴보면, 특징점 기반 매칭 단계(S21)와 모델 기반 매칭 단계(S22)로 이루어진다.
특징점 기반 매칭단계(S21)는 추출한 특징점을 기반으로 장애물을 인식하는 단계이다.
모델 기반 매칭 단계(S22)는 추출한 특징점과 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 단계이다.
한편, 특징값 검출 단계(S20)는 특징점 기반 매칭 단계(S21)를 진행한 후에 모델 기반 매칭 단계(S22)를 진행하거나, 특징점 기반 매칭 단계(S21)와 모델 기반 매칭 단계(S22)를 동시에 진행하게 된다.
퍼지매핑 단계(S30)는 도 5 및 도 7를 참조하여 구체적으로 살펴보면, 집합연산 단계(S31), 가중치 산출 단계(S32), 가중치 부여 단계(S33), 보정 단계(S34), 위치 계산 단계(S35) 및 초기맵 생성 단계(S36)로 이루어지며, 퍼지제어가 수행되는 단계이기도 하다.
집합연산 단계(S31)는 특징값 검출 단계(S20)에서 검출된 특징값을 계층형으로 집합연산하는 단계이며, 퍼지매핑 단계(S30)에서 퍼지제어를 위한 퍼지집합을 수행하는 단계이기도 하다.
가중치 산출 단계(S32)는 집합연산 단계(S31)에서 집합연산된 특징값에 가중치를 산출하는 단계이다. 여기서, 가중치는 전술한 본 발명의 위치 측위 시스템(10)의 구성요소인 보정부(420)를 통해 설명한 내용과 동일하므로 자세한 설명은 생략하도록 하겠다.
가중치 부여 단계(S33)는 가중치 산출 단계(S32)에서 산출한 가중치를 집합연산된 특징값에 부여하는 단계이다.
보정 단계(S34)는 가중치 부여 단계(S33)에서 부여된 가중치에 따라 특징값을 보정하는 단계이다. 이때, 특징값이 보정됨에 따라 집합연산 단계(S31)의 계층 집합구조는 변경될 수 있다.
한편, 전술한 가중치 산출 단계(S32), 가중치 부여 단계(S33), 보정 단계(34)는 퍼지매핑 단계(S30)에서 퍼지제어를 위한 퍼지화를 수행하는 단계이기도 하다.
위치 계산 단계(S35)는 보정 단계(S34)에서 보정된 특징값을 통해 물체 위치영역값과 장애물 위치값을 계산하는 단계로서, 구체적으로 살펴보면, 위치 계산 단계(S35)는 보정된 특징값에서 물체 위치영역 정보를 추출하여 물체 위치영역값을 계산하며, 보정된 특징값에서 장애물 위치 정보를 추출하여 장애물 위치값을 계산하는 단계이다. 이러한 위치 계산 단계(S35)는 퍼지매핑 단계(S30)에서 퍼지제어를 위한 역퍼지화를 수행하는 단계이기도 하다.
초기맵 생성 단계(S36)는 퍼지논리를 적용하여 위치 계산 단계(S35)에서 계산된 물체 위치영역값에 따른 물체 위치영역(2)과 장애물 위치값에 따른 장애물 위치(3)가 반영될 초기맵(1)을 생성한다. 이러한 초기맵(1)은 어떠한 데이터도 입력되지 않은 상태의 맵을 의미한다.
물체 위치 측위 단계(S40)는 도 6 및 도 7을 참조하여 구체적으로 살펴보면, 초기맵 표시 단계(S41) 및 물체 위치지점 측정 단계(S42)로 이루어진다.
초기맵 표시 단계(S41)는 위치 계산 단계(S35)에서 계산된 물체 위치영역값에 따른 물체 위치영역(2)과 장애물 위치값에 따른 장애물(3)을 초기맵 생성 단계(S36)에서 생성된 초기맵(1)에 표시하는 단계이다. 이러한 초기맵 표시 단계(S41)에서는 물체의 위치를 측위 하기 위해 적어도 하나의 물체 위치영역(2)과 장애물(3)이 표시되는 것이 바람직할 것이다.
여기서, 물체 위치영역(2)이라 함은 초기맵(1)에 표시되는 물체 위치지점(4)를 포함하는 일정 영역을 의미하며, 장애물(3)은 실제 장애물 위치와 동일한 위치에 존재하는 객체를 의미한다.
물체 위치지점 측정 단계(S42)는 초기맵 표시 단계(S41)를 통해 초기맵(1)에 표시된 물체 위치영역(2)내의 장애물(3a, 3b, 3c)과 실제 물체 간의 거리를 계산하여 물체 위치영역(2)내에서 물체 위치지점(4)을 측정하는 단계이다. 이때, 장애물(3a, 3b, 3c)은 물체 위치영역(2)의 위치에 따라 갯수가 달라질 수 있으며, 물체 위치지점(4)의 측정을 위해 적어도 하나인 것이 바람직할 것이다.
더 나아가, 물체 위치지점 측정 단계(S42)는 장애물(3a, 3b, 3c)와 실제 물체 간의 거리를 계산하기 위해 GPS, MEMs, Wi-fi, RFID, bluetooth, 지그비, 무선랜, Rader/Laser, LBS 중 적어도 하나가 사용되는 단계이기도 하다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (8)

  1. 이동되는 물체의 위치를 측위하기 위한 다종 센서 기반 위치인식 결과들을 혼합한 위치 측위 시스템에 있어서,
    상기 물체에 장착되며, 상기 물체의 주변에 위치한 장애물 정보를 감지하기 위한 다종 센서가 구성되는 센서부;
    상기 물체의 위치를 측위하기 위한 복수의 측위 정보가 저장되는 다종 데이터베이스가 구성되는 데이터베이스부;
    상기 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 상기 특징점과 상기 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 특징검출부;
    상기 특징값에 가중치를 부여하여 상기 특징값을 보정하며, 상기 보정된 특징값을 통해 상기 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 상기 물체 위치 영역과 상기 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑부; 및
    상기 물체 위치 영역과 상기 장애물 위치가 반영된 맵으로부터 상기 물체의 위치를 측위하는 위치측위부;를 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  2. 제 1 항에 있어서,
    상기 다종 센서는,
    3D 라이더, 비전센서 및 초음파센서를 적어도 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  3. 제 1 항에 있어서,
    상기 다종 데이터베이스는,
    3D 모델 데이터베이스, 이미지 모델 데이터베이스 및 관계형 데이터베이스를 적어도 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  4. 제 1 항에 있어서,
    상기 퍼지매핑부는,
    상기 특징값을 집합연산하도록 프로그래밍되는 집합연산부;
    상기 집합연산된 특징값간의 가중치를 산출하며, 상기 산출된 가중치를 상기 집합연산된 특징값에 부여하여 상기 집합연산된 특징값을 보정하는 보정부;
    상기 보정된 특징값으로 물체 위치영역값과 장애물 위치값을 계산하는 위치계산부;
    상기 물치 위치영역값과 상기 장애물 위치값이 계산될 때 상기 초기맵을 생성하는 맵 생성부; 및
    상기 퍼지논리를 적용하도록 프로그래밍되는 퍼지제어부;를 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  5. 제 4 항에 있어서,
    상기 보정부는,
    상기 집합연산된 특징값 중 상대적으로 많은 매칭 수행을 통해 검출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출하여 보정하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  6. 제 4 항에 있어서,
    상기 보정부는,
    상기 집합연산된 특징값 중 매칭 수행을 통해 상대적으로 많은 특징점이 추출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출하여 보정하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  7. 제 1 항에 있어서,
    상기 위치측위부는,
    상기 초기맵에 상기 물체 위치영역값에 따른 상기 물체 위치영역과 상기 장애물 위치값에 따른 장애물을 표시하는 표시부; 및
    상기 물체 위치영역 내에 표시된 장애물과 실제 물체 간의 거리를 계산하여 상기 물체 위치영역 내에 물체 위치지점을 측정하는 위치지점 측정부;를 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  8. 이동되는 물체의 위치를 측위하기 위한 다종 센서 기반 위치인식 결과들을 혼합한 위치 측위 방법에 있어서,
    상기 물체의 주변에 위치한 장애물 정보를 감지하는 단계;
    상기 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 상기 특징점과 저장된 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 단계;
    상기 특징값에 가중치를 부여하여 상기 특징값을 보정하며, 상기 보정된 특징값을 통해 상기 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 물체 위치영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑 단계; 및
    상기 물체 위치 영역과 상기 장애물 위치가 반영된 맵으로부터 상기 물체의 위치를 측위하는 단계;를 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 방법.
PCT/KR2019/008478 2018-10-10 2019-07-10 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법 WO2020075954A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201980066879.0A CN112823321B (zh) 2018-10-10 2019-07-10 对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0120261 2018-10-10
KR1020180120261A KR102075844B1 (ko) 2018-10-10 2018-10-10 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법

Publications (1)

Publication Number Publication Date
WO2020075954A1 true WO2020075954A1 (ko) 2020-04-16

Family

ID=69627423

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/008478 WO2020075954A1 (ko) 2018-10-10 2019-07-10 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법

Country Status (3)

Country Link
KR (1) KR102075844B1 (ko)
CN (1) CN112823321B (ko)
WO (1) WO2020075954A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111665855B (zh) * 2020-08-03 2022-08-30 陕西理工大学 一种机器人预设性编队控制方法
KR102541755B1 (ko) * 2021-05-24 2023-06-12 한국로봇융합연구원 고랑 인식 장치 및 방법
KR102558910B1 (ko) 2021-08-25 2023-07-21 한국로봇융합연구원 주변 환경을 고려한 신뢰도 높은 다종의 센서 데이터를 융합한 위치 측위 장치 및 방법
WO2023249550A2 (en) * 2022-06-20 2023-12-28 Grabtaxi Holdings Pte. Ltd. Method and device for placing road objects on map using sensor information
CN115576328B (zh) * 2022-11-15 2023-03-28 之江实验室 基于模糊控制器的机器人导航避障方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100108093A (ko) * 2009-03-27 2010-10-06 국방과학연구소 방향별 주행성 속도지도를 활용한 무인차량의 지역경로계획장치 및 방법
JP2012085223A (ja) * 2010-10-14 2012-04-26 Nikon Corp 撮影条件生成装置、撮像装置および撮影条件生成プログラム
KR101532320B1 (ko) * 2014-04-18 2015-07-22 국방과학연구소 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법
KR20180079428A (ko) * 2015-11-02 2018-07-10 스타쉽 테크놀로지스 오 자동 로컬리제이션을 위한 장치 및 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100866380B1 (ko) * 2007-02-13 2008-11-03 한국과학기술연구원 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법
KR100937096B1 (ko) * 2008-02-27 2010-01-15 성균관대학교산학협력단 센서융합 시스템 및 센서융합 방법
KR101255024B1 (ko) 2011-10-24 2013-04-17 한국과학기술연구원 초음파 센서를 이용한 상대적 위치 추정 시스템 및 방법
CN103176185B (zh) * 2011-12-26 2015-01-21 上海汽车集团股份有限公司 用于检测道路障碍物的方法及系统
WO2016103464A1 (ja) * 2014-12-26 2016-06-30 三菱電機株式会社 障害物検知装置及び障害物検知方法
KR20180007412A (ko) * 2016-07-13 2018-01-23 한국전자통신연구원 멀티센서 기반의 융합형 물체 감지 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100108093A (ko) * 2009-03-27 2010-10-06 국방과학연구소 방향별 주행성 속도지도를 활용한 무인차량의 지역경로계획장치 및 방법
JP2012085223A (ja) * 2010-10-14 2012-04-26 Nikon Corp 撮影条件生成装置、撮像装置および撮影条件生成プログラム
KR101532320B1 (ko) * 2014-04-18 2015-07-22 국방과학연구소 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법
KR20180079428A (ko) * 2015-11-02 2018-07-10 스타쉽 테크놀로지스 오 자동 로컬리제이션을 위한 장치 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
May 2018 (2018-05-01), pages 3 93 - 394 *

Also Published As

Publication number Publication date
CN112823321A (zh) 2021-05-18
KR102075844B1 (ko) 2020-02-10
CN112823321B (zh) 2024-04-16

Similar Documents

Publication Publication Date Title
WO2020075954A1 (ko) 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
US11127203B2 (en) Leveraging crowdsourced data for localization and mapping within an environment
WO2018139773A1 (ko) 무선 환경 변화에 강인한 slam 방법 및 장치
WO2017007089A1 (ko) 실내 환경에서 이동 로봇의 리로케이션 방법 및 장치
WO2017131334A1 (ko) 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법
WO2021112462A1 (ko) 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법
WO2014073841A1 (ko) 영상기반 실내 위치 검출방법 및 이를 이용한 휴대용 단말기
WO2018230845A1 (ko) 비전 정보에 기반한 위치 설정 방법 및 이를 구현하는 로봇
WO2020067751A1 (ko) 이종 센서 간의 데이터 융합 장치 및 방법
CN106289235A (zh) 基于建筑结构图的自主计算精度可控室内定位导航方法
KR20110046212A (ko) 인공 표식물의 지도 작성 방법 및 장치와 이를 이용한 이동체 위치 측정 방법 및 장치
WO2019139243A1 (ko) 자율주행을 위한 고정밀 지도의 업데이트 장치 및 방법
WO2020046038A1 (ko) 로봇 및 그의 제어 방법
WO2020159076A1 (ko) 랜드마크 위치 추정 장치와 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능한 기록매체
WO2020071619A1 (ko) 정밀 지도 업데이트 장치 및 방법
WO2019194424A1 (ko) 지도 데이터를 생성하는 전자 장치 및 그 동작 방법
WO2018124337A1 (ko) 적응적 관심영역 및 탐색창을 이용한 객체 검출 방법 및 장치
WO2021015435A1 (ko) 항공사진을 이용하여 3차원 지도를 생성하는 장치 및 방법
WO2016206108A1 (en) System and method for measuring a displacement of a mobile platform
WO2024019342A1 (ko) 인공지능 기반 유해 가스 누출 탐지 시스템 및 이의 동작 방법
WO2020189909A2 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
WO2019245320A1 (ko) 이미지 센서와 복수의 지자기 센서를 융합하여 위치 보정하는 이동 로봇 장치 및 제어 방법
KR100564236B1 (ko) 이동 로봇의 자기위치인식 장치 및 방법
WO2020071573A1 (ko) 딥러닝을 이용한 위치정보 시스템 및 그 제공방법
WO2021221334A1 (ko) Gps정보 및 라이다 신호를 기초로 형성되는 컬러 맵 생성 장치 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19871533

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19871533

Country of ref document: EP

Kind code of ref document: A1