WO2024117373A1 - 측위 및 방위각 추정 방법 - Google Patents

측위 및 방위각 추정 방법 Download PDF

Info

Publication number
WO2024117373A1
WO2024117373A1 PCT/KR2022/021550 KR2022021550W WO2024117373A1 WO 2024117373 A1 WO2024117373 A1 WO 2024117373A1 KR 2022021550 W KR2022021550 W KR 2022021550W WO 2024117373 A1 WO2024117373 A1 WO 2024117373A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensors
data
sensor
received
azimuth
Prior art date
Application number
PCT/KR2022/021550
Other languages
English (en)
French (fr)
Inventor
홍성훈
김수호
Original Assignee
재단법인 차세대융합기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 차세대융합기술연구원 filed Critical 재단법인 차세대융합기술연구원
Publication of WO2024117373A1 publication Critical patent/WO2024117373A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves

Definitions

  • the present invention relates to a positioning and azimuth estimation method, and more specifically, to a real-time positioning system that enables positioning and azimuth estimation of a moving object, etc. using multiple sensors and improves accuracy.
  • Wi-Fi-based positioning technology that measures location using the strength of RF (radio frequency) signals received from wireless LAN access point (AP) devices or the transmission delay of RF signals
  • RFID radio frequency identification
  • UWB ultra wide band
  • a tag device that transmits a UWB (ultra wide-band) signal three or more antennas that receive the UWB signal from; Three or more UWB signal detection units that are synchronized at the same time interval and detect the UWB signal in different time intervals; and a calculation unit that calculates the three-dimensional direction of the tag device using the time interval and arrival angle of each of the UWB signals detected by the three or more UWB signal detection units, wherein when the location of the tag location identification device is fixed, The calculation unit obtains a three-dimensional direction of the tag device from a peripheral tag location identification device, a first virtual vector extending from the tag location identification device in a three-dimensional direction of the tag device, and a first virtual vector extending from the peripheral tag location identification device to the tag device.
  • UWB ultra wide-band
  • a tag location identification device for identifying is disclosed.
  • This invention is the result of a joint research project between Korea Institute of Technology and Small and Medium Enterprises (AICT-2022-0009) conducted with funding from the Next Generation Convergence Technology Research Institute in 2022.
  • the purpose of the present invention to solve the above problems is to construct a real-time positioning system that can estimate the position and azimuth of a moving object, etc., in relation to a real-time positioning system that acquires only existing position information.
  • the configuration of the present invention for achieving the above object includes a server receiving step in which data is transmitted to a positioning and azimuth estimation server from each of a plurality of sensors for positioning installed on a moving object to be positioned; And a sensor reception determination step of determining whether data from two or more sensors is received from the positioning and azimuth server and determining the number of data from the received sensors, wherein the data received from two sensors among the plurality of sensors is determined.
  • a dual pose operation step in which an operation using data is performed, a triple pose operation step in which an operation is performed using data received from three of the plurality of sensors, and an operation using data received from four sensors among the plurality of sensors. It further includes one or more steps selected from among the performed quad pose calculation steps.
  • the dual pose calculation step includes: a first dual determination step of determining whether data from two sensors among the plurality of sensors is received; and a second dual decision step of determining whether data from two other sensors among the plurality of sensors are received.
  • a first dual calculation step of calculating the position and azimuth of the moving object using the data of the two sensors;
  • it may include a second dual calculation step of calculating the position and azimuth of the moving object using the data from the other two sensors.
  • the triple pose calculation step includes a 1-1 triple decision step of determining whether data from two sensors among the plurality of sensors is received; And it may include a 2-1 triple decision step of determining whether data from two other sensors among the plurality of sensors are received.
  • the triple pose calculation step includes a first step of determining whether data from one of the other two sensors is received when it is determined that data from some of the two sensors is received. 2Triple judgment stage; And when it is determined that data from one of the other two sensors is not received, it may include a 1-3 triple decision step of determining whether data from the other sensor of the other two sensors is received. there is.
  • the triple pose calculation step is performed when it is determined that data from one sensor or the other sensor among the other two sensors is received, one selected from the other two sensors. It may include a first triple calculation step of calculating the position and azimuth angle, rolling angle and pitching angle of the moving object using the sensor data and the data of the two sensors.
  • the triple pose calculation step is a step of determining whether data from one of the two sensors is received when it is determined that data from the other two sensors is received. 2-2Triple judgment stage; And when it is determined that data from one of the two sensors is not received, it may include a 2-3 triple decision step of determining whether data from the other sensor of the two sensors is received. there is.
  • the triple pose calculation step is performed when it is determined that data from one of the two sensors or the other sensor is received, one of the two sensors is selected. It may include a second triple calculation step of calculating the position and azimuth angle, rolling angle and pitching angle of the moving object using the sensor data and the data of the other two sensors.
  • the quad pose calculation step includes: a first quad calculation step of calculating a first position and a first azimuth of the moving object using data from two sensors among the plurality of sensors; a second quad operation step of calculating a second position and a second azimuth of the moving object using data from two other sensors among the plurality of sensors; And it may include a third quad calculation step of calculating an average position formed as an average of each of the first position and the second position coordinates, and an average azimuth that is an average of the first and second azimuths.
  • the quad pose calculation step calculates the first rolling angle and first pitching angle of the moving object using data from some of the two sensors and data from one of the other two sensors.
  • the quad pose calculation step calculates the third rolling angle and third pitching angle of the moving object using data from some of the two sensors and data from another sensor among the other two sensors.
  • the sixth quad operation step of calculating A seventh quad calculation step of calculating a fourth rolling angle and a fourth pitching angle of the moving object using data from the other two sensors and data from another of the two sensors; and calculating an average rolling angle that is an average of the first rolling angle, the second rolling angle, the third rolling angle, and the fourth rolling angle, and the first pitching angle, the second pitching angle, and the third pitching angle. It may include an eighth quad calculation step of calculating an average pitching angle, which is the average of the angle and the fourth pitching angle.
  • the effect of the present invention according to the above configuration is that, as multiple sensors are formed, even if some sensors become inoperable, three-dimensional coordinates, azimuth, rolling angle, pitching angle, etc. are derived when two or more sensors operate. Therefore, the reliability of positioning and direction angle estimation can be improved.
  • the effect of the present invention is that the accident risk range can be estimated only in the area where it is practically necessary, thereby minimizing space waste by setting the accident risk range and improving the quality of information by securing data on risk signals. will be.
  • 1 to 3 are schematic diagrams of positioning according to the prior art.
  • 4 to 6 are schematic diagrams of positioning and azimuth estimation according to each embodiment of the present invention.
  • FIGS 8 and 9 are schematic diagrams of positioning and azimuth estimation according to an embodiment of the present invention.
  • Figure 10 is a schematic diagram of positioning and azimuth calculation according to an embodiment of the present invention.
  • 11 and 12 are block diagrams of data transmission and reception according to each embodiment of the present invention.
  • 18 to 21 are simulation images for positioning and azimuth estimation according to an embodiment of the present invention.
  • a most preferred embodiment according to the present invention includes a server receiving step in which data is transmitted to a positioning and azimuth estimation server from each of a plurality of sensors for positioning installed on a moving object to be positioned; And a sensor reception determination step of determining whether data from two or more sensors is received from the positioning and azimuth server and determining the number of data from the received sensors, wherein the data received from two sensors among the plurality of sensors is determined.
  • a dual pose operation step in which an operation using data is performed, a triple pose operation step in which an operation is performed using data received from three of the plurality of sensors, and an operation using data received from four sensors among the plurality of sensors. It further includes one or more steps selected from among the performed quad pose calculation steps.
  • FIG. 1 is a schematic diagram of positioning using one sensor
  • FIG. 2 is a schematic diagram of the safety area formed around the moving object 10 when positioning using one sensor
  • FIG. 3 is a schematic diagram of positioning using one sensor.
  • This is a schematic diagram of vector detection of the moving object 10.
  • a plurality of detection units 200 that receive data from sensors installed on the mobile unit 10 are formed at a location distantly spaced from the mobile unit 10, and each detection unit 200 detects the sensor's After receiving and analyzing data, the derived 3D coordinate values can be transmitted to the sensor.
  • the positioning and azimuth estimation server 310 may receive data from the sensor and analyze and derive the three-dimensional coordinates (x v0 , y v0 , x v0 ) of the sensor. In the case of using a single sensor in this way, it is limited to deriving a single point for three-dimensional coordinates, and as shown in FIG. 2, each accident area 21 is formed only in a concentric circle shape based on one point. A danger area 22 and a caution area 23 may be formed.
  • the accident area 21 is an area where the probability of an accident occurring is 80% or more when a worker is located in the area
  • the risk area 22 is an area where the probability of an accident occurring is 50% to 80% when a worker is located in the area.
  • the caution area 23 may be an area where the probability of an accident occurring when a worker is located in the area is less than 50%.
  • the first sensor 110 when positioning is performed using only one sensor, the first sensor 110, relative position estimation is performed by a plurality of detection units 200, and the movement of the mobile object 10
  • the directions of each of the multiple vectors derived by the multiple sensing units 200 are different, so it may not be easy to estimate the azimuth.
  • FIGS. 4 to 6 are schematic diagrams of positioning and azimuth estimation according to each embodiment of the present invention. Specifically, Figure 4 is for a case where two sensors are formed, Figure 5 is for a case where three sensors are formed, and Figure 6 is for a case where four sensors are formed.
  • azimuth angle means yawing angle.
  • azimuth angle means yawing angle.
  • a plurality of sensors can be formed, and each of the plurality of sensors can be arranged to form a constant distance from the center of the moving object 10.
  • the number of sensors there is no limit to the number of sensors, and hereinafter, in the embodiment of the present invention, for convenience of explanation and understanding, a case where sensors are installed at the corners of a rectangular area where the center point of the moving object 10 coincides with the center point will be described. I decided to do it.
  • the three-dimensional coordinates and azimuth of the moving object 10 can be measured using data from the two sensors.
  • the three-dimensional coordinates, azimuth, rolling angle, and pitching of the moving object 10 are determined using data from the three sensors.
  • the pitching angle can be measured.
  • the three-dimensional coordinates, azimuth, rolling angle, and pitching angle of the moving object 10 are determined by using the data from the four sensors. It is calculated as a number, and each value can be derived as the average value of a plurality of calculated values.
  • the number of sensors is up to 4 is described, but the number of sensors can be more, and as multiple sensors are formed in this way, even if some sensors become inoperable, if two or more sensors operate, the Since 3D coordinates, azimuth, rolling angle, pitching angle, etc. can be derived, the reliability of positioning and direction angle estimation can be improved.
  • FIG. 7 is a schematic diagram of the formation of a risk area 22 according to position and azimuth estimation according to an embodiment of the present invention.
  • Figures 8 and 9 are schematic diagrams of position and azimuth estimation according to an embodiment of the present invention.
  • FIG. 8 shows the three-dimensional coordinates of the positions of each sensor and the detection unit 200 when two sensors are used
  • FIG. 9 shows the vector direction estimation display of the moving object 10 when two sensors are used.
  • each of the accident area 21, the danger area 22, and the caution area 23 can be formed in an oval shape, which is the shape of the area to which the moving object 10 is centered. .
  • each area is formed in an oval shape, and the area distribution of each area in front of the forklift is can be formed high.
  • the accident area 21, the danger area 22, and the caution area 23 each have directionality, so that the position of each area moves according to the three-dimensional position change of the moving object 10.
  • the long axis direction of each area may change according to a change in the azimuth of the moving object 10.
  • Figure 10 is a schematic diagram of positioning and azimuth calculation according to an embodiment of the present invention.
  • (a) of FIG. 10 relates to azimuth estimation calculation
  • (b) of FIG. 10 relates to the display of azimuth angle on the moving object 10.
  • two sensors arranged diagonally based on the center of the moving object 10 are used to connect the central axis of the moving direction of the moving object 10 and the two sensors.
  • the first sensor 110 and the second sensor 120 using the axial direction to derive the central axis of the moving object 10, that is, the azimuth angle, which is the directionality of the vector. can do.
  • is the angle formed by the reference axis (N-axis) that passes through the first sensor 110 and is parallel to the y-axis and the axis connecting the first sensor 110 and the second sensor 120, and ⁇ Can be calculated by [Equation 1] below.
  • x d is the x-axis distance between the first sensor 110 and the second sensor 120
  • y d is the y-axis distance between the first sensor 110 and the second sensor 120.
  • the azimuth angle ⁇ azm which is the angle formed by the central axis of the moving object 10 with respect to the reference axis, can be calculated using Equation 2 below.
  • ⁇ m is formed by an axis (a-axis) that passes through the center of the moving body 10 and is formed in the longitudinal direction of the moving body 10 and an axis connecting the first sensor 110 and the second sensor 120. It is an angle that becomes
  • Figure 11 and 12 are block diagrams of data transmission and reception according to each embodiment of the present invention.
  • Figure 11 is a block for equipment configuration when the position and azimuth estimation method of the present invention is used in a UWB-based positioning system. Here, it relates to the application of the position and azimuth estimation method of the present invention indoors.
  • Figure 12 is a block for equipment configuration when the positioning and azimuth estimation method of the present invention is used in GNSS. Here, it relates to the application of the positioning and azimuth estimation method of the present invention outdoors.
  • the positioning and azimuth estimation method of the present invention can be applied to various positioning technologies.
  • the sensor when used in a UWB-based positioning system, the sensor is a tag and the detection unit 200 ) is an anchor, and when used in GNSS (Global Navigation Satellite System), the sensor may be a GNSS sensor and the detection unit 200 may be a satellite.
  • GNSS Global Navigation Satellite System
  • the positioning and azimuth estimation method of the present invention can be used in various ways, such as a Wi-Fi-based positioning system, BLE (Bluetooth Low Energy)-based positioning system, and Zigbee-based positioning system.
  • a first tag 151 and a second tag 152 are formed as sensors, and a first anchor 211, a second anchor 212, and a third anchor 213 are formed as the sensing unit 200.
  • the fourth anchor 214 is formed, data is exchanged between each anchor and each tag, data is exchanged between each tag and the gateway unit 320, which is a gateway device, and the gateway unit 320 and Data may be exchanged between the positioning and azimuth estimation servers 310.
  • the first GNSS sensor 161 and the second GNSS sensor 162 are formed as sensors, and the first satellite 221, second satellite 222, and third satellite are formed as the sensing unit 200.
  • the gateway unit 320 which is a gateway device, and the gateway unit Data may be exchanged between 320 and the positioning and azimuth estimation server 310.
  • Figure 13 to 17 are flowcharts of each embodiment of the present invention.
  • Figure 13 generally shows the entire sequence of the positioning and azimuth estimation method of the present invention
  • Figure 14 is a flowchart showing judgment according to the number of data from sensors in the positioning and azimuth estimation method of the present invention.
  • Figure 15 is a flowchart for the dual pose calculation step (S200)
  • Figure 16 is a flowchart for the triple pose calculation step (S300)
  • Figure 17 is a flowchart for the quad pose calculation step (S400).
  • the position and azimuth estimation method of the present invention first transmits data to the position and azimuth estimation server 310 from each of a plurality of sensors for positioning installed on the moving object 10 to be positioned.
  • the server reception step (S101) can be performed.
  • the server receiving step (S101) includes a data exchange step between the sensing unit 200 and the sensor, where data is exchanged between the sensor and the sensing unit 200, which measures the three-dimensional position of the sensor by exchanging data with the sensor;
  • a sensor-gateway unit 320 data exchange step in which data is exchanged between the sensor and the gateway unit 320;
  • it may include a gateway unit 320-server data exchange step in which data is exchanged between the gateway unit 320 and the positioning and azimuth estimation server 310.
  • the positioning and azimuth estimation method of the present invention can be applied to various positioning systems, and data between the sensor 200 and the sensor are used to measure the position, azimuth, rolling angle, pitching angle, etc. of the sensor. is exchanged, data can be exchanged between the sensor and the gateway unit 320, and data can be exchanged between the gateway unit 320 and the positioning and azimuth estimation server 310.
  • the positioning and azimuth server determines whether data from two or more sensors are received, and determines the number of data from the received sensors. A judgment step can be performed.
  • a first sensor number determination step may be performed to determine whether the number of sensor data received from multiple sensors in the positioning and azimuth server is two or more.
  • the server reception step (S101), which is the starting step, may be performed. And, if it is determined in the first sensor number determination step (S110) that the number of sensor data received from multiple sensors is two or more, a second sensor number determination to determine whether the number of sensor data received from multiple sensors is two. Step S120 may be performed.
  • the positioning and azimuth estimation method of the present invention uses data received from two of the plurality of sensors.
  • a dual pose calculation step (S200) in which calculations are performed can be performed.
  • Step S130 may be performed.
  • the positioning and azimuth estimation method of the present invention uses data received from three of the plurality of sensors.
  • the triple pose calculation step (S300) in which the calculation is performed can be performed.
  • Step S140 may be performed.
  • the position and azimuth estimation method of the present invention may be terminated.
  • multiple sensors refer to four sensors, and the four sensors may be arranged as shown in FIG. 6. That is, four sensors are arranged at each vertex of the rectangular area, the first sensor 110 and the third sensor 130 are arranged diagonally, and the second sensor 120 and the fourth sensor 140 are arranged diagonally. It can be.
  • a first dual determination step (S211) may be performed to determine whether data from two sensors among a plurality of sensors is received.
  • a first dual calculation step (S212) of calculating the position and azimuth of the moving object 10 using data from two sensors, the first sensor 110 and the third sensor 130, may be performed.
  • the sensors used for calculation are the first sensor 110 and the third sensor 130, and the data of each of the first sensor 110 and the third sensor 130 and the above [Equation 1] and [Equation 1] and [Equation 1] and [Equation 1] and [Equation 1] and [Equation 1] and [Equation 1] and Using Equation 2], the position and azimuth of the mobile object 10 can be calculated.
  • a second dual determination step (S221) may be performed to determine whether data from two other sensors among the plurality of sensors, that is, data from the second sensor 120 and the fourth sensor 140, are received.
  • a second dual calculation step (S222) of calculating the position and azimuth of the moving object 10 using data from two other sensors may be performed.
  • the sensors used for calculation are the second sensor 120 and the fourth sensor 140, and the data of each of the second sensor 120 and the fourth sensor 140 and the above [Equation 1] and [Equation 1] and [Equation 1] and [Equation 1] and [Equation 1] and Using Equation 2], the position and azimuth of the mobile object 10 can be calculated.
  • an end step may be performed.
  • the triple pose calculation step (S300) includes a 1-1 triple decision step (S311) that determines whether data from two sensors among a plurality of sensors is received; And it may include a 2-1 triple decision step (S321) that determines whether data from two other sensors among the plurality of sensors are received.
  • the 1-1 triple decision step (S311) when it is determined that data from two sensors are received, that is, data from the first sensor 110 and the third sensor 130 among the four sensors are received. If it is determined, the 1-2 triple to determine whether data from one of the other two sensors, that is, data from the second sensor 120 of the second sensor 120 and the fourth sensor 140, is received. A determination step (S312) may be performed.
  • the 1-2 triple decision step (S312), when it is determined that data from one of the other two sensors is not received, that is, it is determined that data from the second sensor 120 is not received.
  • the 1-3 triple judgment step of determining whether data from one of the other two sensors, that is, data from the fourth sensor 140 among the second sensor 120 and the fourth sensor 140, is received. (S313) can be performed.
  • the triple pose calculation step (S300) when data from one sensor or the other sensor among the other two sensors is received, data from one sensor selected from the other two sensors and data from some two sensors are received. It may include a first triple calculation step of calculating the position and azimuth, rolling angle, and pitching angle of the moving object 10.
  • the first triple operation step is a 1-1 triple operation step of calculating the position and azimuth of the moving object 10 using data from one sensor selected from among the other two sensors and data from two sensors ( S314); And it may include a 1-2 triple calculation step (S315) of calculating the rolling angle and pitching angle of the moving object 10 using data from one sensor selected from among the other two sensors and data from two sensors. .
  • the first sensor 110, the second sensor 120, and the third sensor 130 After the 1-1 triple calculation step (S314) of calculating the position and azimuth of the moving object 10 using is performed, the first sensor 110, the second sensor 120, and the third sensor 130 A 1-2 triple calculation step (S315) of calculating the rolling angle and pitching angle of the moving object 10 may be performed.
  • the sensors used to calculate positioning and azimuth are the first sensor 110 and the third sensor 130, and the data of each of the first sensor 110 and the third sensor 130 and the above [Equation 1] ] and [Equation 2], etc., the position and azimuth of the mobile object 10 can be calculated.
  • the first sensor 110, the second sensor 120, and the third sensor 130 are used to calculate the rolling angle and pitching angle, and the a and b axes in (b) of Figure 10 are in the x-y plane.
  • the rolling angle of the moving object 10 can be derived by calculating the rotation angle based on the a-axis using the coordinates of the first sensor 110 and the second sensor 120.
  • the pitching angle of the moving object 10 can be derived by calculating the rotation angle based on the b-axis using the coordinates of the second sensor 120 and the third sensor 130.
  • the termination step may be performed.
  • the 2-1 triple decision step (S321) when it is determined that data from two other sensors are received, that is, data from the second sensor 120 and the fourth sensor 140 among the four sensors are received. If it is determined, the 2-2 triple to determine whether data from one of the two sensors, that is, data from the first sensor 110 of the first sensor 110 and the third sensor 130, is received. A determination step (S322) may be performed.
  • a 2-3 triple decision step (S323) may be performed to determine whether data from the other of the two sensors, that is, data from the third sensor 130, is received.
  • the triple pose calculation step (S300) when it is determined that data from one sensor or the other sensor among two sensors is received, data from one sensor selected from among two sensors and the other two sensors are received. It may include a second triple calculation step of calculating the position, azimuth, rolling angle, and pitching angle of the moving object 10 using the data.
  • the second triple operation step is a 2-1 triple operation step of calculating the position and azimuth of the moving object 10 using data from one sensor selected from among two sensors and data from the other two sensors ( S324); And it may include a 2-2 triple calculation step (S325) of calculating the rolling angle and pitching angle of the moving object 10 using data from one sensor selected from among the two sensors and data from the other two sensors. .
  • the first sensor 110, the second sensor 120, and the fourth sensor 140 After the 2-1 triple calculation step (S324) of calculating the position and azimuth of the moving object 10 using is performed, the first sensor 110, the second sensor 120, and the fourth sensor 140
  • the 2-2 triple calculation step (S325) of calculating the rolling angle and pitching angle of the moving object 10 can be performed.
  • the sensors used to calculate positioning and azimuth are the second sensor 120 and the fourth sensor 140, and the data of each of the second sensor 120 and the fourth sensor 140 and the above [Equation 1] ] and [Equation 2], etc., the position and azimuth of the mobile object 10 can be calculated.
  • the first sensor 110, the second sensor 120, and the fourth sensor 140 are used to calculate the rolling angle and pitching angle, and the a and b axes in (b) of Figure 10 are in the x-y plane.
  • the rolling angle of the moving object 10 can be derived by calculating the rotation angle based on the a-axis using the coordinates of the first sensor 110 and the second sensor 120.
  • the pitching angle of the moving object 10 can be derived by calculating the rotation angle based on the b-axis using the coordinates of the first sensor 110 and the fourth sensor 140.
  • the termination step may be performed.
  • the termination step may be performed even when it is determined that the second sensor 120 and the fourth sensor 140 are not received in the 2-1 triple decision step (S321).
  • a third quad calculation step (S430) of calculating the average position formed as the average of each of the first position and the second position coordinates and the mean azimuth that is the average of the first and second azimuths can be performed.
  • the sensors used for calculation are the first sensor 110 and the third sensor 130, and each of the data of the first sensor 110 and the third sensor 130 And using [Equation 1] and [Equation 2] described above, the first position and the first azimuth can be calculated.
  • the sensors used for calculation are the second sensor 120 and the fourth sensor 140.
  • the second position and the second azimuth can be calculated using the data of each sensor 140 and the above-mentioned [Equation 1] and [Equation 2].
  • the average positioning can be derived by calculating the average of each of the first positioning coordinates and each of the second positioning coordinates.
  • the average azimuth can be derived by calculating the average of the first azimuth and the second azimuth.
  • the 8th quad calculation step (S480) of calculating the average pitching angle can be performed.
  • the sensors used for calculation are the first sensor 110, the second sensor 120, and the third sensor 130.
  • the rotation angle based on the a-axis using the coordinates of the first sensor 110 and the second sensor 120 The first rolling angle of the moving object 10 can be derived by calculating .
  • the first pitching angle of the moving object 10 can be derived by calculating the rotation angle based on the b-axis using the coordinates of the second sensor 120 and the third sensor 130.
  • the sensors used for calculation are the first sensor 110, the second sensor 120, and the fourth sensor 140, Figure 10
  • the rotation angle based on the a-axis is calculated using the coordinates of the first sensor 110 and the second sensor 120.
  • the second rolling angle of the moving object 10 can be derived.
  • the second rolling angle may be an angle recalculated in the same manner as the first rolling angle.
  • the second pitching angle of the moving object 10 can be derived by calculating the rotation angle based on the b-axis using the coordinates of the first sensor 110 and the fourth sensor 140.
  • the sensors used for calculation are the first sensor 110, the third sensor 130, and the fourth sensor 140, Figure 10
  • the rotation angle based on the a axis is calculated using the coordinates of the third sensor 130 and the fourth sensor 140.
  • the third rolling angle of the moving object 10 can be derived.
  • the third pitching angle of the moving object 10 can be derived by calculating the rotation angle based on the b-axis using the coordinates of the first sensor 110 and the fourth sensor 140.
  • the third pitching angle may be an angle recalculated in the same manner as the second pitching angle.
  • the sensors used for calculation are the second sensor 120, the third sensor 130, and the fourth sensor 140, Figure 10
  • the rotation angle based on the a axis is calculated using the coordinates of the third sensor 130 and the fourth sensor 140.
  • the fourth rolling angle of the moving object 10 can be derived.
  • the fourth rolling angle may be an angle recalculated in the same manner as the third rolling angle.
  • the fourth pitching angle of the moving object 10 can be derived by calculating the rotation angle based on the b-axis using the coordinates of the second sensor 120 and the fourth sensor 140.
  • the average rolling angle is calculated by calculating the average of the first rolling angle, the second rolling angle, the third rolling angle, and the fourth rolling angle. You can. Then, the average pitching angle can be derived by calculating the average of the first pitching angle, the second pitching angle, the third pitching angle, and the fourth pitching angle.
  • the position and azimuth of the moving object 10 can be derived by performing the dual pose calculation step (S200), and the position, azimuth, and rolling angle of the moving object 10 can be derived by performing the triple pose calculation step (S300). And the pitching angle can be derived, and the average position, average azimuth, average rolling angle, and average pitching angle of the moving object 10 can be derived by performing the quad pose calculation step (S400). Additionally, an accident risk range adjustment step may be performed to control the display of the accident risk range of the mobile object 10 using each value.
  • the data derived from each pose calculation step can be applied to the accident area 21, danger area 22, and caution area 23 set in the moving object 10 of the present invention, and accordingly, the oval-shaped accident area ( 21), it is easy to estimate the direction of each of the danger area (22) and the caution area (23), and the accident risk range due to each of the above-mentioned areas can be estimated only in the areas where it is practically necessary, thus wasting space by setting the accident risk range
  • the quality of information can also be improved by minimizing and securing data on risk signals.
  • 18 to 21 are simulation images for positioning and azimuth estimation according to an embodiment of the present invention.
  • Figure 18 (a) is for the azimuth estimation simulation of the moving object 10 using the first sensor 110 and the third sensor 130
  • Figure 18 (b) is for the second sensor 120 and the fourth sensor 130. This relates to azimuth estimation simulation of the moving object 10 by the sensor 140. As shown in Figure 18, it can be seen from the simulation results that the positioning (x-coordinate, y-coordinate, z-coordinate) and azimuth (azimuth) can be easily estimated.
  • Figure 19(a) is for the azimuth estimation simulation of the moving object 10 using the second sensor 120, third sensor 130, and fourth sensor 140
  • Figure 19(b) is for the first sensor 120. This relates to azimuth estimation simulation of the moving object 10 by the sensor 110, the third sensor 130, and the fourth sensor 140
  • Figure 20 (a) is for the azimuth estimation simulation of the moving object 10 using the first sensor 110, second sensor 120, and fourth sensor 140
  • Figure 20 (b) is This is about azimuth estimation simulation of a moving object 10 by the first sensor 110, the second sensor 120, and the third sensor 130.
  • Figures 19 and 20 it can be seen from the simulation results that the positioning (x-coordinate, y-coordinate, z-coordinate) and azimuth can be easily estimated.
  • FIG. 20 shows an azimuth estimation simulation of the moving object 10 using the first sensor 110, the second sensor 120, the third sensor 130, and the fourth sensor 140. As shown in Figure 20, it can be seen from the simulation results that the positioning (x-coordinate, y-coordinate, z-coordinate) and azimuth (azimuth) can be easily estimated.
  • the initial position of the robot is estimated with respect to the 2-dimensional or 3-dimensional map used for autonomous driving of the mobile object 10, etc. This makes it possible to increase the level of automation for autonomous driving over a wide range of spaces.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명의 일 실시 예는 다수의 센서를 이용하여 이동체 등의 측위 및 방위각 추정이 가능하고 정밀도를 향상시킨 실시간 측위 시스템을 제공한다. 본 발명의 실시 예에 따른 측위 및 방위각 추정 방법은, 위치결정될 이동체에 설치된 측위용 다수의 센서 각각으로부터 측위 및 방위각 추정 서버로 데이터가 송신되는 서버수신단계; 및 측위 및 방위각 서버에서 2개 이상의 센서의 데이터가 수신되는지 판단하고, 수신된 센서의 데이터의 수를 판단하는 센서수신판단단계를 포함하고, 다수의 센서 중 2개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 듀얼포즈연산단계, 다수의 센서 중 3개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 트리플포즈연산단계, 및 다수의 센서 중 4개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 쿼드포즈연산단계 중 선택되는 하나 이상의 단계를 더 포함한다.

Description

측위 및 방위각 추정 방법
본 발명은 측위 및 방위각 추정 방법에 관한 것으로, 더욱 상세하게는, 다수의 센서를 이용하여 이동체 등의 측위 및 방위각 추정이 가능하고 정밀도를 향상시킨 실시간 측위 시스템에 관한 것이다.
스마트건설 등 현장에서의 ICT 정보화가 중요 시 되는 상황에서, 실내/외 대상체에 대한 위치 및 방위각 측량 기술이 관리 측면에서의 인력 및 자원 소모를 줄이는 역할을 할 수 있을 것으로 기대됨에 따라, 관련 기술에 대한 연구 개발이 지속적으로 증가하고 있다.
현재 개발된 측위 기술로는, 무선랜의 AP(access point) 기기들로부터 수신되는 RF(radio frequency) 신호를 세기를 이용하거나 RF 신호의 전달 지연을 이용하여 위치를 측정하는 와이파이 기반 측위 기술, 수신된 RF 신호의 수신 강도를 측정하여 신호 감쇄로 인한 신호 전달 거리를 측정하여 위치를 측정하는 RFID(radio frequency identification) 기반 측위 기술, 또는 광대역 주파수 대역을 활용하여 목표물의 위치를 측정하는 UWB(ultra wide band, 이하 'UWB') 기반 측위 기술 등이 이용되고 있다.
대한민국 등록특허 제10-1902715호(발명의 명칭: UWB 신호를 이용하는 태그 위치 식별 방법 및 그 태그 위치 식별 장치)에서는, 태그 위치 식별 장치에 있어서, UWB(ultra Wide-band) 신호를 송출하는 태그 장치로부터 상기 UWB 신호를 수신하는 세 개 이상의 안테나; 동일한 시간 간격으로 동기화되며, 서로 다른 시간 구간에서 상기UWB 신호를 검출하는 세 개 이상의 UWB 신호검출부; 및 상기 세 개 이상의 UWB 신호 검출부에서 검출된 UWB 신호들 각각의 시간 구간 및 도착 각도를 이용하여 상기 태그 장치의 삼차원 방향을 산출하는 산출부를 포함하되, 상기 태그 위치 식별 장치의 위치가 고정적인 경우, 상기 산출부는 주변 태그 위치 식별 장치로부터 상기 태그 장치의 삼차원 방향을 획득하며, 상기 태그 위치 식별 장치로부터 상기 태그 장치의 삼차원 방향으로 연장되는 제1 가상 벡터와, 상기 주변 태그 위치 식별 장치로부터 상기 태그 장치의 삼차원 방향으로 연장되는 제2 가상 벡터의 교차점을 이용하여, 상기 태그 위치 식별 장치와 상기 태그 장치 간의 거리값을 산출하고, 상기 태그 장치의 삼차원 방향 및 상기 거리값을 기초로 상기 태그 장치의 위치를 식별하는 것인 태그 위치 식별 장치가 개시되어 있다.
<선행기술문헌>
대한민국 등록특허 제10-1902715호
(연구 과제 정보)
본 발명은 2022년도 (재)차세대융합기술연구원의 재원으로 지원을 받아 수행된 융기원-중소기업 공동기획연구(AICT-2022-0009)의 성과입니다.
과제고유번호: AICT-2022-0009
연구사업명: 융기원-중소기업 공동기획연구
연구과제명: 로봇 기술이 적용된 영상/촬영장비 진동 저감 기술개발
기여율: 100%
주관기관: 차세대융합기술연구원
연구기간: 2022. 04. 01. ~ 2022. 11. 30.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 기존 위치 정보만을 취득하는 실시간 측위 시스템에 대해 이동체 등의 측위 및 방위각 추정이 가능한 실시간 측위 시스템을 구성하는 것이다.
본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기와 같은 목적을 달성하기 위한 본 발명의 구성은, 위치결정될 이동체에 설치된 측위용 다수의 센서 각각으로부터 측위 및 방위각 추정 서버로 데이터가 송신되는 서버수신단계; 및 상기 측위 및 방위각 서버에서 2개 이상의 센서의 데이터가 수신되는지 판단하고, 수신된 센서의 데이터의 수를 판단하는 센서수신판단단계를 포함하고, 상기 다수의 센서 중 2개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 듀얼포즈연산단계, 상기 다수의 센서 중 3개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 트리플포즈연산단계, 및 상기 다수의 센서 중 4개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 쿼드포즈연산단계 중 선택되는 하나 이상의 단계를 더 포함한다.
본 발명의 실시 예에 있어서, 상기 듀얼포즈연산단계는, 상기 다수의 센서 중 일부 2개의 센서의 데이터가 수신되는지 판단하는 제1듀얼판단단계; 및 상기 다수의 센서 중 다른 2개의 센서의 데이터가 수신되는지 판단하는 제2듀얼판단단계; 상기 일부 2개의 센서데이터가 수신되는 것으로 판단되는 경우, 상기 일부 2개의 센서의 데이터를 이용하여 상기 이동체의 측위 및 방위각을 연산하는 제1듀얼연산단계; 및 상기 다른 2개의 센서의 데이터가 수신되는 것으로 판단되는 경우, 상기 다른 2개의 센서의 데이터를 이용하여 상기 이동체의 측위 및 방위각을 연산하는 제2듀얼연산단계를 포함할 수 있다.
본 발명의 실시 예에 있어서, 상기 트리플포즈연산단계는, 상기 다수의 센서 중 일부 2개의 센서의 데이터가 수신되는지 판단하는 제1-1트리플판단단계; 및 상기 다수의 센서 중 다른 2개의 센서의 데이터가 수신되는지 판단하는 제2-1트리플판단단계를 포함할 수 있다.
본 발명의 실시 예에 있어서, 상기 트리플포즈연산단계는, 상기 일부 2개의 센서의 데이터가 수신되는 것으로 판단되는 경우, 상기 다른 2개의 센서 중 어느 하나의 센서의 데이터가 수신되는지 판단하는 제1-2트리플판단단계; 및 상기 다른 2개의 센서 중 어느 하나의 센서의 데이터가 수신되지 않는 것으로 판단되는 경우, 상기 다른 2개의 센서 중 다른 하나의 센서의 데이터가 수신되는지 판단하는 제1-3트리플판단단계를 포함할 수 있다.
본 발명의 실시 예에 있어서, 상기 트리플포즈연산단계는, 상기 다른 2개의 센서 중 어느 하나의 센서 또는 다른 하나의 센서의 데이터가 수신되는 것으로 판단되는 경우, 상기 다른 2개의 센서 중 선택되는 하나의 센서의 데이터 및 상기 일부 2개의 센서의 데이터를 이용하여 상기 이동체의 측위 및 방위각, 롤링각과 피칭각을 연산하는 제1트리플연산단계를 포함할 수 있다.
본 발명의 실시 예에 있어서, 상기 트리플포즈연산단계는, 상기 다른 2개의 센서의 데이터가 수신되는 것으로 판단되는 경우, 상기 일부 2개의 센서의 데이터 중 어느 하나의 센서의 데이터가 수신되는지 판단하는 제2-2트리플판단단계; 및 상기 일부 2개의 센서 중 어느 하나의 센서의 데이터가 수신되지 않는 것으로 판단되는 경우, 상기 일부 2개의 센서 중 다른 하나의 센서의 데이터가 수신되는지 판단하는 제2-3트리플판단단계를 포함할 수 있다.
본 발명의 실시 예에 있어서, 상기 트리플포즈연산단계는, 상기 일부 2개의 센서 중 어느 하나의 센서 또는 다른 하나의 센서의 데이터가 수신되는 것으로 판단되는 경우, 상기 일부 2개의 센서 중 선택되는 하나의 센서의 데이터 및 상기 다른 2개의 센서의 데이터를 이용하여 상기 이동체의 측위 및 방위각, 롤링각과 피칭각을 연산하는 제2트리플연산단계를 포함할 수 있다.
본 발명의 실시 예에 있어서, 상기 쿼드포즈연산단계는, 상기 다수의 센서 중 일부 2개의 센서의 데이터를 이용하여 상기 이동체의 제1측위 및 제1방위각을 연산하는 제1쿼드연산단계; 상기 다수의 센서 중 다른 2개의 센서의 데이터를 이용하여 상기 이동체의 제2측위 및 제2방위각을 연산하는 제2쿼드연산단계; 및 상기 제1측위와 상기 제2측위 좌표 각각의 평균으로 형성되는 평균측위 및 상기 제1방위각과 상기 제2방위각의 평균인 평균방위각을 연산하는 제3쿼드연산단계를 포함할 수 있다.
본 발명의 실시 예에 있어서, 상기 쿼드포즈연산단계는, 상기 일부 2개의 센서의 데이터와 상기 다른 2개의 센서 중 어느 하나의 센서의 데이터를 이용하여 상기 이동체의 제1롤링각과 제1피칭각을 연산하는 제4쿼드연산단계; 및 상기 다른 2개의 센서의 데이터와 상기 일부 2개의 센서 중 어느 하나의 센서의 데이터를 이용하여 상기 이동체의 제2롤링각과 제2피칭각을 연산하는 제5쿼드연산단계를 포함할 수 있다.
본 발명의 실시 예에 있어서, 상기 쿼드포즈연산단계는, 상기 일부 2개의 센서의 데이터와 상기 다른 2개의 센서 중 다른 하나의 센서의 데이터를 이용하여 상기 이동체의 제3롤링각과 제3피칭각을 연산하는 제6쿼드연산단계; 상기 다른 2개의 센서의 데이터와 상기 일부 2개의 센서 중 다른 하나의 센서의 데이터를 이용하여 상기 이동체의 제4롤링각과 제4피칭각을 연산하는 제7쿼드연산단계; 및 상기 제1롤링각, 상기 제2롤링각, 상기 제3롤링각 및 상기 제4롤링각의 평균인 평균롤링각을 연산하고, 상기 제1피칭각, 상기 제2피칭각, 상기 제3피칭각 및 상기 제4피칭각의 평균인 평균피칭각을 연산하는 제8쿼드연산단계를 포함할 수 있다.
상기와 같은 구성에 따른 본 발명의 효과는, 다중의 센서가 형성됨에 따라, 일부 센서의 작동 불능이 발생하더라도, 2개 이상의 센서가 작동하면 3차원 좌표, 방위각, 롤링각, 피칭각 등을 도출할 수 있으므로, 측위 및 방향각 추정의 신뢰도를 향상시킬 수 있다는 것이다.
그리고, 본 발명의 효과는, 실질적으로 필요한 영역에서만 사고 위험 범위를 추정할 수 있으므로, 사고 위험 범위 설정에 의한 공간낭비를 최소화하고, 위험 신호에 대한 데이터 확보에 의한 정보의 질도 향상될 수 있다는 것이다.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.
도 1 내지 도 3은 종래기술에 따른 측위에 대한 모식도이다.
도 4 내지 도 6은 본 발명의 각 실시 예에 따른 측위 및 방위각 추정에 대한 모식도이다.
도 7은 본 발명의 일 실시 예에 따른 측위 및 방위각 추정에 따른 위험 영역 형성에 대한 모식도이다.
도 8과 도 9는 본 발명의 일 실시 예에 따른 측위 및 방위각 추정에 대한 모식도이다.
도 10은 본 발명의 일 실시 예에 따른 측위 및 방위각 연산에 대한 모식도이다.
도 11과 도 12는 본 발명의 각 실시 예에 따른 데이터 송수신에 대한 블록도이다.
도 13 내지 도 17은 본 발명의 각 실시 예의 순서도이다.
도 18 내지 도 21은 본 발명의 일 실시 예에 따른 측위 및 방위각 추정에 대한 시뮬레이션 이미지이다.
본 발명에 따른 가장 바람직한 일 실시예는, 위치결정될 이동체에 설치된 측위용 다수의 센서 각각으로부터 측위 및 방위각 추정 서버로 데이터가 송신되는 서버수신단계; 및 상기 측위 및 방위각 서버에서 2개 이상의 센서의 데이터가 수신되는지 판단하고, 수신된 센서의 데이터의 수를 판단하는 센서수신판단단계를 포함하고, 상기 다수의 센서 중 2개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 듀얼포즈연산단계, 상기 다수의 센서 중 3개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 트리플포즈연산단계, 및 상기 다수의 센서 중 4개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 쿼드포즈연산단계 중 선택되는 하나 이상의 단계를 더 포함한다.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시 예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 첨부된 도면을 참고하여 본 발명에 대하여 상세히 설명하기로 한다.
도 1과 도 3은 종래기술에 따른 측위에 대한 모식도이다. 여기서, 도 1은 하나의 센서를 이용한 측위에 대한 모식도이고, 도 2는 하나의 센서를 이용한 측위 시 이동체(10) 주위에 형성된 안전 영역에 대한 모식도이며, 도 3은 하나의 센서를 이용한 측위 시, 이동체(10)의 벡터 감지에 대한 모식도이다.
도 1에서 보는 바와 같이, 이동체(10)로부터 원거리 이격된 위치에는 이동체(10)에 설치된 센서의 데이터를 수신하는 다수의 감지부(200)가 형성되며, 각각의 감지부(200)에서는 센서의 데이터를 수신하여 분석한 다음 도출된 3차원 좌표 값을 센서로 송신할 수 있다.
그리고, 측위 및 방위각 추정 서버(310)는 센서로부터 데이터를 전달받고, 센서의 3차원 좌표(xv0, yv0, xv0)를 분석 도출할 수 있다. 이와 같이 하나의 센서를 이용하는 경우에는, 3차원 좌표에 대한 하나의 지점을 도출하는데 그치는 것이어서, 도 2에서 보는 바와 같이, 하나의 지점을 기준으로 한 동심원 형상으로만 각각의 사고 영역(21), 위험 영역(22) 및 주의 영역(23)이 형성될 수 있다.
여기서, 사고 영역(21)은 작업자가 해당 영역에 위치 시 사고 발생 확률이 80% 이상인 영역이고, 위험 영역(22)은 작업자가 해당 영역에 위치 시 사고 발생확률이 50% 이상 80% 미만인 영역이며, 주의 영역(23)은 작업자가 해당 영역에 위치 시 사고 발생 확률이 50% 미만인 영역일 수 있다.
다만, 이와 같은 각각의 영역 구분의 기준이 되는 사고 발생 확률은 임의로 설정될 수 있으며, 각각의 수치가 변경될 수 있음은 물론이다. 상기와 같은 각각의 영역에 대한 사항은 본 발명의 설명에서도 적용된다.
그리고, 도 3에서 보는 바와 같이, 하나의 센서인 제1센서(110)만을 이용하여 측위를 수행하는 경우, 다수의 감지부(200)에 의해 상대 위치 추정이 수행되어, 이동체(10)의 이동에 대한 벡터 측정 시, 다수의 감지부(200)에 의해 도출된 다수의 벡터 각각의 방향이 상이하여 방위각 추정이 용이하지 않을 수 있다.
상기와 같이, 기존 이동체(10)의 위치 정보만을 취득하는 실시간 측위 시스템의 경우, 물류, 토목/건설 현장과 같은 작업환경에서 거리정보만을 고려하여 위험을 감지하기 때문에, 이동체(10) 등의 작업방향이 고려되지 않아 이동체(10)의 자세한 자세 및 공간정보를 추정할 수 없는 문제가 있다. 본 발명은 이와 같은 문제의 해결을 위해 안출된 것이다.
도 4 내지 도 6은 본 발명의 각 실시 예에 따른 측위 및 방위각 추정에 대한 모식도이다. 구체적으로, 도 4는, 센서가 2개 형성된 경우에 대한 것이고, 도 5는 센서가 3개 형성된 경우에 대한 것이며, 도 6은 센서가 4개 형성된 경우에 대한 것이다. 여기서, 방위각은 요잉각(yawing angle)을 의미한다. 이하, 동일하다.
본 발명에서는 다수의 센서가 형성될 수 있으며, 다수의 센서 각각은 이동체(10)의 중심으로부터 일정한 간격을 형성하도록 배치될 수 있다. 다수의 센서의 수는 한정이 없으며, 이하, 본 발명의 실시 예에서는, 설명 및 이해의 편의를 위해 이동체(10)의 중심점과 중심점이 일치하는 직사각형 영역의 모서리에 센서가 설치되는 경우에 대해 설명하기로 한다.
도 4에서 보는 바와 같이, 2개의 센서가 대각선으로 배치되는 경우, 2개의 센서에 의한 데이터를 이용하여 이동체(10)의 3차원 좌표 및 방위각을 측정할 수 있다.
또한, 도 5에서 보는 바와 같이, 3개의 센서가 직사각형 3개의 꼭지점에 형성되는 경우, 3개의 센서에 의한 데이터를 이용하여 이동체(10)의 3차원 좌표, 방위각, 롤링각(rolling angle) 및 피칭각(pitching angle)을 측정할 수 있다.
그리고, 도 6에서 보는 바와 같이, 4개의 센서가 직사각형 4개의 꼭지점에 형성되는 경우, 4개의 센서에 의한 데이터를 이용하여 이동체(10)의 3차원 좌표, 방위각, 롤링각 및 피칭각 각각이 복수 개로 연산되고, 복수 개의 연산 값에 대한 평균 값으로 각각의 값을 도출할 수 있다.
상기에서는 센서의 수가 4개인 경우까지 설명하고 있으나, 센서의 수는 더 많을 수 있으며, 이와 같이 다중의 센서가 형성됨에 따라, 일부 센서의 작동 불능이 발생하더라도, 2개 이상의 센서가 작동하면 상기와 같이 3차원 좌표, 방위각, 롤링각, 피칭각 등을 도출할 수 있으므로, 측위 및 방향각 추정의 신뢰도를 향상시킬 수 있다.
도 7은 본 발명의 일 실시 예에 따른 측위 및 방위각 추정에 따른 위험 영역(22) 형성에 대한 모식도이다. 그리고, 도 8과 도 9는 본 발명의 일 실시 예에 따른 측위 및 방위각 추정에 대한 모식도이다. 여기서, 도 8은 2개의 센서 이용 시 각각의 센서와 감지부(200) 위치의 3차원 좌표를 나타내고, 도 9는 2개의 센서 이용 시 이동체(10)의 벡터 방향 추정 표시를 나타내고 있다.
도 7 내지 도 9에서 보는 바와 같이, 2개 이상의 센서를 이용하는 경우에는, 3차원 좌표 외에 방위각 등이 도출되어 벡터의 방향성이 형성되며, 도 9에서 보는 바와 같이, 이동체(10)가 이동하는 중에 지표면의 요철에 의해 벡터의 위치가 다소 변하더라도 오차 범위 내에서 벡터의 방향성이 도출될 수 있다.
이에 따라, 도 7에서 보는 바와 같이, 이동체(10)를 중심으로 사고 영역(21), 위험 영역(22) 및 주의 영역(23) 각각을 실질적으로 적용되는 영역 형태인 타원형 형태로 형성시킬 수 있다.
구체적인 일 실시 예로써, 이동체(10)가 지게차인 경우, 주로 사고가 나는 영역은 지게차의 전방일 수 있으며, 이에 따라, 각각의 영역이 타원형으로 형성되면서, 지게차의 전방에서 각각의 영역의 면적 분포가 높게 형성될 수 있다.
그리고, 이와 같이 방향성을 구비하고 사고 영역(21), 위험 영역(22) 및 주의 영역(23) 각각이 방향성을 구비하여, 이동체(10)의 3차원 위치 가변에 따라 각각의 영역의 위치가 이동됨과 동시에, 각각의 영역의 장축 방향이 이동체(10)의 방위각 변경에 따라 변경될 수 있다.
이에 따라, 상기와 종래기술의 단순 거리를 이용한 안전 관리 시스템과 달리, 사고 영역(21), 위험 영역(22) 및 주의 영역(23) 각각에 대한 더 정확한 위험 감지 및 알람 시스템이 작동할 수 있다.
도 10은 본 발명의 일 실시 예에 따른 측위 및 방위각 연산에 대한 모식도이다. 여기서, 도 10의 (a)는 방위각 추정 연산에 대한 것이고, 도 10의 (b)는 이동체(10)에서 방위각이 표시된 사항에 대한 것이다.
도 10의 (a)과 (b)에서 보는 바와 같이, 이동체(10)의 중심을 기준으로 대각선 배치된 2개의 센서를 이용하여 이동체(10)의 진행 방향 중심축과 2개의 센서를 연결하는 축 간 각을 도출하고, 2개의 센서인 제1센서(110)와 제2센서(120)를 연결하는 축 방향을 이용하여 이동체(10)의 진행 방향 중심축, 즉, 벡터의 방향성인 방위각을 도출할 수 있다.
여기서, θ는 제1센서(110)를 통과하며 y축에 평행한 기준축(N축)과 제1센서(110)와 제2센서(120)를 연결하는 축에 의해 형성되는 각이고, θ는 하기의 [수학식 1]에 의해 연산될 수 있다.
[수학식 1]
θ=atan(xd/yd)
여기서, xd는 제1센서(110)와 제2센서(120) 사이 x축 거리이고, yd는 제1센서(110)와 제2센서(120) 사이 y축 거리이다.
그리고, 기준축을 기준으로 이동체(10)의 중심축이 형성하는 각인 방위각 θazm은 하기의 [수학식 2]에 의해 연산될 수 있다.
[수학식 2]
θazm= θ-θm
여기서, θm은 이동체(10)의 중심을 통과하고 이동체(10)의 길이 방향으로 형성되는 축(a축)과 제1센서(110)와 제2센서(120)를 연결하는 축에 의해 형성되는 각이다.
도 11과 도 12는 본 발명의 각 실시 예에 따른 데이터 송수신에 대한 블록도이다. 구체적으로, 도 11은 본 발명의 측위 및 방위각 추정 방법이 UWB 기반 측위 시스템에 이용되는 경우 장비 구성에 대한 블록이며, 여기서는 실내에서 본 발명의 측위 및 방위각 추정 방법이 적용된 사항에 대한 것이다.
그리고, 도 12는 본 발명의 측위 및 방위각 추정 방법이 GNSS에 이용되는 경우 장비 구성에 대한 블록이며, 여기서는 실외에서 본 발명의 측위 및 방위각 추정 방법이 적용된 사항에 대한 것이다.
도 11과 도 12에서 보는 바와 같이, 본 발명의 측위 및 방위각 추정 방법은 다양한 측위 기술에 접목될 수 있으며, 구체적으로, UWB 기반 측위 시스템에 이용되는 경우 센서는 태그(tag)이고 감지부(200)는 앵커(anchor)이며, GNSS(Global Navigation Satellite System)에 이용되는 경우 센서는 GNSS센서이고 감지부(200)는 인공위성일 수 있다. 동일한 방식으로, 본 발명의 측위 및 방위각 추정 방법은, Wi-Fi 기반 측위 시스템, BLE(Bluetooth Low Energy) 기반 측위 시스템, Zigbee 기반 측위 시스템 등에 다양하게 이용될 수 있다.
도 11에서 보는 바와 같이, 센서로써 제1태그(151)와 제2태그(152)가 형성되고 감지부(200)로써 제1앵커(211), 제2앵커(212), 제3앵커(213) 및 제4앵커(214)가 형성되는 경우, 각각의 앵커와 각각의 태그 간 데이터가 교환되고, 각각의 태그와 게이트웨이 장치인 게이트웨이부(320) 간 데이터가 교환되며, 게이트웨이부(320)와 측위 및 방위각 추정 서버(310) 간 데이터가 교환될 수 있다.
그리고, 도 12에서 보는 바와 같이, 센서로써 제1GNSS센서(161)와 제2GNSS센서(162)가 형성되고 감지부(200)로써 제1위성(221), 제2위성(222), 제3위성(223) 및 제4위성(224)이 형성되는 경우, 각각의 GNSS센서와 각각의 위성 간 데이터가 교환되고, 각각의 GNSS센서와 게이트웨이 장치인 게이트웨이부(320) 간 데이터가 교환되며, 게이트웨이부(320)와 측위 및 방위각 추정 서버(310) 간 데이터가 교환될 수 있다.
도 13 내지 도 17은 본 발명의 각 실시 예의 순서도이다. 여기서, 도 13은 본 발명의 측위 및 방위각 추정 방법 전체에 대한 순서를 개괄적으로 나타낸 것이고, 도 14는 본 발명의 측위 및 방위각 추정 방법에서 센서의 데이터 수에 따른 판단이 표시된 순서도이다.
그리고, 도 15는 듀얼포즈연산단계(S200)에 대한 순서도이고, 도 16은 트리플포즈연산단계(S300)에 대한 순서도이며, 도 17은 쿼드포즈연산단계(S400)에 대한 순서도이다.
도 13과 도 14에서 보는 바와 같이, 본 발명의 측위 및 방위각 추정 방법은, 먼저, 위치결정될 이동체(10)에 설치된 측위용 다수의 센서 각각으로부터 측위 및 방위각 추정 서버(310)로 데이터가 송신되는 서버수신단계(S101)를 수행할 수 있다.
여기서, 서버수신단계(S101)는, 센서와 데이터를 교환하여 센서의 3차원 위치를 측정하는 감지부(200)와 센서 간 데이터가 교환되는 감지부(200)-센서의 데이터 교환 단계; 센서와 게이트웨이부(320) 간 데이터가 교환되는 센서-게이트웨이부(320) 데이터 교환 단계; 및 게이트웨이부(320)와 측위 및 방위각 추정 서버(310) 간 데이터가 교환되는 게이트웨이부(320)-서버 데이터 교환 단계를 포함할 수 있다.
상기된 바와 같이, 본 발명의 측위 및 방위각 추정 방법은, 다양한 측위 시스템에 접목될 수 있으며, 센서의 위치, 방위각, 롤링각, 피칭각 등의 측정을 위해, 감지부(200)와 센서 간 데이터가 교환되고, 센서와 게이트웨이부(320) 간 데이터가 교환되며, 게이트웨이부(320)와 측위 및 방위각 추정 서버(310) 간 데이터가 교환될 수 있다.
본 발명의 측위 및 방위각 추정 방법에서는, 상기된 서버수신단계(S101) 수행 후, 측위 및 방위각 서버에서 2개 이상의 센서의 데이터가 수신되는지 판단하고, 수신된 센서의 데이터의 수를 판단하는 센서수신판단단계를 수행할 수 있다.
여기서, 센서수신판단단계에서는, 측위 및 방위각 서버에서 다수의 센서로부터 수신된 센서의 데이터 수가 2개 이상인지 판단하는 제1센서수판단단계(S110)가 수행될 수 있다.
제1수신수판단단계에서 다수의 센서로부터 수신된 센서의 데이터 수가 2개 미만으로 판단되는 경우, 시작 단계인 서버수신단계(S101)가 수행될 수 있다. 그리고, 제1센서수판단단계(S110)에서 다수의 센서로부터 수신된 센서의 데이터 수가 2개 이상인 것으로 판단되는 경우, 다수의 센서로부터 수신된 센서의 데이터 수가 2개인지 판단하는 제2센서수판단단계(S120)가 수행될 수 있다.
제2센서수판단단계(S120)에서 다수의 센서로부터 수신된 센서의 데이터 수가 2개인 것으로 판단되는 경우, 본 발명의 측위 및 방위각 추정 방법에서는, 다수의 센서 중 2개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 듀얼포즈연산단계(S200)를 수행할 수 있다.
그리고, 제2센서수판단단계(S120)에서 다수의 센서로부터 수신된 센서의 데이터 수가 2개가 아닌 것으로 판단되는 경우, 다수의 센서로부터 수신된 센서의 데이터 수가 3개인지 판단하는 제3센서수판단단계(S130)가 수행될 수 있다.
제3센서수판단단계(S130)에서 다수의 센서로부터 수신된 센서의 데이터 수가 3개인 것으로 판단되는 경우, 본 발명의 측위 및 방위각 추정 방법에서는, 다수의 센서 중 3개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 트리플포즈연산단계(S300)를 수행할 수 있다.
그리고, 제3센서수판단단계(S130)에서 다수의 센서로부터 수신된 센서의 데이터 수가 3개가 아닌 것으로 판단되는 경우, 다수의 센서로부터 수신된 센서의 데이터 수가 4개인지 판단하는 제4센서수판단단계(S140)가 수행될 수 있다.
제4센서수판단단계(S140)에서 다수의 다수의 센서로부터 수신된 센서의 데이터 수가 4개인 것으로 판단되는 경우, 본 발명의 측위 및 방위각 추정 방법에서는, 다수의 센서 중 4개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 쿼드포즈연산단계(S400)를 수행할 수 있다.
그리고, 제4센서수판단단계(S140)에서 다수의 센서로부터 수신된 센서의 데이터 수가 4개가 아닌 것으로 판단되는 경우, 본 발명의 측위 및 방위각 추정 방법이 종료될 수 있다.
다만, 이와 같이 종료되는 것에 한하는 것은 아니며, 서버수신단계(S101)부터 다시 수행될 수 있음은 물론이다. 그리고, 상기와 같이, 센서의 데이터 수에 따라, 듀얼포즈연산단계(S200), 트리플포즈연산단계(S300) 및 쿼드포즈연산단계(S400) 중 선택되는 하나 이상의 단계가 수행될 수 있다.
이하, 듀얼포즈연산단계(S200), 트리플포즈연산단계(S300) 및 쿼드포즈연산단계(S400) 각각에 대해서 설명하기로 한다.
먼저, 듀얼포즈연산단계(S200)에 대해 설명하기로 한다. 이하, 본 발명의 설명 및 이해의 편의를 위해 다수의 센서는 4개의 센서를 의미하며, 4개의 센서는 도 6에서 보는 바와 같이 배치될 수 있다. 즉, 직사각형 영역 각 꼭지점에 4개의 센서가 배치되며, 제1센서(110)와 제3센서(130)가 대각선으로 배치되며, 제2센서(120)와 제4센서(140)가 대각선으로 배치될 수 있다.
듀얼포즈연산단계(S200)에서는, 먼저, 다수의 센서 중 일부 2개의 센서의 데이터가 수신되는지 판단하는 제1듀얼판단단계(S211)가 수행될 수 있다.
제1듀얼판단단계(S211)에서 일부 2개의 센서데이터가 수신되는 것으로 판단되는 경우, 즉, 4개의 센서 중 제1센서(110)와 제3센서(130) 각각의 데이터가 수신되는 것으로 판단되는 경우, 일부 2개의 센서의 데이터인 제1센서(110)와 제3센서(130)를 이용하여 이동체(10)의 측위 및 방위각을 연산하는 제1듀얼연산단계(S212)가 수행될 수 있다.
여기서, 연산에 이용되는 센서는 제1센서(110)와 제3센서(130)로써, 제1센서(110)와 제3센서(130) 각각의 데이터 및 상기된 [수학식 1] 및 [수학식 2] 등을 이용하여, 이동체(10)의 측위 및 방위각이 연산될 수 있다.
제1듀얼판단단계(S211)에서 일부 2개의 센서데이터가 수신되지 않는다고 판단되는 경우, 즉, 4개의 센서 중 제1센서(110)와 제3센서(130) 각각의 데이터가 수신되지 않는 것으로 판단되는 경우, 다수의 센서 중 다른 2개의 센서의 데이터, 즉, 제2센서(120)와 제4센서(140)의 데이터가 수신되는지 판단하는 제2듀얼판단단계(S221)가 수행될 수 있다.
제2듀얼판단계에서 다른 2개의 센서의 데이터가 수신되는 것으로 판단되는 경우, 즉, 4개의 센서 중 제2센서(120)와 제4센서(140) 각각의 센서 데이터가 수신되는 것으로 판단되는 경우, 다른 2개의 센서의 데이터를 이용하여 이동체(10)의 측위 및 방위각을 연산하는 제2듀얼연산단계(S222)가 수행될 수 있다.
여기서, 연산에 이용되는 센서는 제2센서(120)와 제4센서(140)로써, 제2센서(120)와 제4센서(140) 각각의 데이터 및 상기된 [수학식 1] 및 [수학식 2] 등을 이용하여, 이동체(10)의 측위 및 방위각이 연산될 수 있다.
그리고, 제2듀얼판단단계(S221)에서 제2센서(120)와 제4센서(140)의 데이터가 수신되지 않는 것으로 판단되는 경우, 종료 단계가 수행될 수 있다.
이하, 트리플포즈연산단계(S300)에 대해 설명하기로 한다.
트리플포즈연산단계(S300)는, 다수의 센서 중 일부 2개의 센서의 데이터가 수신되는지 판단하는 제1-1트리플판단단계(S311); 및 다수의 센서 중 다른 2개의 센서의 데이터가 수신되는지 판단하는 제2-1트리플판단단계(S321)를 포함할 수 있다.
제1-1트리플판단단계(S311)에서 일부 2개의 센서의 데이터가 수신되는 것으로 판단되는 경우, 즉, 4개의 센서 중 제1센서(110)와 제3센서(130)의 데이터가 수신되는 것으로 판단되는 경우, 다른 2개의 센서 중 어느 하나의 센서의 데이터, 즉, 제2센서(120)와 제4센서(140) 중 제2센서(120)의 데이터가 수신되는지 판단하는 제1-2트리플판단단계(S312)가 수행될 수 있다.
그리고, 제1-2트리플판단단계(S312)에서 다른 2개의 센서 중 어느 하나의 센서의 데이터가 수신되지 않는 것으로 판단되는 경우, 즉, 제2센서(120)의 데이터가 수신되지 않는 것으로 판단되는 경우, 다른 2개의 센서 중 다른 하나의 센서의 데이터, 즉, 제2센서(120)와 제4센서(140) 중 제4센서(140)의 데이터가 수신되는지 판단하는 제1-3트리플판단단계(S313)가 수행될 수 있다.
트리플포즈연산단계(S300)는, 다른 2개의 센서 중 어느 하나의 센서 또는 다른 하나의 센서의 데이터가 수신되는 경우, 다른 2개의 센서 중 선택되는 하나의 센서의 데이터 및 일부 2개의 센서의 데이터를 이용하여 이동체(10)의 측위 및 방위각, 롤링각과 피칭각을 연산하는 제1트리플연산단계를 포함할 수 있다.
여기서, 제1트리플연산단계는, 다른 2개의 센서 중 선택되는 하나의 센서의 데이터 및 일부 2개의 센서의 데이터를 이용하여 이동체(10)의 측위 및 방위각을 연산하는 제1-1트리플연산단계(S314); 및 다른 2개의 센서 중 선택되는 하나의 센서의 데이터 및 일부 2개의 센서의 데이터를 이용하여 이동체(10)의 롤링각과 피칭각을 연산하는 제1-2트리플연산단계(S315)를 포함할 수 있다.
구체적으로, 제1-2트리플판단단계(S312)에서 제2센서(120)의 데이터가 수신되는 것으로 판단되는 경우, 제1센서(110)와 제2센서(120) 및 제3센서(130)를 이용하여 이동체(10)의 측위 및 방위각을 연산하는 제1-1트리플연산단계(S314)가 수행된 후, 제1센서(110)와 제2센서(120) 및 제3센서(130)를 이용하여 이동체(10)의 롤링각과 피칭각을 연산하는 제1-2트리플연산단계(S315)가 수행될 수 있다.
여기서, 측위 및 방위각의 연산에 이용되는 센서는 제1센서(110)와 제3센서(130)로써, 제1센서(110)와 제3센서(130) 각각의 데이터 및 상기된 [수학식 1] 및 [수학식 2] 등을 이용하여, 이동체(10)의 측위 및 방위각이 연산될 수 있다.
그리고, 롤링각과 피칭각의 연산에는 제1센서(110)와 제2센서(120) 및 제3센서(130)가 이용되며, 도 10의 (b)의 a축과 b축이 x-y평면에 있는 경우를 기준 위치로 하여, 제1센서(110)와 제2센서(120)의 좌표를 이용하여 a축을 기준으로 한 회전각을 연산하여 이동체(10)의 롤링각을 도출할 수 있다. 또한, 제2센서(120)와 제3센서(130)의 좌표를 이용하여 b축을 기준으로 한 회전각을 연산하여 이동체(10)의 피칭각을 도출할 수 있다.
제1트리플연산단계가 수행된 후 종료 단계가 수행될 수 있다.
제2-1트리플판단단계(S321)에서 다른 2개의 센서의 데이터가 수신되는 것으로 판단되는 경우, 즉, 4개의 센서 중 제2센서(120)와 제4센서(140)의 데이터가 수신되는 것으로 판단되는 경우, 일부 2개의 센서 중 어느 하나의 센서의 데이터, 즉, 제1센서(110)와 제3센서(130) 중 제1센서(110)의 데이터가 수신되는지 판단하는 제2-2트리플판단단계(S322)가 수행될 수 있다.
그리고, 제2-2트리플판단단계(S322)에서 일부 2개의 센서 중 어느 하나의 센서의 데이터가 수신되지 않는 것으로 판단되는 경우, 즉, 제1센서(110)의 데이터가 수신되지 않는 것으로 판단되는 경우, 일부 2개의 센서 중 다른 하나의 센서의 데이터, 즉, 제3센서(130)의 데이터가 수신되는지 판단하는 제2-3트리플판단단계(S323)가 수행될 수 있다.
트리플포즈연산단계(S300)는, 일부 2개의 센서 중 어느 하나의 센서 또는 다른 하나의 센서의 데이터가 수신되는 것으로 판단되는 경우, 일부 2개의 센서 중 선택되는 하나의 센서의 데이터 및 다른 2개의 센서의 데이터를 이용하여 이동체(10)의 측위 및 방위각, 롤링각과 피칭각을 연산하는 제2트리플연산단계를 포함할 수 있다.
여기서, 제2트리플연산단계는, 일부 2개의 센서 중 선택되는 하나의 센서의 데이터 및 다른 2개의 센서의 데이터를 이용하여 이동체(10)의 측위 및 방위각을 연산하는 제2-1트리플연산단계(S324); 및 일부 2개의 센서 중 선택되는 하나의 센서의 데이터 및 다른 2개의 센서의 데이터를 이용하여 이동체(10)의 롤링각과 피칭각을 연산하는 제2-2트리플연산단계(S325)를 포함할 수 있다.
구체적으로, 제2-2트리플판단단계(S322)에서 제1센서(110)의 데이터가 수신되는 것으로 판단되는 경우, 제1센서(110)와 제2센서(120) 및 제4센서(140)를 이용하여 이동체(10)의 측위 및 방위각을 연산하는 제2-1트리플연산단계(S324)가 수행된 후, 제1센서(110)와 제2센서(120) 및 제4센서(140)를 이용하여 이동체(10)의 롤링각과 피칭각을 연산하는 제2-2트리플연산단계(S325)가 수행될 수 있다.
여기서, 측위 및 방위각의 연산에 이용되는 센서는 제2센서(120)와 제4센서(140)로써, 제2센서(120)와 제4센서(140) 각각의 데이터 및 상기된 [수학식 1] 및 [수학식 2] 등을 이용하여, 이동체(10)의 측위 및 방위각이 연산될 수 있다.
그리고, 롤링각과 피칭각의 연산에는 제1센서(110)와 제2센서(120) 및 제4센서(140)가 이용되며, 도 10의 (b)의 a축과 b축이 x-y평면에 있는 경우를 기준 위치로 하여, 제1센서(110)와 제2센서(120)의 좌표를 이용하여 a축을 기준으로 한 회전각을 연산하여 이동체(10)의 롤링각을 도출할 수 있다. 또한, 제1센서(110)와 제4센서(140)의 좌표를 이용하여 b축을 기준으로 한 회전각을 연산하여 이동체(10)의 피칭각을 도출할 수 있다.
제2트리플연산단계가 수행된 후 종료 단계가 수행될 수 있다. 또한, 상기된 제2-1트리플판단단계(S321)에서 제2센서(120)와 제4센서(140)가 수신되지 않는 것으로 판단되는 경우에도 종료 단계가 수행될 수 있다.
이하, 쿼드포즈연산단계(S400)에 대해 설명하기로 한다.
쿼드포즈연산단계(S400)에서는, 다수의 센서 중 일부 2개의 센서의 데이터를 이용하여 이동체(10)의 제1측위 및 제1방위각을 연산하는 제1쿼드연산단계(S410); 다수의 센서 중 다른 2개의 센서의 데이터를 이용하여 이동체(10)의 제2측위 및 제2방위각을 연산하는 제2쿼드연산단계(S420); 및 제1측위와 제2측위 좌표 각각의 평균으로 형성되는 평균측위 및 제1방위각과 제2방위각의 평균인 평균방위각을 연산하는 제3쿼드연산단계(S430)를 수행할 수 있다.
구체적으로, 제1쿼드연산단계(S410)에서, 연산에 이용되는 센서는 제1센서(110)와 제3센서(130)로써, 제1센서(110)와 제3센서(130) 각각의 데이터 및 상기된 [수학식 1] 및 [수학식 2] 등을 이용하여, 제1측위 및 제1방위각이 연산될 수 있다.
제1쿼드연산단계(S410) 수행 후 제2쿼드연산단계(S420)에서, 연산에 이용되는 센서는 제2센서(120)와 제4센서(140)로써, 제2센서(120)와 제4센서(140) 각각의 데이터 및 상기된 [수학식 1] 및 [수학식 2] 등을 이용하여, 제2측위 및 제2방위각이 연산될 수 있다.
제2쿼드연산단계(S420) 수행 후 제3쿼드연산단계(S430)에서, 제1측위 좌표 각각과 제2측위 좌표 각각의 평균을 연산하여 평균측위를 도출할 수 있다. 그리고, 제1방위각과 제2방위각의 평균을 연산하여 평균방위각을 도출할 수 있다.
다음으로, 일부 2개의 센서의 데이터와 다른 2개의 센서 중 어느 하나의 센서의 데이터를 이용하여 이동체(10)의 제1롤링각과 제1피칭각을 연산하는 제4쿼드연산단계(S440); 및 다른 2개의 센서의 데이터와 일부 2개의 센서 중 어느 하나의 센서의 데이터를 이용하여 이동체(10)의 제2롤링각과 제2피칭각을 연산하는 제5쿼드연산단계(S450)를 수행할 수 있다.
그 후, 일부 2개의 센서의 데이터와 다른 2개의 센서 중 다른 하나의 센서의 데이터를 이용하여 이동체(10)의 제3롤링각과 제3피칭각을 연산하는 제6쿼드연산단계(S460); 다른 2개의 센서의 데이터와 일부 2개의 센서 중 다른 하나의 센서의 데이터를 이용하여 이동체(10)의 제4롤링각과 제4피칭각을 연산하는 제7쿼드연산단계(S470); 및 제1롤링각, 제2롤링각, 제3롤링각 및 제4롤링각의 평균인 평균롤링각을 연산하고, 제1피칭각, 제2피칭각, 제3피칭각 및 제4피칭각의 평균인 평균피칭각을 연산하는 제8쿼드연산단계(S480)를 수행할 수 있다.
구체적으로, 제3쿼드연산단계(S430) 수행 후 제4쿼드연산단계(S440)에서, 연산에 이용되는 센서는 제1센서(110)와 제2센서(120) 및 제3센서(130)로써, 도 10의 (b)의 a축과 b축이 x-y평면에 있는 경우를 기준 위치로 하여, 제1센서(110)와 제2센서(120)의 좌표를 이용하여 a축을 기준으로 한 회전각을 연산하여 이동체(10)의 제1롤링각을 도출할 수 있다. 또한, 제2센서(120)와 제3센서(130)의 좌표를 이용하여 b축을 기준으로 한 회전각을 연산하여 이동체(10)의 제1피칭각을 도출할 수 있다.
제4쿼드연산단계(S440) 수행 후 제5쿼드연산단계(S450)에서, 연산에 이용되는 센서는 제1센서(110)와 제2센서(120) 및 제4센서(140)로써, 도 10의 (b)의 a축과 b축이 x-y평면에 있는 경우를 기준 위치로 하여, 제1센서(110)와 제2센서(120)의 좌표를 이용하여 a축을 기준으로 한 회전각을 연산하여 이동체(10)의 제2롤링각을 도출할 수 있다. 여기서, 제2롤링각은 제1롤링각과 동일한 방식으로 재연산된 각일 수 있다. 또한, 제1센서(110)와 제4센서(140)의 좌표를 이용하여 b축을 기준으로 한 회전각을 연산하여 이동체(10)의 제2피칭각을 도출할 수 있다.
제5쿼드연산단계(S450) 수행 후 제6쿼드연산단계(S460)에서, 연산에 이용되는 센서는 제1센서(110)와 제3센서(130) 및 제4센서(140)로써, 도 10의 (b)의 a축과 b축이 x-y평면에 있는 경우를 기준 위치로 하여, 제3센서(130)와 제4센서(140)의 좌표를 이용하여 a축을 기준으로 한 회전각을 연산하여 이동체(10)의 제3롤링각을 도출할 수 있다. 또한, 제1센서(110)와 제4센서(140)의 좌표를 이용하여 b축을 기준으로 한 회전각을 연산하여 이동체(10)의 제3피칭각을 도출할 수 있다. 여기서, 제3피칭각은 제2피칭각과 동일한 방식으로 재연산된 각일 수 있다.
제6쿼드연산단계(S460) 수행 후 제7쿼드연산단계(S470)에서, 연산에 이용되는 센서는 제2센서(120)와 제3센서(130) 및 제4센서(140)로써, 도 10의 (b)의 a축과 b축이 x-y평면에 있는 경우를 기준 위치로 하여, 제3센서(130)와 제4센서(140)의 좌표를 이용하여 a축을 기준으로 한 회전각을 연산하여 이동체(10)의 제4롤링각을 도출할 수 있다. 여기서, 제4롤링각은 제3롤링각과 동일한 방식으로 재연산된 각일 수 있다. 또한, 제2센서(120)와 제4센서(140)의 좌표를 이용하여 b축을 기준으로 한 회전각을 연산하여 이동체(10)의 제4피칭각을 도출할 수 있다.
제7쿼드연산단계(S470) 수행 후 제8쿼드연산단계(S480)에서, 제1롤링각, 제2롤링각, 제3롤링각 및 제4롤링각의 평균을 연산하여 평균롤링각을 도출할 수 있다. 그리고, 제1피칭각, 제2피칭각, 제3피칭각 및 제4피칭각의 평균을 연산하여 평균피칭각을 도출할 수 있다.
상기와 같이 듀얼포즈연산단계(S200)의 수행에 의해 이동체(10)의 측위 및 방위각을 도출할 수 있으며, 트리플포즈연산단계(S300)의 수행에 의해 이동체(10)의 측위, 방위각, 롤링각 및 피칭각을 도출할 수 있고, 쿼드포즈연산단계(S400)의 수행에 의해 이동체(10)의 평균측위, 평균방위각, 평균롤링각 및 평균피칭각을 도출할 수 있다. 그리고, 각각의 값을 이용하여 이동체(10)의 사고 위험 범위 표시에 대한 제어를 수행하는 사고위험범위조절단계가 수행될 수 있다.
각각의 포즈연산단계에서 도출된 데이터가 본 발명의 이동체(10)에 설정된 사고 영역(21), 위험 영역(22) 및 주의 영역(23)에 적용될 수 있으며, 이에 따라, 타원형 형상의 사고 영역(21), 위험 영역(22) 및 주의 영역(23) 각각의 방향성 추정이 용이하여, 실질적으로 필요한 영역에서만 상기된 각 영역에 의한 사고 위험 범위를 추정할 수 있으므로, 사고 위험 범위 설정에 의한 공간낭비를 최소화하고, 위험 신호에 대한 데이터 확보에 의한 정보의 질도 향상될 수 있다.
도 18 내지 도 21은 본 발명의 일 실시 예에 따른 측위 및 방위각 추정에 대한 시뮬레이션 이미지이다.
도 18의 (a)는 제1센서(110)와 제3센서(130)를 이용한 이동체(10)의 방위각 추정 시뮬레이션에 대한 것이고, 도 18의 (b)는 제2센서(120)와 제4센서(140)에 의한 이동체(10)의 방위각 추정 시뮬레이션에 대한 것이다. 도 18에서 보는 바와 같이, 시뮬레이션 결과 측위(x좌표, y좌표, z좌표) 및 방위각(azimuth)가 용이하게 추정됨을 확인할 수 있다.
도 19의 (a)는 제2센서(120)와 제3센서(130) 및 제4센서(140)를 이용한 이동체(10)의 방위각 추정 시뮬레이션에 대한 것이고, 도 19의 (b)는 제1센서(110)와 제3센서(130) 및 제4센서(140)에 의한 이동체(10)의 방위각 추정 시뮬레이션에 대한 것이다. 그리고, 도 20의 (a)는 제1센서(110)와 제2센서(120) 및 제4센서(140)를 이용한 이동체(10)의 방위각 추정 시뮬레이션에 대한 것이고, 도 20의 (b)는 제1센서(110)와 제2센서(120) 및 제3센서(130)에 의한 이동체(10)의 방위각 추정 시뮬레이션에 대한 것이다. 도 19와 도 20에서 보는 바와 같이, 시뮬레이션 결과 측위(x좌표, y좌표, z좌표) 및 방위각(azimuth)가 용이하게 추정됨을 확인할 수 있다.
도 20은 제1센서(110), 제2센서(120), 제3센서(130) 및 제4센서(140)를 이용한 이동체(10)의 방위각 추정 시뮬레이션에 대한 것이다. 도 20에서 보는 바와 같이 시뮬레이션 결과 측위(x좌표, y좌표, z좌표) 및 방위각(azimuth)가 용이하게 추정됨을 확인할 수 있다.
상기와 같은 본 발명의 측위 및 방위각 추정 방법을 이용하여, 절대 위치 및 방위각 획득이 가능하기 때문에 이동체(10) 등의 자율주행을 위해 사용되는 2차원 또는 3차원 지도에 대해 로봇의 초기 위치를 추정하는 것이 가능하여, 넓은 범위의 공간에 대해 자율주행을 위한 자동화 레벨을 높이는 것이 가능하다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
<부호의 설명>
10 : 이동체
21 : 사고 영역
22 : 위험 영역
23 : 주의 영역
110 : 제1센서
120 : 제2센서
130 : 제3센서
140 : 제4센서
151 : 제1태그
152 : 제2태그
161 : 제1GNSS센서
162 : 제2GNSS센서
200 : 감지부
211 : 제1앵커
212 : 제2앵커
213 : 제3앵커
214 : 제4앵커
221 : 제1위성
222 : 제2위성
223 : 제3위성
224 : 제4위성
310 : 측위 및 방위각 추정 서버
320 : 게이트웨이부

Claims (10)

  1. 위치결정될 이동체에 설치된 측위용 다수의 센서 각각으로부터 측위 및 방위각 추정 서버로 데이터가 송신되는 서버수신단계; 및
    상기 측위 및 방위각 서버에서 2개 이상의 센서의 데이터가 수신되는지 판단하고, 수신된 센서의 데이터의 수를 판단하는 센서수신판단단계를 포함하고,
    상기 다수의 센서 중 2개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 듀얼포즈연산단계, 상기 다수의 센서 중 3개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 트리플포즈연산단계, 및 상기 다수의 센서 중 4개의 센서로부터 수신된 데이터를 이용한 연산이 수행되는 쿼드포즈연산단계 중 선택되는 하나 이상의 단계를 더 포함하는 것을 특징으로 하는 측위 및 방위각 추정 방법.
  2. 청구항 1에 있어서,
    상기 듀얼포즈연산단계는,
    상기 다수의 센서 중 일부 2개의 센서의 데이터가 수신되는지 판단하는 제1듀얼판단단계; 및
    상기 다수의 센서 중 다른 2개의 센서의 데이터가 수신되는지 판단하는 제2듀얼판단단계;
    상기 일부 2개의 센서데이터가 수신되는 것으로 판단되는 경우, 상기 일부 2개의 센서의 데이터를 이용하여 상기 이동체의 측위 및 방위각을 연산하는 제1듀얼연산단계; 및
    상기 다른 2개의 센서의 데이터가 수신되는 것으로 판단되는 경우, 상기 다른 2개의 센서의 데이터를 이용하여 상기 이동체의 측위 및 방위각을 연산하는 제2듀얼연산단계를 포함하는 것을 특징으로 하는 측위 및 방위각 추정 방법.
  3. 청구항 1에 있어서,
    상기 트리플포즈연산단계는,
    상기 다수의 센서 중 일부 2개의 센서의 데이터가 수신되는지 판단하는 제1-1트리플판단단계; 및
    상기 다수의 센서 중 다른 2개의 센서의 데이터가 수신되는지 판단하는 제2-1트리플판단단계를 포함하는 것을 특징으로 하는 측위 및 방위각 추정 방법.
  4. 청구항 3에 있어서,
    상기 트리플포즈연산단계는,
    상기 일부 2개의 센서의 데이터가 수신되는 것으로 판단되는 경우, 상기 다른 2개의 센서 중 어느 하나의 센서의 데이터가 수신되는지 판단하는 제1-2트리플판단단계; 및
    상기 다른 2개의 센서 중 어느 하나의 센서의 데이터가 수신되지 않는 것으로 판단되는 경우, 상기 다른 2개의 센서 중 다른 하나의 센서의 데이터가 수신되는지 판단하는 제1-3트리플판단단계를 포함하는 것을 특징으로 하는 측위 및 방위각 추정 방법.
  5. 청구항 4에 있어서,
    상기 트리플포즈연산단계는,
    상기 다른 2개의 센서 중 어느 하나의 센서 또는 다른 하나의 센서의 데이터가 수신되는 것으로 판단되는 경우, 상기 다른 2개의 센서 중 선택되는 하나의 센서의 데이터 및 상기 일부 2개의 센서의 데이터를 이용하여 상기 이동체의 측위 및 방위각, 롤링각과 피칭각을 연산하는 제1트리플연산단계를 포함하는 것을 특징으로 하는 측위 및 방위각 추정 방법.
  6. 청구항 3에 있어서,
    상기 트리플포즈연산단계는,
    상기 다른 2개의 센서의 데이터가 수신되는 것으로 판단되는 경우, 상기 일부 2개의 센서의 데이터 중 어느 하나의 센서의 데이터가 수신되는지 판단하는 제2-2트리플판단단계; 및
    상기 일부 2개의 센서 중 어느 하나의 센서의 데이터가 수신되지 않는 것으로 판단되는 경우, 상기 일부 2개의 센서 중 다른 하나의 센서의 데이터가 수신되는지 판단하는 제2-3트리플판단단계를 포함하는 것을 특징으로 하는 측위 및 방위각 추정 방법.
  7. 청구항 6에 있어서,
    상기 트리플포즈연산단계는,
    상기 일부 2개의 센서 중 어느 하나의 센서 또는 다른 하나의 센서의 데이터가 수신되는 것으로 판단되는 경우, 상기 일부 2개의 센서 중 선택되는 하나의 센서의 데이터 및 상기 다른 2개의 센서의 데이터를 이용하여 상기 이동체의 측위 및 방위각, 롤링각과 피칭각을 연산하는 제2트리플연산단계를 포함하는 것을 특징으로 하는 측위 및 방위각 추정 방법.
  8. 청구항 1에 있어서,
    상기 쿼드포즈연산단계는,
    상기 다수의 센서 중 일부 2개의 센서의 데이터를 이용하여 상기 이동체의 제1측위 및 제1방위각을 연산하는 제1쿼드연산단계;
    상기 다수의 센서 중 다른 2개의 센서의 데이터를 이용하여 상기 이동체의 제2측위 및 제2방위각을 연산하는 제2쿼드연산단계; 및
    상기 제1측위와 상기 제2측위 좌표 각각의 평균으로 형성되는 평균측위 및 상기 제1방위각과 상기 제2방위각의 평균인 평균방위각을 연산하는 제3쿼드연산단계를 포함하는 것을 특징으로 하는 측위 및 방위각 추정 방법.
  9. 청구항 8에 있어서,
    상기 쿼드포즈연산단계는,
    상기 일부 2개의 센서의 데이터와 상기 다른 2개의 센서 중 어느 하나의 센서의 데이터를 이용하여 상기 이동체의 제1롤링각과 제1피칭각을 연산하는 제4쿼드연산단계; 및
    상기 다른 2개의 센서의 데이터와 상기 일부 2개의 센서 중 어느 하나의 센서의 데이터를 이용하여 상기 이동체의 제2롤링각과 제2피칭각을 연산하는 제5쿼드연산단계를 포함하는 것을 특징으로 하는 측위 및 방위각 추정 방법.
  10. 청구항 9에 있어서,
    상기 쿼드포즈연산단계는,
    상기 일부 2개의 센서의 데이터와 상기 다른 2개의 센서 중 다른 하나의 센서의 데이터를 이용하여 상기 이동체의 제3롤링각과 제3피칭각을 연산하는 제6쿼드연산단계;
    상기 다른 2개의 센서의 데이터와 상기 일부 2개의 센서 중 다른 하나의 센서의 데이터를 이용하여 상기 이동체의 제4롤링각과 제4피칭각을 연산하는 제7쿼드연산단계; 및
    상기 제1롤링각, 상기 제2롤링각, 상기 제3롤링각 및 상기 제4롤링각의 평균인 평균롤링각을 연산하고, 상기 제1피칭각, 상기 제2피칭각, 상기 제3피칭각 및 상기 제4피칭각의 평균인 평균피칭각을 연산하는 제8쿼드연산단계를 포함하는 것을 특징으로 하는 측위 및 방위각 추정 방법.
PCT/KR2022/021550 2022-11-29 2022-12-28 측위 및 방위각 추정 방법 WO2024117373A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220163478A KR20240080000A (ko) 2022-11-29 2022-11-29 측위 및 방위각 추정 방법
KR10-2022-0163478 2022-11-29

Publications (1)

Publication Number Publication Date
WO2024117373A1 true WO2024117373A1 (ko) 2024-06-06

Family

ID=91324254

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/021550 WO2024117373A1 (ko) 2022-11-29 2022-12-28 측위 및 방위각 추정 방법

Country Status (2)

Country Link
KR (1) KR20240080000A (ko)
WO (1) WO2024117373A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060036078A (ko) * 2003-07-03 2006-04-27 아사히 가세이 일렉트로닉스 가부시끼가이샤 방위각 계측 장치 및 방위각 계측 방법
KR20180138067A (ko) * 2017-06-20 2018-12-28 주식회사 지오플랜코리아 정밀도를 향상시킨 실시간 측위 방법 및 시스템
KR20190042247A (ko) * 2017-10-16 2019-04-24 삼성전자주식회사 위치 추정 장치 및 방법
KR102009791B1 (ko) * 2018-08-23 2019-08-13 주식회사 에이치랩 Uwb를 이용한 3차원 측위 시스템
KR20220099842A (ko) * 2021-01-07 2022-07-14 백두대간드론협동조합 주행체에 장착되는 태그 및 이를 포함하는 주행체 좌표 측정 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101902715B1 (ko) 2017-12-26 2018-09-28 주식회사 지오플랜코리아 Uwb 신호를 이용하는 태그 위치 식별 방법 및 그 태그 위치 식별 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060036078A (ko) * 2003-07-03 2006-04-27 아사히 가세이 일렉트로닉스 가부시끼가이샤 방위각 계측 장치 및 방위각 계측 방법
KR20180138067A (ko) * 2017-06-20 2018-12-28 주식회사 지오플랜코리아 정밀도를 향상시킨 실시간 측위 방법 및 시스템
KR20190042247A (ko) * 2017-10-16 2019-04-24 삼성전자주식회사 위치 추정 장치 및 방법
KR102009791B1 (ko) * 2018-08-23 2019-08-13 주식회사 에이치랩 Uwb를 이용한 3차원 측위 시스템
KR20220099842A (ko) * 2021-01-07 2022-07-14 백두대간드론협동조합 주행체에 장착되는 태그 및 이를 포함하는 주행체 좌표 측정 시스템

Also Published As

Publication number Publication date
KR20240080000A (ko) 2024-06-05

Similar Documents

Publication Publication Date Title
WO2014065540A1 (ko) 하향링크 액세스 포인트를 이용한 위치추정장치 및 위치추정방법
WO2018208046A2 (ko) Ble 비콘 기반 항만 출입 차량 관리와 위치 추적 스마트 포트 시스템
WO2011129617A2 (en) Determination of a location of an apparatus
WO2018139773A1 (ko) 무선 환경 변화에 강인한 slam 방법 및 장치
WO2018208045A2 (ko) Ble 비콘 기반 출입 관리 시스템 및 방법
WO2012081740A1 (ko) 위치 측정을 위한 기준신호 송출 방법 및 시스템, 이를 이용한 위치 측정 방법, 장치 및 시스템, 이를 이용한 시각 동기 방법 및 장치
WO2018097558A1 (en) Electronic device, server, and method for determining presence or absence of user within specific space
WO2016074169A1 (zh) 一种对目标物体的检测方法、检测装置以及机器人
WO2017048067A1 (en) Terminal and method for measuring location thereof
WO2021235621A1 (ko) Gps 위치정보 매핑을 이용한 실내 측위 시스템 및 방법
WO2012161416A2 (ko) Gps 수신기의 위치 계산 방법, 그 방법을 구현하기 위한 프로그램이 기록된 기록매체 및 gps 수신기
WO2017159978A1 (ko) 비콘과 수신기를 이용한 건설장비 위치 추적 시스템 및 그 방법
EP3351023A1 (en) Terminal and method for measuring location thereof
WO2024117373A1 (ko) 측위 및 방위각 추정 방법
WO2022059972A1 (en) Apparatus and method for providing service related to target location based on uwb
WO2017061666A1 (ko) 사용자 위치 추적 방법
WO2015141868A1 (ko) 알에프아이디 태그를 이용한 야적장에서의 기자재 위치관리 장치 및 방법
WO2020256353A1 (ko) 반사광을 이용한 실내 측위 시스템 및 방법
WO2020197146A1 (ko) 출입구 관리 시스템 및 그 동작 방법
WO2023022305A1 (ko) 보행자 실내 위치 측위 장치 및 방법
WO2022240013A1 (ko) 관성 데이터 및 무선신호 데이터 기반 실내 측위 방법 및 장치
WO2022124625A1 (ko) 단말의 위치 측위 시스템 및 방법
WO2018155728A1 (ko) 이동단말기의 위치 측정 장치 및 이를 이용한 이동단말기의 위치 측정 방법
CN111918389B (zh) 一种基于无人机网关的室外定位方法及装置
WO2018221950A1 (ko) 구 형상의 좌표계 장치 및 그를 이용한 위치 정보 산출 방법