KR102232616B1 - Method of tracking position of mobile object in space and apparatus of tracking using the method - Google Patents

Method of tracking position of mobile object in space and apparatus of tracking using the method Download PDF

Info

Publication number
KR102232616B1
KR102232616B1 KR1020190022613A KR20190022613A KR102232616B1 KR 102232616 B1 KR102232616 B1 KR 102232616B1 KR 1020190022613 A KR1020190022613 A KR 1020190022613A KR 20190022613 A KR20190022613 A KR 20190022613A KR 102232616 B1 KR102232616 B1 KR 102232616B1
Authority
KR
South Korea
Prior art keywords
distance
intersection
error
space
sensor node
Prior art date
Application number
KR1020190022613A
Other languages
Korean (ko)
Other versions
KR20200104111A (en
Inventor
남용문
김준형
김현정
Original Assignee
주식회사 비긴어스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비긴어스 filed Critical 주식회사 비긴어스
Priority to KR1020190022613A priority Critical patent/KR102232616B1/en
Publication of KR20200104111A publication Critical patent/KR20200104111A/en
Application granted granted Critical
Publication of KR102232616B1 publication Critical patent/KR102232616B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • G01S5/021Calibration, monitoring or correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/10Position of receiver fixed by co-ordinating a plurality of position lines defined by path-difference measurements, e.g. omega or decca systems

Abstract

편향오차의 범위를 고려하여 위치추적의 속도를 개선하고, 높이에 대한 보정을 하여 이동체의 공간에서의 위치를 보다 정확하고 빠르게 추적하는 방법 및 그 추적장치를 제시한다. 그 방법 및 장치는 센서노드에 의해 정의된 입체공간의 각 코너에 위치하는 센서노드의 위치점을 확인하고, 센서노드와 이동체 사이의 거리를 측정하며, 이동체의 제1 및 제2 부분에 의해 결정되는 교차점의 공간상 길이(fL)를 설정하고, 교차점의 공간상 길이(fL)의 최소값을 에러값 기준으로 초기화하며, 최적화 변수인 편향오차 영역(beL, beR)을 설정하고, 교차점의 공간상 길이(fL)가 에러값 기준보다 작으면 최종 교차점 공간상 좌표를 선정하며, 최종 위치를 추정하고, 이동평균값{(beL + BeR)/2}을 기준으로 beL 및 beR이라는 편향오차 영역의 새로운 값을 설정한다.A method and a tracking device for tracking the position of a moving object more accurately and quickly by improving the position tracking speed in consideration of the deflection error range and correcting the height are presented. The method and device check the position of the sensor node located at each corner of the three-dimensional space defined by the sensor node, measure the distance between the sensor node and the moving object, and determine by the first and second parts of the moving object. Set the spatial length (fL) of the intersection point, initialize the minimum value of the spatial length (fL) of the intersection point based on the error value, set the bias error areas (b e L, b e R), which are optimization variables, If the spatial length (fL) of the intersection point is less than the error value standard, the final intersection point spatial coordinates are selected, the final position is estimated, and the deviation errors of beL and beR based on the moving average value {(beL + BeR)/2} Set a new value for the area.

Figure R1020190022613
Figure R1020190022613

Description

공간에서의 이동체의 위치추적 방법 및 그 위치추적 장치{Method of tracking position of mobile object in space and apparatus of tracking using the method}TECHNICAL FIELD [Method of tracking position of mobile object in space and apparatus of tracking using the method}

본 발명은 위치추적 방법 및 그 추적장치에 관한 것으로, 보다 상세하게는 움직이는 사람이나 사물인 이동체의 공간에서의 위치를 추적하는 방법 및 장치에 관한 것이다.The present invention relates to a location tracking method and a tracking apparatus thereof, and more particularly, to a method and apparatus for tracking a location of a moving object, which is a moving person or object, in space.

일반적으로, 위치추적 시스템은 GPS 기술과 RTLS(Real Time Location System) 기술 등이 사용되고 있다. 상기 GPS 기술은 위치를 계산하는 방식으로 확장성이 뛰어나고 지구상의 모든 지역에서 위치추적이 가능하다. 그런데, 상기 GPS 기술을 기반으로 하는 위치추적의 경우, 실내 및 건물 밀집지역과 같은 음영지역에서는 다중경로 및 잡음의 영향 등으로 정확한 위치추적이 어렵다. 상기 RTLS 기술은 주로 근거리 및 실내와 같은 제한된 공간에서의 위치추적에 사용된다. 상기 RTLS 기술에서는 Wi-Fi, Zigbee, UWB, 블루투스(bluetooth), RFID, 무선센서 등과 같은 근거리 통신기술을 이용한다. 이러한 근거리 통신기술 중 무선센서를 이용한 위치추적 방법은, 복수의 무선센서들과 추적대상 이동체 사이의 적어도 세 개의 거리정보를 기초하여 삼각측량법을 이용하여 위치를 추적한다. In general, GPS technology and Real Time Location System (RTLS) technology are used as a location tracking system. The GPS technology is highly scalable by calculating a location, and location tracking is possible in all regions of the earth. However, in the case of location tracking based on the GPS technology, accurate location tracking is difficult in shaded areas such as indoor and building dense areas due to the influence of multi-paths and noise. The RTLS technology is mainly used for location tracking in a limited space such as a short distance and indoors. In the RTLS technology, short-range communication technologies such as Wi-Fi, Zigbee, UWB, Bluetooth, RFID, and wireless sensors are used. Among these short-range communication technologies, a location tracking method using a wireless sensor tracks a location using a triangulation method based on at least three distance information between a plurality of wireless sensors and a moving object to be tracked.

국내등록특허 제10-1374589호는 편향오차(bias error)를 보정하여 추적대상 이동체의 위치를 추적하는 방법을 제시하고 있다. 상기 특허는 편향오차를 포함하는 측정위치를 이용한 교차점으로 이루어진 삼각형을 최소화하여 실제 측정위치를 추정한다. 그런데, 종래에는 편향오차의 범위를 잘 모르기 때문에, 위치추적의 속도를 개선하기에는 미흡한 점이 있다. 또한, 종래의 위치추적은 평면적인 상태에서 고려하기 때문에, 공간적인 위치에 대한 보정이 되지 않기 때문에 공간적인 위치추적에 적용하기에는 미흡하다. Korean Patent No. 10-1374589 proposes a method of tracking the location of a moving object to be tracked by correcting a bias error. The patent estimates an actual measurement location by minimizing a triangle made up of intersection points using a measurement location including a deflection error. However, conventionally, since the range of the deflection error is not well known, there is a point in which it is insufficient to improve the speed of position tracking. In addition, since the conventional location tracking is considered in a planar state, it is not sufficient to apply it to spatial location tracking because the spatial location is not corrected.

본 발명이 해결하고자 하는 과제는 편향오차의 범위를 고려하여 위치추적의 속도를 개선하고, 센서노드로 구성된 면으로부터 이동체의 추정위치를 공간적으로 보정하여 이동체의 공간에서의 위치를 보다 정확하고 빠르게 추적하는 방법 및 그 추적장치를 제공하는 데 있다.The problem to be solved by the present invention is to improve the speed of position tracking in consideration of the range of deflection errors, and to spatially correct the estimated position of the moving object from the surface composed of the sensor node to more accurately and quickly track the position of the moving object in space. It is to provide a method and a tracking device for the method.

본 발명의 과제를 해결하기 위한 공간에서의 이동체의 위치추적 방법의 하나의 예는 먼저, 센서노드에 의해 정의된 입체공간의 각 코너에 위치하는 상기 센서노드의 위치점을 확인한다. 그후, 상기 센서노드와 이동체 사이의 거리를 측정한다. 상기 이동체의 제1 및 제2 부분에 의해 결정되는 교차점의 공간상 길이(fL)를 설정하고, 상기 교차점의 공간상 길이(fL)의 최소값을 에러값 기준으로 초기화한다. 최적화 변수인 편향오차 영역(beL, beR)을 설정한다. 상기 교차점의 공간상 길이(fL)가 상기 에러값 기준보다 작으면, 최종 교차점 공간상 좌표를 선정한다. 최종 위치를 추정하고, 이동평균값{(beL + BeR)/2}을 기준으로 beL 및 beR이라는 편향오차 영역의 새로운 값을 설정한다. 이때, 상기 편향오차 영역(beL, beR)은 상기 센서노드의 편향오차가 측정된 거리값에 포함한다.One example of a method for tracking the location of a moving object in a space for solving the problem of the present invention is to first identify a location point of the sensor node located at each corner of a three-dimensional space defined by the sensor node. Then, the distance between the sensor node and the moving object is measured. The spatial length fL of the intersection point determined by the first and second portions of the moving object is set, and the minimum value of the spatial length fL of the intersection point is initialized based on an error value. The bias error regions (b e L, b e R), which are optimization variables, are set. If the spatial length fL of the intersection point is smaller than the error value reference, the final intersection point spatial coordinate is selected. The final position is estimated, and new values of the deflection error regions beL and beR are set based on the moving average value {(beL + BeR)/2}. In this case, the deflection error regions b e L and b e R are included in a distance value in which the deflection error of the sensor node is measured.

상기 방법에 있어서, 상기 beL 및 beR이라는 편향오차 영역의 새로운 값을 설정하는 단계 이후에, 상기 새로운 값으로 설정된 편향오차 영역인 beL 및 beR은 상기 최적화 변수인 편향오차 영역(beL, beR)을 설정하는 단계로 피드백할 수 있다. 상기 센서노드에서의 각각의 편향오차는 편차의 범위 내에서 속할 수 있다. 상기 센서노드는 편향오차 및 잡음에러를 포함하고, 상기 잡음에러는 배제할 수 있다.In the above method, after the step of setting new values of the deflection error regions beL and beR, the deflection error regions beL and beR set to the new values are the bias error regions (b e L, b e) as the optimization variables. R) can be fed back to the setting step. Each deflection error in the sensor node may fall within a range of deviation. The sensor node may include a deflection error and a noise error, and the noise error may be excluded.

본 발명의 과제를 해결하기 위한 공간에서의 이동체의 위치추적 방법의 다른 예는 먼저, 센서노드에 의해 정의된 입체공간의 각 코너에 위치하는 상기 센서노드의 위치점을 확인한다. 그후, 상기 센서노드와 이동체 사이의 거리를 측정한다. 상기 이동체의 제1 및 제2 부분에 의해 결정되는 교차점의 공간상 길이(fL)를 설정하고, 상기 교차점의 공간상 길이(fL)의 최소값을 에러값 기준으로 초기화한다. 최적화 변수인 편향오차 영역(beL, beR)을 설정한다. 상기 교차점의 공간상 길이(fL)가 상기 에러값 기준보다 크면, 황금분할 변수인 편향오차 be1 및 be2를 설정한다. 상기 편향오차가 be1일 때 교차점을 구하고 교차점 공간상 거리(fLa)를 구한다. 상기 편향오차가 be2일 때 교차점을 구하고 교차점 공간상 거리(fLb)를 구한다. 황금분할 알고리즘을 이용하여, 상기 교차점 공간상 거리(fLa) 및 상기 교차점 공간상 거리(fLb)를 비교한다. 상기 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 작으면 황금분할 변수인 beR = be2를 설정하고 교차점 공간상 거리인 fL = fLa로 설정하며, 상기 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 크면 황금분할 변수인 beR = be1로 설정하고 교차점 공간상 거리인 fL = fLb로 설정한다.Another example of a method for tracking the location of a moving object in a space for solving the problem of the present invention is to first check the location points of the sensor nodes located at each corner of the three-dimensional space defined by the sensor node. Then, the distance between the sensor node and the moving object is measured. The spatial length fL of the intersection point determined by the first and second portions of the moving object is set, and the minimum value of the spatial length fL of the intersection point is initialized based on an error value. The bias error regions (b e L, b e R), which are optimization variables, are set. When the spatial length fL of the intersection point is greater than the error value criterion, bias errors be1 and be2, which are golden division variables, are set. When the deflection error is be1, the intersection point is obtained, and the distance fLa in the intersection point space is obtained. When the deflection error is be2, the intersection point is obtained, and the distance fLb in the intersection point space is obtained. Using the golden division algorithm, the distance fLa at the intersection point and the distance fLb at the intersection point are compared. If the intersecting spatial distance fLa is smaller than the intersecting spatial distance fLb, the golden division variable beR = be2 is set and the intersecting spatial distance fL = fLa is set, and the intersecting spatial distance fLa is If it is greater than the intersecting space distance (fLb), the golden division variable beR = be1 and the intersecting point spatial distance fL = fLb.

본 발명의 과제를 해결하기 위한 공간에서의 이동체의 위치추적 방법의 또 다른 예는 먼저, 센서노드에 의해 정의된 입체공간의 각 코너에 위치하는 상기 센서노드의 위치점을 확인한다. 상기 센서노드와 이동체 사이의 거리를 측정한다. 상기 이동체의 제1 및 제2 부분에 의해 결정되는 교차점의 공간상 길이(fL)를 설정하고, 상기 교차점의 공간상 길이(fL)의 최소값을 에러값 기준으로 초기화한다. 최적화 변수인 편향오차 영역(beL, beR)을 설정한다. 상기 교차점의 공간상 길이(fL)가 상기 에러값 기준보다 작으면 최종 교차점 공간상 좌표를 선정하고, 최종 위치를 추정하며, 이동평균값{(beL + BeR)/2}을 기준으로 beL 및 beR이라는 편향오차 영역의 새로운 값을 설정한다. 상기 교차점의 공간상 길이(fL)가 상기 에러값 기준보다 크면 황금분할 변수인 편향오차 be1 및 be2를 설정하고, 상기 편향오차가 be1일 때 교차점을 구하고 교차점 공간상 거리(fLa)를 구하며, 상기 편향오차가 be2일 때 교차점을 구하고 교차점 공간상 거리(fLb)를 구하고, 황금분할 알고리즘을 이용하여 상기 교차점 공간상 거리(fLa) 및 상기 교차점 공간상 거리(fLb)를 비교하며, 상기 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 작으면 황금분할 변수인 beR = be2를 설정하고 교차점 공간상 거리인 fL = fLa로 설정하며, 상기 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 크면 황금분할 변수인 beR = be1로 설정하고 교차점 공간상 거리인 fL = fLb로 설정한다.Another example of a method for tracking the location of a moving object in a space for solving the problem of the present invention is to first check the location points of the sensor nodes located at each corner of the three-dimensional space defined by the sensor node. The distance between the sensor node and the moving object is measured. The spatial length fL of the intersection point determined by the first and second portions of the moving object is set, and the minimum value of the spatial length fL of the intersection point is initialized based on an error value. The bias error regions (b e L, b e R), which are optimization variables, are set. If the spatial length (fL) of the intersection point is less than the error value reference, the final intersection point spatial coordinates are selected, the final position is estimated, and based on the moving average value {(beL + BeR)/2}, beL and beR. Set a new value for the bias error area. If the spatial length (fL) of the intersection point is greater than the error value criterion, the golden division variables, bias errors be1 and be2, are set, and when the bias error is be1, the intersection point is obtained and the intersection point spatial distance (fLa) is obtained. When the deflection error is be2, the intersection is obtained, the distance in the intersection space (fLb) is obtained, the distance in the intersection space (fLa) and the distance in the intersection space (fLb) are compared using a golden division algorithm, and If the distance (fLa) is smaller than the distance in the space of the intersection (fLb), the golden division variable beR = be2 is set and the distance in the space of the intersection is fL = fLa, and the distance in the space of the intersection (fLa) is the distance in the space of the intersection. If it is greater than (fLb), the golden division variable beR = be1, and the distance in the space of the intersection, fL = fLb.

본 발명의 다른 과제를 해결하기 위한 공간에서의 이동체의 위치추적 장치는 상기 방법의 사례 중의 어느 하나에 적용되고, 상기 입체공간은 복수개의 센서노드를 포함하는 하나의 평면 및 상기 하나의 평면과 이격되며 대향되어 위치하는 다른 평면에서의 적어도 하나의 센서노드로 정의된다. 또한, 상기 입체공간은 복수개의 센서노드를 포함하는 하나의 평면 및 상기 평면과 동일한 평면이 아닌 다른 평면으로 정의될 수 있다.A device for tracking the location of a moving object in a space to solve another problem of the present invention is applied to any one of the examples of the method, and the three-dimensional space is a plane including a plurality of sensor nodes and spaced apart from the one plane. It is defined as at least one sensor node in another plane that is located opposite to each other. In addition, the three-dimensional space may be defined as one plane including a plurality of sensor nodes and a plane other than the same plane as the plane.

본 발명의 장치에 있어서, 상기 하나의 평면은 적어도 3개의 센서노드로 구현될 수 있다. 상기 입체공간은 분할될 수 있다.In the apparatus of the present invention, the one plane may be implemented with at least three sensor nodes. The three-dimensional space may be divided.

본 발명의 공간에서의 이동체의 위치추적 방법 및 그 위치추적 장치에 의하면, 이동체 교차점 간의 공간에서의 길이가 최소가 되도록 최적화함으로써, 편향오차의 범위를 고려하여 위치추적의 속도를 개선하고, 높이에 대한 보정을 하는 공간에서의 위치를 보다 정확하고 빠르게 추적할 수 있다. 또한, 상기 위치를 추적하는 과정에서 x-y 좌표계 또는 r-θ 좌표계 중의 어느 하나를 활용할 수 있다.According to the method of tracking the position of a moving object in space and its position tracking device of the present invention, by optimizing the length in the space between the crossing points of the moving object to be minimum, the speed of position tracking is improved in consideration of the range of the deflection error, It is possible to more accurately and quickly track the position in the space where the correction is made. In addition, in the process of tracking the location, either an x-y coordinate system or an r-θ coordinate system may be used.

도 1은 본 발명에 의한 공간에서의 이동체 위치추적 방법을 설명하기 위한 흐름도이다.
도 2는 도 1의 위치추적 방법의 해석에 필요한 센서노드(S), 이동체(M) 및 센서노드(S)의 위치를 나타내는 위치점(P)과의 관계를 나타내는 도면이다.
도 3는 도 1의 위치추적 방법의 해석에 필요한 센서노드(S), 이동체(M) 및 센서노드(S)의 위치를 나타내는 위치점(P)의 사례를 나타내는 도면이다.
도 4은 도 1의 S28 단계를 보다 구체적으로 설명하기 위한 흐름도이다.
도 5는 도 1의 S30 단계를 보다 구체적으로 설명하기 위한 흐름도이다.
1 is a flowchart illustrating a method of tracking a moving object in space according to the present invention.
FIG. 2 is a diagram showing a relationship between a sensor node S, a moving object M, and a position point P indicating the positions of the sensor node S necessary for the analysis of the position tracking method of FIG. 1.
FIG. 3 is a diagram showing an example of a position point P indicating the positions of the sensor node S, the moving object M, and the sensor node S necessary for the analysis of the position tracking method of FIG. 1.
FIG. 4 is a flowchart for describing step S28 of FIG. 1 in more detail.
FIG. 5 is a flowchart for explaining step S30 of FIG. 1 in more detail.

이하 첨부된 도면을 참조하면서 본 발명의 바람직한 실시예를 상세히 설명한다. 다음에서 설명되는 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상술되는 실시예에 한정되는 것은 아니다. 본 발명의 실시예는 당 분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The embodiments described below may be modified in various forms, and the scope of the present invention is not limited to the embodiments described below. Embodiments of the present invention are provided to more completely describe the present invention to those of ordinary skill in the art.

본 발명의 실시예는 이동체 교차점 간의 공간에서의 길이가 최소가 되도록 최적화함으로써, 편향오차의 범위를 고려하여 위치추적의 속도를 개선하고, 센서노드로 구성된 면으로부터 이동체의 추정위치를 공간적으로 보정하여 이동체의 공간에서의 위치를 보다 정확하고 빠르게 추적하는 방법 및 그 추적장치를 제시한다. 이를 위해, 공간적인 위치추적으로 보다 정확하고 빠르게 수행하는 방법을 구체적으로 알아보고, 특히 위치추적에서 이동체의 추정위치를 공간적으로 보정을 하는 과정을 상세하게 살펴보기로 한다. 본 발명의 실시예는 근거리 통신기술 중 무선센서를 이용하며, 복수의 무선센서들과 추적대상 이동체 사이의 적어도 3개의 거리정보를 측량한다.The embodiment of the present invention optimizes the length in the space between the crossing points of the moving objects to be minimum, thereby improving the speed of position tracking in consideration of the range of the deflection error, and spatially correcting the estimated position of the moving object from the plane composed of the sensor node A method and a tracking device for tracking the position of a moving object in space more accurately and quickly are presented. To this end, a method of performing more accurate and faster spatial position tracking will be examined in detail, and in particular, a process of spatially correcting the estimated position of a moving object in position tracking will be described in detail. An embodiment of the present invention uses a wireless sensor among short-range communication technologies, and measures at least three distance information between a plurality of wireless sensors and a moving object to be tracked.

도 1은 본 발명의 실시예에 의한 공간에서의 이동체 위치추적 방법을 설명하기 위한 흐름도이다. 이때, 위치추적 방법의 해석에 필요한 센서노드(S), 이동체(M) 및 센서노드(S)의 위치를 나타내는 위치점(P)에 관련된 관계 및 사례는 도 2 및 도 3을 참조하기로 한다.1 is a flowchart illustrating a method of tracking a location of a moving object in space according to an embodiment of the present invention. At this time, the relationship and examples related to the position point P indicating the position of the sensor node (S), the moving object (M), and the sensor node (S) necessary for the analysis of the position tracking method will be referred to FIGS. 2 and 3. .

도 1 내지 도 3을 참조하면, 본 발명의 위치추적 방법은 먼저, 센서노드(S)에 의해 정의된 입체공간(BD)의 각 코너에 위치하는 센서노드(S)의 위치점(P)을 확인한다(S10). 이때, 센서노드(S)의 위치점(P)에 대한 위치정보는 사전에 설정되어 있으므로 이미 알려져 있고, 이동체(M)는 입체공간(BD)의 내부에 위치한다. 본 발명의 센서노드(S)는 Wi-Fi, Zigbee, UWB, 블루투스(bluetooth), RFID, 무선센서 등과 같은 근거리 통신기술에 적용되는 센서를 이용한다. 센서노드(S)에는 편향오차와 잡음에러가 존재한다. 센서노드(S)에서 상기 편향오차는 상기 잡음에러에 비해 훨씬 크므로, 상기 편향오차가 상기 위치추적에 절대적인 영향을 미친다. 이에 따라, 본 발명의 실시예는 상기 잡음에러의 영향은 배제하고 상기 편향오차를 채택하여 해석하기로 한다. 1 to 3, in the position tracking method of the present invention, first, the position point P of the sensor node S located at each corner of the three-dimensional space BD defined by the sensor node S Confirm (S10). At this time, the location information of the location point P of the sensor node S is already known because it is set in advance, and the moving object M is located inside the three-dimensional space BD. The sensor node S of the present invention uses a sensor applied to short-range communication technologies such as Wi-Fi, Zigbee, UWB, Bluetooth, RFID, and wireless sensors. There are deflection errors and noise errors in the sensor node S. Since the deflection error in the sensor node S is much larger than that of the noise error, the deflection error has an absolute influence on the position tracking. Accordingly, in the embodiment of the present invention, the effect of the noise error is excluded and the deflection error is adopted and analyzed.

상기 편향오차는 근거리 통신용 센서 자체에서 발생하는 거리에 따라 나타나는 하드웨어의 특성이 반영된 오차이다. 한편, 동일한 종류의 센서노드(S)에서의 상기 편향오차는 거의 유사한 특성을 가지므로, 모든 센서노드(S)의 편향오차는 편차의 범위 내에서 거의 유사하다고 가정한다. 센서노드(S)에서의 상기 편향오차가 거의 유사하다면, 위치추적에 있어서 빠른 수렴이 일어난다.The deflection error is an error in which the characteristics of hardware appearing according to the distance generated by the sensor for short-range communication itself are reflected. On the other hand, since the deflection errors of the sensor nodes S of the same type have almost similar characteristics, it is assumed that the deflection errors of all the sensor nodes S are substantially similar within the range of the deviation. If the deflection error at the sensor node S is almost similar, fast convergence occurs in position tracking.

센서노드(S)는 입체공간(BD)을 정의하기 위하여, 복수개의 센서노드(S)로 정의되는 하나의 평면 및 상기 평면과 이격되며 대향되어 위치하는 다른 평면에서의 적어도 하나의 센서노드(S)가 요구된다. 또한, 입체공간(BD)은 복수개의 센서노드(S)를 포함하는 하나의 평면 및 상기 평면과 동일한 평면이 아닌 다른 평면에서의 적어도 하나의 센서노드(S)가 요구된다. 상기 평면은 3개 이상의 센서노드(S)로 정의되며, 상기 3개 이상의 센서노드(S)는 동일한 평면 내에 존재한다. 도면에서는 육면체의 입체공간(BD)을 가정하였으므로, 센서노드(S)의 위치점 P1, P2, P3 및 P4는 평면을 이루고, 센서노드(S)의 위치점 P5은 상기 평면과 이격되며 대향되는 다른 평면 또는 동일한 평면이 아닌 다른 평면에 위치한다. 만일, 입체공간(BD)이 사면체라고 한다면, 상기 평면은 3개의 센서노드(S)가 필요하다. 위치점인 P1, P2, P3, P4 및 P5은 3차원 좌표계로 정의된다. 또한, 상기 위치를 추적하는 과정에서 x-y 좌표계 또는 r-θ 좌표계 중의 어느 하나를 활용할 수 있다.In order to define a three-dimensional space (BD), the sensor node (S) is at least one sensor node (S) in one plane defined by a plurality of sensor nodes (S) and another plane spaced apart from the plane and located opposite to each other. ) Is required. In addition, the three-dimensional space BD requires one plane including a plurality of sensor nodes S and at least one sensor node S in a plane other than the same plane as the plane. The plane is defined by three or more sensor nodes (S), and the three or more sensor nodes (S) exist in the same plane. In the drawing, since the three-dimensional space (BD) of a hexahedron is assumed, the location points P 1 , P 2 , P 3 and P 4 of the sensor node S form a plane, and the location point P 5 of the sensor node S is the plane. It is spaced apart from and located on a different plane opposite to or on a different plane than the same plane. If the three-dimensional space BD is a tetrahedron, the plane requires three sensor nodes S. The location points P 1 , P 2 , P 3 , P 4 and P 5 are defined in a three-dimensional coordinate system. In addition, in the process of tracking the location, either of the xy coordinate system or the r-θ coordinate system may be used.

본 발명의 위치추적 방법은 입체공간(BD)의 형태를 다양하게 변형하고 그에 따라서 센서노드(S)를 배치함으로써, 보다 효율적이고 정밀하게 공간적인 위치를 추적할 수 있다. 예컨대, 상기 평면을 6각형으로 한다면, 보다 정밀한 위치추적이 가능하다. 또한, 입체공간(BD)은 본 발명의 적용되는 환경에 따라 달라질 수 있다. 본 발명의 실시예는 센서노드(S)의 편향오차의 경계조건을 최종 위치의 추정치를 사용하여, 추정속도를 높일 수 있는 피드백(feed back) 구조이다.The location tracking method of the present invention can track a spatial location more efficiently and accurately by changing the shape of the three-dimensional space (BD) in various ways and disposing the sensor node (S) accordingly. For example, if the plane is hexagonal, more precise location tracking is possible. In addition, the three-dimensional space (BD) may vary depending on the environment to which the present invention is applied. An embodiment of the present invention is a feedback structure capable of increasing the estimation speed by using the boundary condition of the deflection error of the sensor node S using the estimated value of the final position.

이어서, 각각의 센서노드(S)와 이동체(M) 사이의 거리를 측정한다(S12). 상기 거리는 도시된 바와 같이, 이동체의 제1 부분(M1)의 경우에는 P1, P2, P3 위치의 센서노드(S)와의 거리(L1, L2, L3)로 측정되고, 이동체의 제2 부분(M5)의 경우에는 P5, P7, P8 위치의 센서노드(S)와의 거리(L4, L5, L6)로 측정된다. 이때, 이동체(M)의 제1 및 제2 부분(M1, M5)은 편향오차 및 이동체(M)의 형상에 기인하는 것으로, 실질적으로는 하나의 몸체에 속한다. P1, P2, P3 위치의 센서노드(S)는 하나의 평면에 속하고, P5, P7, P8 위치의 센서노드(S)는 다른 평면에 속한다. 센서노드(S)와 이동체(M) 사이의 거리를 측정하기 위하여, 서로 다른 평면을 이루는 센서노드(S)는 임의로 설정될 수 있다. 또한, 입체공간(BD)은 해석의 편의를 위하여 공간을 분할할 수 있으며, 도면에서는 8개의 공간으로 분할되어 있다. Then, the distance between each sensor node (S) and the moving body (M) is measured (S12). As shown, in the case of the first part (M 1 ) of the moving body, the distance is measured as the distance (L 1 , L 2 , L 3 ) with the sensor node S at the positions P 1 , P 2 , P 3, In the case of the second part (M 5 ) of the moving body, it is measured as the distance (L 4 , L 5 , L 6 ) with the sensor node S at the positions P 5 , P 7 , and P 8. At this time, the first and second portions M 1 and M 5 of the moving body M are due to the deflection error and the shape of the moving body M, and belong to one body substantially. Sensor nodes (S) at positions P 1 , P 2 and P 3 belong to one plane, and sensor nodes (S) at positions P 5 , P 7 and P 8 belong to another plane. In order to measure the distance between the sensor node S and the moving body M, the sensor nodes S forming different planes may be arbitrarily set. In addition, the three-dimensional space (BD) can be divided for convenience of analysis, and is divided into eight spaces in the drawing.

공간상의 이동체의 위치(M1, M5)는 다음과 같이 연산하는 방법을 적용한다. 우선 센서노드(S)의 위치좌표는 미리 주어져 있고, 센서노드(S)로부터 공간상의 이동체(M)까지의 거리는 에러를 포함한 형태로 측정되어 주어진다. 공간상의 센서노드의 위치(P1, P2, P3)와 각 센서노드(S)로부터 공간상의 이동체(M)까지의 거리를 이용하여 구한다. 공간상의 센서노드(S)로부터 각 센서노드(S)로의 공간상의 이동체(M)까지의 거리에 존재하는 위치는 공간상의 두 개의 점으로 구해진다. The position of the moving object in space (M1, M5) is calculated as follows. First, the position coordinate of the sensor node (S) is given in advance, and the distance from the sensor node (S) to the moving object (M) in space is measured and given in a form including an error. It is obtained by using the location of the sensor node in space (P 1 , P 2 , P 3 ) and the distance from each sensor node (S) to the moving object (M) in space. The position existing at the distance from the sensor node S in space to the moving object M in space to each sensor node S is obtained as two points in space.

이때, 공간상의 두 개의 점 중에 최종 위치는 공간상의 센서 노드의 위치(P1, P2, P3)와 동일 평면에 있지 않은 다른 센서노드(S)의 위치를 이용하여 공간상의 센서노드의 위치(P1, P2, P3)로 이루는 평면에 의해 3차원 공간을 두 영역으로 구분할 때 같은 공간에 위치는 좌표를 교점의 최종위치로 결정한다. 위와 같이 동일한 평면을 이루는 세 개의 좌표를 기준으로 최종위치를 구하면, 도면에서 예시한 정육면체의 경우, 최종위치가 6개가 구해질 수 있다. 또한 상기 최종위치는 많게는 하나의 평면마다 4개씩 총 24개의 최종추정위치를 구할 수 있다. 위에서 설명한 예시는 이중에서 상기 평면이 마주보고 있는 경우를 예시한 것으로 측정된 센서노드(S)의 거리 정보의 부정확성을 수치로 나타낼 수 있는 방법을 포함하여 이동체(M)의 추정 초종위치를 도출할 수 있다. 이하에서는 상기 평면이 마주보고 있는 경우를 예로 들어 이동체의 추정 최종위치의 도출과정이다. At this time, the final location of the two points in space is the location of the sensor node in space using the location of the sensor node in space (P 1 , P 2 , P 3 ) and the location of another sensor node (S) that is not in the same plane. When the three-dimensional space is divided into two areas by a plane consisting of (P 1 , P 2 , P 3 ), the coordinates of the location in the same space are determined as the final location of the intersection. When the final positions are obtained based on three coordinates forming the same plane as above, in the case of the cube illustrated in the drawing, six final positions can be obtained. In addition, as for the final position, a total of 24 final estimated positions can be obtained, up to four for each plane. The example described above is an example of a case in which the planes are facing each other, and includes a method that can represent the inaccuracy of the measured distance information of the sensor node S as a numerical value to derive the estimated initial position of the moving object M. I can. Hereinafter, the process of deriving the estimated final position of the moving object, for example, when the planes face each other.

그후, 교차점 공간상의 길이(fL)를 설정하고, 길이(fL)의 최소값을 에러값 기준으로 초기화한다(S14). 상기 에러값 기준은 교차점 공간상의 길이(fL)의 최소값 기준이다. 다음에, 최적화 변수인 편향오차 영역(beL, beR)을 설정한다(S16). 센서노드(S)의 편향오차가 측정된 거리값에 포함되어 있을 때, 처음 1회 수행할 때는 beL, beR의 초기 설정값으로 설정한다. 교차점의 공간상 길이(fL)를 상기 에러값 기준과 비교한다(S18). After that, the length fL on the intersection space is set, and the minimum value of the length fL is initialized based on the error value (S14). The error value criterion is the minimum value criterion of the length fL of the intersection space. Next, the bias error regions b e L and b e R, which are optimization variables, are set (S16). When the deflection error of the sensor node (S) is included in the measured distance value, it is set to the initial setting values of b e L and b e R when performing the first one time. The spatial length fL of the intersection point is compared with the error value reference (S18).

만일, 교차점의 공간상 길이(fL)가 에러값 기준보다 작으면, 최종 교차점 공간상 좌표를 선정한다(S22). 그후, 최종 위치를 추정하고(S24), 이동평균값{(beL + BeR)/2}을 기준으로 beL 및 beR이라는 편향오차 영역의 새로운 값을 설정한다(S26). 새로운 편향오차 영역인 beL 및 beR은 상기 S16 단계로 피드백된다. 즉, 편향오차 영역인 beL 및 beR은 1회를 수행할 때에는 기본값으로 설정되고, 2회 이후로부터는 이동평균값으로 설정된다. If the spatial length fL of the intersection point is smaller than the error value reference, the final intersection point spatial coordinate is selected (S22). Thereafter, the final position is estimated (S24), and new values of the deflection error regions beL and beR are set based on the moving average value {(beL + BeR)/2} (S26). The new deflection error regions beL and beR are fed back to step S16. That is, the deflection error regions beL and beR are set as default values when performing one time, and set as moving average values after two times.

만일, 교차점의 공간상 길이(fL)가 에러값 기준보다 크면, 황금분할 변수 be1 및 be2를 설정한다(S20). 황금분할 변수는 황금분할 알고리즘으로 비교하는 것으로, 이때에는 황금분할 함수를 사용한다. 황금분할이란 함수 f(x)가 구간 [a, b]에서 하나의 최소값을 가진다고 가정하면, L = [a, b]에서, x1 = a + (1-r)·(b-a)이고 x2 = a + r·(b-a)이다. 만일, f(x1) < f(x2)라면 새로운 구간인 Lnew = [a, x2]이고 나머지의 새로운 구간인 Lnew = [x1, b]로 선택된다. 본 발명의 실시예에 의한 황금분할 알고리즘을 반복하면, 공간상 길이(fL)는 계속해서 줄어들어 최종적으로 하나의 점으로 수렴된다. 도면에서는 하나의 점으로 수렴되는 과정을 개념적으로 표현하였다.If the spatial length fL of the intersection point is greater than the error value reference, the golden division variables be1 and be2 are set (S20). The golden division variable is compared with the golden division algorithm, and in this case, the golden division function is used. The golden division is assuming that the function f(x) has one minimum value in the interval [a, b], in L = [a, b], x 1 = a + (1-r)·(ba) and x 2 = a + r·(ba). If f(x 1 ) <f(x 2 ), the new section L new = [a, x 2 ] and the remaining new section L new = [x 1 , b]. When the golden division algorithm according to an embodiment of the present invention is repeated, the spatial length fL continues to decrease and finally converges to one point. In the drawing, the process of converging to one point is conceptually expressed.

황금분할 변수 be1 및 be2를 설정한 후, 편향오차가 be1일 때 교차점을 구하고 교차점 공간상 거리(fLa)를 구한다(S28). 이에 대해서는 추후에 도 3에서 상세하게 설명하기로 한다. 황금분할 변수 be1 및 be2를 설정한 후, 편향오차가 be2일 때 교차점을 구하고 교차점 공간상 거리(fLb)를 구한다(S30). 이에 대해서는 추후에 도 4에서 상세하게 설명하기로 한다. After setting the golden division variables be1 and be2, when the deflection error is be1, the intersection point is obtained, and the distance fLa in the intersection point space is obtained (S28). This will be described in detail later in FIG. 3. After setting the golden division variables be1 and be2, when the deflection error is be2, the intersection point is obtained, and the distance fLb in the intersection point space is obtained (S30). This will be described in detail later in FIG. 4.

그후, 황금분할 알고리즘을 이용하여, 교차점 공간상 거리(fLa) 및 교차점 공간상 거리(fLb)를 비교한다. 만일, 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 작으면, 황금분할 변수인 beR = be2를 설정하고, 교차점 공간상 거리인 fL = fLa로 설정한다(S34). 만일, 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 크면, 황금분할 변수인 beR = be1로 설정하고, 교차점 공간상 거리인 fL = fLb로 설정한다(S36). 황금분할 변수가 설정되면, S18 단계로 피드백되어 교차점 공간상 길이(fL)를 에러값 기준과 비교한다.Thereafter, the golden division algorithm is used to compare the distance fLa at the intersection point and the distance fLb at the intersection point. If the intersecting spatial distance fLa is smaller than the intersecting spatial distance fLb, the golden division variable beR = be2 is set, and the intersecting spatial distance fL = fLa is set (S34). If the intersecting spatial distance fLa is greater than the intersecting spatial distance fLb, the golden division variable beR = be1 is set, and the intersecting spatial distance fL = fLb is set (S36). When the golden segmentation variable is set, it is fed back to step S18 to compare the length fL in the space of the intersection with the error value reference.

본 발명의 실시예에 의한 공간에서의 이동체의 위치추적 방법은 편향오차값의 결과를 누적하여 교차점의 공간상 거리(fL)를 최적변수로 하여 피드백하는 구조를 가진다. 이와 같은 방식은 교차점의 공간상 거리(fL)를 최소로 하는 최적변수를 갱신하는 것으로, 종래에서는 전혀 개시되지 않은 방식이다. The method of tracking the location of a moving object in space according to an embodiment of the present invention has a structure in which the result of a deflection error value is accumulated and the spatial distance fL of the intersection is fed back as an optimal variable. This method is to update the optimal variable for minimizing the spatial distance fL of the intersection point, which has not been disclosed at all in the related art.

도 3은 도 1의 S28 단계를 보다 구체적으로 설명하기 위한 흐름도이다. 이때, 공간에서의 이동체의 위치추적 방법의 전체적인 과정은 도 1을 참조하기로 한다.FIG. 3 is a flowchart for explaining step S28 of FIG. 1 in more detail. In this case, the overall process of the method for tracking the location of the moving object in space will be referred to FIG. 1.

도 3에 의하면, 편향오차가 be1일 때 교차점을 구하고 교차점 공간상 거리(fLa)를 설정하는 방법은 먼저, 센서노드(S)의 위치정보로 데이터를 구성한다(S50). 예컨대, 5~8개 정도의 센서노드(S)에서 3개를 선택하여 데이터를 구성한다. 그후, 센서노드(S)와 이동체(M) 사이의 거리에서 편향오차를 제거한다(S51). 공간상의 교차점을 추정한다(S52). 공간상의 교차점이 추정되면, 교차점이 3세트인 지를 확인한다(S53). 만일, 교차점이 3세트가 아니면, S50 단계로 돌아가서 데이터를 다시 구성한다. 만일, 교차점이 3세트이면, 최종 교차점 3세트를 저장한다(S54). 마지막으로, 최종 교차점 간의 공간상 거리(fLa)를 계산한다(S55).Referring to FIG. 3, when the deflection error is be1, the method of obtaining an intersection point and setting the distance fLa in the intersection point space is first composed of data based on the location information of the sensor node S (S50). For example, data is configured by selecting 3 from about 5 to 8 sensor nodes (S). After that, the deflection error is removed from the distance between the sensor node S and the moving body M (S51). The intersection point in space is estimated (S52). When the intersection point in space is estimated, it is checked whether the intersection point is three sets (S53). If the intersection point is not three sets, the process returns to step S50 and the data is reconstructed. If there are 3 sets of intersection points, the last 3 sets of intersection points are stored (S54). Finally, the spatial distance fLa between the final intersection points is calculated (S55).

도 4는 도 1의 S30 단계를 보다 구체적으로 설명하기 위한 흐름도이다. 이때, 공간에서의 이동체의 위치추적 방법의 전체적인 과정은 도 1을 참조하기로 한다.FIG. 4 is a flowchart for explaining step S30 of FIG. 1 in more detail. In this case, the overall process of the method for tracking the location of the moving object in space will be referred to FIG. 1.

도 4에 의하면, 편향오차가 be2일 때 교차점을 구하고 교차점 공간상 거리(fLb)를 설정하는 방법은 먼저, 센서노드(S)의 위치정보로 데이터를 구성한다(S60). 예컨대, 5~8개 정도의 센서노드(S)에서 3개를 선택하여 데이터를 구성한다. 그후, 센서노드(S)와 이동체(M) 사이의 거리에서 편향오차를 제거한다(S61). 공간상의 교차점을 추정한다(S62). 공간상의 교차점이 추정되면, 교차점이 3세트인 지를 확인한다(S63). 만일, 교차점이 3세트가 아니면, S50 단계로 돌아가서 데이터를 다시 구성한다. 만일, 교차점이 3세트이면, 최종 교차점 3세트를 저장한다(S64). 마지막으로, 최종 교차점 간의 공간상 거리(fLb)를 계산한다(S65).Referring to FIG. 4, when the deflection error is be2, the method of obtaining the intersection point and setting the distance fLb in the intersection point space is first composed of data based on the location information of the sensor node S (S60). For example, data is configured by selecting 3 from about 5 to 8 sensor nodes (S). After that, the deflection error is removed from the distance between the sensor node S and the moving body M (S61). The intersection point in space is estimated (S62). When the intersection point in space is estimated, it is checked whether the intersection point is three sets (S63). If the intersection point is not three sets, the process returns to step S50 and the data is reconstructed. If there are 3 sets of intersection points, the last 3 sets of intersection points are stored (S64). Finally, the spatial distance fLb between the final intersection points is calculated (S65).

이상, 본 발명은 바람직한 실시예를 들어 상세하게 설명하였으나, 본 발명은 상기 실시예에 한정되지 않으며, 본 발명의 기술적 사상의 범위 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 여러 가지 변형이 가능하다. In the above, the present invention has been described in detail with reference to a preferred embodiment, but the present invention is not limited to the above embodiment, and various modifications are made by those of ordinary skill in the art within the scope of the technical idea of the present invention. It is possible.

S; 센서노드 M; 이동체
M1, M2; 이동체의 제1 및 제2 부분
P1, P2, P3, P4, P5, P6, P7, P8; 위치점
S; Sensor node M; Moving object
M 1 , M 2 ; The first and second parts of the moving body
P 1 , P 2 , P 3 , P 4 , P 5 , P 6 , P 7 , P 8 ; Location point

Claims (15)

센서노드에 의해 정의된 입체공간의 각 코너에 위치하는 상기 센서노드의 위치점을 확인하는 단계;
상기 센서노드와 이동체 사이의 거리를 측정하는 단계;
상기 이동체의 제1 및 제2 부분에 의해 결정되는 교차점의 공간상 길이(fL)를 설정하고, 상기 교차점의 공간상 길이(fL)의 최소값을 에러값 기준으로 초기화하는 단계;
최적화 변수인 편향오차 영역(beL, beR)을 설정하는 단계;
상기 교차점의 공간상 길이(fL)가 상기 에러값 기준보다 작으면, 최종 교차점 공간상 좌표를 선정하는 단계; 및
최종 위치를 추정하고, 이동평균값{(beL + BeR)/2}을 기준으로 beL 및 beR이라는 편향오차 영역의 새로운 값을 설정하는 단계를 포함하고,
상기 편향오차 영역(beL, beR)은 상기 센서노드의 편향오차가 상기 교차점의 공간상 길이(fL)에 포함되는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.
Checking a location point of the sensor node located at each corner of the three-dimensional space defined by the sensor node;
Measuring the distance between the sensor node and the moving object;
Setting a spatial length (fL) of an intersection point determined by the first and second portions of the moving object, and initializing a minimum value of the spatial length (fL) of the intersection point based on an error value;
Setting bias error regions b e L and b e R as optimization variables;
If the spatial length (fL) of the intersection point is smaller than the error value reference, selecting a spatial coordinate of the final intersection point; And
Estimating a final position, and setting new values of the deflection error regions beL and beR based on the moving average value {(beL + BeR)/2},
In the deflection error regions (b e L and b e R), the deflection error of the sensor node is included in the spatial length fL of the intersection point.
제1항에 있어서, 상기 beL 및 beR이라는 편향오차 영역의 새로운 값을 설정하는 단계 이후에, 상기 새로운 값으로 설정된 편향오차 영역인 beL 및 beR은 상기 최적화 변수인 편향오차 영역(beL, beR)을 설정하는 단계로 피드백하는 단계를 더 포함하는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.The method of claim 1, wherein after the step of setting new values of the deflection error regions beL and beR, the deflection error regions beL and beR set to the new values are bias error regions (b e L, b e R) The method of tracking the position of the moving object in space, further comprising the step of feeding back to the setting step. 제1항에 있어서, 상기 센서노드에서의 각각의 편향오차는 편차의 범위 내에서 속하는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.The method of claim 1, wherein each deflection error at the sensor node falls within a range of the deviation. 제1항에 있어서, 상기 센서노드는 편향오차 및 잡음에러를 포함하고, 상기 잡음에러는 배제되는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.The method of claim 1, wherein the sensor node includes a deflection error and a noise error, and the noise error is excluded. 센서노드에 의해 정의된 입체공간의 각 코너에 위치하는 상기 센서노드의 위치점을 확인하는 단계;
상기 센서노드와 이동체 사이의 거리를 측정하는 단계;
상기 이동체의 제1 및 제2 부분에 의해 결정되는 교차점의 공간상 길이(fL)를 설정하고, 상기 교차점의 공간상 길이(fL)의 최소값을 에러값 기준으로 초기화하는 단계;
최적화 변수인 편향오차 영역(beL, beR)을 설정하는 단계;
상기 교차점의 공간상 길이(fL)가 상기 에러값 기준보다 크면, 황금분할 변수인 편향오차 be1 및 be2를 설정하는 단계;
상기 편향오차가 be1일 때 교차점을 구하고 교차점 공간상 거리(fLa)를 구하는 단계;
상기 편향오차가 be2일 때 교차점을 구하고 교차점 공간상 거리(fLb)를 구하는 단계;
황금분할 알고리즘을 이용하여, 상기 교차점 공간상 거리(fLa) 및 상기 교차점 공간상 거리(fLb)를 비교하는 단계; 및
상기 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 작으면 황금분할 변수인 beR = be2를 설정하고 교차점 공간상 거리인 fL = fLa로 설정하며, 상기 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 크면 황금분할 변수인 beR = be1로 설정하고 교차점 공간상 거리인 fL = fLb로 설정하는 단계를 포함하고,
상기 편향오차 영역(beL, beR)은 상기 센서노드의 편향오차가 상기 교차점 공간상 거리(fLa) 및 상기 교차점 공간상 거리(fLb)에 포함되는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.
Checking a location point of the sensor node located at each corner of the three-dimensional space defined by the sensor node;
Measuring the distance between the sensor node and the moving object;
Setting a spatial length (fL) of an intersection point determined by the first and second portions of the moving object, and initializing a minimum value of the spatial length (fL) of the intersection point based on an error value;
Setting bias error regions b e L and b e R as optimization variables;
Setting bias errors be1 and be2, which are golden division variables, when the spatial length (fL) of the intersection point is greater than the error value reference;
Obtaining an intersection point when the deflection error is be1 and obtaining a distance fLa of the intersection point space;
Obtaining an intersection point when the deflection error is be2 and obtaining a distance fLb in the intersection point space;
Comparing the spatial distance fLa of the intersection and the spatial distance fLb of the intersection using a golden division algorithm; And
If the intersecting spatial distance fLa is smaller than the intersecting spatial distance fLb, the golden division variable beR = be2 is set and the intersecting spatial distance fL = fLa is set, and the intersecting spatial distance fLa is If it is greater than the distance in the space of the intersection (fLb), the golden division variable beR = be1, and the distance in the space of the intersection, fL = fLb,
The deflection error regions (b e L, b e R) of the moving object in space, characterized in that the deflection error of the sensor node is included in the intersection spatial distance fLa and the intersection spatial distance fLb. Location tracking method.
제5항에 있어서, 상기 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 작으면 황금분할 변수인 beR = be2를 설정하고 교차점 공간상 거리인 fL = fLa로 설정하며, 상기 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 크면 황금분할 변수인 beR = be1로 설정하고 교차점 공간상 거리인 fL = fLb로 설정하는 단계 이후에, 상기 편향오차 영역인 beL 및 beR은 상기 최적화 변수인 편향오차 영역(beL, beR)을 설정하는 단계로 피드백하는 단계를 더 포함하는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.The method of claim 5, wherein if the distance in the space of the intersection (fLa) is less than the distance in the space of the intersection (fLb), the golden division variable beR = be2 is set, and the distance in the space of the intersection is fL = fLa, and the intersection space If the image distance fLa is greater than the spatial distance fLb of the intersection, after the step of setting beR = be1, which is a golden division variable, and fL = fLb, which is the spatial distance of the intersection, the deflection error areas beL and beR are the And feedback to the step of setting deflection error regions (b e L and b e R) as optimization variables. 제5항에 있어서, 상기 센서노드에서의 각각의 편향오차는 편차의 범위 내에서 속하는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.The method of claim 5, wherein each deflection error at the sensor node falls within a range of the deviation. 제5항에 있어서, 상기 센서노드는 편향오차 및 잡음에러를 포함하고, 상기 잡음에러는 배제되는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.The method of claim 5, wherein the sensor node includes a deflection error and a noise error, and the noise error is excluded. 센서노드에 의해 정의된 입체공간의 각 코너에 위치하는 상기 센서노드의 위치점을 확인하는 단계;
상기 센서노드와 이동체 사이의 거리를 측정하는 단계;
상기 이동체의 제1 및 제2 부분에 의해 결정되는 교차점의 공간상 길이(fL)를 설정하고, 상기 교차점의 공간상 길이(fL)의 최소값을 에러값 기준으로 초기화하는 단계;
최적화 변수인 편향오차 영역(beL, beR)을 설정하는 단계;
상기 교차점의 공간상 길이(fL)가 상기 에러값 기준보다 작으면 최종 교차점 공간상 좌표를 선정하고, 최종 위치를 추정하며, 이동평균값{(beL + BeR)/2}을 기준으로 beL 및 beR이라는 편향오차 영역의 새로운 값을 설정하는 단계; 및
상기 교차점의 공간상 길이(fL)가 상기 에러값 기준보다 크면 황금분할 변수인 편향오차 be1 및 be2를 설정하고, 상기 편향오차가 be1일 때 교차점을 구하고 교차점 공간상 거리(fLa)를 구하며, 상기 편향오차가 be2일 때 교차점을 구하고 교차점 공간상 거리(fLb)를 구하고, 황금분할 알고리즘을 이용하여 상기 교차점 공간상 거리(fLa) 및 상기 교차점 공간상 거리(fLb)를 비교하며, 상기 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 작으면 황금분할 변수인 beR = be2를 설정하고 교차점 공간상 거리인 fL = fLa로 설정하며, 상기 교차점 공간상 거리(fLa)가 교차점 공간상 거리(fLb)보다 크면 황금분할 변수인 beR = be1로 설정하고 교차점 공간상 거리인 fL = fLb로 설정하는 단계를 포함하고,
상기 편향오차 영역(beL, beR)은 상기 센서노드의 편향오차가 교차점 공간상 거리(fLa) 및 상기 교차점 공간상 거리(fLb)에 포함되는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.
Checking a location point of the sensor node located at each corner of the three-dimensional space defined by the sensor node;
Measuring the distance between the sensor node and the moving object;
Setting a spatial length (fL) of an intersection point determined by the first and second portions of the moving object, and initializing a minimum value of the spatial length (fL) of the intersection point based on an error value;
Setting bias error regions b e L and b e R as optimization variables;
If the spatial length (fL) of the intersection point is less than the error value reference, the final intersection point spatial coordinates are selected, the final position is estimated, and based on the moving average value {(beL + BeR)/2}, beL and beR. Setting a new value of the bias error area; And
If the spatial length (fL) of the intersection point is greater than the error value criterion, the golden division variables, bias errors be1 and be2, are set, and when the bias error is be1, the intersection point is obtained and the intersection point spatial distance (fLa) is obtained. When the deflection error is be2, the intersection is obtained, the distance in the intersection space (fLb) is obtained, the distance in the intersection space (fLa) and the distance in the intersection space (fLb) are compared using a golden division algorithm, and If the distance (fLa) is smaller than the distance in the space of the intersection (fLb), the golden division variable beR = be2 is set and the distance in the space of the intersection is fL = fLa, and the distance in the space of the intersection (fLa) is the distance in the space of the intersection. If it is greater than (fLb), it includes setting the golden division variable beR = be1, and setting fL = fLb, which is the distance in the space of the intersection,
The deflection error region (b e L, b e R) is the position of the moving object in space, characterized in that the deflection error of the sensor node is included in the intersecting point spatial distance fLa and the intersecting point spatial distance fLb Tracking method.
제9항에 있어서, 상기 센서노드에서의 각각의 편향오차는 편차의 범위 내에서 속하는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.The method of claim 9, wherein each deflection error in the sensor node falls within a range of the deviation. 제9항에 있어서, 상기 센서노드는 편향오차 및 잡음에러를 포함하고, 상기 잡음에러는 배제되는 것을 특징으로 하는 공간에서의 이동체의 위치추적 방법.The method of claim 9, wherein the sensor node includes a deflection error and a noise error, and the noise error is excluded. 제1항, 제5항 또는 제9항의 어느 한 항에 의한 공간에서의 이동체 위치추적 방법이 적용되며, 상기 입체공간은 복수개의 센서노드를 포함하는 하나의 평면 및 상기 하나의 평면과 이격되며 대향되어 위치하는 다른 평면에서의 적어도 하나의 센서노드로 정의되는 것을 특징으로 하는 이동체의 위치추적 장치.The method of tracking the location of a moving object in a space according to any one of claims 1, 5, or 9 is applied, and the three-dimensional space is a plane including a plurality of sensor nodes and is spaced apart from and opposite to the one plane. Position tracking device of a moving object, characterized in that defined as at least one sensor node in another plane that is located in the same way. 제1항, 제5항 또는 제9항의 어느 한 항에 의한 공간에서의 이동체 위치추적 방법이 적용되며, 상기 입체공간은 복수개의 센서노드를 포함하는 하나의 평면 및 상기 평면과 동일한 평면이 아닌 다른 평면으로 정의되는 것을 특징으로 하는 이동체의 위치추적 장치.The method of tracking the location of a moving object in a space according to any one of claims 1, 5, or 9 is applied, and the three-dimensional space includes a plane including a plurality of sensor nodes and a plane other than the same plane as the plane. A device for tracking a location of a moving object, characterized in that it is defined as a plane. 제12항에 있어서, 상기 하나의 평면은 적어도 3개의 센서노드로 구현되는 것을 특징으로 하는 이동체의 위치추적 장치.The apparatus of claim 12, wherein the one plane is implemented by at least three sensor nodes. 제12항에 있어서, 상기 입체공간은 분할되는 것을 특징으로 하는 이동체의 위치추적 장치.The apparatus of claim 12, wherein the three-dimensional space is divided.
KR1020190022613A 2019-02-26 2019-02-26 Method of tracking position of mobile object in space and apparatus of tracking using the method KR102232616B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190022613A KR102232616B1 (en) 2019-02-26 2019-02-26 Method of tracking position of mobile object in space and apparatus of tracking using the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190022613A KR102232616B1 (en) 2019-02-26 2019-02-26 Method of tracking position of mobile object in space and apparatus of tracking using the method

Publications (2)

Publication Number Publication Date
KR20200104111A KR20200104111A (en) 2020-09-03
KR102232616B1 true KR102232616B1 (en) 2021-03-26

Family

ID=72450162

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190022613A KR102232616B1 (en) 2019-02-26 2019-02-26 Method of tracking position of mobile object in space and apparatus of tracking using the method

Country Status (1)

Country Link
KR (1) KR102232616B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101374589B1 (en) 2012-10-25 2014-03-17 광주과학기술원 Method of tracking position and apparatus performing the same
KR101544315B1 (en) 2014-04-23 2015-08-13 서울대학교산학협력단 Efficient three-dimensional localization method using trilateration in wireless network and recording medium having application program recorded thereon

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101565799B1 (en) * 2008-12-29 2015-11-05 연세대학교 산학협력단 Method for estimating node location in wireless sensor networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101374589B1 (en) 2012-10-25 2014-03-17 광주과학기술원 Method of tracking position and apparatus performing the same
KR101544315B1 (en) 2014-04-23 2015-08-13 서울대학교산학협력단 Efficient three-dimensional localization method using trilateration in wireless network and recording medium having application program recorded thereon

Also Published As

Publication number Publication date
KR20200104111A (en) 2020-09-03

Similar Documents

Publication Publication Date Title
Jourdan et al. Optimal sensor placement for agent localization
CA3080184C (en) Deployment of trained neural network based rss fingerprint dataset
CA2840250C (en) An improved system and method for wireless positioning in wireless network-enabled environments
CN105704652B (en) Fingerprint base acquisition and optimization method in a kind of positioning of WLAN/ bluetooth
US8694275B2 (en) Method, device and system for calibrating positioning device
JP7034353B2 (en) Positioning system and positioning method
US20210243564A1 (en) Real time tracking systems in three dimensions in multi-story structures and related methods and computer program products
Bergelt et al. Improving the intrinsic calibration of a Velodyne LiDAR sensor
CN107371133B (en) Method for improving positioning accuracy of base station
US11914062B2 (en) Technique for calibrating a positioning system
CN111783492A (en) Indoor positioning method and device based on two-dimensional code, mobile terminal and storage medium
CN105190346A (en) Techniques to improve the performance of a fixed, timing-based radio positioning network using external assistance information
US6842261B2 (en) Integrated circuit profile value determination
KR102232616B1 (en) Method of tracking position of mobile object in space and apparatus of tracking using the method
CN111474516B (en) Multi-level indoor positioning method and system based on crowdsourcing sample surface fitting
KR102367403B1 (en) Method and Device for Indoor Positioning based on Inertial Data and Wireless Signal Data
KR101762510B1 (en) Method for determining mobile reference node to improve the detection accuracy of the location
KR20190113013A (en) Indoor positioning method based on beacon signal and fingerprint map and system having the method
KR102180303B1 (en) Ae source locating system and method thereof
KR101642186B1 (en) Location tracking method, location tracking system and recording medium for performing the method
Trogh et al. Advanced indoor localisation based on the Viterbi algorithm and semantic data
KR102141442B1 (en) Method of tracking position of mobile object and apparatus of tracking using the method
CN116261674A (en) Apparatus and method for calibrating a three-dimensional scanner and optimizing point cloud data
CN105785444B (en) Velocity field construction method
CN108337638A (en) A kind of least square localization method of the anchor node optimum choice based on minimum sandards difference

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant