KR20210085582A - 인공지능을 이용한 센서위치예측시스템 - Google Patents

인공지능을 이용한 센서위치예측시스템 Download PDF

Info

Publication number
KR20210085582A
KR20210085582A KR1020190178777A KR20190178777A KR20210085582A KR 20210085582 A KR20210085582 A KR 20210085582A KR 1020190178777 A KR1020190178777 A KR 1020190178777A KR 20190178777 A KR20190178777 A KR 20190178777A KR 20210085582 A KR20210085582 A KR 20210085582A
Authority
KR
South Korea
Prior art keywords
value
dimensional
sensor
data
location
Prior art date
Application number
KR1020190178777A
Other languages
English (en)
Other versions
KR102404519B1 (ko
Inventor
이원찬
Original Assignee
이원찬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이원찬 filed Critical 이원찬
Priority to KR1020190178777A priority Critical patent/KR102404519B1/ko
Publication of KR20210085582A publication Critical patent/KR20210085582A/ko
Application granted granted Critical
Publication of KR102404519B1 publication Critical patent/KR102404519B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/10Position of receiver fixed by co-ordinating a plurality of position lines defined by path-difference measurements, e.g. omega or decca systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명은 3차원의 공간에 존재하는 센서 즉, 파원을 특정 공간에 위치시킨 후 주파수를 일정한 주기로 방송토록 하고, 스캐너를 통해 파원의 위치를 측위 하는 데이터를 얻고, 그 위치데이터를 통해 미래의 그 센서가 위치하게 될 위치데이터를 예측하는 방법을 기술한 발명이다. 구체적으로는 현재의 위치데이터에 대하여 Tagging하게 되는데 그 Tagging하는 방법이 주파수를 이용한 위치측위 알고리즘이며,Tagging된 데이터를 이용하여 예측모형을 구현하는 것이 인공지능 알고리즘이다. 본 발명에서는 예측가능한 모형의 생성 및 훈련 및 학습 그리고 예측평가 부분을 융합한 것으로써 슈퍼바이즈드 러닝의 추상화와 일반화 모델을 통한 예측 모형으로 저장된 데이터를 좀 더 포괄적 형태와 개념으로 변환하고, 또한 그 저장된 데이터에 숨겨져 있는 패턴을 구체적으로 예측하도록 하는 방식을 표현하는 것이다.
본 발명을 구체화 하기위해 센서로부터 발생되는 주파수의 인식 및 수신단계, 3차원 위치 좌표 값 부여단계, 2차원 위치값의 변환단계, 2차원 위치값에 대한 위치변수포함단계, 2차원 위치값을 데이터 Tagging을 통해 데이터베이스에 저장하는 단계, 기계학습을 통한 위치예측값을 도출하는 단계, 위치예측값을 데이터베이스에 저장하는 단계, 센서의 위치예측값과 실제 현재값 확인단계로 구현할 수 있으며,
첫 단계인 센서로부터 발생되는 주파수의 발생과 인식단계부터 마지막 단계인 센서의 위치예측값과 실제 현재 위치값 확인단계를 통해 보다 높은 정확도의 위치예측 값을 계속적으로 도출해내는 과정을 반복함으로써 위치데이터가 많이 쌓이면 쌓일수록 센서의 위치예측의 정확도가 높아진다. 이것을 구체화하기 위해 개념적으로 3차원 공간에서 센서네트워크를 형성함으로서 그 공간을 측위를 위한 환경으로 구성하는 것이고, 스캐너를 통해 그 센서의 현재 위치를 측위 할 수 있게 된다. 이런 센서네트워크에서 공간의 인식을 3차원 즉, 실제 공간 그 자체로 그대로 좌표값을 부여하며, 그 좌표 값이 실제 좌표 값이 되는 것을 증명한다. 이 실제 좌표 값은 본 발명에서 최종적으로 위치예측데이터의 예측 값과 비교되어 미래의 가장 정확성이 높은 예측 값을 다시 채택하여 위치예측의 정확도를 높인다. 구체적으로는 3차원의 큐브로 도출한 도2의 203그림의 큐브는 204그림처럼 V0부터 V7까지의 꼭짓점 값으로 함축하여 위치데이터를 표현할 수 있다. 즉, V0,V1,V2,V3,V4,V5,V6,V7이 V0,V1,V2,V3,V6,V7로 데이터 값을 함축할 수 있다. 또한 205그림처럼 V0,V1,V2,V3,V6,V7는 다시 V0,V1,V6,V7로 사각형을 형성하며 4개의 값을 가지는 위치데이터로 변환할 수 있다. 이때 이 위치데이터는 실제 위치데이터가 아닌 실제 센서가 위치한 3차원 좌표값의 전체 큐브 중 센서가 포함되어 있는 큐브의 위치데이터가 된다. 이렇게 도출된 큐브의 꼭짓점 값인 V0,V1,V6,V7은 2차원 좌표값에 표시하기 위해 사용되어 지는데, 이것은 205그림처럼 3차원의 위치값을 2차원의 위치값으로 변환하는 방법을 나타낸 것이다. 즉, 3차원의 위치측위값은 큐브의 재 정의를 통해 2차원의 위치값으로 변경된다.
변경되는 방식은 205그림처럼 A=V0,V1,V6,V7 로서 2차원 좌표값에서 A의 값을 지정한다. A의 좌표값은 가로축인 VX와 세로축인 VY가 교차하는 점으로써 A=V0,V1,V6,V7 은 AVX, AVY로 치환할 수 있다.
즉, V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브가 V0,V1,V6,V7의 꼭짓점을 갖는 2차원의 평면으로 변경되었다. 이 변경된 위치값은 2차원의 평면에서 위치값으로써 도면의 교차점에 좌표로 표시할 수 있다. 2차원 공간의 B의 위치값 V0,V1,V6,V7은 302그림에서 보는 바와 같이 V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브에 속한 위치값을 가지게 된다.
303그림은 2차원의 좌표값에 표시되는 좌표값의 생성원리를 표현한 것으로써 2차원좌표값의 V0,V1,V6,V7은 V0,V2,V6,V7으로 도출할 수 있는데, 도출하는 원리는 V0,V1,V6,V7의 꼭지점을 갖는 2차원 평면사각형을 반으로 접을 때 접히는 지점이 V2가 된다. 즉,
Figure pat00012
로 도출할 수 있다. 이렇게 도출된 V0,V2,V6,V7은 304그림처럼 V(0,1,2,3)과 V(0,1,5,7), V(0,1,4,5), V(0,1,6)의 2차원 면을 가지는 305의 그림과 같은 큐브를 생성할 수 있다. 이렇게 생성된 큐브는 V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브가 되고,3차원 큐브는 가로, 세로, 높이의 3가지 좌표를 가지는 3차원의 위치공간의 구성 큐브가 됨을 의미한다. 즉, 도1의 101그림의 3차원공간에서 Sensor1과 Sensor2 그리고 Sensor3의 위치를 포함하는 특정한 하나의 큐브에 포함된다고 설명할 수 있다.
즉, 본 발명에서는 일반적인 좌표값이 교차되는 지점이 아닌 센서가 존재하는 큐브를 3차원 좌표값 큐브를 예측 위치값으로 가정할 수 있다. 이것이 위치예측을 위한 2차원과 3차원의 위치측위를 위한 데이터의 전환 알고리즘이다.
실제로 3차원에 존재하는 센서의 위치값을 2차원으로 변환하여 예측데이터를 생성하고 그것을 다시 실제 3차원데이터로 변환하여 실제 위치와 비교하여 실제 위치를 측위 함으로써 위치예측데이터를 쉽게 도출할 수 있다.
만약 현재의 3차원에서의 센서의 위치가 A라는 값을 가진다면 이 센서의 향후 위치는 A나 B나 C로 이동할 수 있다는 것이고, 그 이동경로는 기준점인 P를 기준으로 설정된 P1, P2, P3을 기준으로 PA, PB, PC로 그 경로를 예측할 수 있다. 그렇게 이동할 수 있는 기준점과 기준선 그리고 기준경로가 정해져 있으므로
A에서 B 그리고 C로 이동하여 A의 향후 예측위치가 A , B , C중 한곳으로 정해질 수 있음을 반증한다.
3차원 공간에서 A의 위치가 A, B, C로 변경되는 예측모델은 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 에 예속될 수밖에 없다. 즉,
Figure pat00013
의 방위각을 갖는 3차원에서 A의 위치이동은 기준점과 기준선 그리고 기준경로에서 벗어날 수 없으므로 그 예측위치 또한 벗어날 수 없다.
이상과 같이 설정된 기준점과 기준선 그리고 기준경로는 최초 A의 위치측위로부터 시작된다. 처음 3차원 공간에서 A의 위치가 측위 되었을 때 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 는 자동으로 부여되며, 위치값과 함께 데이터 셋으로 묶인다. 이렇게 데이터 셋으로 Tagging된 위치데이터는 데이터베이스에 저장되고 A의 측위 값에 따라 자동으로 앞으로 시간에 따른 위치예측 값과 함께 저장된다. 이상이 인공지능을 이용한 센서위치예측시스템에 대한 측위알고리즘에 대한 설명이다. 모두에서 밝힌바와 같이 본 발명은 측위 알고리즘과 인공지능의 학습 및 예측을 융합한 발명이다. 측위알고리즘을 통해 얻어진 데이터에 대하여 데이터 Tagging작업을 수행하고, 그 Tagging된 데이터를 기반으로 어떤 방식으로 학습과 예측모델을 구현해 내는지가 본 발명의 인공지능 예측 알고리즘이다.
즉, C의 값이 가장 많은 빈도수로 그래프 상에 표시되고 가장 많은 확률로서 표시되게 된다. 따라서 현재 시점의 A의 값은 Time값이 진행됨에 따라 위치측위값은 C로 이동할 확률이 많으며, 시간이 흐른 후 A의 위치값은 C의 위치값으로 바뀔 개연성이 많다. 하지만 도5의 502그림의 X축에서 보는바와 같이 Frequency 또한 Y축의 Time에 비례해서 위치값이 변하므로 예측위치는 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 는 기준선 P1, P2, P3를 통해서 신호인식주기인 Recognition1~Recognition3으로 재설정된다. 즉, Recognition1~Recognition3 변하면 P1, P2, P3도 변하고, 따라서 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC가 모두 변한다는 것을 의미한다. 이렇게 Frequency 와 Time은 향후 예측 가능한 값으로 간주할 수 없으므로, 재설정된 기준선 P1, P2, P3값이 앞으로 위치를 예측할 수 있는 위치이동에 대한 기준선으로 정할 수 있다. 따라서 이렇게 Clustering = > Classification => Decision Tree를 통해 얻어진 데이터는 P1, P2, P3 범위 안에 포함되므로, 예측값의 범위 안에 항상 존재하게 된다. 이렇게 예측 가능한 범위안에 존재하게 된 위치데이터 값은 미래의 위치값과 가장 근사한 값이 되므로 현재 C의 값을 기준으로 실제의 예측 값을 지정하게 된다.
도6 601그림처럼 위치예측값인 C는 항상 P3와 P2사이 그리고 Time과 Frequency는 Recognition Cycle3와 Recognition Cycle2 사이에 존재하게 된다. 이렇게 도출된 A의 위치를 Deep Learning을 통해 현재 위치가 A일 경우, A가 아닐 경우, B일 경우, B가 아닐 경우, C일 경우, C가 아닐 경우의 케이스를 비 학습데이터를 삽입하여 그것이 위치예측을 위한 기준점 P와 근접관계를 형성하는지 PA와 근접관계를 형성하는지 PB와 근접관계를 형성하는지 PC와 근접관계를 형성하는지 판단한다. 당연히 위치의 케이스는 더 추가되거나 감소될 수 있다. P, PA, PB, PC로 부터 얻은 데이터를 기반으로 위치의 이동 범위를 설정할 수 있는 가능성을 판단하는 있는 기준선인 P1, P2, P3를 재 매핑 시킴으로써 최종적으로 현재 A의 위치는 미래의 V의 값을 가지게 된다. 이 V는 현재 위치와 시간과 주파수 및 측정시점을 기준으로 현재와 과거 그리고 미래를 아우르는 가능성 높은 예측값을 도출할 수 있다.
이렇게 도출된 V의 값은 2차원의 V0,V1,V6,V7 즉 CVX, CVY이므로 도3에서 기술한 것처럼 V0,V1,V6,V7값을 갖는 V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브에 속한 위치값으로 변환된다. 따라서 그 예측위치데이터는
Figure pat00014

직교좌표 방위각을 가지는 V(XYZ)로 표현된다. 따라서 현재의 센서 위치 A의 위치값이
특정한 시간이후에는 C의 위치값으로 변경되는데, 그 위치값은 V(XYZ)가 된다.

Description

인공지능을 이용한 센서위치예측시스템{The sensor location prediction system using artificial intelligence}
본 발명은 다양한 무선주파수를 이용하는 다양한 센서의 주파수 신호를 발생 혹은 수신하는 특성을 이용하여 그 측위를 수행할 때 센서의 위치 값을 수신단의 애플리케이션을 통해 파싱 하고, 그 파싱된 주파수 데이터를 이용하여 위치측위를 하게 된다. 이렇게 측위에 사용되는 다양한 위치 값들을 Tagging된 데이터로 변환 후 기계학습을 통해 미래의 예측 가능한 위치 즉, 센서의 위치를 예측하는 시스템을 만드는 것이 본 발명의 핵심 내용이다.
기계 학습은 데이터를 실행 가능한 지식으로 전환하는 알고리즘을 제공하고, 세상에 가득 차 있는 데이터의 의미를 이해할 수 있도록 우리를 도와주는 역할을 한다.
기계학습은 또한 스팸 이메일 필터링, 타깃 광고에 활용할 수 있도록 소비자 행위에 기초하여 고객군 분류, 일기 및 기후 변화 예측, 카드 부정사용 방지, 태풍 및 천연 재해로 인한 금전 손실 추정, 선거 결과 예측, 자동 주행, 가정 또는 빌딩 에너지 사용 최적화,범죄 예방,질병 진단등에 많이 사용되고 있다.
기계학습은 학습은 첫 번째로 데이터를 저장하고, 두 번째로 추상화를 수행하며, 세 번째로 일반화시키며, 네 번째로 평가의 4단계 과정을 통해 이루어진다.
첫 번째 데이터의 저장은 추론에 필요한 사실적 토대를 제공하는데 모든 기계학습은 데이터에서 시작한다.
두 번째 추상화는 저장된 데이터를 좀 더 포괄적 형태와 개념으로 변환하고, 또한 저장된 데이터를 데이터에 숨겨져 있는 패턴을 구체적으로 묘사한 것에 모형을 이용하여 요약하는 것이다. 모형의 대표적 형태로써 수학 방정식, 수형도, 그래프 등 관계 묘사 그림, 논리적 규칙의 동질적 그룹으로 데이터 분할을 의미하며, 모형의 선택은 주어진 과제와 현재 가지고 있는 데이터에 의해 결정될 수 있다.
추상화의 과정에서 나오는 것이 훈련인데 이것은 데이터 셋에 모형을 맞추는 과정이며, 데이터 속에 들어 있던 원천 정보는 훈련된 모형에 의해 추상적 형태로 전환된다. 데이터에 이미 들어 있었지만 이전에는 알 수 없었던 관계를 훈련된 모형을 통해 발견할 수 있다. 이것이 바로 인공지능기술을 이용하는 목적이 된다.
세 번째 일반화는 추상화된 데이터를 이용하여 새로운 상황에 대처할 수 있는 지식과 추론을 만드는 것으로써 과거에 경험했던 것과 유사하지만 동일하지는 않은 미래의 과제에도 적용 가능하도록 추상화 된 지식을 전환하는 과정이라고 할 수 있다. 학습 과정을 통해 발견한 패턴 중에서 미래의 과제에 가장 적합한 것들만 남기는 작업이 일반화 과정에서 이루어진다.
네 번째 평가는 학습된 지식의 효용을 측정하고 피드백 체계를 제공하여 향후 개선 사항에 대한 정보를 제공한데 목적이 있다.
위치측위기술로는 특정한 공간에서 무선주파수 혹은 전파를 이용하여 위치를 측위 하는 기술은 여러 가지로 형태로 개발되어 왔다. 특히 GPS의 범위가 미치지 못하는 공간 즉 지하나 실내 그리고 건물이 많이 존재하는 곳에서의 무선주파수를 이용한 위치추적기술이 여러 가지로 많이 제안되어 왔다.
일반적인 전파측위기술은 전파가 도달하는 시간을 측정하여 위치를 구하는 방식으로 단말기에서 기지국 사이의 전파도달 시간 TOA(Time Of Arrival)을 측정하는 방법과, 두개의 기지국으로부터의 전파도달시각의 상대적인 차 TDOA(Time Difference of Arrival)를 측정값으로 이용하는 방법을 사용했다.
또한 건물 내부에 고정으로 부착된 3개 이상의 비콘으로 부터 전송받은 RF와 초음파 신호를 이용해 각 비콘과 수신기 사이의 거리를 계산하는 방식으로 이동기기에서 직접 3차원의 위치 계산이 이루어질 수 있다. 하지만, 수신기의 이동에 따라 고정되어 있는 각 송신기와의 거리가 가까워지거나 멀어지게 되므로 주파수의 세기변화, 각도변화 등으로 인해 항상 왜곡이 발생하고 또한 주파수의 도플러 효과에 의한 오차도 항상 발생한다. 참고로 도플러 효과는 어떤 파동의 파동 원과 관찰자의 상대 속도에 따라 진동수와 파장이 바뀌는 현상을 가리킨다. 소리와 같이 매질을 통해 움직이는 파동에서는 관찰자와 파동원의 매질에 대한 상대속도에 따라 효과가 변한다.
도플러 효과(영어: Doppler effect 또는 Doppler shift, 도플러 현상, 도플러 편이 현상)는 어떤 파동의 파동원과 관찰자의 상대 속도에 따라 진동수와 파장이 바뀌는 현상을 가리킨다. 소리와 같이 매질을 통해 움직이는 파동에서는 관찰자와 파동원의 매질에 대한 상대속도에 따라 효과가 변한다. 그러나 빛이나 일반상대성이론에서의 자기력과 같이 매질이 필요 없는 파동의 경우 관찰자와 파동원의 상대속도만이 도플러 효과에 영향을 미친다.
만약 파원과 관찰자 모두 움직일 때 두 속력은 관측되는 주파수가 파원이 관측자로 접근하거나 관측자가 파원 쪽으로 움직일 때에는 증가한다. 주파수는 서로 멀어지는 경우에는 줄어든다.
즉, 파원이 직접 다가오거나 멀어지는 상황을 가정한다. 파원이 관측자에 특정한 각도와 속도를 유지하면서 접근하면, 관측되는 주파수는 처음에는 방출되는 주파수보다 높고, 이후 관측자에 가까워질수록 감소한다. 관측자에 가장 접근했을 때에는 같아지다가 다시 멀어짐에 따라 감소한다. 관측자가 물체의 진행 경로에 매우 가깝다면, 높은 주파수에서 낮은 주파수로 급격히 변환되며, 경로로부터 멀리 떨어져 있으면, 완만히 바뀌게 된다.
일반적으로 도플러 방정식은 파동의 속도가 파원과 관측자의 상대 속도에 비해 훨씬 큰 경우와 파원과 관측자가 전파의 속도에 비해 매우 느린 경우나 파원과 관측자의 거리가 전파의 파장에 비해 매우 큰 경우에 유용하게 활용된다. 이러한 경우에 해당되지 않는다면 도플러 방정식들은 위치측위에서 많은 오차를 포함하게 된다.
본 발명은 이러한 주파수를 발생 혹은 수신하는 센서의 위치측위에서의 파원과 관측자인 수신센서 사이에서 발생하는 주파수 왜곡과 도플러 효과에 의한 오차를
감안하여 센서의 미래 위치를 예측하는 시스템을 만드는 것을 목적으로 하며 그 방식은 위치측위에 사용되는 무선신호 데이터를 맵에 매핑하여 그 데이터를 통한 위치 값을 Tagging된 데이터로 변환한 후 기계학습을 통해 미래 예측 위치를 산출해내는 방법을 기술한 것이다.
기본적으로 본 발명에 사용되는 기술은 무선신호를 발생 혹은 수신하는 센서를 이용한 위치측위기술과 그 위치측위데이터들을 이용한 기계학습에 대한 기술이 필요하다.
기계학습은 다음과 같은 알고리즘 종류를 가진다.
Supervised Learning은 특정 feature set을 입력 시 적합한 target feature가 출력 되는 함수를 최적화를 통해 찾아내는 알고리즘으로써 주로 Predictive model 구성에 사용되는데,Target feature(예측 대상)과 여타 feature 간의 관계를 발견하여 모형화
하는 방식이다. 주로 분류(classification), 수치 예측(numeric prediction)에 주로 활용되며, 이미 나와 있는 기존 알고리즘은 Nearleast Neighbor, Naive Bayes, Decision Tree, Classification Rule Learners, Linear Regression, Regression Tree, Model Tree, Neural Networks, Support Vector Machines 등이 있다.
Unsupervied Learning은 주로 Target feature 입수 불가능 시에 주로 사용하며, example들 간의 유사성 또는 거리에 기반 하여 학습이 이루어지며,Descriptive model 구성에 사용된다.
데이터를 새로운 방식으로 흥미롭게 요약함으로써 직관을 얻어내는 작업에 적합하며, 주로 패턴 발견(pattern detection),군집화(clustering)에 사용한다. 이미 나와 있는 기존 알고리즘은 Association Rules, k-means clustering등이 있다.
Semi-supervised Learning은 example의 대부분에 Target feature가 들어 있지 않고 일부에만 들어 있는 경우에 사용하는 것으로써 Target feature가 명시된 데이터 확보에는 많은 비용 들어가는 모형이나 Target feature가 없는 example일지라도 해당 데이터가 어느 분류에 속하는지 많은 정보를 담고 있을 때 사용한다. 주로 Classification(분류), Clustering(군집화)에 사용한다.
Reinforcement Learning은 결과에 대한 보상 극대화를 위해 어떤 행동을 취해야 하는 지를 학습하는 것으로써 시행착오를 통해 보상을 극대화하는 방법 발견하는 것을 목적으로 한다. 지금 취하는 행동이 바로 다음의 보상뿐만 아니라 상황에도 영향을 미쳐 이후에 따르는 모든 보상에 영향 준다는 것이 특징이다. 보통 학습에 필요한 데이터를 현재 확보하기가 불가능하거나 또는 데이터가 재빠르게 바뀌는 경우에 적합하며, 모든 경우를 다 경험해볼 때까지 주어진 환경을 통해 끊임없이 학습 진행이 필요하다. 주로 Classification(분류), Control(운영)등에 사용한다.
Meta-Learning(Ensemble Learning)은 여러 종류의 기계학습 알고리즘 학습결과를 결합하여 만들어진 알고리즘으로써 특정 학습 과제에 특화되어 있지 않으며 더 효과적으로 학습할 수 있는 방법을 학습하는 것이다. 이미 나와 있는 알고리즘으로 Bagging, Boosting, Random Forest이 있다.
즉, 본 발명은 주파수를 이용한 센서의 위치측위를 위한 알고리즘과 그 위치측위기술로부터 파생된 데이터에 대한 기계학습의 알고리즘이 융합된 것으로써 물리적인 센서로부터 수신한 센서의 위치 값들을 활용하여 Tagging된 데이터로 변환하는 방법과 그 변환된 데이터를 어떤 방식으로 기계학습알고리즘을 적용하는지에 대한 기술이 적용되어 궁극적으로 센서의 미래 예측 가능한 위치 즉, 센서의 위치를 예측하는 시스템을 만드는 것이 본 발명의 핵심 내용이다.
본 발명의 목적은 우리가 존재하는 공간인 3차원 직교좌표계는 xy, xz, yz 평면으로 이루어지는데 이 세 평면은 서로 직교하며 평면을 이루는 x축(수평 방향)과 y축(수직 방향) 그리고 z축 또한 서로 직교한다. x, y, z축이 만나는 점을 원점이라고 부르는데 이러한 성질을 가지는 3차원 공간에서 주파수를 이용한 위치측위 알고리즘과 인공지능 기계학습의 예측가능한 모형의 생성 및 훈련 및 학습 그리고 예측평가 부분을 융합한 것으로써 슈퍼바이즈드 러닝의 추상화와 일반화 모델을 통한 예측 모형으로 저장된 데이터를 좀 더 포괄적 형태와 개념으로 변환하고, 또한 그 저장된 데이터에 숨겨져 있는 패턴을 구체적으로 예측하도록 하는 방식을 표현하는 것이다.
예측모형을 만들기 위해서는 주파수를 수신하는 위치측위방식 발명이 필요하고, 데이터 Tagging방식에서 기존의 방식이 아닌 다른 방식의 접근과 데이터 취득이 필요하다. 즉, 본 발명에서는 데이터 취득과 Tagging 그리고 추상화 및 일반화 그리고 훈련 및 학습 그리고 예측의 평가를 규정하는 과정이며, 데이터 속에 들어 있던 원천 정보는 학습된 모형에 의해 예측 가능한 형태로 전환된다.
기존의 위치측위방식은 주파수의 왜곡과 도플러 방정식의 부정확성이 항상 존재하므로 이것을 개선하기 위하여 위치측위방식을 3차원 맵을 2차원 맵으로 변경함으로써 위치 측위 값의 왜곡 가능성을 최대한 낮추고 또한 그것을 통한 위치데이터의 훈련 및 학습 데이터 전환을 위한 데이터 Tagging방식을 발명하고, 그것을 기계학습을 통해 추상화 및 일반화 그리고 훈련 및 학습 그리고 예측의 평가를 규정하는 방식을 발명한 것이다.
결론적으로 본 발명은 위치측위방식의 알고리즘을 포함하는 데이터 취득 알고리즘의 개발을 통해 예측 가능한 훈련 및 학습 모델을 만들고, 그것을 이용하여 기계학습을 위한 데이터를 재생성하고 그 재 생성된 데이터를 다시 위치예측 값으로 치환하여 궁극적으로 위치측위를 위해 사용되는 센서의 예측 위치값을 도출하는 것을 목적으로 한다.
상기 목적은, 본 발명에 따라, 센서로부터 발생되는 주파수의 인식 및 수신단계,
3차원 위치 좌표 값 부여단계, 2차원 위치 값의 변환단계,
2차원 위치 값에 대한 위치변수포함단계,
2차원 위치 값을 데이터 Tagging을 통해 데이터베이스에 저장하는 단계,
기계학습을 통한 위치 예측 값을 도출하는 단계,
위치 예측 값을 데이터베이스에 저장하는 단계,
센서의 위치 예측 값과 실제 현재 값 확인단계로 구현할 수 있으며,
첫 단계인 센서로부터 발생되는 주파수의 발생과 인식단계부터 마지막 단계인 센서의 위치 예측 값과 실제 현재 값 확인단계를 통해 보다 높은 정확도의 위치예측 값을 계속적으로 도출해내는 과정을 반복함으로써 위치데이터가 많이 쌓이면 쌓일수록 위치예측의 정확도가 높아진다.
본 발명에 따르면, 주파수를 활용하여 송신 혹은 수신하는 센서로써 위치측위대상을 지정하고 그 위치측위 대상의 현재위치와 향후 예상위치를 예측하는 알고리즘을 설명하고 있다. 즉, 일반적으로 주파수를 발생시키는 파원 센서(UWB, ZIGBEE, BEACON, GPS등)를 특정한 공간에 두었을 때 그 3차원공간에서 그 파원센서는 스캐너(스마트폰, 수신기,UWB, ZIGBEE, BEACON, GPS등) 입장에서 파원이 되고, 스캐너는 관측자 입장이 된다. 그 3차원공간에서 파원의 위치는 공간에서 대상개체의 위치측위의 기준점이 된다. 이 파원의 위치측위를 통해 나온 데이터들을 위치측위에 맞게 Tagging하고 그 Tagging된 데이터를 기계학습을 통해 현재의 위치를 구하고, 시간의 흐름에 따라 앞으로 예상되는 예측위치를 도출해내는 것이 본 발명의 핵심이다.
산업상으로는 공간에 존재하는 무선주파수(모바일, 방송주파수,기지국주파수,기타통신주파수,RF, Bluetooth, FID, Zigbee, UWB, GPS)등 주파수 신호를 발생 혹은 수신하는 센서를 기반으로 한 센서위치측위방식에서 시간에 따라 향후 앞으로의 위치를 예측할 수 있는 모형을 제공할수 있는데, 기존의 RF, Bluetooth, FID, Zigbee, UWB, GPS 등은 단순히 실시간으로 위치를 측위하고 위치값의 데이터들을 저장만 하고 사용하지 않는 경우가 많았다. 하지만 본 발명을 통해 위치데이터의 재사용 및 기계학습을 적용함으로써 향후 센서의 예측위치를 도출할 수 있으며, 이 기술은 향후 보호대상자(노약자, 어린이, 범죄자)의 예상동선과 목적지 추적 및 재난안전 대피기술, 요구조자 탐색기술, 해양수중 탐지예측기술, 자율주행차 기술 또한 공장자동화기술에서 광범위하게 활용될 수 있다.
도 1은 3차원공간에서 센서위치측위(Sensor Positioning in Three Dimension Space)
도 2는 3차원좌표를 2차원으로 변환(Three Dimension to Two Dimension)
도 3은 차원과 차원의 상관계수(Correlation Coefficient for Dimension)
도 4는 3차원공간의 위치값(Location Values of Three Dimension)
도 5는 2차원기반의 위치 값의 기계학습(Machine Learning of Location Values on based Two Dimension)
도 6은 기계학습을 통한 위치예측(Location Prediction Through Machine Learning)
도 7은 위치예측을 위한 순서도(Flowchart for Location Prediction)
본 발명은 발명의 내용을 구체화하기 위해 파원을 발생시키는 센서와 그 파원을 관측하는 스캐너를 활용하였다.
먼저 파원을 특정 공간에 위치시킨 후 주파수를 일정한 주기로 방송토록 하고, 스캐너를 통해 파원의 위치를 측위 하는 데이터를 얻을 수 있다.
이렇게 스캐너의 입장에서 대상물에 대한 위치데이터를 통해 그 데이터를 Tagging한다.
그 Tagging된 데이터는 주파수를 이용한 위치측위 알고리즘과 인공지능 기계학습의 예측가능한 모형의 생성 및 훈련 및 학습 그리고 예측평가 부분을 융합한 것으로써 슈퍼바이즈드 러닝의 추상화와 일반화 모델을 통한 예측 모형으로 저장된 데이터를 좀 더 포괄적 형태와 개념으로 변환하고, 또한 그 저장된 데이터에 숨겨져 있는 패턴을 구체적으로 예측하도록 하는 방식을 표현하는 것이다.
예측모형을 만들기 위해서는 주파수를 수신하는 위치측위방식 발명이 필요하고, 데이터 Tagging방식에서 기존의 방식이 아닌 다른 방식의 접근과 데이터 취득이 필요하다. 즉, 본 발명에서는 데이터 취득과 Tagging 그리고 추상화 및 일반화 그리고 훈련 및 학습 그리고 예측의 평가를 규정하는 과정이며, 데이터 속에 들어 있던 원천 정보는 학습된 모형에 의해 예측 가능한 형태로 전환된다.
이상의 프로세스를 진행하기 위해 본 발명에서는 센서로부터 발생되는 주파수의 인식 및 수신단계,3차원 위치 좌표 값 부여단계, 2차원 위치 값의 변환단계, 2차원 위치값에 대한 위치변수포함단계, 2차원 위치값을 데이터 Tagging을 통해 데이터베이스에 저장하는 단계, 기계학습을 통한 위치예측값을 도출하는 단계, 위치예측값을 데이터베이스에 저장하는 단계, 센서의 위치예측값과 실제 현재값 확인단계로 구현할 수 있으며,
첫 단계인 센서로부터 발생되는 주파수의 발생과 인식단계부터 마지막 단계인 센서의 위치예측값과 실제 현재값 확인단계를 통해 보다 높은 정확도의 위치예측 값을 계속적으로 도출해내는 과정을 반복함으로써 위치데이터가 많이 쌓이면 쌓일수록 위치예측의 정확도가 높아진다.
이상과 같이 위치 예측 대상에 대한 정의를 완료한 후 이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 다른 부호를 가지도록 하고 있음에 유의해야 한다.
그리고 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한
구체적인 설명이 본 발명의 실시 예에 대한 이해를 방해한다고 판단되는 경우
에는 그 상세한 설명은 생략한다.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1차, 제2차, 이것 , 저것, 그것, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등에 한정되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 따른 인공지능을 이용한 센서위치예측시스템에 대해서 상세히 설명한다.
도1은 본 발명의 일실시예에 3차원공간에서 센서위치측위(Sensor Positioning in Three Dimension Space)를 도시한 것이고, 도 2는 본 발명의 일실시예에 따른 3차원좌표를 2차원으로 변환(Three Dimension to Two Dimension)이고, 도 3은 본 발명의 일실시예에 따른 차원과 차원의 상관계수(Correlation Coefficient for Dimension)의 설명을 위한 도면이고, 도 4는 본 발명의 일실시예에 따른 3차원공간의 위치값(Location Values of Three Dimension)의 설명을 위한 도면이며, 도 5는 본 발명의 일실시예에 따른 2차원기반의 위치값의 기계학습(Machine Learning of Location Values on based Two Dimension) 을 설명한 것이며, 도 6은 본 발명에 대하여 기계학습을 통한 위치예측(Location Prediction Through Machine Learning)을 표현한 것이며, 도 7은 센서의 위치예측을 위한 순서도(Flowchart for Location Prediction)이다.
도 1은 도시된 바와 같이, 본 발명의 일실시예에 따른 특정 공간에서의 3차원공간에서 센서위치측위(Sensor Positioning in Three Dimension Space)의 개념을 설명한 도면으로써 101그림은 3차원의 공간을 나타내는 것으로 3차원공간은 가로, 세로, 높이의 3가지 좌표를 가지는 위치공간을 의미한다. 이 공간에서 Sensor1과 Sensor2 그리고 Sensor3의 위치는 특정한 하나의 큐브에 포함되는 개념으로 설명할 수 있다.
즉, 본 발명에서는 일반적인 좌표 값이 교차되는 지점이 아닌 센서가 존재하는 큐브를 3차원 좌표값 큐브를 위치값으로 가정한다. 이렇게 하면 주파수의 왜곡이나 변형 및 도플러 효과 등으로 인한 주파수의 값의 변화로 인한 위치측위 데이터의 변화에 대한 버퍼를 포함하게 됨으로써 큰 오차 범위를 회피할 수 있는 측위방식이다.
이런 정의된 3차원 위치측위 값은 도1의 101그림에서 보는 바와 같이 어떤 특정한 공간에서 특정한 센서네트워크를 형성한다. 센서네트워크의 구성요소는 공간과 센서 그리고 발생되는 주파수를 의미한다. 즉, 3차원 공간에서 센서네트워크를 형성함으로서 그 공간은 측위를 위한 환경을 구성하는 것이고, 스캐너를 통해 그 센서의 위치를 측위 할 수 있게 된다. 이것은 위치측위를 위한 센서네트워크의 구성으로써 본 발명에서는 이런 센서네트워크에서 공간의 인식을 3차원 즉, 실제 공간 그 자체로 그대로 좌표값을 부여하며, 그 좌표 값이 실제 좌표 값이 되는 것을 증명한다. 이 실제 좌표 값은 본 발명에서 최종적으로 위치예측데이터의 예측 값과 비교되어 미래의 가장 정확성이 높은 예측 값을 다시 채택하여 위치예측의 정확도를 높인다.
도 2은 도시된 바와 같이, 본 발명의 일실시예에 따른 차원좌표를 2차원으로 변환(Three Dimension to Two Dimension)하는 과정을 표현한 것으로 도1의 101그림에서 추출된 센서가 속하는 큐브를 도2의 201그림과 같이 추출하여 202그림처럼 그 추출된 큐브의 꼭짓점에 각각 고유의 값을 부여한다. 그 부여된 값들은 이렇게 3차원의 큐브로 도출한 203그림의 큐브는 204그림처럼 V0부터 V7까지의 꼭짓점 값으로 함축하여 위치데이터를 표현할 수 있다. 즉, V0,V1,V2,V3,V4,V5,V6,V7이 V0,V1,V2,V3,V6,V7로 데이터 값을 함축할 수 있다. 또한 205그림처럼 V0,V1,V2,V3,V6,V7는 다시 V0,V1,V6,V7로 사각형을 형성하며 4개의 값을 가지는 위치데이터로 변환할 수 있다. 이때 이 위치데이터는 실제 위치데이터가 아닌 실제 센서가 위치한 3차원 좌표값의 전체 큐브 중 센서가 포함되어 있는 큐브의 위치데이터가 된다. 이렇게 도출된 큐브의 꼭짓점 값인 V0,V1,V6,V7은
2차원 좌표값에 표시하기 위해 사용되어 지는데, 이것은 205그림처럼 3차원의 위치값을 2차원의 위치값으로 변환하는 방법을 나타낸 것이다. 즉, 3차원의 위치측위값은 큐브의 재 정의를 통해 2차원의 위치값으로 변경된다.
변경되는 방식은 특정한 알고리즘을 적용하지 않고 205그림처럼 A=V0,V1,V6,V7 로서 2차원 좌표값에서 A의 값을 지정한다. A의 좌표값은 가로축인 VX와 세로축인 VY가 교차하는 점으로써 A=V0,V1,V6,V7 은 AVX,AVY로 치환할 수 있다.
즉, V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브가 V0,V1,V6,V7의 꼭짓점을 갖는 2차원의 평면으로 변경되었다. 이 변경된 위치값은 2차원의 평면에서 위치값으로써 도면의 교차점에 좌표로 표시할 수 있다.
일반적으로 3차원 좌표값에서 실제 좌표값을 가로, 세로, 높이 등 3가지 값을 가지는 좌표값으로 표현할 경우 주파수가 가지는 다양한 특성인 왜곡이나 변형 및 도플러효과 등의 오차범위를 감안하여 그 범위를 지정할 수 있기 때문에 그만큼 측위의 오차 범위를 상쇄할 수 있는 효과를 가진다. 예로 들어 GPS의 경우 지역에 따라 약 10M 내외의 위치오차가 발생할 수 있으며, 비콘의 경우 약 5M 내외의 오차 그리고 Zigbee나 UWB의 경우에도 1M내외의 오차가 항상 발생할 개연성을 가지고 있다. 이런 주파수의 특성에 따른 오차를 3차원 좌표값에서는 항상 내재되어있는 상존오차로 규정하고 그 상존오차범위를 큐브의 크기로 규정하며, 그 규정된 큐브의 위치를 3차원 위치값으로 간주한다.
이렇게 하면 주파수가 가진 기본적인 상존 오차를 큐브의 값으로 흡수할 수 있어서 위치측위의 정확도와 실제위치의 정확도를 매핑 시키는 효율을 향상 시킬 수 있다.
이상과 같이 3차원의 좌표에 존재하는 센서가 존재하는 3차원 공간의 위치값은 2차원의 AVX, AVY 값을 가지는 2차원 좌표값으로 변경할 수 있다.
A와 마찬가지로 센서의 위치값이 B로 변경되거나 C로 변경되면, 센서의 위치값은 BVX,BVY 그리고 CVX, CVY로 변환하여 2차원 값으로 저장할 수 있다.
여기서 A위치에 대하여 B와 C는 A가 이동하여 미래에 관측되어 측정되어지는 A의 위치를 의미한다.
이렇게 3차원 센서위치값을 206그림 2차원 위치값으로 변경하는 것은 기계학습을 위한 데이터 Tagging을 위한 방법으로써 본 발명의 단계 위치측위 방식에 대한 알고리즘이다.
도 3은 도시된 바와 같이, 본 발명의 일실시예에 따른 차원과 차원의 상관계수(Correlation Coefficient for Dimension)에 대한 설명을 자세히 표현한 것으로 301그림에서 보는바와 같이 2차원의 좌표값은 3차원의 큐브 값으로 다시 변경할 수 있음을 표현한 것이다. 즉, AVX, AVY의 좌표값을 가진 2차원의 A는 302그림처럼 V0,V1,V2,V3,V4,V5,V6,V7의 꼭지점을 갖는 3차원의 큐브에 속한 위치가 되고, 만약 A의 위치가 시간의 흐름에 따라 B로 변경되면 2차원 좌표값에서 301그림처럼 B는 V0,V1,V6,V7값을 가진 값을 가진다. 또한 시간의 흐름에 따라 A의 위치가 C로 변경되면 2차원 좌표값에서 301그림처럼 C는 V0,V1,V6,V7값을 가진 값을 가진다.
2차원 공간의 B의 위치값 V0,V1,V6,V7은 302그림에서 보는 바와 같이 V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브에 속한 위치값을 가지게 된다.
303그림은 2차원의 좌표값에 표시되는 좌표값의 생성원리를 표현한 것으로써 2차원좌표값의 V0,V1,V6,V7은 V0,V2,V6,V7으로 도출할 수 있는데,도출하는 원리는 V0,V1,V6,V7의 꼭지점을 갖는 2차원 평면사각형을 반으로 접을 때 접히는 지점이 V2가 된다. 즉,
Figure pat00001
로 도출할 수 있다. 이렇게 도출된 V0,V2,V6,V7은 304그림처럼 V(0,1,2,3)과 V(0,1,5,7), V(0,1,4,5), V(0,1,6)의 2차원 면을 가지는 305의 그림과 같은 큐브를 생성할 수 있다. 이렇게 생성된 큐브는 V0,V1,V2,V3,V4,V5,V6,V7의 꼭지점을 갖는 3차원의 큐브가 되고,3차원 큐브는 가로,세로,높이의 3가지 좌표를 가지는 3차원의 위치공간의 구성 큐브가 됨을 의미한다. 즉, 도1의 101그림의 3차원공간에서 Sensor1과 Sensor2 그리고 Sensor3의 위치를 포함하는 특정한 하나의 큐브에 포함된다고 설명할 수 있다.
즉, 본 발명에서는 일반적인 좌표값이 교차되는 지점이 아닌 센서가 존재하는 큐브를 3차원 좌표값 큐브를 예측 위치값으로 가정할 수 있다. 이것이 위치예측을 위한 위치측위의 위한 2차원과 3차원의 위치측위를 위한 데이터의 전환 알고리즘이다.
실제로 3차원에 존재하는 센서의 위치값을 2차원으로 변환하여 예측데이터를 생성하고 그것을 다시 실제 3차원데이터로 변환하여 실제 위치와 비교하여 실제 위치를 측위 함으로써 위치예측데이터를 쉽게 도출할수 있다. 즉, 3차원과 2차원간의 데이터 변환 목적은 3차원 좌표값에서 실제 좌표값을 가로,세로,높이 등 3가지 값을 가지는 좌표값으로 표현할 경우 주파수가 가지는 다양한 특성인 왜곡이나 변형 및 도플러효과 등의 오차범위를 감안하여 그 범위를 지정할 수 있기 때문에 그만큼 측위의 오차 범위를 상쇄할 수 있는 효과를 가지기 때문이며, 인공지능의 학습을 위한 데이터 Tagging의 효율과 데이터 훈련과 학습을 용이하게 하여 예측모델의 정확도를 향상시키기 위함이다.
도 4은 도시된 바와 같이, 본 발명의 일실시예에 따른 위치값에 대한 3차원공간의 위치값(Location Values of Three Dimension)의 설명을 위한 도면으로써 3차원 401그림처럼 여러 개의 큐브로 이루어진 3차원 공간에서 A와 B 그리고 C가 속한 큐브는 다른 큐브이다. 여기서 B와 C는 A가 미래 혹은 과거에 측위 되거나 측위 될 위치를 의미한다. 401그림에서 보는 바와 같이 P는 현재 A의 위치에서 B 그리고 C로 위치가 변경될 때 기준점을 의미한다. P라는 기준점을 기준으로 A와 B사이는 P1,A와 C사이는 P3,B와 C사이는 P2가 기준선으로 설정된다. 여기서 기준점인 P가 이동할 경우
기준선 P1과 P2사이로 기준점이 이동하는 경로는 PB로 설정하고, 기준선 P1과 P3사이로 기준점이 이동하는 경로는 PA로 설정하고, 기준선 P2과 P3사이로 기준점이 이동하는 경로는 PC로 설정한다. 이렇게 설정된 이동예상경로는 3차원 좌표에서
Figure pat00002
의 방위각을 가지는 좌표값으로 표현될 수 있다. 즉, 401의 3차원 큐브의
집합체는 VX,VY,VZ로부터 시작되는 큐브 좌표값으로 표현될 수 있다.
여기서 본 발명의 핵심은 만약 현재의 3차원에서의 센서의 위치가 A라는 값을 가진다면 이 센서의 향후 위치는 A나 B나 C로 이동할 수 있다는 것이고, 그 이동경로는 기준점인 P를 기준으로 설정된 P1, P2, P3을 기준으로 PA, PB, PC로 그 경로를 예측할 수 있다. 그렇게 이동할 수 있는 기준점과 기준선 그리고 기준경로가 정해져 있으므로
A에서 B 그리고 C로 이동하여 A의 향후 예측위치가 A , B , C중 한곳으로 정해질 수 있음을 반증한다.
3차원 공간에서 A의 위치가 A, B, C로 변경되는 예측모델은 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 에 예속될 수밖에 없다. 즉,
Figure pat00003
의 방위각을
갖는 3차원에서 A의 위치이동은 기준점과 기준선 그리고 기준경로에서 벗어날 수 없으므로 그 예측위치 또한 벗어날 수 없다.
이상과 같이 설정된 기준점과 기준선 그리고 기준경로는 최초 A의 위치측위로부터 시작된다. 처음 3차원 공간에서 A의 위치가 측위 되었을 때 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 는 자동으로 부여되며, 위치값과 함께 데이터 셋으로 묶인다. 이렇게 데이터 셋으로 Tagging된 위치데이터는 데이터베이스에 저장되고 A의 측위값에 따라 자동으로 앞으로 시간에 따른 위치예측값과 함께 저장된다. 이상이 인공지능을 이용한 센서위치예측시스템에 대한 측위알고리즘에 대한 설명이다. 모두에서 밝힌바와 같이 본 발명은 측위 알고리즘과 인공지능의 학습 및 예측을 융합한 발명이다. 측위알고리즘을 통해 얻어진 데이터에 대하여 데이터 Tagging작업을 수행하고, 그 Tagging된 데이터를 기반으로 어떤 방식으로 학습과 예측모델을 구현해 내는지가 본 발명의 인공지능기술을 이용한 예측 알고리즘이다.
도 5는 도시된 바와 같이, 본 발명의 일실시예에 따른 2차원기반의 위치값의 기계학습(Machine Learning of Location Values on based Two Dimension)은 도4에서 표현된 3차원의 위치데이터값을 도3의에서 표현된 2차원의 위치데이터셋 값들을 활용하여 2차원으로 변환시킨 후 도4에서 표현된 3차원에서 A의 위치의 향후 변화 가능성에 대한 예측 데이터 모델을 표현한 것이다.
즉, 도4에서 표현된 3차원의 기준점과 기준선 그리고 기준경로는 최초 A의 위치측위로부터 시작된다. 처음 3차원 공간에서 A의 위치가 측위 되었을 때 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 는 자동으로 부여되며, 위치값과 함께 데이터셋으로 묶인다. 이렇게 데이터 셋으로 Tagging된 위치데이터는 데이터베이스에 저장되고 A의 측위 값에 따라 자동으로 앞으로 시간에 따른 위치예측값과 함께 저장된다. 도5의 501그림을 기준으로 다시 정의하면 현재의 2차원에서의 센서의 위치가 A라는 값을 가진다면 이 센서의 향후 위치는 A나 B나 C로 이동할 수 있다는 것이고, 그 이동경로는 기준점인 P를 기준으로 설정된 P1, P2, P3을 기준으로 PA, PB, PC로 그 경로를 예측할 수 있다. 그렇게 이동할 수 있는 기준점과 기준선 그리고 기준경로가 정해져 있으므로 A에서 B 그리고 C로 이동하여 A의 향후 예측위치가 A , B , C중 한곳으로 정해질 수 있음을 반증한다.
2차원 공간에서 A의 위치가 A, B, C로 변경되는 예측모델은 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 에 예속될 수밖에 없다. 즉, 기존에서 3차원의 이동가능경로인 기존 방위각
Figure pat00004
가 아닌 360도의 방위각을 갖는 2차원에서
A의 위치이동은 기준점과 기준선 그리고 기준경로에서 벗어날 수 없으므로 그 예측위치 또한 벗어날 수 없으므로 학습과 훈련데이터를 만들기 용이하고 위치예측모델의 생성 및 평가가 편리하다.
이렇게 Tagging된 데이터는 502그림에서 보는바와 같이 학습데이터를 위해 Clustering을 통해서 좌표의 점으로 표시를 하고 그것은 다시 표를 생성하기 위해 Classification을 수행한다.
이렇게 반복적으로 저장된 시간에 따른 현재 위치데이터값은 Decision Tree를 통해
최적의 현재시간에 따른 센서의 위치측위값을 도출해 내는 방식이다.
즉, 도5의 502그림에서 보는바와 같이 현재 A의 위치에 존재하는 센서는 주파수와 시간에 따라 주로 B나 C로 이동하는 경향을 보이고 있으며,Classification에서는 C에 압도적으로 많은 현재 위치값이 찍히는 것을 볼 수 있다. 따라서 도5의 502의 그림을 기준으로 A위치에 있던 센서는 시간이 흐름에 따라 C와 B로 이동하는 경향을 보이고 있으며 A의 현재 위치값 데이터를 Clustering = > Classification => Decision Tree 과정을 반복하면서 저장할 경우 C가 가장 많은 분포로써 존재하게 된다.
즉, C의 값이 가장 많은 빈도수로 그래프 상에 표시되고 가장 많은 확률로서 표시되게 된다. 따라서 현재 시점의 A의 값은 Time값이 진행됨에 따라 위치측위값은 C로 이동할 확률이 많으며, 시간이 흐른 후 A의 위치값은 C의 위치값으로 바뀔 경우가 많다. 하지만 X축에 보는바와 같이 Frequency또한 Time에 비례해서 위치값이 변하므로 예측위치는 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 는 기준선 P1, P2, P3는 신호인식주기인 Recognition1~Recognition3으로 재설정된다. 이렇게 Frequency 와 Time은 향후 예측 가능한 값으로 간주할 수 없으므로, 재설정된 기준선 P1, P2, P3값이 앞으로 위치를 예측할 수 있는 위치이동에 대한 기준선으로 정할수 있다. 따라서 이렇게 Clustering = > Classification => Decision Tree를 통해 얻어진 데이터는 P1, P2, P3 범위안에 포함되므로, 예측값의 범위안에 존재하게 된다. 이렇게 예측가능한 범위안에 존재하게 된 위치데이터값은 미래의 위치값과 가장 근사한 값이 되므로 현재 C의 값을 기준으로 실제의 예측 값을 지정하게 된다.
도 6은 도시된 바와 같이, 본 발명의 일실시예에 따르면 2차원 좌표값을 통해 현재의 위치값과 미래의 위치값을 Clustering = > Classification => Decision Tree를 통해 얻어진 데이터는 P1, P2, P3 범위 안에 포함되므로, 예측값의 범위안에 존재하게 된다는 결론을 얻은 부분에 대해서 최종적으로 기계학습을 통한 위치예측(Location Prediction Through Machine Learning)을 수행하여 결론을 도출하는 로직을 설명한 도면이다.
도6의 601그림은 도5의 502그림에서 설명한바와 같이 2차원도면위에 존재하는 현재 A의 위치에 존재하는 센서는 주파수와 시간에 따라 주로 B나 C로 이동하는 경향을 보이고 있으며, A의 현재 위치값 데이터를 Clustering = > Classification => Decision Tree 과정을 반복하면서 저장할 경우 C가 가장 많은 분포로써 존재하게 되는데, 이 데이터는 Frequency 와 Time에 비례해서 위치값이 변하므로 예측위치는 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 는 기준선 P1, P2, P3는 신호인식주기인 Recognition1~Recognition3으로 재설정되고, Clustering = > Classification => Decision Tree를 통해 얻어진 데이터는 P1, P2, P3 범위 안에 포함되므로, 예측값 또한 기준선 P1, P2, P3 범위 안에 존재하게 된다. 즉, 위치예측값인 C는 항상 P3와 P2사이 그리고 Time과 Frequency는 Recognition Cycle3와 Recognition Cycle2 사이에 존재하게 된다. 이렇게 도출된 A의 위치를 Deep Learning을 통해 현재 위치가 A일 경우, A가 아닐 경우, B일 경우, B가 아닐 경우, C일 경우, C가 아닐 경우 의 경우의 케이스를 비 학습데이터를 삽입하여 그것이 위치예측을 위한 기준점 P와 근접관계를 형성하는지 PA와 근접관계를 형성하는지 PB와 근접관계를 형성하는지 PC와 근접관계를 형성하는지 판단한다. P, PA, PB, PC로 부터 얻은 데이터를 기반으로 위치의 이동 범위를 설정할수 있는 가능성을 판단하는 있는 기준선인 P1, P2, P3를 재 매핑시킴으로써 최종적으로 현재 A의 위치는 V의 값을 가지게 된다. 이 V는 현재 위치와 시간과 주파수 및 측정시점을 기준으로 현재와 과거 그리고 미래를 아우르는 가능성 높은 예측값을 도출할 수 있다.
이렇게 도출된 V의 값은 2차원의 V0,V1,V6,V7 즉 CVX, CVY이므로 도3에서 기술한 것처럼 V0,V1,V6,V7값을 갖는 V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브에 속한 위치값으로 변환된다. 따라서 그 예측위치데이터는
Figure pat00005
의 직교방위각을 가지는 V(XYZ)로 표현된다. 따라서 현재의 센서 위치 A의 위치값이 특정한 시간이후에는 C의 위치값으로 변경되는데, 그 위치값은 V(XYZ)가 된다.
도 7은 도시된 바와 같이, 본 발명의 일실시예에 따르면 위치예측을 위한 순서도(Flowchart for Location Prediction)를 나타낸 것으로써 처음 3차원의 공간에서 센서로부터 발생되는 주파수의 인식 및 수신단계,3차원 위치 좌표 값 부여단계, 2차원 위치값의 변환단계, 2차원 위치값에 대한 위치변수포함단계, 2차원 위치값을 데이터 Tagging을 통해 데이터베이스에 저장하는 단계, 기계학습을 통한 위치예측값을 도출하는 단계, 위치예측값을 데이터베이스에 저장하는 단계, 센서의 위치예측값과 실제 현재값 확인단계로 구현할 수 있으며,
첫 단계인 센서로부터 발생되는 주파수의 발생과 인식단계부터 마지막 단계인 센서의 위치예측값과 실제 현재 값 확인단계를 통해 보다 높은 정확도의 위치예측 값을 계속적으로 도출해내는 과정을 반복함으로써 위치데이터가 많이 쌓이면 쌓일수록 위치예측의 정확도가 높아진다.
즉, 스캐너(관측자)는 시간이 흘러가면 갈수록 많은 위치데이터에 대한 많은 학습을 수행할 수 있으므로 현재 위치 A에 머문 시간이 오래 흐를수록 예측 위치인 C를 예측하는 확률이 상승하는 효과를 볼 수 있다.
본 발명에 대해 보다 상세하게 설명을 하면
3차원의 공간에 존재하는 센서 즉, 파원을 특정 공간에 위치시킨 후 주파수를 일정한 주기로 방송토록 하고, 스캐너를 통해 파원의 위치를 측위 하는 데이터를 얻고, 그 위치데이터를 통해 미래의 그 센서가 위치하게 될 위치데이터를 예측하는 방법을 기술한 발명이다. 구체적으로는 현재의 위치데이터에 대하여 Tagging하게 되는데 그 Tagging하는 방법이 주파수를 이용한 위치측위 알고리즘이며,Tagging된 데이터를 이용하여 예측모형을 구현하는 것이 인공지능 알고리즘이다. 본 발명에서는 예측가능한 모형의 생성 및 훈련 및 학습 그리고 예측평가 부분을 융합한 것으로써 슈퍼바이즈드 러닝의 추상화와 일반화 모델을 통한 예측 모형으로 저장된 데이터를 좀 더 포괄적 형태와 개념으로 변환하고, 또한 그 저장된 데이터에 숨겨져 있는 패턴을 구체적으로 예측하도록 하는 방식을 표현하는 것이다.
본 발명을 구체화 하기위해 센서로부터 발생되는 주파수의 인식 및 수신단계, 3차원 위치 좌표 값 부여단계, 2차원 위치값의 변환단계, 2차원 위치값에 대한 위치변수포함단계, 2차원 위치값을 데이터 Tagging을 통해 데이터베이스에 저장하는 단계, 기계학습을 통한 위치예측값을 도출하는 단계, 위치예측값을 데이터베이스에 저장하는 단계, 센서의 위치예측값과 실제 현재값 확인단계로 구현할 수 있으며,
첫 단계인 센서로부터 발생되는 주파수의 발생과 인식단계부터 마지막 단계인 센서의 위치예측값과 실제 현재 위치값 확인단계를 통해 보다 높은 정확도의 위치예측 값을 계속적으로 도출해내는 과정을 반복함으로써 위치데이터가 많이 쌓이면 쌓일수록 센서의 위치예측의 정확도가 높아진다. 이것을 구체화하기 위해 개념적으로 3차원 공간에서 센서네트워크를 형성함으로서 그 공간을 측위를 위한 환경으로 구성하는 것이고, 스캐너를 통해 그 센서의 현재 위치를 측위 할 수 있게 된다. 이런 센서네트워크에서 공간의 인식을 3차원 즉, 실제 공간 그 자체로 그대로 좌표값을 부여하며, 그 좌표 값이 실제 좌표 값이 되는 것을 증명한다. 이 실제 좌표 값은 본 발명에서 최종적으로 위치예측데이터의 예측 값과 비교되어 미래의 가장 정확성이 높은 예측 값을 다시 채택하여 위치예측의 정확도를 높인다. 구체적으로는 3차원의 큐브로 도출한 도2의 203그림의 큐브는 204그림처럼 V0부터 V7까지의 꼭짓점 값으로 함축하여 위치데이터를 표현할 수 있다. 즉, V0,V1,V2,V3,V4,V5,V6,V7이 V0,V1,V2,V3,V6,V7로 데이터 값을 함축할 수 있다. 또한 205그림처럼 V0,V1,V2,V3,V6,V7는 다시 V0,V1,V6,V7로 사각형을 형성하며 4개의 값을 가지는 위치데이터로 변환할 수 있다. 이때 이 위치데이터는 실제 위치데이터가 아닌 실제 센서가 위치한 3차원 좌표값의 전체 큐브 중 센서가 포함되어 있는 큐브의 위치데이터가 된다. 이렇게 도출된 큐브의 꼭짓점 값인 V0,V1,V6,V7은 2차원 좌표값에 표시하기 위해 사용되어 지는데, 이것은 205그림처럼 3차원의 위치값을 2차원의 위치값으로 변환하는 방법을 나타낸 것이다. 즉, 3차원의 위치측위값은 큐브의 재 정의를 통해 2차원의 위치값으로 변경된다.
변경되는 방식은 205그림처럼 A=V0,V1,V6,V7 로서 2차원 좌표값에서 A의 값을 지정한다. A의 좌표값은 가로축인 VX와 세로축인 VY가 교차하는 점으로써 A=V0,V1,V6,V7 은 AVX, AVY로 치환할 수 있다.
즉, V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브가 V0,V1,V6,V7의 꼭짓점을 갖는 2차원의 평면으로 변경되었다. 이 변경된 위치값은 2차원의 평면에서 위치값으로써 도면의 교차점에 좌표로 표시할 수 있다. 2차원 공간의 B의 위치값 V0,V1,V6,V7은 302그림에서 보는 바와 같이 V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브에 속한 위치값을 가지게 된다.
303그림은 2차원의 좌표값에 표시되는 좌표값의 생성원리를 표현한 것으로써 2차원좌표값의 V0,V1,V6,V7은 V0,V2,V6,V7으로 도출할 수 있는데, 도출하는 원리는 V0,V1,V6,V7의 꼭지점을 갖는 2차원 평면사각형을 반으로 접을 때 접히는 지점이 V2가 된다. 즉,
Figure pat00006
로 도출할 수 있다. 이렇게 도출된 V0,V2,V6,V7은 304그림처럼 V(0,1,2,3)과 V(0,1,5,7), V(0,1,4,5), V(0,1,6)의 2차원 면을 가지는 305의 그림과 같은 큐브를 생성할 수 있다. 이렇게 생성된 큐브는 V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브가 되고,3차원 큐브는 가로, 세로, 높이의 3가지 좌표를 가지는 3차원의 위치공간의 구성 큐브가 됨을 의미한다. 즉, 도1의 101그림의 3차원공간에서 Sensor1과 Sensor2 그리고 Sensor3의 위치를 포함하는 특정한 하나의 큐브에 포함된다고 설명할 수 있다.
즉, 본 발명에서는 일반적인 좌표값이 교차되는 지점이 아닌 센서가 존재하는 큐브를 3차원 좌표값 큐브를 예측 위치값으로 가정할 수 있다. 이것이 위치예측을 위한 2차원과 3차원의 위치측위를 위한 데이터의 전환 알고리즘이다.
실제로 3차원에 존재하는 센서의 위치값을 2차원으로 변환하여 예측데이터를 생성하고 그것을 다시 실제 3차원데이터로 변환하여 실제 위치와 비교하여 실제 위치를 측위 함으로써 위치예측데이터를 쉽게 도출할 수 있다.
만약 현재의 3차원에서의 센서의 위치가 A라는 값을 가진다면 이 센서의 향후 위치는 A나 B나 C로 이동할 수 있다는 것이고, 그 이동경로는 기준점인 P를 기준으로 설정된 P1, P2, P3을 기준으로 PA, PB, PC로 그 경로를 예측할 수 있다. 그렇게 이동할 수 있는 기준점과 기준선 그리고 기준경로가 정해져 있으므로
A에서 B 그리고 C로 이동하여 A의 향후 예측위치가 A , B , C중 한곳으로 정해질 수 있음을 반증한다.
3차원 공간에서 A의 위치가 A, B, C로 변경되는 예측모델은 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 에 예속될 수밖에 없다. 즉,
Figure pat00007
의 방위각을 갖는 3차원에서 A의 위치이동은 기준점과 기준선 그리고 기준경로에서 벗어날 수 없으므로 그 예측위치 또한 벗어날 수 없다.
이상과 같이 설정된 기준점과 기준선 그리고 기준경로는 최초 A의 위치측위로부터 시작된다. 처음 3차원 공간에서 A의 위치가 측위 되었을 때 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 는 자동으로 부여되며, 위치값과 함께 데이터 셋으로 묶인다. 이렇게 데이터 셋으로 Tagging된 위치데이터는 데이터베이스에 저장되고 A의 측위 값에 따라 자동으로 앞으로 시간에 따른 위치예측 값과 함께 저장된다. 이상이 인공지능을 이용한 센서위치예측시스템에 대한 측위알고리즘에 대한 설명이다. 모두에서 밝힌바와 같이 본 발명은 측위 알고리즘과 인공지능의 학습 및 예측을 융합한 발명이다. 측위알고리즘을 통해 얻어진 데이터에 대하여 데이터 Tagging작업을 수행하고, 그 Tagging된 데이터를 기반으로 어떤 방식으로 학습과 예측모델을 구현해 내는지가 본 발명의 인공지능 예측 알고리즘이다.
즉, C의 값이 가장 많은 빈도수로 그래프 상에 표시되고 가장 많은 확률로서 표시되게 된다. 따라서 현재 시점의 A의 값은 Time값이 진행됨에 따라 위치측위 값은 C로 이동할 확률이 많으며, 시간이 흐른 후 A의 위치값은 C의 위치값으로 바뀔 개연성이 많다. 하지만 도5의 502그림의 X축에서 보는바와 같이 Frequency 또한 Y축의 Time에 비례해서 위치값이 변하므로 예측위치는 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 는 기준선 P1, P2, P3를 통해서 신호인식주기인 Recognition1~Recognition3으로 재설정된다. 즉, Recognition1~Recognition3 변하면 P1, P2, P3도 변하고, 따라서 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC가 모두 변한다는 것을 의미한다. 이렇게 Frequency 와 Time은 향후 예측 가능한 값으로 간주할 수 없으므로, 재설정된 기준선 P1, P2, P3값이 앞으로 위치를 예측할 수 있는 위치이동에 대한 기준선으로 정할 수 있다. 따라서 이렇게 Clustering = > Classification => Decision Tree를 통해 얻어진 데이터는 P1, P2, P3 범위 안에 포함되므로, 예측값의 범위 안에 항상 존재하게 된다. 이렇게 예측 가능한 범위안에 존재하게 된 위치데이터 값은 미래의 위치값과 가장 근사한 값이 되므로 현재 C의 값을 기준으로 실제의 예측 값을 지정하게 된다.
도6 601그림처럼 위치예측값인 C는 항상 P3와 P2사이 그리고 Time과 Frequency는 Recognition Cycle3와 Recognition Cycle2 사이에 존재하게 된다. 이렇게 도출된 A의 위치를 Deep Learning을 통해 현재 위치가 A일 경우, A가 아닐 경우, B일 경우, B가 아닐 경우, C일 경우, C가 아닐 경우의 케이스를 비 학습데이터를 삽입하여 그것이 위치예측을 위한 기준점 P와 근접관계를 형성하는지 PA와 근접관계를 형성하는지 PB와 근접관계를 형성하는지 PC와 근접관계를 형성하는지 판단한다. 당연히 위치의 케이스는 더 추가되거나 감소될 수 있다. P, PA, PB, PC로 부터 얻은 데이터를 기반으로 위치의 이동 범위를 설정할 수 있는 가능성을 판단하는 있는 기준선인 P1, P2, P3를 재 매핑 시킴으로써 최종적으로 현재 A의 위치는 미래의 V의 값을 가지게 된다. 이 V는 현재 위치와 시간과 주파수 및 측정시점을 기준으로 현재와 과거 그리고 미래를 아우르는 가능성 높은 예측값을 도출할 수 있다.
이렇게 도출된 V의 값은 2차원의 V0,V1,V6,V7 즉 CVX, CVY이므로 도3에서 기술한 것처럼 V0,V1,V6,V7값을 갖는 V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브에 속한 위치값으로 변환된다. 따라서 그 예측위치데이터는
Figure pat00008
직교좌표 방위각을 가지는 V(XYZ)로 표현된다. 따라서 현재의 센서 위치 A의 위치값이
특정한 시간이후에는 C의 위치값으로 변경되는데, 그 위치값은 V(XYZ)가 된다.
이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하
거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시
예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요
소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는,
특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것
이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수
있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들
은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가
진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어
와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것
으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과
도 하게 형식적인 의미로 해석되지 않는다.
그리고 이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과
한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명
의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이
다.
따라서 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위
한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사
상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의
하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의
권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (9)

  1. 위 발명의 상세설명에 기재된바와 같이
    주파수의 인식 및 수신단계,
    3차원 위치 좌표 값 부여단계,
    2차원 위치값의 변환단계,
    2차원 위치값에 대한 위치변수포함단계,
    2차원 위치값을 데이터 Tagging을 통해 데이터베이스에 저장하는 단계,
    기계학습을 통한 위치예측값을 도출하는 단계,
    위치예측값을 데이터베이스에 저장하는 단계,
    센서의 위치예측값과 실제 현재값 확인단계의 순서로 구현되고, 반복적으로
    위의 단계를 반복하면서 현재의 센서 위치값을 통해 미래의 위치값을 예측하고
    첫 단계인 센서로부터 발생되는 주파수의 발생과 인식단계부터 마지막 단계인 센서의 위치예측값과 실제 현재 위치값 확인단계를 통해 보다 높은 정확도의 위치예측 값을 계속적으로 도출해내는 과정을 반복함으로써 위치데이터가 많이 쌓이면 쌓일수록 센서의 위치예측의 정확도가 높아지는 구조를 갖는 인공지능을 이용한 센서위치예측시스템


  2. 3차원의 큐브로 도출한 도2의 203그림의 큐브는 204그림처럼 V0부터 V7까지의 꼭짓점 값으로 함축하여 위치데이터를 표현할 수 있다. 즉, V0,V1,V2,V3,V4,V5,V6,V7이 V0,V1,V2,V3,V6,V7로 데이터 값을 함축할 수 있다. 또한 205그림처럼 V0,V1,V2,V3,V6,V7는 다시 V0,V1,V6,V7로 사각형을 형성하며 4개의 값을 가지는 위치데이터로 변환할 수 있다. 이때 이 위치데이터는 실제 위치데이터가 아닌 실제 센서가 위치한 3차원 좌표값의 전체 큐브 중 센서가 포함되어 있는 큐브의 위치데이터가 된다. 이렇게 도출된 큐브의 꼭짓점 값인 V0,V1,V6,V7은 2차원 좌표값에 표시하기 위해 사용되어 지는데, 이것은 205그림처럼 3차원의 위치값을 2차원의 위치값으로 변환하는 방법을 나타낸 것이다. 즉, 3차원의 위치측위값은 큐브의 재 정의를 통해 2차원의 위치값으로 변경된다.
    이상의 위치값을 취득하기 위해 차원변환 방법을 사용하는 인공지능을 이용한 센서위치예측시스템






  3. 2차원 좌표값의 V0,V1,V6,V7은 V0,V2,V6,V7으로 도출할 수 있는데, 도출하는 원리는 V0,V1,V6,V7의 꼭짓점을 갖는 2차원 평면사각형을 반으로 접을 때 접히는 지점이 V2가 된다. 즉,
    Figure pat00009
    로 도출할 수 있다. 이렇게 도출된 V0,V2,V6,V7은 304그림처럼 V(0,1,2,3)과 V(0,1,5,7), V(0,1,4,5), V(0,1,6)의 2차원 면을 가지는 305의 그림과 같은 큐브를 생성할 수 있다. 이렇게 생성된 큐브는 V0,V1,V2,V3,V4,V5,V6,V7의 꼭짓점을 갖는 3차원의 큐브가 되고,3차원 큐브는 가로, 세로, 높이의 3가지 좌표를 가지는 3차원의 위치공간의 구성 큐브가 됨을 의미한다.
    즉, 본 발명에서는 일반적인 좌표값이 교차되는 지점이 아닌 센서가 존재하는 큐브를 3차원 좌표값 큐브의 예측 위치값으로 가정할 수 있다. 이것이 위치예측을 위한 2차원과 3차원의 위치측위를 위한 데이터의 전환 알고리즘이다.
    이상의 위치측위 알고리즘을 사용하는 인공지능을 이용한 센서위치예측시스템





  4. 현재의 3차원에서의 센서의 위치가 A라는 값을 가진다면 이 센서의 향후 위치는 A나 B나 C로 이동할 수 있다는 것이고, 그 이동경로는 기준점인 P를 기준으로 설정된 P1, P2, P3을 기준으로 PA, PB, PC로 그 경로를 예측할 수 있다. 그렇게 이동할 수 있는 기준점과 기준선 그리고 기준경로가 정해져 있으므로
    A에서 B 그리고 C로 이동하여 A의 향후 예측위치가 A , B , C중 한곳으로 정해질 수 있음을 반증한다.
    3차원 공간에서 A의 위치가 A, B, C로 변경되는 예측모델은 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 에 예속될 수밖에 없다. 즉,
    Figure pat00010
    의 방위각을 갖는 3차원에서 A의 위치이동은 기준점과 기준선 그리고 기준경로에서 벗어날 수 없으므로 그 예측위치 또한 벗어날 수 없다.
    이상의 위치측위 알고리즘을 사용하는 인공지능을 이용한 센서위치예측시스템







  5. 처음 3차원 공간에서 A의 위치가 측위 되었을 때 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 는 자동으로 부여되며, 위치값과 함께 데이터 셋으로 묶인다. 이렇게 데이터 셋으로 Tagging된 위치데이터는 데이터베이스에 저장되고 A의 위치측위 값에 따라 자동으로 미래 시간에 따른 위치예측 값과 함께 저장된다.
    이상의 위치측위 알고리즘을 사용하는 인공지능을 이용한 센서위치예측시스템













  6. C의 값이 가장 많은 빈도수로 그래프 상에 표시되고 가장 많은 확률로서 표시되게 된다. 따라서 현재 시점의 A의 값은 Time값이 진행됨에 따라 위치측위 값은 C로 이동할 확률이 많으며, 시간이 흐른 후 A의 위치값은 C의 위치값으로 바뀔 개연성이 많다. 하지만 도5의 502그림의 X축에서 보는바와 같이 Frequency 또한 Y축의 Time에 비례해서 위치값이 변하므로 예측위치는 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC 는 기준선 P1, P2, P3를 통해서 신호인식주기인 Recognition1~Recognition3으로 재설정된다. 즉, Recognition1~Recognition3 변하면 P1, P2, P3도 변하고, 따라서 기준점 P 와 기준선 P1, P2, P3 그리고 기준경로 PA, PB, PC가 모두 변한다는 것을 의미한다. 이렇게 Frequency 와 Time은 향후 예측 가능한 값으로 간주할 수 없으므로, 재설정된 기준선 P1, P2, P3값이 앞으로 위치를 예측할 수 있는 위치이동에 대한 기준선으로 정할 수 있다.
    이상의 위치측위 알고리즘을 사용하는 인공지능을 이용한 센서위치예측시스템






  7. Clustering = > Classification => Decision Tree를 통해 얻어진 데이터는 P1, P2, P3 범위 안에 포함되므로, 예측값의 범위 안에 항상 존재하게 된다. 이렇게 예측 가능한 범위 안에 존재하게 된 위치데이터 값은 미래의 위치값과 가장 근사한 값이 되므로 현재 C의 값을 기준으로 실제의 예측 값을 지정하게 된다.
    이상의 학습 및 훈련 알고리즘을 사용하는 인공지능을 이용한 센서위치예측시스템













  8. 현재 위치예측값인 C는 항상 P3와 P2사이 그리고 Time과 Frequency는 Recognition Cycle3와 Recognition Cycle2 사이에 존재하게 된다. 이렇게 도출된 A의 위치를 Deep Learning을 통해 현재 위치가 A일 경우, A가 아닐 경우, B일 경우, B가 아닐 경우, C일 경우, C가 아닐 경우의 케이스를 비 학습데이터를 삽입하여 그것이 위치예측을 위한 기준점 P와 근접관계를 형성하는지 PA와 근접관계를 형성하는지 PB와 근접관계를 형성하는지 PC와 근접관계를 형성하는지 판단한다. 당연히 위치의 케이스는 더 추가되거나 감소될 수 있다. P, PA, PB, PC로 부터 얻은 데이터를 기반으로 위치의 이동 범위를 설정할 수 있는 가능성을 판단하는 있는 기준선인 P1, P2, P3를 재 매핑 시킴으로써 최종적으로 현재 A의 위치는 미래의 V의 값을 가지게 된다. 이 V는 현재 위치와 시간과 주파수 및 측정시점을 기준으로 현재와 과거 그리고 미래를 아우르는 가능성 높은 예측값을 도출할 수 있다.
    이상의 학습 및 훈련 알고리즘을 사용하는 인공지능을 이용한 센서위치예측시스템






  9. 미래 위치예측값으로 도출된 V의 값은 2차원의 V0,V1,V6,V7 즉 CVX, CVY이므로 도3에서 기술한 것처럼 V0,V1,V6,V7값을 갖는 V0,V1,V2,V3,V4,V5,V6,V7의 꼭지점을 갖는 3차원의 큐브에 속한 위치값으로 변환된다. 따라서 그 예측위치데이터는
    Figure pat00011
    의 직교좌표 방위각을 가지는 V(XYZ)로 표현된다. 따라서 현재의 센서 위치 A의 위치값이 특정한 시간이후에는 C의 위치값으로 변경되는데, 그 위치값은 V(XYZ)가 된다.
    이상의 위치측위 알고리즘과 인공지능 학습 및 훈련 알고리즘을 사용하는 인공지능을 이용한 센서위치예측시스템
KR1020190178777A 2019-12-30 2019-12-30 인공지능을 이용한 센서위치예측시스템 KR102404519B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190178777A KR102404519B1 (ko) 2019-12-30 2019-12-30 인공지능을 이용한 센서위치예측시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190178777A KR102404519B1 (ko) 2019-12-30 2019-12-30 인공지능을 이용한 센서위치예측시스템

Publications (2)

Publication Number Publication Date
KR20210085582A true KR20210085582A (ko) 2021-07-08
KR102404519B1 KR102404519B1 (ko) 2022-05-31

Family

ID=76894608

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190178777A KR102404519B1 (ko) 2019-12-30 2019-12-30 인공지능을 이용한 센서위치예측시스템

Country Status (1)

Country Link
KR (1) KR102404519B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005535159A (ja) * 2002-05-23 2005-11-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 電子デバイスの地理的位置を判定する電子デバイス、サーバ・コンピュータ、方法、電子デバイスの位置を判定するデータを供給する方法、および対応するコンピュータ・プログラム
KR20190012900A (ko) * 2017-07-30 2019-02-11 이원찬 무선신호의 수신변조를 통한 위치추적시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005535159A (ja) * 2002-05-23 2005-11-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 電子デバイスの地理的位置を判定する電子デバイス、サーバ・コンピュータ、方法、電子デバイスの位置を判定するデータを供給する方法、および対応するコンピュータ・プログラム
KR20190012900A (ko) * 2017-07-30 2019-02-11 이원찬 무선신호의 수신변조를 통한 위치추적시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Design and Implementation of Intelligent Location Estimation Method Using RFID Tag Signal", Chonnam National University Graduate School Master’s thesis, 2014 *

Also Published As

Publication number Publication date
KR102404519B1 (ko) 2022-05-31

Similar Documents

Publication Publication Date Title
Ma et al. Fusion of RSS and phase shift using the Kalman filter for RFID tracking
CN102752855B (zh) 基于路径规则和预测的室内人员定位系统及方法
CN105955258B (zh) 基于Kinect传感器信息融合的机器人全局栅格地图构建方法
Raza et al. Comparing and evaluating indoor positioning techniques
BelMannoubi et al. Deep neural networks for indoor localization using WiFi fingerprints
CN108984741A (zh) 一种地图生成方法及装置、机器人和计算机可读存储介质
Seong et al. Wi-Fi fingerprint using radio map model based on MDLP and euclidean distance based on the Chi squared test
Costin et al. Development of a navigational algorithm in BIM for effective utility maintenance management of facilities equipped with passive RFID
Yang et al. DeepWiPos: A deep learning-based wireless positioning framework to address fingerprint instability
Nowakowski et al. Topological localization using Wi-Fi and vision merged into FABMAP framework
Cen Target location detection of mobile robots based on R-FCN deep convolutional neural network
CN107958040A (zh) 一种用于室内物品定位、管理以及分析的智能系统
Yadav et al. Optimized localization learning algorithm for indoor and outdoor localization system in WSNs
KR102404519B1 (ko) 인공지능을 이용한 센서위치예측시스템
KR102372368B1 (ko) 인공지능을 이용한 재난대응 피구조자 위치예측시스템
Farag Lidar and radar fusion for real-time road-objects detection and tracking
El Boudani et al. Positioning as service for 5g iot networks
CN116658828A (zh) 基于cim数字孪生技术的燃气管网无人机巡检系统及方法
KR102305048B1 (ko) 인공지능을 이용한 센서위치보정시스템
Jahagirdar et al. WiFi based Indoor Positioning System using Machine Learning and Multi-Node Triangulation Algorithms
Dhanjal et al. DeepLocNet: Deep Observation Classification and Ranging Bias Regression for Radio Positioning Systems
Raj et al. IndoorRSSINet-Deep learning based 2D RSSI map prediction for indoor environments with application to wireless localization
KR20210054769A (ko) 레이더 신호 처리 장치 및 레이더 신호 처리 방법
Zoula et al. On building communication maps in subterranean environments
Lang et al. An indoor localization method based on Cauchy inverse whale optimization algorithm

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant