JP7479715B2 - 3重視覚照合とマルチ基地局回帰を融合した5g屋内スマート測位方法 - Google Patents
3重視覚照合とマルチ基地局回帰を融合した5g屋内スマート測位方法 Download PDFInfo
- Publication number
- JP7479715B2 JP7479715B2 JP2022077904A JP2022077904A JP7479715B2 JP 7479715 B2 JP7479715 B2 JP 7479715B2 JP 2022077904 A JP2022077904 A JP 2022077904A JP 2022077904 A JP2022077904 A JP 2022077904A JP 7479715 B2 JP7479715 B2 JP 7479715B2
- Authority
- JP
- Japan
- Prior art keywords
- rss
- base station
- regression
- distance
- here
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims description 76
- 238000000034 method Methods 0.000 title claims description 68
- 238000012353 t test Methods 0.000 claims description 67
- 238000001914 filtration Methods 0.000 claims description 29
- 239000013598 vector Substances 0.000 claims description 24
- 238000012360 testing method Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 101100478969 Oryza sativa subsp. japonica SUS2 gene Proteins 0.000 claims description 2
- 101100004663 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) BRR2 gene Proteins 0.000 claims description 2
- 101100504519 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) GLE1 gene Proteins 0.000 claims description 2
- 238000013480 data collection Methods 0.000 claims 1
- 238000012795 verification Methods 0.000 claims 1
- 230000004807 localization Effects 0.000 description 7
- 238000011160 research Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Navigation (AREA)
Description
(1)オフライン段階において、モバイル機器は、5G基地局と通信を行い、5G基地局は、受信信号強度(Received Signal Strength、RSS)データ(5G基地局は、同一基準ポイントの複数回のRSSデータを取得する)、モバイル機器の位置およびモバイル機器が存在する位置の8の方向(東、西、南、北、南東、北東、南西、北西)に撮影された画像を取得し、ここで5G基地局は、RSSデータ、モバイル機器の位置および5G基地局の位置を利用してローカルサーバーにRSS-距離の指紋ライブラリを構築し、5G基地局は、撮影された画像およびモバイル機器の位置をクラウドにアップロードし、クラウドに画像-位置の指紋ライブラリを構築する。
(2)各ローカルサーバは、RSS-距離の指紋ライブラリを利用して、RSS-距離の回帰モデル学習を行う。
(3)クラウドは、画像-位置の指紋ライブラリに基づいて、3重視覚照合モデルを利用して指紋測位を行う。
(4)5G基地局がテストポイントのRSSベクトルを取得することにより、クラウドは、ステップ(2)におけるRSS-距離の回帰モデルと結合して多辺測位を行う。
(5)クラウドは、ステップ(4)における多辺測位結果とステップ(3)における指紋測位結果を加重融合し、テストポイントの融合測位結果を得る。
まず、RSS-距離の指紋ライブラリ中の各5G基地局に対応するRSSデータに対してガウスフィルタリング及び閾値フィルタリングを行う。
その後、フィルタリングされた指紋ライブラリに基づいて、ニューラルネットワークに対して学習を行い、RSS-距離回帰モデルが得られる。
前記ニューラルネットワークは、基準ポイントのRSSデータを入力とし、基準ポイントから5G基地局までの距離を出力とする。
RSSm,rがガウスフィルタリングされた後、m基地局のr基準点に対するRSSベクトルは、次のように変化し、
ガウスフィルタリングおよび閾値フィルタリング後のRSSベクトルに基づいて、m基地局は、ローカルサーバでニューラルネットワークを学習し、対応するRSS-距離回帰モデルを得て、以下のように示される。
3重視覚照合モデルに対して、まず、tテストポイントで撮影された画像をYOLO目標検出システムで画像検出する。tテスト点のθ方向に撮影された画像の識別物情報は、以下のように示される。
θと結合し、tテストポイントと異なる方向のr基準ポイントの同じ識別物の類似度照合(第1の視覚照合)を行い、次のように示す。
tテストポイントと異なる方向のr基準ポイントの識別物情報の方向関係の類似度照合(第2の視覚照合)を行い、次のように示す。
3重視覚照合のデータと結合して照合し、まずtテストポイントのθ方向に撮影された画像と異なる方向のr基準ポイントのθ1方向に撮影された画像の類似度を計算し、以下に示す。
tテストポイントのRSSベクトルRSSm,t=[RSS1,t,...,RSSm,t,...RSSM,t]の各要素を判断し、閾値α1より小さい要素を廃棄し、tテストポイントの測位に用いない。
テストポイントのRSSベクトルの残った要素のうち、3つの最大RSS値に対応する5G基地局(それぞれm1、m2、m3とする)を選出する。tテストポイントからm1、m2、m3基地局までの距離に基づいて、多辺測位を行う。tテストポイントから3つの5G基地局までの距離は、それぞれ、d1=fm1(RSSm1,t)、d2=fm2(RSSm2,t)、d3=fm3(RSSm3,t)である。ここで、fm1(・)、fm2(・)、fm3(・)は、それぞれ、m1、m2、m3の3つの5G基地局に対応するRSS-距離回帰モデルのマッピング関係を示す。
多辺測位の具体式は、以下であり、
その後、
|D2|=0であれば、多辺測位結果の重みは、以下のように示される。
w=0
最終的な測位位置は、以下である。
(x,y)=w*(xt1,yt1)+(1-w)*(xt2,yt2)
ここで、α1<α2、α1は、信号が悪い上限を示し、α2は、信号の良好な下限を示す。2つの閾値は、機器によって異なる。本発明では、
屋内測位でよく使われるRSS-距離モデルは、対数減衰モデルであるが、屋内環境の複雑さ(壁の遮蔽など)や、5G基地局が置かれている位置の周囲環境が異なり、すべての5G測位基地局に対して1種類の対数減衰モデルを採用すると、測位精度が不足するため、各5G基地局に対してそれぞれニューラルネットワークを採用してRSS-距離モデルを学習する必要がある。
ガウスフィルタリングは、主に複雑な環境によるデータ異常の問題を解決するものである。データの正確性を保証するため、各5G基地局は、同じ基準ポイントの複数回のRSSデータを収集してガウスフィルタリングを行う。
m基地局がr基準点に対して収集したRSSベクトルは、以下であり、
閾値フィルタリングは、主にRSS-距離モデルで実現される多辺測位法においてRSS値が小さいと測位精度が悪くなるからである。閾値フィルタリングを用いることでRSS-距離モデルのRSS範囲を減少するものの、RSS距離モデルは、小さなRSS値に影響されないため、モデルの精度が向上する。ガウスフィルタリングおよび閾値フィルタリング後(RSS値≧90dBm)、m基地局のr基準点に対するRSSベクトルは、次のように変化する。
指紋定位の前に、オフライン指紋ライブラリを構築し、RSSの変動による測位誤差問題を考慮する必要がある。本発明は、多角度画像と基準ポイント位置の指紋測位方法を考慮する。基準ポイントについては、8方位の画像情報と、基準ポイントの位置とが画像-位置指紋ライブラリを構築する(各角度で撮影された画像は、基準ポイントの位置と1組のサンプルを構成する)。指紋測位を行う際には、図3に示すように、3重視覚照合モデルを用いて指紋照合を行う。
第1の視覚照合:
tテストポイントで撮影された画像をYOLO目標検出システムで画像検出し、同一の識別物の数に基づいて画像の類似度を比較する。YOLO目標検出システムは、画像を検出してtテストポイント(テストポイントは、モバイル機器が存在する位置である)で撮影された画像の識別物情報を得ることができ、以下のように示される。
θと結合し、tテストポイントと異なる方向のr基準ポイントの同じ識別物の類似度照合を行い、次のように示す。
第2の視覚照合:
YOLO目標検出システムを利用して、識別物が存在する識別領域に対して、tテストポイントにおける撮影画像の識別物間の相対方位情報を得ることができる。画像中の識別物の向きの制約によって、識別物の相対的な方向情報を抽出して方向関係を確立する。テストポイントの撮影画像における識別物の方向関係を以下に示す。
tテストポイントと異なる方向のr基準ポイントの識別物情報の方向関係の類似度照合を行い、次のように示す。
YOLO目標検出システムと結合して、識別物が存在する識別領域に対して、tテストポイントの撮影画像の識別物間の相対距離情報を得ることができる。画像を画素解析することにより、tテストポイントの撮影画像における識別物の距離関係は、以下のように示される。
3重視覚照合に基づいて、tテストポイントと異なる方向のr基準ポイントの画像の類似度を、以下に示す。
上述した内容は、多辺測位法と指紋測位法のそれぞれの優位性と不足を考慮し、それぞれに改良を行い、良好な測位結果を得るために融合測位の方式を採用し、両測位方法の優位性を十分に利用している。RSSが大きいほど信号が正確になるので、RSS値に基づいて、測位に使用可能な5G基地局が選択される。RSStの各要素を判断し、RSSm,t<-90dBmであれば、m基地局のRSSは、tテストポイントの測位に用いられない。RSStに残った要素の大きさの順番に基づいて、3つの最大RSS値に対応する5G基地局(それぞれm1、m2、m3とする)を選択して多辺測位を行う。
tテストポイントから3つの5G基地局までの距離は、それぞれ、d1=fm1(RSSm1,t)、d2=fm2(RSSm2,t)、d3=fm3(RSSm3,t)である。ここで、fm1(・)、fm2(・)、fm3(・)は、それぞれ、m1、m2、m3の3つの5G基地局に対応するRSS-距離回帰モデルのマッピング関係を示す。
そして、多辺測位の具体式は、以下であり、
その後、多辺測位結果と3重視覚照合の指紋測位結果とを加重融合する。
w=0
得られた最終測位位置は、以下である。
(x,y)=w*(xt1,yt1)+(1-w)*(xt2,yt2)
(付記1)
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、以下のステップを含むことを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
(1)オフライン段階において、モバイル機器は、5G基地局と通信を行い、5G基地局は、受信信号強度RSSデータ、モバイル機器の位置およびモバイル機器が存在する位置の複数の方向に撮影された画像を取得し、ここで5G基地局は、RSSデータ、モバイル機器の位置および5G基地局の位置を利用してローカルサーバーにRSS-距離の指紋ライブラリを構築し、5G基地局は、撮影された画像およびモバイル機器の位置をクラウドにアップロードし、クラウドに画像-位置の指紋ライブラリを構築する。
(2)各ローカルサーバは、RSS-距離の指紋ライブラリを利用して、RSS-距離の回帰モデル学習を行う。
(3)クラウドは、画像-位置の指紋ライブラリに基づいて、3重視覚照合モデルを利用して指紋測位を行う。
(4)5G基地局がテストポイントのRSSベクトルを取得することにより、クラウドは、ステップ(2)におけるRSS-距離の回帰モデルと結合して多辺測位を行う。
(5)クラウドは、ステップ(4)における多辺測位結果とステップ(3)における指紋測位結果を加重融合し、テストポイントの融合測位結果を得る。
付記1に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
前記ステップ(1)において、5G基地局は、モバイル機器が存在する位置の東、西、南、北、南東、北東、南西、北西の8方向に撮影された画像を取得することを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
付記1に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
前記ステップ(1)において、5G基地局は、同一基準ポイントの複数回のRSSデータを取得することを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
付記3に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
前記ステップ(2)の実現過程は、以下のとおりであることを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
まず、RSS-距離の指紋ライブラリ中の各5G基地局に対応するRSSデータに対してガウスフィルタリング及び閾値フィルタリングを行う。
その後、フィルタリングされた指紋ライブラリに基づいて、ニューラルネットワークに対して学習を行い、RSS-距離回帰モデルが得られる。
前記ニューラルネットワークは、基準ポイントのRSSデータを入力とし、基準ポイントから5G基地局までの距離を出力とする。
付記4に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
m基地局がr基準点に対して収集したRSSベクトルは、以下であり、
RSSm,rがガウスフィルタリングされた後、基地局の基準点に対するRSSベクトルは、次のように変化し、
ガウスフィルタリングおよび閾値フィルタリング後のRSSベクトルに基づいて、基地局は、ローカルサーバでニューラルネットワークを学習し、対応するRSS-距離回帰モデルを得て、以下のように示され、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
付記1に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
前記ステップ(3)の実現過程は、以下のとおりであることを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
(3.1)tテストポイントで撮影された画像をYOLO目標検出システムで画像検出し、画像ごとの識別物情報および各識別物が存在する識別領域を取得し、ここで、tテスト点のθ方向に撮影された画像の識別物情報は、以下のように示される。
(3.2)tテストポイントと異なる方向の基準ポイントの同じ識別物の類似度照合を行い、次のように示す。
(3.3)tテストポイントと異なる方向のr基準ポイントの識別物情報の方向関係の類似度照合を行い、次のように示す。
(3.4)tテストポイントと異なる方向のr基準ポイントの識別物情報の距離関係の類似度照合を行い、次のように示す;
(3.5)tテストポイントのθ方向に撮影された画像と異なる方向のr基準ポイントのθ1方向に撮影された画像の類似度を、以下に示す。
付記1に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
付記1に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
前記ステップ(4)の実現過程は、以下のとおりであることを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
(4.1)tテストポイントのRSSベクトル
RSSm,t=[RSS1,t,...,RSSm,t,...RSSM,t]のうち閾値α1より小さい要素を廃棄する。ここで、Mは、5G基地局数を示し、RSSm,tは、m基地局がtテストポイントに対して収集したRSS値を示す。
(4.2)(4.1)で得られた3つの最大RSS値に対応する5G基地局を選出し、m1、m2、m3とする。
(4.3)tテストポイントからm1、m2、m3基地局までの距離に基づいて、多辺測位を行う。多辺測位の具体式は、以下であり、
付記8に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
d1=fm1(RSSm1,t)、d2=fm2(RSSm2,t)、d3=fm3(RSSm3,t)であり、
ここで、fm1(・)、fm2(・)、fm3(・)は、それぞれ、m1、m2、m3基地局に対応するRSS-距離回帰モデルのマッピング関係を示すことを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
付記7に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
多辺測位結果と3重視覚照合の指紋測位結果とを加重融合して、tテストポイントの最終測位結果を得ることを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
(x,y)=w*(xt1,yt1)+(1-w)*(xt2,yt2)
ここで、
|D1|+|D2|<3であれば、w=0、
Claims (8)
- 3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、以下の全てのステップを含むことを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
(1)学習データ収集段階において、モバイル機器は、5G基地局と通信を行い、5G基地局は、モバイル機器から送信された無線信号の受信信号強度RSSデータ、モバイル機器の位置である基準ポイントの位置情報およびモバイル機器により基準ポイントから複数の方向に撮影された画像を取得し、ここで5G基地局は、RSSデータ、基準ポイントの位置情報および5G基地局の位置を利用して5G基地局が備えるサーバであるローカルサーバーにRSSデータと、5G基地局と基準ポイントとの距離と、を紐付けるRSS-距離の指紋ライブラリを構築し、5G基地局は、撮影された画像および基準ポイントの位置情報をクラウドにアップロードし、クラウドに画像と基準ポイントの位置情報とを紐付ける画像-位置の指紋ライブラリを構築する。
(2)各前記5G基地局が備えるローカルサーバは、ステップ(1)で構築されたRSS-距離の指紋ライブラリを利用して、RSSデータと、前記5G基地局と前記基準ポイントとの距離との関係を示すRSS-距離の回帰モデルを得るための学習を行う。
(3)前記クラウドは、ステップ(1)で構築された画像-位置の指紋ライブラリに基づいて、前記基準ポイントで撮影された画像と測位対象の前記モバイル機器の位置であるテストポイントから撮影された画像との類似度を、それぞれの画像から検出された識別物の類似度と、各ポイントから識別物への相対方向に関する類似度と、各ポイントと識別物との間の距離に関する類似度とにより照合し、照合した類似度に基づいて指紋測位結果を得る3重視覚照合モデルを利用して指紋測位を行う。
(4)前記5G基地局が前記テストポイントのRSSベクトルを取得することにより、前記クラウドは、ステップ(2)におけるRSS-距離の回帰モデルに前記テストポイントのRSSベクトルを入力して多辺測位を行う。
(5)前記クラウドは、前記テストポイントのRSSデータと予め設定された閾値とに基づいて、前記指紋測位結果、および、前記多辺測位の結果それぞれの重みを計算し、ステップ(4)における多辺測位結果とステップ(3)における指紋測位結果との加重和を算出し、前記テストポイントの融合測位結果を得る。
前記ステップ(3)の実現過程は、以下のとおりであることを特徴とする。
(3.1)測位対象の前記モバイル機器の位置を示すtテストポイントで撮影された画像をYOLO(You Only Look Once)のアルゴリズムで物体検出を行うYOLO物体検出システムで画像検出し、画像ごとの検出された物体である識別物の識別物情報および各識別物が存在する識別領域を取得し、ここで、tテストポイントのθ方向に撮影された画像から検出された識別物の識別物情報は、以下のように示される。
(3.2)tテストポイントと異なる方向の基準ポイントの同じ識別物の類似度照合を行い、次のように示す。
(3.3)tテストポイントと異なる方向のr基準ポイントの識別物情報の方向関係の類似度照合を行い、次のように示す。
ここで、| |は、絶対値を示す。
(3.4)tテストポイントと異なる方向のr基準ポイントの識別物情報の距離関係の類似度照合を行い、次のように示す。
(3.5)tテストポイントのθ方向に撮影された画像と異なる方向のr基準ポイントのθ1方向に撮影された画像の類似度を、以下に示す。
(3.6)(3.5)で得られた類似度を大きい順にソートし、上位K1個の類似度に対応する基準ポイントを選択して重み付けを行い、tテストポイントの3重視覚照合の指紋測位結果を取得する。
- 請求項1に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
前記ステップ(1)において、5G基地局は、前記モバイル機器により撮影された前記基準ポイントの東、西、南、北、南東、北東、南西、北西の8方向に撮影された画像を取得することを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。 - 請求項1に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
前記ステップ(1)において、5G基地局は、前記モバイル機器から複数回送信された無線信号に基づき、同一基準ポイントの複数回のRSSデータを取得することを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。 - 請求項3に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
前記ステップ(2)の実現過程は、以下のとおりであることを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
まず、RSS-距離の指紋ライブラリ中の各5G基地局に対応するRSSデータに対してガウスフィルタリング及び閾値フィルタリングを行う。
その後、フィルタリングされた指紋ライブラリに基づいて、ニューラルネットワークに対して学習を行い、RSS-距離回帰モデルが得られる。
前記ニューラルネットワークは、基準ポイントのRSSデータを入力とし、基準ポイントから5G基地局までの距離を出力とする。 - 請求項4に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
前記ステップ(1)において、m基地局がr基準ポイントに対して収集したRSSベクトルは、以下であり、
RSSm,rがガウスフィルタリングされた後、基地局の基準ポイントに対するRSSベクトルは、次のように変化し、
前記ステップ(2)において、ガウスフィルタリングおよび閾値フィルタリング後のRSSベクトルに基づいて、基地局は、ローカルサーバでニューラルネットワークを学習し、対応するRSS-距離回帰モデルを得て、以下のように示され、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。 - 請求項1に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
前記ステップ(4)の実現過程は、以下のとおりであることを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
(4.1)tテストポイントのRSSベクトル
RSSm,t=[RSS1,t,...,RSSm,t,...RSSM,t]のうち閾値α1より小さい要素を廃棄する。ここで、Mは、5G基地局数を示し、RSSm,tは、m基地局がtテストポイントに対して収集したRSS値を示す。
(4.2)(4.1)で得られた3つの最大RSS値に対応する5G基地局を選出し、m1、m2、m3とする。
(4.3)tテストポイントからm1、m2、m3基地局までの距離に基づいて、多辺測位を行う。多辺測位の具体式は、以下であり、
- 請求項6に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
d1=fm1(RSSm1,t)、d2=fm2(RSSm2,t)、d3=fm3(RSSm3,t)であり、
ここで、fm1(・)、fm2(・)、fm3(・)は、それぞれ、m1、m2、m3基地局に対応するRSS-距離回帰モデルのマッピング関係を示すことを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。 - 請求項1に記載の3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法であって、
多辺測位結果と3重視覚照合の指紋測位結果との加重和を算出して、tテストポイントの最終測位結果を得ることを特徴とする、
3重視覚照合とマルチ基地局回帰を融合した5G屋内スマート測位方法。
(x,y)=w*(xt1,yt1)+(1-w)*(xt2,yt2)
ここで、
ここで| |は、絶対値を示し、
ここで| |は、絶対値を示し、
ここで| |は、絶対値を示し、
|D1|+|D2|<3であれば、w=0、
|D 1 |、|D 2 |の| |は、集合の要素数を示す。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111550033.X | 2021-12-17 | ||
CN202111550033.XA CN114513746B (zh) | 2021-12-17 | 2021-12-17 | 融合三重视觉匹配模型和多基站回归模型的室内定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023090610A JP2023090610A (ja) | 2023-06-29 |
JP7479715B2 true JP7479715B2 (ja) | 2024-05-09 |
Family
ID=81547465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022077904A Active JP7479715B2 (ja) | 2021-12-17 | 2022-05-11 | 3重視覚照合とマルチ基地局回帰を融合した5g屋内スマート測位方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7479715B2 (ja) |
CN (1) | CN114513746B (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013025401A (ja) | 2011-07-15 | 2013-02-04 | Fujitsu Ltd | 自己位置推定装置、自己位置推定方法およびプログラム |
CN109814066A (zh) | 2019-01-24 | 2019-05-28 | 西安电子科技大学 | 基于神经网络学习的rssi室内定位测距方法、室内定位平台 |
WO2019113749A1 (en) | 2017-12-11 | 2019-06-20 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for identifying and positioning objects around a vehicle |
CN112867066A (zh) | 2021-01-26 | 2021-05-28 | 南京邮电大学 | 基于5g多小区深度强化学习的边缘计算迁移方法 |
US20210255634A1 (en) | 2020-02-19 | 2021-08-19 | Ford Global Technologies, Llc | Vehicle device localization |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3165391B2 (ja) * | 1996-03-22 | 2001-05-14 | 松下電器産業株式会社 | 移動体無線通信システムとその移動局の位置検出方法 |
GB201704216D0 (en) * | 2017-03-16 | 2017-05-03 | Ranplan Wireless Network Design Ltd | WIFI multi-band fingerprint-based indoor positioning |
CN112584311B (zh) * | 2020-12-15 | 2022-08-05 | 西北工业大学 | 一种基于wknn融合的室内三维空间指纹定位方法 |
-
2021
- 2021-12-17 CN CN202111550033.XA patent/CN114513746B/zh active Active
-
2022
- 2022-05-11 JP JP2022077904A patent/JP7479715B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013025401A (ja) | 2011-07-15 | 2013-02-04 | Fujitsu Ltd | 自己位置推定装置、自己位置推定方法およびプログラム |
WO2019113749A1 (en) | 2017-12-11 | 2019-06-20 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for identifying and positioning objects around a vehicle |
CN109814066A (zh) | 2019-01-24 | 2019-05-28 | 西安电子科技大学 | 基于神经网络学习的rssi室内定位测距方法、室内定位平台 |
US20210255634A1 (en) | 2020-02-19 | 2021-08-19 | Ford Global Technologies, Llc | Vehicle device localization |
CN112867066A (zh) | 2021-01-26 | 2021-05-28 | 南京邮电大学 | 基于5g多小区深度强化学习的边缘计算迁移方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114513746A (zh) | 2022-05-17 |
CN114513746B (zh) | 2024-04-26 |
JP2023090610A (ja) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111047814B (zh) | 一种适用于地铁站火灾警情的智能疏散系统及方法 | |
JP7190842B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
CN105424030B (zh) | 基于无线指纹和mems传感器的融合导航装置和方法 | |
CN108445480A (zh) | 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法 | |
CN104394588B (zh) | 基于Wi‑Fi指纹和多维尺度分析的室内定位方法 | |
Kumar et al. | Indoor localization of vehicles using deep learning | |
CN109819406B (zh) | 一种基于众包的室内定位方法 | |
CN111856445B (zh) | 一种目标检测方法、装置、设备及系统 | |
CN110186458A (zh) | 基于os-elm融合视觉和惯性信息的室内定位方法 | |
CN111461251A (zh) | 基于随机森林与自编码器的WiFi指纹的室内定位方法 | |
Huan et al. | Indoor location fingerprinting algorithm based on path loss parameter estimation and bayesian inference | |
JP7479715B2 (ja) | 3重視覚照合とマルチ基地局回帰を融合した5g屋内スマート測位方法 | |
Zhang et al. | Towards floor identification and pinpointing position: A multistory localization model with wifi fingerprint | |
Kudo et al. | Utilizing WiFi signals for improving SLAM and person localization | |
CN110597077B (zh) | 一种基于室内定位实现场景智能切换的方法及系统 | |
WO2020124091A1 (en) | Automatic fine-grained radio map construction and adaptation | |
Wietrzykowski et al. | Adopting the FAB-MAP algorithm for indoor localization with WiFi fingerprints | |
WO2023220091A1 (en) | Monitored environment fingerprint modeling system | |
Simões et al. | A hybrid indoor positioning system using a linear weighted policy learner and iterative PDR | |
CN115767424A (zh) | 一种基于rss与csi融合的视频定位方法 | |
Ou et al. | A low-cost indoor positioning system based on data-driven modeling for robotics research and education | |
Liu et al. | ViFi-Loc: Multi-modal pedestrian localization using GAN with camera-phone correspondences | |
Ai et al. | Surround Mask Aiding GNSS/LiDAR SLAM for 3D Mapping in the Dense Urban Environment | |
Ju et al. | Machine Learning for Indoor Localization Without Ground-truth Locations | |
Kim et al. | Automatic wall slant angle map generation using 3D point clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7479715 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |