KR20210036845A - 실내 위치추정을 위한 준지도 변분 오토인코더 - Google Patents

실내 위치추정을 위한 준지도 변분 오토인코더 Download PDF

Info

Publication number
KR20210036845A
KR20210036845A KR1020200124312A KR20200124312A KR20210036845A KR 20210036845 A KR20210036845 A KR 20210036845A KR 1020200124312 A KR1020200124312 A KR 1020200124312A KR 20200124312 A KR20200124312 A KR 20200124312A KR 20210036845 A KR20210036845 A KR 20210036845A
Authority
KR
South Korea
Prior art keywords
neural network
encoder
decoder
predictor
autoencoder
Prior art date
Application number
KR1020200124312A
Other languages
English (en)
Inventor
치드로브스키 보리스
안츠펠드 레오니드
Original Assignee
네이버 주식회사
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사, 네이버랩스 주식회사 filed Critical 네이버 주식회사
Publication of KR20210036845A publication Critical patent/KR20210036845A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0252Radio frequency fingerprinting
    • G01S5/02521Radio frequency fingerprinting using a radio-map
    • G01S5/02522The radio-map containing measured values of non-radio values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0278Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves involving statistical or probabilistic considerations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • H04B17/318Received signal strength
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • H04W64/003Locating users or terminals or network equipment for network management purposes, e.g. mobility management locating network equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Quality & Reliability (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하기 위해 예측자를 학습시키는 방법은 실내 환경의 포지션들에서 무선 액세스 포인트들로부터 수신된 신호들의 강도를 포함하는 학습 데이터를 수신하는 단계 - 학습 데이터는 신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋 및 신호 강도 값들을 포함하고, 위치들을 나타내는 라벨들을 포함하지 않는 라벨링되지 않은 데이터의 서브셋을 포함함 - 학습 데이터의 신호 강도 값들의 재구성 손실을 최소화하도록 변분 오토인코더를 학습시키는 단계 - 변분 오토인코더는 인코더 신경망들 및 디코더 신경망들을 포함함 - 및 라벨링된 데이터에 대한 예측 손실을 최소화하도록 분류 신경망을 학습시키는 단계 - 분류 신경망은 잠재 변수에 기초하여 예측된 위치를 생성함 -를 포함하고, 인코더 신경망들 및 분류 신경망은 예측자를 형성한다.

Description

실내 위치추정을 위한 준지도 변분 오토인코더{SEMI-SUPERVISED VARIATIONAL AUTOENCODER FOR INDOOR LOCALIZATION}
관련 출원에 대한 상호 참조
본 출원은 2019년 9월 26일에 출원된 EP 출원 번호 제19306204.9호의 우선권을 주장한다. 참조된 출원의 전체 개시내용은 본 명세서에 참조로 포함된다.
기술 분야
본 개시내용은 실내 위치추정(indoor localization)을 위한 시스템들 및 방법들에 관한 것이며, 특히 실내 위치추정을 위한 변분 오토인코더(variational autoencoder)들에 관한 것이다.
본 명세서에 제공된 발명의 배경이 되는 기술 설명은 본 개시내용의 맥락을 일반적으로 제시하기 위한 것이다. 본 기술 배경 섹션에 기술된 범위에서, 본 발명의 발명가들의 연구뿐만 아니라 출원 당시의 종래 기술로서 달리 자격이 되지 않을 것인 본 설명의 양태들은, 본 개시내용에 반한 선행 기술로서 명시적으로도 또는 암시적으로도 인정되지 않는다.
전자 디바이스들의 많은 애플리케이션들이 전자 디바이스의 현재 포지션을 수신하는 데 의존하는데, 이는 실내 환경(이는 완전히 밀폐된 곳(예컨대, 건물 또는 지하 동굴 내부)일 수 있음) 또는 부분적으로 밀폐된 곳(예컨대, 주차장 또는 터널 내부)에서는 쉽게 이용 가능하지 않을 수 있다. 실내에서는, 위성과의 가시선(line of sight), GPS(global positioning system), 갈릴레오 또는 GLONASS 글로벌 내비게이션 위성 시스템과 같은 위성 신호들을 통한 포지셔닝이 이용 가능하지 않을 수 있다.
실내 포지셔닝은 무선 액세스 포인트들로부터 수신된 신호들에 의존할 수 있다. 모바일 에이전트 또는 디바이스의 위치를 추정하기 위해, 3개 이상의 근처 Wi-Fi 액세스 포인트들의 위치들을 알고 있는 경우 삼변측량 방법들을 사용할 수 있다. 그러나 Wi-Fi 액세스 포인트 포지션들이 다수의 다른 공급자들에 의해 배포될 수 있으므로, Wi-Fi 액세스 포인트 포지션들이 이용 가능하지 않거나, 최신 상태가 아닐 수 있다. 복잡한 실내 환경은 벽들이나 문들과 같은 장애물들을 포함할 수 있고, 빈번하게 이동하는 물체들을 포함할 수 있기 때문에, 신호 다중 경로의 영향은 Wi-Fi 신호들의 삼변측량을 어렵게 한다.
이 문제를 극복하는 한 가지 방법은 실내 포지셔닝을 위한 Wi-Fi 핑거프린팅(fingerprinting)을 채용하는 것이다. Wi-Fi 핑거프린팅은 한 포지션에서 수신된 다양한 액세스 포인트들로부터의 신호 강도들의 목록을 포함하며, 액세스 포인트들 자체의 정확한 위치를 아는데 의존하지 않는다. 건물의 무선(또는 신호) 지도를 얻기 위해 신호 강도들의 목록을 미리 수집할 수 있다. Wi-Fi 핑거프린팅이 제대로 작동하기 위해서는 무선 지도를 조밀하고 최신 상태로 만든다. 그러나 실내 포지셔닝을 위해 Wi-Fi 데이터에 좌표, 방 식별자 또는 건물 번호와 같은 지리적 태그들을 라벨링할 수 있기 때문에 무선 지도를 생성하는 데 비용이 많이 들 수 있다.
데이터 수집 및 주석 작업을 줄이는 것이 바람직하다.
준지도(semi-supervised) 기계 학습은 라벨링된(labeled) 데이터와 라벨링되지 않은(unlabeled) 데이터를 사용한 학습을 포함하며, 기계 학습(ML)에 사용된다. 기계 학습을 사용하여 오프라인 Wi-Fi 데이터 수집을 줄일 수 있다. 준지도 기계 학습에서, 시스템에는 데이터 포인트들(
Figure pat00001
)의 튜플들 및 라벨들이라고도 하는 주석들(
Figure pat00002
)을 포함하는 학습 세트(
Figure pat00003
)가 제공되고, 라벨링되지 않은 데이터 포인트들(
Figure pat00004
)이 추가적으로 제공된다. 시스템은 예측 오차를 최소화하는 최상의 함수 관계(
Figure pat00005
)를 추론한다. 이 문제는 또한 학습 세트의 공간보다 작은 잠재 변수(latent variable)(
Figure pat00006
)의 공간에서 매핑 함수(
Figure pat00007
)를 찾는 것으로 기술될 수 있다. 그러면 최상의 예측자(predictor)는 파라미터(
Figure pat00008
)를 갖는
Figure pat00009
의 함수
Figure pat00010
으로 정의될 수 있다.
준지도 학습은 라벨링되지 않은 데이터에 의해 제공되는 기본 데이터 세트의 분포에 대한 정보로 증강된 지도 학습으로 간주될 수 있다. 비록 라벨링되지 않은 데이터는 예측 목표로 예측자를 명시적으로 학습시키는 데 사용되지 않을 수 있지만, 2개의 데이터 포인트들이 고밀도 영역에서 가까우면 각각의 예측들도 가까워야 한다고 가정할 수 있기 때문에 라벨링되지 않은 데이터는 예측자의 예측을 향상시킬 수 있다. 마찬가지로, 데이터 포인트들이 데이터 포인트들의 분포의 동일한 클러스터에 있는 경우, 이들은 주석들의 공간에서 가까울 수 있는데, 예컨대 주석과 동일한 클래스 라벨을 갖는다.
변분 오토인코더(VAE)들은 심층 신경망들(deep neural networks)로 구현된 확률적 생성 모델들의 한 클래스이다. VAE들은 확률적 인코더 신경망과 디코더 신경망을 동시에 학습시킨다. VAE들은 균일한 사전 분포(
Figure pat00011
)로부터 잠재 변수(latent variable)(
Figure pat00012
)의 샘플을 도출하는 것을 포함한다. 잠재 변수들의 공간은 VAE들의 입력 및 출력보다 작은 차원일 수 있다. 샘플(
Figure pat00013
)은 디코더 신경망을 통과하여 오리지널 입력을 재구성한다.
VAE들은 잠재 변수에 대한 베이지안 사후 분포(Bayesian posterior distribution)인
Figure pat00014
를 학습하는 것을 목표로 하지만, 이는 풀기 쉬운(tractable) 식이 아니다. VAE들은 변분 추론을 채용하여 파라미터적 분포, 예를 들어, 인코더 신경망에 의해 파라미터들이 학습된 가우스 분포들에 의해
Figure pat00015
를 근사화한다. 과제는 학습 세트의 요소(
Figure pat00016
)를 생성할 가능성을 최대화하는 잠재 변수(z)를 찾는 것이다.
실내 포지셔닝을 위한 분류자(classifier)의 학습에서 라벨링된 데이터의 필요성을 감소시키는 것이 바람직하다.
본 개시내용은 라벨링될 소량의 학습 데이터만 필요로 하면서도 여전히 실내 포지셔닝을 위한 충분히 정확한 분류자를 생성하는 딥 러닝 기법을 제안한다. 제안된 딥 러닝 기법은 변분 오토인코더(VAE)에 기초한다. 제안된 딥 러닝 기법은 학습 데이터 세트의 1 내지 5% 정도의 낮은 주석 비율로 합리적으로 정확한 예측자들을 얻을 수 있게 한다.
일 실시예에 따르면, 실내 환경에서의 컴퓨팅 디바이스의 위치에 대한 예측자를 학습시키는 컴퓨터 구현 방법이 제공된다. 방법은 실내 환경의 포지션들에서 수신된 무선 액세스 포인트들로부터의 신호들의 강도와 관련된 학습 데이터를 수신하는 단계를 포함하며, 학습 데이터는, 신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋 및 신호 강도 값들만 포함하는 라벨링되지 않은 데이터를 포함한다. 방법은 학습 데이터의 신호 강도 값들의 재구성 손실을 최소화하도록 변분 오토인코더를 학습시키는 단계를 포함하며, 변분 오토인코더는 잠재 변수에 신호 강도 값들을 인코딩하는 인코더 신경망들 및 잠재 변수를 재구성 손실을 계산하기 위한 재구성된 신호 강도 값들로 디코딩하는 디코더 신경망들을 포함한다.
방법은 분류 신경망을 학습시켜 라벨링된 데이터에 대한 예측 손실을 최소화하는 단계를 더 포함하며, 분류 신경망은 잠재 변수를 채용하여 예측된 위치를 생성한다. 학습이 완료되면 인코더 신경망들과 분류 신경망은 실내 환경에서의 컴퓨팅 디바이스의 위치에 대한 예측자를 형성한다.
다른 실시예에 따르면, 실내 환경에서의 컴퓨팅 디바이스의 위치들에 대한 예측자를 학습시키는 추가의 컴퓨터 구현 방법이 제공된다. 방법은 실내 환경의 포지션들에서 수신된 무선 액세스 포인트들로부터의 신호들의 강도와 관련된 학습 데이터를 수신하는 단계를 포함하며, 학습 데이터는, 신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋 및 신호 강도 값들만 포함하는 라벨링되지 않은 데이터를 포함한다. 방법은 분류 신경망을 변분 오토인코더와 함께 학습시키는 단계를 포함하며, 분류 신경망은 학습 데이터의 신호 강도 값들을 입력으로서 수신하고, 예측된 위치를 변분 오토인코더의 디코더 신경망들에 출력한다. 변분 오토인코더와 함께 분류 신경망을 학습시키는 단계는 재구성 손실 및 예측 손실을 최소화하는 것에 기초하며, 재구성 손실은 학습 데이터의 신호 강도 값들과 재구성된 신호 강도 값들 사이에서 계산되고, 예측 손실은 예측된 위치와 학습 데이터의 라벨링된 데이터 서브셋에 대한 위치 라벨들 사이에서 계산된다. 학습이 완료된 후에, 분류 신경망은 실내 환경에서의 컴퓨팅 디바이스의 위치에 대한 예측자를 형성한다.
일 양태에 따르면, 예측된 위치를 변분 오토인코더의 디코더 신경망들에 출력하는 것은 예측된 위치를 범주형 잠재 변수로서 디코더 신경망들에 출력하는 것을 포함하며, 변분 오토인코더는 신호 강도 값들을 연속 잠재 변수로 인코딩하는 인코더 신경망들을 포함하고, 디코더 신경망들은 범주형 잠재 변수 및 연속 잠재 변수를 재구성된 신호 강도 값들로 디코딩한다.
일 양태에 따르면, 재구성 손실 및 예측 손실을 최소화하는 것은 인코더 신경망들의 제1 은닉된 상태들, 디코더 신경망들의 제2 은닉된 상태들 및 분류 신경망의 제3 은닉된 상태들에 대한 제1 항 및 제2 항의 합의 기울기들을 결정하는 것을 포함하며, 제1 항은 학습 데이터에 대한 재구성 손실을 측정하고, 제2 항은 학습 데이터의 라벨링된 데이터의 서브셋에 대한 예측 손실을 측정한다.
다른 양태에 따르면, 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망, Z 좌표에 대한 인코더 신경망을 포함하고, 디코더 신경망들은 대응하는 디코더 네트워크들을 포함한다. 오토인코더를 학습시키는 단계는 좌표에 대한 각각의 인코더-디코더 쌍을 다른 좌표들에 대한 인코더-디코더 쌍들과 독립적으로 학습시키는 단계를 포함할 수 있다.
일 양태에 따르면, X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망, 및 Z 좌표에 대한 인코더 신경망의 출력들이 연결되어(concatenated) 잠재 변수를 형성한다.
일 실시예에 따르면, 실내 환경에서의 컴퓨팅 디바이스의 위치들에 대한 예측자가 제공되고, 예측자는 하나 이상의 컴퓨터들에 의해 구현된다. 예측자는 잠재 변수에 신호 강도 값들을 인코딩하는 인코더 신경망들을 포함한다. 예측자는 잠재 변수를 채용하여 컴퓨팅 디바이스의 예측된 위치를 생성하는 분류 신경망을 포함하며, 인코더 신경망들은 대응하는 디코더 신경망들과 함께 재구성 손실을 최소화하기 위한 변분 오토인코더로서 학습되었으며, 분류 신경망은 예측 손실을 최소화하도록 학습되었다.
다른 실시예에 따르면, 실내 환경에서의 컴퓨팅 디바이스의 위치들에 대한 예측자가 제공되며, 예측자는 하나 이상의 컴퓨터들에 의해 구현된다. 예측자는 분류 신경망을 포함하며, 분류 신경망은 신호 강도 값들로부터 예측된 위치를 생성한다. 분류 신경망은 변분 오토인코더와 함께 학습되었으며, 학습 중에 분류 신경망은 예측된 위치를 변분 오토인코더의 디코더 신경망들에 출력하며, 분류 신경망을 변분 오토인코더와 함께 학습시키는 것은 재구성 손실 및 예측 손실을 최소화하는 것에 기초한다.
일 양태에 따르면, 변분 오토인코더와 함께 분류 신경망을 학습시키는 동안, 예측된 위치는 변분 오토인코더의 범주형 잠재 변수이다.
일 양태에 따르면, 재구성 손실 및 예측 손실을 최소화하는 것은 변분 오토인코더의 인코더 신경망들의 제1 은닉된 상태들, 디코더 신경망들의 제2 은닉된 상태들 및 분류 신경망의 제3 은닉된 상태들에 대한 제1 항 및 제2 항의 합의 기울기들을 결정하는 것을 포함하며, 제1 항은 재구성 손실을 측정하고, 제2 항은 예측 손실을 측정한다.
일 양태에 따르면, 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망, Z 좌표에 대한 인코더 신경망을 포함하고, 디코더 신경망은 대응하는 디코더 네트워크들을 포함하며, 좌표에 대한 각각의 인코더-디코더 쌍은 다른 좌표들에 대한 인코더-디코더 쌍들과 독립적으로 학습된다.
또 다른 양태에 따르면, 예측 라벨들은 위치 좌표를 나타내는 다변량 데이터 값들이고, 예측 손실은 회귀 손실이다.
또 다른 양태에 따르면, 예측자는 예측 라벨들의 다변량 데이터 값에 의해 표시된 절대 좌표에 가중된 이웃 투영(weighted neighborhood projection)을 적용하도록 구성된 투영 컴포넌트를 포함하며, 가중된 이웃 투영은 라벨링된 노드들의 서브셋으로부터의 다수의 최근접 이웃 노드들을 채용한다. 실시예들에서, 최근접 이웃 노드들의 개수는 2개일 수 있다.
다른 실시예에 따르면, 컴퓨터 판독가능 저장 매체가 제공되며, 컴퓨터 판독가능 저장 매체에는, 하나 이상의 프로세서들에 의해 실행될 때, 전술된 바와 같이, 실내 환경에서의 컴퓨팅 디바이스의 위치에 대한 예측자를 학습시키는 방법을 수행하는 컴퓨터 실행가능 명령어들이 저장된다. 실시예들에 따르면, 컴퓨터 실행가능 명령어들은 전술된 실시예들에 따라 기술된 바와 같이 실내 환경에서의 컴퓨팅 디바이스의 위치에 대한 예측자를 제공할 수 있다.
일 특징에서, 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 학습시키는 컴퓨터 구현 방법이 기술된다. 방법은 실내 환경의 포지션들에서 무선 액세스 포인트들로부터 수신된 신호들의 강도를 포함하는 학습 데이터를 수신하는 단계 - 학습 데이터는: 신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋; 및 신호 강도 값들을 포함하고, 위치들을 나타내는 라벨들을 포함하지 않는 라벨링되지 않은 데이터의 서브셋을 포함함 -; 학습 데이터의 신호 강도 값들의 재구성 손실을 최소화하도록 변분 오토인코더를 학습시키는 단계 - 변분 오토인코더는: 잠재 변수에 신호 강도 값들을 인코딩하도록 구성된 인코더 신경망들; 및 재구성 손실을 판정하기 위해 재구성된 신호 강도 값들로 잠재 변수를 디코딩하도록 구성된 디코더 신경망들을 포함함 -; 및 라벨링된 데이터에 대한 예측 손실을 최소화하도록 분류 신경망을 학습시키는 단계 - 분류 신경망은 잠재 변수에 기초하여 예측된 위치를 생성했음 - 를 포함하고, 인코더 신경망들 및 분류 신경망은 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 형성한다.
일 특징에서, 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 학습시키는 컴퓨터 구현 방법이 기술된다. 방법은: 실내 환경의 포지션들에서 무선 액세스 포인트들로부터 수신된 신호들의 강도와 관련된 학습 데이터를 수신하는 단계 - 학습 데이터는: 신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋; 및 신호 강도 값들을 포함하고 위치들을 나타내는 라벨들을 포함하지 않는 라벨링되지 않은 데이터의 서브셋을 포함함 -; 및 변분 오토인코더와 공동으로 분류 신경망을 학습시키는 단계를 포함하고, 분류 신경망은 학습 데이터의 신호 강도 값들을 입력으로서 수신하고, 예측된 위치를 변분 오토인코더의 디코더 신경망들에 출력하도록 구성되고, 변분 오토인코더와 함께 분류 신경망을 학습시키는 단계는 재구성 손실 및 예측 손실을 최소화하는 단계를 포함하고, 재구성 손실은 학습 데이터의 신호 강도 값들과 재구성된 신호 강도 값들 사이에서 계산되고, 예측 손실은 예측된 위치와 학습 데이터의 라벨링된 데이터의 서브셋에 대한 위치 라벨들 사이에서 계산되고, 분류 신경망은 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 형성한다.
추가의 특징들에서, 분류 신경망은 예측된 위치를 변분 오토인코더의 디코더 신경망들에게 범주형 잠재 변수로서 출력하도록 구성된다.
추가의 특징들에서, 변분 오토인코더는 신호 강도 값들을 연속 잠재 변수에 인코딩하도록 구성된 인코더 신경망들을 포함한다.
추가의 특징들에서, 디코더 신경망들은 범주형 잠재 변수 및 연속 잠재 변수를 재구성된 신호 강도 값들로 디코딩한다.
추가의 특징들에서, 재구성 손실 및 예측 손실을 최소화하는 단계는, 인코더 신경망들의 제1 은닉된 상태들, 디코더 신경망들의 제2 은닉된 상태들, 및 분류 신경망의 제3 은닉된 상태들에 대한 제1 항 및 제2 항의 합의 그레이디언트들을 결정하는 것을 포함한다.
추가의 특징들에서, 제1 항은 학습 데이터에 대한 재구성 손실을 측정하고, 제2 항은 라벨링된 데이터의 서브셋에 대한 예측 손실을 측정한다.
추가의 특징들에서, 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망, 및 Z 좌표에 대한 인코더 신경망을 포함한다.
추가의 특징들에서, 디코더 신경망들은 X 좌표에 대한 디코더 신경망, Y 좌표에 대한 디코더 신경망, 및 Z 좌표에 대한 디코더 신경망을 포함한다.
추가의 특징들에서, 변분 오토인코더를 학습시키는 단계는, Y 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로, 그리고 Z 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로, X 좌표에 대한 인코더 신경망 및 디코더 신경망을 학습시키는 단계를 포함한다.
추가의 특징들에서, 변분 오토인코더를 학습시키는 단계는, Z 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로 Y 좌표에 대한 인코더 신경망 및 디코더 신경망을 학습시키는 단계를 포함한다.
추가의 특징들에서, X 좌표에 대한 인코더 신경망의 출력, Y 좌표에 대한 인코더 신경망의 출력, 및 Z 좌표에 대한 인코더 신경망의 출력은 연결되어 잠재 변수를 형성한다.
일 특징에서, 예측자는 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성되며, 예측자는 하나 이상의 프로세서들 및 코드에 의해 구현된다. 예측자는: 잠재 변수에 신호 강도 값들을 인코딩하도록 구성된 인코더 신경망들; 및 잠재 변수에 기초하여 컴퓨팅 디바이스의 위치에 대한 예측된 위치를 생성하도록 구성된 분류 신경망을 포함하고, 인코더 신경망들은 재구성 손실을 최소화하기 위해 변분 오토인코더로서 디코더 신경망들과 공동으로 학습되고, 분류 신경망은 예측 손실을 최소화하도록 학습된다.
일 특징에서, 예측자는 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성되며, 예측자는 하나 이상의 프로세서들 및 코드에 의해 구현된다. 예측자는: 신호 강도 값들로부터 예측된 위치를 생성하도록 구성된 분류 신경망을 포함하고, 분류 신경망은 재구성 손실 및 예측 손실을 최소화하는 것에 기초하여 변분 오토인코더와 함께 학습되며, 학습 중에, 분류 신경망은 예측된 위치를 변분 오토인코더의 디코더 신경망들에 출력한다.
추가의 특징들에서, 변분 오토인코더와 함께 분류 신경망을 학습시키는 동안, 예측된 위치는 변분 오토인코더의 범주형 잠재 변수이다.
추가의 특징들에서, 분류 신경망이 재구성 손실 및 예측 손실을 최소화하는 것에 기초하여 변분 오토인코더와 함께 학습되는 것은 변분 오토인코더의 인코더 신경망들의 제1 은닉된 상태들, 디코더 신경망들의 제2 은닉된 상태들, 및 분류 신경망의 제3 은닉된 상태들에 대한 제1 항 및 제2 항의 합의 그레이디언트들을 결정하는 것을 포함한다.
추가의 특징들에서, 제1 항은 재구성 손실을 측정하고, 제2 항은 예측 손실을 측정한다.
추가의 특징들에서, 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망, 및 Z 좌표에 대한 인코더 신경망을 포함하고, 디코더 신경망들은 X 좌표에 대한 디코더 신경망, Y 좌표에 대한 디코더 신경망, 및 Z 좌표에 대한 디코더 신경망을 포함한다.
추가의 특징들에서, X 좌표에 대한 인코더 신경망 및 디코더 신경망은 Y 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로, 그리고 Z 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로 학습되고, Y 좌표에 대한 인코더 신경망 및 디코더 신경망은 Z 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로 학습된다.
추가의 특징들에서, 예측 라벨들은 위치 좌표를 나타내는 다변량 데이터 값들이고, 예측 손실은 회귀 손실이다.
추가의 특징들에서, 하나 이상의 프로세서들은 예측 라벨들의 다변량 데이터 값에 의해 표시된 절대 좌표에 가중된 이웃 투영을 적용하도록 구성되며, 가중된 이웃 투영은 라벨링된 노드들의 서브셋으로부터의 다수의 최근접 이웃 노드들을 채용한다.
추가의 특징들에서, 최근접 이웃 노드들의 개수는 2개이다.
본 개시의 추가의 적용 분야들은 발명을 실시하기 위한 구체적인 내용, 청구 범위 및 도면으로부터 명백해질 것이다. 발명을 실시하기 위한 구체적인 내용 및 특정 예시들은 단지 예시를 위한 것이며, 본 개시의 범위를 제한하려는 것이 아니다.
본 개시내용은 발명을 실시하기 위한 구체적인 내용 및 하기의 첨부 도면들로부터 보다 완전히 이해될 것이다.
도 1은 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 것에 관한 개략도이다.
도 2는 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 것에 관한 개략도이다.
도 3은 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 방법의 흐름도이다.
도 4는 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 방법의 흐름도이다.
도 5는 Wi-Fi 기반 실내 위치추정을 위한 예측자의 실시예들에서 구현된 구조화된 회귀분석의 방법을 도시낸다.
도 6a는 Wi-Fi 기반 실내 위치추정을 위한 예측자의 테스트에 채용된 건물들의 항공 이미지이다.
도 6b는 항공 이미지에서 건물들을 하이라이트한다.
도 6c는 건물들에서의 Wi-Fi 액세스 포인트들의 분포를 도시한다.
도 7a는 실내 Wi-Fi 위치추정 방법들에 대한 주석 비율에 따른 위치 오차의 플롯들을 도시한다.
도 7b는 다양한 주석 비율들을 갖는 일 실시예에 따라 학습된 예측자에 대한 위치 오차의 누적 밀도 함수들을 도시한다.
도 8은 주석 비율 및 테스트 시간에 액세스 포인트들의 가용성에 따라 실시예들에 따른 예측자들의 위치추정 오차를 도시한다.
도 9a 및 도 9b는 변분 오토인코더에 의한 Wi-Fi 신호들의 재구성의 t-분산 확률적 이웃 임베딩(t-distributed stochastic neighbor embedding)을 도시한다.
도 10은 개시된 방법들이 수행될 수 있는 예시적인 아키텍처를 도시한다.
도면들에서, 참조 번호들은 유사하고/하거나 동일한 요소들을 식별하기 위해 재사용될 수 있다.
라벨링된 학습 데이터의 작은 부분만을 필요로 하는 준지도 학습 방식으로 Wi-Fi 기반 실내 위치추정을 위한 딥 러닝 시스템을 학습시키는 시스템이 다음과 같이 기술될 것이다. 설명을 목적으로, 예시들 및 특정 상세사항들이 실시예들의 완전한 이해를 제공하기 위해 제시된다. 실시예들은 이들 예시들의 특징들 중 일부 또는 전부를 단독으로 또는 아래에 기술된 다른 특징들과 조합하여 포함할 수 있고, 본 명세서에 기술된 특징들 및 개념들의 수정들 및 동등성들을 더 포함할 수 있다. 이하의 설명은 도 1 내지 도 10을 참조하여, 예시적인 실시예들 및 예시적인 기술적 이점들을 상세히 설명한다.
도 1 및 도 2의 시스템들을 학습시키는 것은 라벨링된 데이터의 서브셋(
Figure pat00017
)을 포함하는 학습 데이터를 채용한다.
Figure pat00018
은 라벨링된 데이터의 개수이며, 벡터(
Figure pat00019
)은 각각 Wi-Fi 액세스 포인트들(
Figure pat00020
) 중 하나로부터 수신된 신호 강도 값들의 벡터들이다. 변수들(
Figure pat00021
)은 절대 좌표들을 나타내는 범주형 변수들(categorical variables) 또는 다변량 변수들(multivariate variables)일 수 있는 주석이다.
Figure pat00022
가 범주 값들인 전자의 경우, 예측자를 학습시키기 위한 실시예들에 의해 해결되는 문제는 분류 문제이다. 후자의 경우,
Figure pat00023
는 절대 좌표들을 나타내는 다변량 데이터이며, 실시예들은 회귀분석 설정(regression setting)과 관련된다.
학습 데이터는 신호 강도 값들(
Figure pat00024
)의 컬렉션을 포함하는 라벨링되지 않은 데이터 값들(
Figure pat00025
)을 포함한다. 이하에서, 라벨링된 데이터의 분포는
Figure pat00026
에 의해 표현되고, 라벨링되지 않은 데이터의 분포는
Figure pat00027
에 의해 표현된다. 준지도 학습 방법의 기본 가정은
Figure pat00028
Figure pat00029
Figure pat00030
의 동일한 분포로부터 샘플링된다는 것이다.
특히, 본 명세서에 기술된 예시적인 실시예들은
Figure pat00031
인 경우에도 정확한 예측자를 생성할 수 있게 한다. 분수(
Figure pat00032
)는 주석 비율로도 지칭된다. 주석 비율은 학습 데이터에서 라벨링된 데이터와 라벨링되지 않은 데이터의 비율에 대응한다.
본 명세서에 기술된 학습 방법들 및 시스템들은 변분 오토인코더들에 기초한다. 변분 오토인코더들의 예시들은 “딥-생성 모델들을 이용한 준지도 학습(Semi-supervised Learning with Deep Generative Models)”arXiv: 1406.5298v2, Kingma et. al에 기술되어 있다.
본 출원은 Wi-Fi 기반과 같은, 실내 포지셔닝을 위한 분류자를 학습시키기 위해 변분 오토인코더(VAE)의 학습을 채용하는 개념에 기초한다. VAE의 인코더는, 라벨들이 이용가능한 경우, 라벨링된 데이터의 분류자 또는 회귀자(regressor) 역할을 하고, VAE의 디코더는 정규화기(regularizer) 역할을 한다. 변분 오토인코더들은 인코딩된 입력 신호 강도들을 잠재 공간에 임베딩하는 인코딩 및 위치 예측을 동시에 학습한다. 인코딩은 모든 학습 데이터로부터 학습되는 한편, 위치 예측은 학습 데이터의 라벨링된 서브셋으로부터 학습된다.
학습된 VAE는 입력 데이터의 잠재 공간 표현을 최적화하여 그의 재구성, 분류 작업이 해결되게 하고, 입력 데이터를 발생시키는 위치를 결정하는 것을 포함하고, 더 적은 라벨링된 데이터 포인트들로 학습될 수 있다.
도 1은 실내 환경에서의 컴퓨팅 디바이스의 포지션의 예측자를 학습시키는 시스템(100)을 포함한다. 도 3은 시스템(100)을 채용하는 실내 환경에서의 컴퓨팅 디바이스의 포지션에 대해 예측자를 학습시키기 위한 방법의 흐름도를 도시한다.
시스템(100)은 하나 이상의 프로세서들과 같은 하나 이상의 컴퓨터들에 의해 구현될 수 있다. 시스템(100)은 인코더 신경망(122) 및 디코더 신경망(124)을 포함하는 변분 오토인코더(12)를 포함한다.
(예컨대, VAE의) 예측자의 학습을 위해, 시스템(100)에는
Figure pat00033
Figure pat00034
를 포함하는 학습 데이터가 제공된다.
Figure pat00035
는 학습 데이터의 라벨링되지 않은 포인트들이고,
Figure pat00036
는 학습 데이터의 라벨링된 데이터 포인트들이다.
Figure pat00037
Figure pat00038
로부터 모든 신호 강도 데이터를 수집하는 신호 강도 값들의 세트(
Figure pat00039
)가 인코더 신경망(122)에 제공된다. 인코더 신경망(122)은
Figure pat00040
의 잠재 변수 분포에서 각각의
Figure pat00041
를 인코딩한다. 인코더 신경망(122)은 잠재 변수(
Figure pat00042
)의 분포의 파라미터들(
Figure pat00043
,
Figure pat00044
)을 결정할 수 있다. 디코더 신경망들(124)은 재구성된 신호 강도 값들(
Figure pat00045
)을 생성하기 위해
Figure pat00046
에서의 잠재 변수 분포로부터의 샘플들(
Figure pat00047
)을 채용한다.
시스템(100)은 위치 예측(
Figure pat00048
)을 생성하기 위해 잠재 변수 분포로부터의 샘플(
Figure pat00049
)을 채용하는 분류 신경망(16)을 더 포함한다. 실시예들에서, 학습 데이터의 라벨들(
Figure pat00050
)은 건물 번호들, 방 식별자들 및/또는 층수들과 같은 위치들을 나타내는 범주형 변수일 수 있으며, 예측된 위치는 대응하는 범주형 값이다. 대안적으로, 학습 데이터의 라벨들은 지점의 고도와 함께 위도 좌표 및 경도 좌표를 제공하는 3D 좌표를 나타내는 다변량 데이터일 수 있으며, 예측된 위치는 대응하는 다변량 데이터 값이다.
도 1은 잠재 특징 변별 모델(latent feature discriminative model)을 포함하는 제1 예시적인 실시예를 나타낸다. 제1 실시예는 다음에 따른 생성 모델에 기초한다.
Figure pat00051
여기서,
Figure pat00052
는 평균이 0이고, 단위 행렬(
Figure pat00053
)을 분산으로 가지는 가우시안 분포이다. 함수(
Figure pat00054
)는 생성 파라미터(
Figure pat00055
)를 갖는 비선형 우도 함수(likelihood function)이다. 함수(
Figure pat00056
)는 확률이 디코더 신경망들(124)에 의해 형성되는 가우시안 분포일 수 있으며, 생성 파라미터(
Figure pat00057
)는 디코더 신경망들(124)의 은닉된 상태들(hidden states)에 대응한다.
분포(
Figure pat00058
)는 잠재 변수(
Figure pat00059
)의 사전 분포이다. 정확한 사후 분포는 다루기 힘들 수 있기(intractable) 때문에, 변분 오토인코더(12)는 사후 분포에 대한 파라미터적 근사치를 채용할 수 있다. 변분 오토인코더(12)는 아래에 설명된 바와 같이 파라미터적 근사치와 정확한 사후 분포 간의 차이를 최소화하도록 학습된다. 변분 오토인코더(12)에 적용된 모델에 따르면, 잠재 변수(
Figure pat00060
)의 사후 분포는 다음의 파라미터적 가우시안 분포로 근사된다.
Figure pat00061
여기서, 파라미터들(
Figure pat00062
Figure pat00063
)은 인코더 신경망들(122)에 의해 생성된다. 수학식 2는 잠재 변수(
Figure pat00064
)의 잠재 변수 분포를 정의한다. 파라미터들(
Figure pat00065
)은 인코더 신경망들(122)의 은닉된 상태들에 대응하는 변분 파라미터들이다. 수학식 2는 변분 오토인코더의 추론 모델을 정의한다.
변분 오토인코더(12)는 아래의 손실을 최소화하기 위해 은닉된 상태들(
Figure pat00066
Figure pat00067
)을 조정함으로써 학습된다.
Figure pat00068
여기서, KL은 잠재 변수(
Figure pat00069
)의 사후 분포(
Figure pat00070
)와 사전 분포(
Figure pat00071
) 사이의 쿨백 라이블러 발산(Kullback-Leibler divergence)이다.
학습 하에서, 분류 신경망(16)은 인코더 신경망(122)의 출력으로부터 추론/판정된 잠재 변수(
Figure pat00072
)의 잠재 변수 분포로부터 샘플(
Figure pat00073
)을 수신하도록 구성된다. 인코더 신경망(122)의 출력은
Figure pat00074
를 인코딩한다.
분류 신경망(16)은 샘플(
Figure pat00075
)로부터 예측된 라벨(
Figure pat00076
)을 생성한다. 분류 신경망(16)은 예측된 라벨(
Figure pat00077
)과 라벨(
Figure pat00078
) 사이의 차이를 최소화하도록 학습될 수 있다. 이러한 방식으로, 인코더 신경망(122)에 의해 생성된 근사치 사후 분포(
Figure pat00079
)는 분류 신경망(16)을 학습시키기 위해, 라벨링된 데이터(
Figure pat00080
)에 대한 특징 추출기로서 사용된다.
따라서, 실내 환경에서의 컴퓨팅 디바이스의 위치에 대해 도 1에 따른 예측자를 학습시키기 위한 방법(300)은, 32에서, 하나 이상의 프로세서들에 의해, 라벨링된 데이터(
Figure pat00081
) 및 라벨링되지 않은 데이터(
Figure pat00082
)를 포함하는 학습 데이터를 수신하는 단계를 포함한다. 학습 데이터를 수신하는 단계는 라벨링되지 않은 데이터를 크라우드 소싱(crowd-sourcing)으로부터 또는 브라우징 로봇을 채용하여 얻는 단계를 포함할 수 있다.
34에서, 하나 이상의 프로세서들은 인코더 신경망들(122) 및 디코더 신경망들(124)을 포함하는 오토인코더를 학습시키며, 예를 들어, 확률적 경사 하강법(stochastic gradient descent)에 의해 신호 강도 값들(
Figure pat00083
) 및 재구성된 신호 강도 값들(
Figure pat00084
) 사이에서 산출된 손실(
Figure pat00085
)을 최소화하는 것을 포함한다. 손실을 최소화하는 것은 하나 이상의 프로세서들이 손실을 최소화하기 위해 생성 파라미터들(
Figure pat00086
) 및 변형 파라미터들(
Figure pat00087
) 중 하나 이상을 선택적으로 조정하는 것을 포함할 수 있다.
방법(300)은, 36에서, 하나 이상의 프로세서들이 라벨링된 데이터(
Figure pat00088
)에 대한 예측 오차(Err)를 최소화하기 위해 분류 신경망(16)을 학습시키는 것을 포함한다. 분류 신경망(16)은 입력(
Figure pat00089
) 그 자체 대신에 잠재 변수(
Figure pat00090
)의 잠재 변수 분포에 따라 입력(
Figure pat00091
)의 인코더 표현을 채용할 수 있기 때문에, 분류 신경망(16)은
Figure pat00092
인 경우에도 높은 정확도를 달성할 수 있다. 이는
Figure pat00093
의 잠재 공간에서 데이터 포인트들의 분리성이 향상되었기 때문일 수 있다.
시스템(100)의 학습 후에, 분류 신경망(16)이 전자 디바이스의 위치에 대한 예측자로서 인코더 신경망(122)과 함께 채용될 수 있다. 일단 학습되면, 분류 신경망(16) 및 인코더 신경망(122)은 전자 디바이스의 (현재) 위치를 예측/결정하도록 구성된다.
일 예시에서, 신호 강도 값들(
Figure pat00094
)은 전자 디바이스에 의해 수신되고, 그로부터 예측자에게 제공된다. 예측자의 학습된 인코더 신경망(122)은
Figure pat00095
을 수신하고, 최적화된 은닉된 파라미터들(
Figure pat00096
)을 채용하는 파라미터들(
Figure pat00097
Figure pat00098
)을 생성한다. 샘플(
Figure pat00099
)이 학습된 분류 신경망(16)에 제공되고, 학습된 분류 신경망(16)은 예측자의 출력으로서 예측 라벨(
Figure pat00100
)을 생성한다.
도 2는 예시적인 실시예에 따른 실내 위치추정을 위한 예측자를 학습시키기 위한 시스템(200)에 대한 개략도를 도시한다. 도 4는 도 2의 시스템을 채용하는 실내 환경에서의 컴퓨팅 디바이스의 포지션에 대해 예측자를 학습시키기 위한 방법의 흐름도를 도시한다. 도 1 및 도 3을 참조하여 설명된 실시예와 유사하게, 도 2에 따른 시스템은 라벨링된 데이터의 서브셋(
Figure pat00101
) 및 라벨링되지 않은 데이터의 서브셋(
Figure pat00102
)을 포함하는 학습 데이터(DT)를 채용한다.
시스템(200)은 인코더 신경망(222) 및 디코더 신경망(224)을 갖는 변분 오토인코더(22)를 포함한다. 인코더 신경망(222)은 신호 강도 값들(
Figure pat00103
)을 수신하고, 분류 신경망(26)과 함께 잠재 변수(
Figure pat00104
)의 잠재 변수 분포의 파라미터들(
Figure pat00105
)을 결정한다. 잠재 변수(
Figure pat00106
)의 잠재 변수 분포의 샘플(
Figure pat00107
)로부터, 디코더 신경망(224)은
Figure pat00108
를 재구성한다.
분류 신경망(26)은 학습 데이터의 신호 강도 값들(
Figure pat00109
)을 입력으로 수신하고, 잠재 변수(
Figure pat00110
)의 잠재 변수 분포의 파라미터들을 추론한다. 샘플(
Figure pat00111
)이 잠재 변수(
Figure pat00112
)의 잠재 변수 분포로부터 도출되고, 변분 오토인코더의 디코더 신경망들(224)에 제공된다.
라벨링되지 않은 서브셋(
Figure pat00113
)을 채용하는 도 2의 시스템(200)을 학습하는 경우, 변수(
Figure pat00114
)는 변분 오토인코더의 은닉된 변수로 취급되는 한편,
Figure pat00115
로 학습하는 경우, 변수(
Figure pat00116
)는 입력 변수이다.
도 2의 예시에 따르면, 예측자의 학습은 지도(supervised) 생성 모델의 오토인코더에 기초한다. 예측들은 잠재 연속 변수(
Figure pat00117
)에 추가하여 잠재 클래스 변수(
Figure pat00118
)를 사용하여 생성된다. 생성 모델은 다음과 같으며,
Figure pat00119
이에 의해 원래 입력의 공간에서의 상태들(
Figure pat00120
), 즉 무선 강도 신호들(
Figure pat00121
)이 잠재 연속 변수(
Figure pat00122
)와 잠재 클래스 변수(
Figure pat00123
)로부터 재구성된다. 파라미터들(
Figure pat00124
)은 생성 모델의 은닉된 상태들이고, 함수(
Figure pat00125
)는 비선형 우도 함수이다. 함수(
Figure pat00126
)는 은닉된 상태들(
Figure pat00127
)을 갖는 디코더 신경망들(224개)에 의해 구현된다.
도 2의 예시에서 라벨들(
Figure pat00128
)의 사전 분포는 다음과 같이 가정된다.
Figure pat00129
여기서, Cat는 요소들의 합이 1인 확률 벡터(
Figure pat00130
)가 있는 다항 분포이다.
Figure pat00131
는 미리 알려진 클래스들의 세트이며, 작업에 따라 결정될 수 있다. 따라서, 라벨들(
Figure pat00132
)은 클래스들(
Figure pat00133
)의 세트로부터 샘플링될 수 있다.
도 1의 예시와 유사하게, 도 2의 예시는 정확한 사후 분포에 대한 파라미터적 근사치를 채용한다.
Figure pat00134
의 파라미터적 근사치는 다음과 같다.
Figure pat00135
수학식 5는 잠재 변수(
Figure pat00136
)의 잠재 변수 분포를 정의하고, 오토인코더의 추론 모델을 정의한다. 도 2의 예시에 따르면, 파라미터(
Figure pat00137
)는 인코더 신경망(222)에 의해 생성되며, 파라미터(
Figure pat00138
)는 인코더 신경망(222) 및 분류 신경망(26)에 의해 공동으로 추정된다.
분류 신경망(26)은 다음의 식에 따라 잠재 변수(
Figure pat00139
)의 잠재 변수 분포의 파라미터들인 확률들(
Figure pat00140
)을 생성한다.
Figure pat00141
수학식 6은 잠재 변수(y)의 잠재 변수 분포를 정의한다. 수학시 6은 변별 분류자를 정의하는 것으로 볼 수 있다. 표기의 간결함을 위해, 분류 신경망(26)의 은닉된 상태들은
Figure pat00142
에 포함된 것으로 가정한다. 후술되는 바와 같은 학습 하에서, 도 2의 예시에 따른 학습은 사용된 근사치들 하에서 최적의 분류자를 얻을 수 있게 한다.
따라서, 도 2의 예시에 따른 시스템의 학습 동안, 수학식 5의
Figure pat00143
은 분류 신경망(26)에 의해 라벨링된 데이터로부터 추정되고, 인코더 신경망(222)에 의해 라벨링되지 않은 데이터로부터 추정된다.
도 2의 실시예에 따른 학습은 하기의 식을 평가하는 것을 포함한다.
Figure pat00144
여기서, 우변의 제1 항(first term)과 제2 항(second term)은 오토인코더 모델이 학습 데이터를 재현할 가능성의 하한으로부터 발생한다. 수학식 7의 우변의 제1 항은 라벨링된 데이터의 분포(
Figure pat00145
)를 채용하여 하기의 식을 평가한다.
Figure pat00146
여기서,
Figure pat00147
Figure pat00148
는 각각 수학식 4의 파라미터(
Figure pat00149
) 및
Figure pat00150
에 대응하고, 파라미터들(
Figure pat00151
)에 의존할 수 있다. 라벨링된 데이터에 대한 수학식 8의 평가는 라벨링된 데이터(
Figure pat00152
)를 오토인코더(22) 및 분류 신경망(26)에 공급하는 것을 포함하며, 이에 의해 변수(
Figure pat00153
)는 입력 변수로 취급된다.
수학식 7의 우변의 제2 항은 라벨링되지 않은 데이터(
Figure pat00154
)의 분포(
Figure pat00155
)를 채용하여 하기의 식을 평가한다.
Figure pat00156
여기서,
Figure pat00157
는 딥 러닝 네트워크의 도움으로 학습 단계 도중 학습할 수 있는 사후 분포이다. 이것은 랜덤한 것(예컨대, 값)으로 시작될 수 있으며, 학습 중에 재평가됨으로써 최종의 것(예컨대, 값)으로 수렴할 수 있다. 라벨링되지 않은 데이터에 대한 수학식 9의 평가는 라벨링되지 않은 데이터(
Figure pat00158
)를 오토인코더(22) 및 분류 신경망(26)에 공급하는 것을 포함하며, 이에 의해 변수(
Figure pat00159
)는 잠재 변수로 취급된다.
인코더 신경망(222), 디코더 신경망(224) 및 분류 신경망(26)은 하기의 식의 손실을 최소화하도록 학습된다.
Figure pat00160
여기서,
Figure pat00161
는 수학식 7에 따라 정의되고,
Figure pat00162
는 라벨링된 데이터에 대한 예측 손실이다. 수학식 10에서, 값(
Figure pat00163
)은 학습 과정에서 생성 모델의 기여도들과 변별 모델의 기여도들 사이의 트레이드 오프(trade-off)를 반영하는 미리 결정된 값이다.
도 2의 예시에 따른 예측자를 학습시키는 것은 제1 항과 제2 항의 합을 최소화하는 것에 기초하며, 제1 항은 학습 데이터에 대한 재구성 손실을 측정하고, 제2 항은 학습 데이터의 라벨링된 서브셋에 대한 예측 손실을 측정한다.
일 예시에서, 라벨들(
Figure pat00164
)은 예를 들어 방 번호들 또는 위치의 다른 적절한 식별자와 같은 범주 값들이다. 이 경우에 라벨링된 데이터(
Figure pat00165
)에 대한 손실은 다음의 분류 손실이다.
Figure pat00166
일 예시에서, 라벨들(
Figure pat00167
)은 위치 좌표들에 대한 다변량 데이터여서, 라벨들(
Figure pat00168
)이 위치 좌표들(예컨대, 위도, 경도 및 고도)을 나타낸다. 이 예시에서, 수학식 8의 분류 손실은 하기의 식에 의해 기술되는 회귀 손실이다.
Figure pat00169
도 4는 실내 환경에서의 컴퓨팅 디바이스의 위치에 대해 도 2의 예시에 따른 예측자를 학습시키기 위해 하나 이상의 프로세서들에 의해 수행되는 방법(400)을 도시한다. 42에서, 라벨링된 데이터(
Figure pat00170
) 및 라벨링되지 않은 데이터(
Figure pat00171
)를 포함하는 학습 데이터가 수신된다. 학습 데이터는 라벨링된 데이터의 서브셋을 크라우드 소싱으로부터의 라벨링되지 않은 데이터를 이용하여, 또는 브라우징 로봇을 채용함으로써 증강시킴으로써 얻을 수 있다.
44는 변분 오토인코더(22) 및 분류 신경망(26)을 학습시키는 단계를 포함한다. 변분 오토인코더(22) 및 분류 신경망(26)을 학습시키는 단계는, 예를 들어, 확률적 경사 하강법을 사용하여,
Figure pat00172
Figure pat00173
둘 모두로부터의 신호 강도 값들(
Figure pat00174
)을 오토인코더(22)에 공급하고, 신호 강도 값들(
Figure pat00175
) 및
Figure pat00176
로부터의 라벨들을 분류 신경망(26)에 공급하고, 손실을 최소화하기 위해 디코더 신경망(224)의 생성 파라미터들(
Figure pat00177
) 및 인코더 신경망(222) 및 분류 신경망(26)의 변분 파라미터들(
Figure pat00178
)을 조정함으로써 반복적으로
Figure pat00179
을 평가하는 것을 포함한다.
인코더 신경망(222), 디코더 신경망(224) 및 분류 신경망(26)이 학습된 후, 분류 신경망(26)은 인코더 신경망(222) 및 디코더 신경망(224)과 독립적으로 채용될 수 있다. 분류 신경망(26)에는 실내 환경에서 디바이스에 의해 수신된 신호 강도 값들(
Figure pat00180
)이 제공될 수 있고, 전술된 바와 같이 학습으로부터 생성된 분류 신경망(26)의 은닉된 상태들(
Figure pat00181
)의 값들을 채용하는
Figure pat00182
를 생성한다. 분포(
Figure pat00183
)로부터, 예측된 위치(
Figure pat00184
)는 디바이스의 위치에 대한 예측으로서 생성될 수 있다.
실시예들은 선택적으로 실현가능한 공간에 제약들을 제한하는 구조적 회귀분석의 방법들을 포함한다. 일부 회귀분석 방법들은 출력 변수들의 구조를 간과할 수 있으므로, 예측들이 실행가능성 공간을 벗어날 수 있다는 문제에 직면할 수 있다. 이는 예측 공간을, 즉 본 경우에는 실내 건물 공간을, 선험적으로(a priori) 제한할 수 있다.
분류 신경망들(16, 26)에 의해 생성된 위치 좌표들을 각각 나타내는 예측들(
Figure pat00185
)은 투영 컴포넌트들(18, 28)에 각각 제공되며, 이들은 실현가능한 공간 내에 놓이도록 예측(
Figure pat00186
)을 보정한다. 투영 컴포넌트들(18, 28)은 하나 이상의 프로세서들 및 코드에 의해 구현될 수 있다.
실시예들에서, 보정은 인코더에 의해 예측된 위치에 최근접한 학습 데이터의 라벨링된 서브셋(
Figure pat00187
)으로부터의
Figure pat00188
개의 이웃들을 고려하는 가중된 최근접 이웃 투영에 기초한다. 투영은 예측된 위치와 대응하는 이웃 사이의 거리들의 역(inverse)에 의해 가중치가 부여된
Figure pat00189
개의 최근접 이웃 노드들의 위치들의 가중된 합에 의해 주어진다. 이 투영은
Figure pat00190
개의 최근접 이웃 노드들의 컨벡스 헐(convex hull) 내의 투영에 대응하며, 최근접 이웃들이 예컨대 상이한 건물들에 속하지 않고 위상적으로(topologically) 서로 가까울 때 잘 작용한다. 이웃 노드들이 원거리일 때, 예를 들어, 상이한 건물들에 위치하는 경우, 구조적 투영으로 인해 오차가 증가할 수 있다. 이 오차의 위험은
Figure pat00191
의 다소 작은 값들을 선택함으로써 최소화할 수 있다. 실험 결과들에 따르면,
Figure pat00192
=2는 적절하게 (예컨대, 가장) 정확한 결과들을 제공할 수 있다.
도 5는 일 예시에 따라 생성된 원시 예측들(raw predictions)에 적용된 구조화된 투영의 예시를 보여준다. 분류 신경망들(16, 26)의 위치 예측들(범례에서 "원시 예측"으로 표시됨)은
Figure pat00193
=2 최근접 라벨링된 이웃들 사이의 보간(interpolation)에 투영되어 투영된 위치("투영됨"으로 표시됨)를 얻는다. 도 5는 투영된 위치를 정답(ground truth)("GT"로 표시됨) 위치와 비교한다. 도 5의 예시는 투영이 몇몇 경우들을 제외한 모든 경우에서 위치추정 오차를 개선함을 보여준다.
실시예들에 따르면, 인코더 신경망들(122, 222), 디코더 신경망들(124, 224) 및 분류 신경망들(16, 26)은 모두, ReLU(정류 선형 유닛(rectified linear unit)) 활성화를 갖는 3개의 완전 연결 계층들이 있고, 512, 256 및 z = 128의 계층 크기들을 갖는 인공 신경망들로 구현된다. 예시들에서, 수학식 10에서 분류/회귀 손실은
Figure pat00194
로 가중된다. 예시들에서, 네트워크는 확률적 경사 하강법을 사용하여 학습되며, 예를 들어, 0.01의 학습률, 배치 정규화(batch normalization)들을 갖는 64의 배치 크기, 그리고 20,000회 반복에서 학습의 중지 기준을 갖는 아담 옵티마이저(Adam optimizer)를 채용함으로써 학습된다. 0.5의 확률을 갖는 드롭아웃(dropout)이 신경망들의 모든 계층들에 적용된다. 테스트 세트의 위치추정 오차는 평가 메트릭(evaluation metric)으로 사용된다.
일 예시에 따르면, 인코더 신경망들(122, 222)은 X, Y 및 Z 좌표들에 대한 별도의 인코더 신경망들을 포함하고, 디코더 신경망들(124, 224)은 X, Y 및 Z에 대한 대응하는 디코더들을 포함한다. 잠재 변수(
Figure pat00195
)는 3개의 인코더들의 인코더 출력들의 연결(concatenation)을 포함할 수 있다. 도 1 및 도 3, 또는 도 2 및 도 4에 따른 예측자의 학습은 X, Y 및 Z 좌표들의 각각의 인코더-디코더 쌍들을 다른 인코더-디코더 쌍들에 독립적으로 학습시키는 것을 포함할 수 있다. 따라서 본 실시예는 상이한 좌표들의 처리를 상관해제(decorrelate)하도록 허용한다.
다른 예시들에서, 인코더 신경망들(122, 222)은 X 및 Y에 대한 별도의 인코더 신경망들을 포함하고, 디코더 신경망들(124, 224)은 대응하여 X 및 Y에 대한 디코더들을 포함한다. 이 실시예에서, 도 1 및 도 3, 또는 도 2 및 도 4에 따른 예측자의 학습은 Y에 대한 인코더-디코더 쌍에 독립적으로 X에 대한 인코더-디코더 쌍을 학습시키는 것을 포함할 수 있다. 이 예시에서 잠재 변수 z는 2개의 인코더들의 인코더 출력들의 연결을 포함할 수 있다.
도 1 및 도 2의 예시들에 따른 학습은 건물 라벨을 또한 포함하는 학습 데이터로 건물 분류자(건물 내 위치들을 생성하도록 구성된 분류자)를 학습시키는 것을 더 포함할 수 있다. 분류 신경망들은 특정 건물들에 대해 학습된다. 건물 분류자에 의해 예측된 분류에 기초하여, 하나 이상의 프로세서들이 해당 건물에 대해 특별히 학습된 분류 신경망을 선택한다. 이는 특정 건물에 대한 위치 예측에서 더 정확한 분류 신경망들을 얻을 수 있게 한다.
실험적 평가
도 6은 전술한 실시예들에 따라 학습된 실내 위치들의 예측자를 평가하기 위해 수행된 테스트들의 설정을 도시한다. 도 6a 내지 도 6c는 스페인, 캠퍼스 카스텔로, 하우메 우노 대학교(Universitat Jaume I, Campus Castellσ, Spain)의 3개의 건물들의 108,703 평방 미터(m2)의 면적을 커버하는 UJI-IndoorLoc 데이터 세트를 포함한다.
도 6a는 3개의 건물들의 공중 뷰를 재현하고, 도 6b는 3개의 건물들의 면적을 하이라이트한다. 도 6c의 좌측 패널은 933개의 액세스 포인트들이 3개의 UJI 캠퍼스 건물들에 분산된 방식을 도시한다. 도 6c의 우측 패널은 데이터 세트에서 수신된 신호 강도 값들의 히스토그램을 플롯팅(plot)한다. 합계하여, 데이터 세트는 21,049개의 샘플 포인트들을 포함하고, 그중 19,938개 포인트들이 학습에 사용되고, 1,111개가 테스트에 사용된다. 데이터 세트 독립성을 보장하기 위해 학습 샘플들 4개월 후에 테스트 샘플들을 채취했다. 서로 상이한 25개의 모바일 디바이스 모델들을 이용하여 20명의 사용자가 데이터를 수집했다.
도 7은 도 6을 참조하여 기술된 실내 환경에 대해 본 개시에서 기술된 시스템들의 위치추정 오차에 대한 결과들을 도시한다. 위치추정 오차는 테스트 포인트의 예측된 좌표와 실제 좌표 사이의 유클리드 거리(Euclidean distance)이다. 테스트 세트에 대한 위치추정 오차들의 평균은 도 7a 내지 도 7c의 방법의 성능으로서 보고된다. 도 7a는 본 개시에서 기술된 실내 위치추정 시스템들의 예시들을 다른 실내 위치추정 시스템들과 비교한 것으로서, 도 7a는 준지도 학습의 학습 세트에서 주석 비율에 따른 각 방법의 위치추정 오차를 플롯팅한다.
실내 위치추정의 예시적인 다른 방법은 하이퍼 파라미터들(C 및
Figure pat00196
)을 채용하는 준지도 서포트 벡터 회귀분석(support vector regression, SVR)이다. 또 다른 예시적인 다른 방법은 하이퍼 파라미터(k)를 채용하는 k-최근접 이웃 회귀분석(k-nearest neighbor regression, kNN)이다. 최적의 하이퍼 파라미터들은 SVR에 대해서
Figure pat00197
을 검색하고, kNN에 대해서
Figure pat00198
을 검색하는 5중 내부 교차 검증(five-fold inner cross-validation)에 의해 결정되었다. kNN 방법은 신호 강도 값들에 적용되는 잡음 제거(de-noising) 오토인코더(AU)와 결합될 수 있다.
도 7a는 본 개시에서 제안된 변분 오토인코더들의 위치추정 오차의 결과들을 추가로 도시한 것으로서, 여기서, VAE-M1은 도 1의 제1 예시를 나타내고, VAE-M2는 도 2의 제2 예시를 나타내고, VAE1-SP 및 VAE2-SP는 각각 도 5를 참조하여 위에 설명된 바와 같은, 구조화된 투영에 의해 개선된 변분 오토인코더의 제1 예시 및 제2 예시를 나타낸다. 도 7a에 도시된 바와 같이, 모든 방법들은 주석 데이터 비율이 100일 때 완전 지도 설정에서 대략적으로 5 m의 평균 위치추정 오차를 달성한다. 테스트된 방법들에 대한 UJI 실내 로그 데이터 세트의 학습/테스트 분할을 채용한 위치추정 오차가 표 1에 주어진다. VAE2-SP 방법은 테스트된 방법들 중 가장 낮은 평균 위치추정 오차를 달성할 수 있다.
방법 SVR KNN AU-KNN VAE-M1 VAE-M2 VAE1-SP VAE2-SP
RMSE(m) 5.41 5.98 5.47 5.32 5.21 4.73 4.65
도 7a에 도시된 바와 같이, 데이터의 10%만 라벨링된 경우, 본 출원에 기술된 방법들 이외의 방법들은 적어도 60 m(미터)의 위치추정 오차를 발생시키는 한편, 제1 및 제2 예시들의 변분 오토인코더는 더 낮은 위치추정 오차를 달성한다. 변분 오토인코더들이 도 5의 구조화된 투영에 의해 향상될 때, 위치추정 오차는 대략적으로 다른 예시들의 절반이다.도 7a에 표시된 결과들은 모든 방법들이 50% 이상의 데이터가 라벨링될 때 적당한(modest) 주석 감소에 합리적으로 잘 대응한다는 것을 나타낸다. 그러나, 감소가 상당해지고 라벨링된 데이터의 값 비싼 수집을 상당히 감소시킬 때, 본 개시에서 논의된 VAE 기반 방법들은 다른 방법들보다 더 잘 대응하고 여전히 합리적인 예측 정확도를 달성한다.
도 7b는 데이터에서 라벨링된 데이터의 비율을 감소시키는 효과를 도시한다. 도 7b는 VAE2-SP 학습에 기초한 예측자에 대한 위치추정 오차의 누적 분포 함수를 표시한다. 도 7b에 도시된 바와 같이, 해당 예측자는 1% 내지 5%의 주석 비율 감소까지 잘 대응한다.
도 8은 Wi-Fi 액세스 포인트들 중 일부가 예를 들어 기술 또는 비즈니스 관련 문제들로 인해 그의 신호들을 방출하는 것을 중지하는, 실제 환경에서의 실내 위치추정의 또 다른 문제에 관한 것이다. 도 8은 주석 비율과 이용가능한 Wi-Fi 액세스 포인트들의 비율 둘 모두에 따른 위치추정 오차를 플롯팅한다. 이용가능한 Wi-Fi 액세스 포인트들의 비율은 테스트 시간에 모든 Wi-Fi 액세스 포인트이 이용가능한 경우의 100%로부터, 테스트 시간에 Wi-Fi 액세스 포인트들의 절반만 이용가능한 경우의 50%까지 변화된다. 도 5에 제시된 결과들은 이용가능한 Wi-Fi 액세스 포인트들의 함수에서 모델을 다시 학습함으로써 얻은 것이다.
도 8의 결과들은 VAE2-SP 모델을 포함하는 예시에 관한 것이다. 이용가능한 액세스 포인트들이 50%인 경우, 위치추정 오차는 완전히 라벨링된 데이터의 경우 5.12 m이고, 주석 비율이 5%인 경우 6.43 m이며, 이는 100%의 액세스 포인트가 이용가능한 경우에 측정된 오차 - 완전히 라벨링된 데이터의 경우 5.65 m이고 주석 비율이 5%인 경우 6.12 m임 -에 비교할 만한 오차이다.
도 9a 및 도 9b는 각각 좌측 패널에서 VAE 이전, 즉 입력 신호 강도 데이터(
Figure pat00199
)에 적용되고, 우측 패널에서 VAE 이후, 즉 재구성된 신호 강도 데이터(
Figure pat00200
, or
Figure pat00201
)에 적용된 t-분산 확률적 이웃 임베딩(t-SNE) 형태의 VAE의 시각화를 도시한다. 데이터 포인트들은 분류 신경망, 도 9a의 건물 속성 또는 도 9b의 층 속성에 의해 생성된 라벨에 따라 회색이다. 도 9a 및 도 9b의 결과들은 VAE에 의해 생성된 데이터가 원래 데이터보다 더 우수한 분리성을 가지고 있음을 시사하며, 이는 낮은 주석 비율의 학습 하에서 예측자의 높은 정확도를 설명한다.
상술된 시스템들, 방법들 및 실시예들은 데이터 교환을 위한 인터넷과 같은 네트워크(106)(무선 및/또는 유선일 수 있음)를 통해 통신하는 서버(102) 및 하나 이상의 클라이언트 디바이스들(104)을 포함하는 도 10에 도시된 것과 같은 아키텍처 내에서 구현될 수 있다. 서버(102) 및 클라이언트 디바이스들(104)은 각각 데이터 프로세서(또는 더 간단히 프로세서)(112)(112-1 내지 112-5) 및 하드 디스크와 같은 메모리(113)(113-1 내지 113-5)를 포함한다. 클라이언트 디바이스들(104)은 셀룰러 전화들(104-2), 컴퓨터(104-3), 자율 주행 차량(104-4) 또는 로봇(104-5)을 포함하여 서버(102)와 통신하는 임의의 디바이스들일 수 있다. 보다 정확하게는, 일 실시예에서, 도 1 및 도 2의 실시예들에 따른 시스템은 서버(102)에 의해 구현될 수 있다. 클라이언트 디바이스들(104)은 하나 이상의 Wi-Fi(IEEE 802.11) 프로토콜들을 사용하여 통신하도록 구성된다.
서버(102)는 도 1 및 도 3, 또는 도 2 및 도 4의 실시예들에 따라 학습 데이터를 수신하고 예측자를 학습하고, 예측자를 메모리(113-1)에 저장할 수 있다. 예를 들어, 예측자가 학습되고 클라이언트 디바이스(104)에 저장되면, 실내 환경에 위치한 클라이언트 디바이스(104)는 무선 액세스 포인트들로부터 수신된 신호 강도 값들을 결정하고, 네트워크(106)를 통해 결정된 신호 강도 값들을 서버(102)에 제공하며, 서버는 학습된 예측자를 신호 강도 값들에 적용하여 클라이언트 디바이스(104)의 예측된 위치를 결정하며, 예측된 위치를 네트워크(106)를 통해 클라이언트 디바이스(104)에 제공할 수 있다. 대안적으로, 예측자는 오프라인 사용을 위해 클라이언트 디바이스들(104)에 다운로드될 수 있다.
전술한 방법 단계들의 일부 또는 전부는 프로세서, 마이크로 프로세서, 전자 회로 또는 처리 회로부에 의해(또는 그를 사용하여) 실행된다는 점에서 컴퓨터에 의해 구현될 수 있다.
전술된 실시예들은 하드웨어 또는 소프트웨어로 구현될 수 있다. 구현은 컴퓨터 판독가능 저장 매체와 같은 비일시적 저장 매체, 예를 들어, 플로피 디스크, DVD, Blu-Ray, CD, ROM(read only memory), PROM, EPROM, EEPROM, RAM(Random Access Memory) 또는 FLASH 메모리를 사용하여 수행될 수 있다. 그러한 컴퓨터 판독가능 매체는 범용 또는 특수 목적 컴퓨터 시스템에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수 있다.
일반적으로, 실시예들은 프로그램 코드 또는 컴퓨터 실행가능 명령어들을 갖는 컴퓨터 프로그램 제품으로서 구현될 수 있으며, 프로그램 코드 또는 컴퓨터 실행가능 명령어들은 컴퓨터 프로그램 제품이 컴퓨터에서 실행될 때 방법들 중 하나를 수행하도록 작동 가능하다. 프로그램 코드 또는 컴퓨터 실행가능 명령어들은 예를 들어, 컴퓨터 판독가능 저장 매체에 저장될 수 있다.
일 실시예에서, 저장 매체(또는 데이터 캐리어 또는 컴퓨터 판독가능 매체)는, 하나 이상의 프로세서들에 의해 수행될 때, 본 개시에서 기술된 방법들 중 하나를 수행하기 위한 컴퓨터 프로그램 또는 컴퓨터 실행가능 명령어들을 저장한다.
따라서, 본 개시의 방법들 및 시스템들은 학습을 위해 라벨링된 데이터 포인트들에 대한 필요성을 감소시키면서 정확한 실내 위치추정을 가능하게 하여 시스템 데이터의 학습 비용을 감소시킨다. 기술된 실시예들은 변분 오토인코더들의 잠재 공간이, 낮은 주석 비율들에서 높은 정확도로 분류자의 학습을 가능하게 한다는 인식에 기초한다.
전술한 설명은 본질적으로 단지 예시적인 것이며, 본 개시, 그의 응용, 또는 사용들을 제한하려는 것이 아니다. 본 개시의 광범위한 교시들은 다양한 형태들로 구현될 수 있다. 따라서, 본 개시는 특정 예시들을 포함하지만, 본 개시의 진정한 범위는 그들에 제한되지 않아야 하는데, 이는 도면들, 명세서 및 하기 청구 범위의 연구에 따라 다른 변형들이 명백해질 것이기 때문이다. 방법 내의 하나 이상의 단계들은 본 개시의 원리들을 변경하지 않고 상이한 순서로(또는 동시에) 실행될 수 있음을 이해해야 한다. 또한, 각각의 실시예들은 소정의 특징들을 갖는 것으로 전술되었지만, 본 개시의 임의의 실시예와 관련하여 기술된 이들 특징들 중 임의의 하나 이상은 임의의 다른 실시예들의 특징들로 구현되고/되거나 결합될 수 있는데, 그 조합은 명시적으로 기술되지는 않는다. 다시 말해서, 기술된 실시예들은 상호 배타적이지 않으며, 하나 이상의 실시예들의 서로의 순열/치환은 본 개시의 범위 내에 있다.
요소들(예를 들어, 모듈들, 회로 소자들, 반도체 층들 등) 사이의 공간 및 기능적 관계들은 "연결된", "연계된", "결합된", "인접한", "근접한", “상부에”, “위에”, “아래에” 및 “배치된”을 포함하는 다양한 용어들을 사용하여 설명된다. 제1 및 제2 요소들 사이의 관계가 상기 개시에서 설명될 때, "직접적인"것으로 명시적으로 언급되지 않는 한, 그 관계는 다른 중간 요소들이 제1 및 제2 요소들 사이에 존재하지 않는 직접적인 관계일 수 있지만, 또한 하나 이상의 개재 요소들이 제1 요소와 제2 요소 사이에 (공간적으로 또는 기능적으로) 존재하는 간접적인 관계일 수도 있다. 본 개시에서 사용된 바와 같이, 어구 A, B 및 C 중 적어도 하나는 비-배타적 논리 OR을 사용하는 논리 (A OR B OR C)를 의미하는 것으로 해석되어야 하며, "A 중 적어도 하나, B 중 적어도 하나 및 C 중 적어도 하나"를 의미하는 것으로 해석되어서는 안된다.
도면들에서, 화살촉으로 나타낸 화살표의 방향은 예시에서 관련성이 있는(of interest) 정보(예컨대, 데이터 또는 명령어들)의 흐름을 일반적으로 나타낸다. 예를 들어, 요소 A와 요소 B가 다양한 정보를 교환하지만, 요소 A로부터 요소 B로 송신되는 정보가 예시와 관련이 있는 경우, 화살표는 요소 A에서 요소 B를 향해 가리킬 수 있다. 이러한 단방향 화살표는 다른 어떤 정보도 요소 B로부터 요소 A로 송신되지 않는다고 암시하는 것이 아니다. 또한, 요소 A로부터 요소 B로 전송된 정보에 대해, 요소 B는 정보에 대한 요청들 또는 수신 응답 확인들을 요소 A로 전송할 수 있다.
용어 '코드'는 소프트웨어, 펌웨어 및/또는 마이크로 코드를 포함할 수 있으며, 프로그램들, 루틴들, 함수들, 클래스들, 데이터 구조들 및/또는 객체들을 지칭할 수 있다. 용어 '메모리'는 용어 '컴퓨터 판독가능 매체'의 서브셋이다. 본 개시에서 사용되는 용어 '컴퓨터 판독가능 매체'는 (예를 들어, 반송파 상에서) 매체를 통해 전파되는 일시적인 전기 또는 전자기 신호들을 포함하지 않으며; 따라서 용어 '컴퓨터 판독가능 매체'는 유형물(tangible)이고 비일시적인 것으로 간주될 수 있다. 비일시적, 유형의 컴퓨터 판독가능 매체의 제한적이지 않은 예시들은 비휘발성 메모리(예컨대, 플래시 메모리, 소거가능 프로그램가능 판독 전용 메모리 또는 마스크 판독 전용 메모리), 휘발성 메모리(예컨대, 정적 랜덤 액세스 메모리 또는 동적 랜덤 액세스 메모리), 자기 저장 매체(예컨대, 아날로그 또는 디지털 자기 테이프 또는 하드 디스크 드라이브) 및 광학 저장 매체(예컨대, CD, DVD 또는 Blu-ray 디스크)이다.
본 출원에 설명된 장치들 및 방법들은 컴퓨터 프로그램들로 구현된 하나 이상의 특정 기능들을 실행하도록 범용 컴퓨터를 구성함으로써 생성된 특수 목적 컴퓨터에 의해 부분적으로 또는 완전히 구현될 수 있다. 전술한 기능 블록들, 흐름도 컴포넌트들 및 기타 요소들은 숙련된 기술자 또는 프로그래머의 일상적인 작업에 의해 컴퓨터 프로그램들로 변환될 수 있는 소프트웨어 사양들로서의 역할을 한다.
컴퓨터 프로그램들은 적어도 하나의 비일시적, 유형의 컴퓨터 판독가능 매체에 저장된 프로세서 실행가능 명령어들을 포함한다. 컴퓨터 프로그램들은 또한 저장된 데이터를 포함하거나 그에 의존할 수 있다. 컴퓨터 프로그램은 특수 목적 컴퓨터의 하드웨어와 상호작용하는 기본 입/출력 시스템(BIOS), 특수 목적 컴퓨터의 특정 디바이스들과 상호작용하는 디바이스 드라이버들, 하나 이상의 운영 체제들, 사용자 애플리케이션들, 배경 서비스들, 배경 애플리케이션들 등을 포함할 수 있다.
컴퓨터 프로그램들은 (i) 하이퍼 텍스트 마크업 언어(HTML), 확장성 마크업 언어(XML) 또는 자바 스크립트 객체 표기법(JSON)과 같은 파싱될(parsed) 설명 텍스트, (ii) 어셈블리 코드, (iii) 컴파일러에 의해 소스 코드로부터 생성된 객체 코드, (iv) 인터프리터에 의한 실행을 위한 소스 코드, (v) JIT(just-in-time) 컴파일러에 의한 컴파일링 및 실행을 위한 소스 코드 등을 포함할 수 있다. 예를 들어, 소스 코드는 C, C ++, C #, Objective-C, Swift, Haskell, Go, SQL, R, Lisp, Java®Fortran, Perl, Pascal, Curl, OCaml, Javascript®HTML5(하이퍼 텍스트 마크업 언어 5차 개정), Ada, ASP(Active Server Pages), PHP (PHP: Hypertext Preprocessor), Scala, Eiffel, Smalltalk, Erlang, Ruby, Flash®Visual Basic®및 Python®을 포함하는 언어들의 구문을 사용하여 작성될 수 있다.

Claims (22)

  1. 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 학습시키는 컴퓨터 구현 방법으로서,
    실내 환경의 포지션들에서 무선 액세스 포인트들로부터 수신된 신호들의 강도를 포함하는 학습 데이터를 수신하는 단계 - 상기 학습 데이터는:
    신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된(labeled) 데이터의 서브셋; 및
    신호 강도 값들을 포함하고 위치들을 나타내는 라벨들을 포함하지 않는 라벨링되지 않은(unlabeled) 데이터의 서브셋을 포함함 -; 및
    상기 학습 데이터의 상기 신호 강도 값들의 재구성 손실을 최소화하도록 변분 오토인코더(variational autoencoder)를 학습시키는 단계 - 상기 변분 오토인코더는:
    잠재 변수(latent variable)에 상기 신호 강도 값들을 인코딩하도록 구성된 인코더 신경망들; 및
    상기 재구성 손실을 판정하기 위해 재구성된 신호 강도 값들로 상기 잠재 변수를 디코딩하도록 구성된 디코더 신경망들을 포함함 -; 및
    라벨링된 데이터에 대한 예측 손실을 최소화하도록 분류 신경망을 학습시키는 단계
    를 포함하고,
    상기 분류 신경망은 상기 잠재 변수에 기초하여 예측된 위치를 생성하고,
    상기 인코더 신경망들 및 상기 분류 신경망은 상기 실내 환경에서의 상기 컴퓨팅 디바이스의 위치를 예측하도록 구성된 상기 예측자를 형성하는, 컴퓨터 구현 방법.
  2. 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 학습시키는 컴퓨터 구현 방법으로서,
    실내 환경의 포지션들에서 무선 액세스 포인트들로부터 수신된 신호들의 강도와 관련된 학습 데이터를 수신하는 단계 - 상기 학습 데이터는:
    신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋; 및
    신호 강도 값들을 포함하고 위치들을 나타내는 라벨들을 포함하지 않는 라벨링되지 않은 데이터의 서브셋을 포함함 -; 및
    변분 오토인코더와 공동으로 분류 신경망을 학습시키는 단계
    를 포함하고,
    상기 분류 신경망은 상기 학습 데이터의 신호 강도 값들을 입력으로서 수신하고, 예측된 위치를 상기 변분 오토인코더의 디코더 신경망들에 출력하도록 구성되고,
    상기 변분 오토인코더와 함께 상기 분류 신경망을 학습시키는 단계는, 재구성 손실 및 예측 손실을 최소화하는 단계를 포함하고, 상기 재구성 손실은 상기 학습 데이터의 상기 신호 강도 값들과 상기 재구성된 신호 강도 값들 사이에서 계산되고, 상기 예측 손실은 상기 예측된 위치와 상기 학습 데이터의 상기 라벨링된 데이터의 서브셋에 대한 상기 위치 라벨들 사이에서 계산되고,
    상기 분류 신경망은 상기 실내 환경에서의 상기 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 형성하는, 컴퓨터 구현 방법.
  3. 제2항에 있어서, 상기 분류 신경망은 상기 예측된 위치를 상기 변분 오토인코더의 상기 디코더 신경망들에게 범주형 잠재 변수(categorical latent variable)로서 출력하도록 구성되는, 컴퓨터 구현 방법.
  4. 제3항에 있어서, 상기 변분 오토인코더는 상기 신호 강도 값들을 연속 잠재 변수에 인코딩하도록 구성된 인코더 신경망들을 포함하는, 컴퓨터 구현 방법.
  5. 제4항에 있어서, 상기 디코더 신경망들은 상기 범주형 잠재 변수 및 상기 연속 잠재 변수를 재구성된 신호 강도 값들로 디코딩하는, 컴퓨터 구현 방법.
  6. 제4항에 있어서, 상기 재구성 손실 및 상기 예측 손실을 최소화하는 단계는, 상기 인코더 신경망들의 제1 은닉된 상태들(hidden states), 상기 디코더 신경망들의 제2 은닉된 상태들 및 상기 분류 신경망의 제3 은닉된 상태들에 대한 제1 항(first term) 및 제2 항(second term)의 합의 그레이디언트들(gradients)을 결정하는 단계를 포함하는, 컴퓨터 구현 방법.
  7. 제6항에 있어서, 상기 제1 항(first term)은 상기 학습 데이터에 대한 상기 재구성 손실을 측정하고, 상기 제2 항(second term)은 상기 라벨링된 데이터의 서브셋에 대한 상기 예측 손실을 측정하는, 컴퓨터 구현 방법.
  8. 제4항에 있어서, 상기 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망 및 Z 좌표에 대한 인코더 신경망을 포함하는, 컴퓨터 구현 방법.
  9. 제8항에 있어서, 상기 디코더 신경망들은 X 좌표에 대한 디코더 신경망, Y 좌표에 대한 디코더 신경망 및 Z 좌표에 대한 디코더 신경망을 포함하는, 컴퓨터 구현 방법.
  10. 제9항에 있어서, 상기 변분 오토인코더를 학습시키는 단계는, 상기 Y 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로, 그리고 상기 Z 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로, 상기 X 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망을 학습시키는 단계를 포함하는, 컴퓨터 구현 방법.
  11. 제10항에 있어서, 상기 변분 오토인코더를 학습시키는 단계는, 상기 Z 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로 상기 Y 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망을 학습시키는 단계를 포함하는, 컴퓨터 구현 방법.
  12. 제9항에 있어서, 상기 X 좌표에 대한 상기 인코더 신경망의 출력, 상기 Y 좌표에 대한 상기 인코더 신경망의 출력 및 상기 Z 좌표에 대한 상기 인코더 신경망의 출력은 연결(concatenate)되어 상기 잠재 변수를 형성하는, 컴퓨터 구현 방법.
  13. 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자로서, 상기 예측자는 하나 이상의 프로세서들 및 코드에 의해 구현되고, 상기 예측자는:
    잠재 변수에 신호 강도 값들을 인코딩하도록 구성된 인코더 신경망들; 및
    상기 잠재 변수에 기초하여 상기 컴퓨팅 디바이스의 상기 위치에 대한 예측된 위치를 생성하도록 구성된 분류 신경망
    을 포함하고,
    상기 인코더 신경망들은 재구성 손실을 최소화하기 위해 변분 오토인코더로서 디코더 신경망들과 공동으로 학습되고, 상기 분류 신경망은 예측 손실을 최소화하도록 학습되는, 예측자.
  14. 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자로서, 상기 예측자는 하나 이상의 프로세서들 및 코드에 의해 구현되고, 상기 예측자는:
    신호 강도 값들로부터 예측된 위치를 생성하도록 구성된 분류 신경망을 포함하고,
    상기 분류 신경망은 재구성 손실 및 예측 손실을 최소화하는 것에 기초하여 변분 오토인코더와 함께 학습되고,
    상기 학습 동안, 상기 분류 신경망은 상기 예측된 위치를 상기 변분 오토인코더의 디코더 신경망들에 출력하는, 예측자.
  15. 제14항에 있어서, 상기 변분 오토인코더와 함께 상기 분류 신경망을 학습시키는 동안, 상기 예측된 위치는 상기 변분 오토인코더의 범주형 잠재 변수인, 예측자.
  16. 제14항에 있어서, 상기 분류 신경망이 재구성 손실 및 예측 손실을 최소화하는 것에 기초하여 변분 오토인코더와 함께 학습되는 것은, 상기 변분 오토인코더의 인코더 신경망들의 제1 은닉된 상태들, 상기 디코더 신경망들의 제2 은닉된 상태들 및 상기 분류 신경망의 제3 은닉된 상태들에 대한 제1 항(first term) 및 제2 항(second term)의 합의 그레이디언트들을 결정하는 것을 포함하는, 예측자.
  17. 제16항에 있어서, 상기 제1항(first term)은 상기 재구성 손실을 측정하고, 상기 제2항(second term)은 상기 예측 손실을 측정하는, 예측자.
  18. 제17항에 있어서,
    상기 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망 및 Z 좌표에 대한 인코더 신경망을 포함하고,
    상기 디코더 신경망들은 X 좌표에 대한 디코더 신경망, Y 좌표에 대한 디코더 신경망 및 Z 좌표에 대한 디코더 신경망을 포함하는, 예측자.
  19. 제18항에 있어서,
    상기 X 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망은 상기 Y 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로, 그리고 상기 Z 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로 학습되고,
    상기 Y 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망은 상기 Z 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로 학습되는, 예측자.
  20. 제14항에 있어서, 예측 라벨들은 위치 좌표를 나타내는 다변량(multivariate) 데이터 값들이고, 상기 예측 손실은 회귀 손실(regression loss)인, 예측자.
  21. 제20항에 있어서,
    상기 예측 라벨들의 다변량 데이터 값에 의해 표시된 절대 좌표에 가중된 이웃 투영(weighted neighborhood projection)을 적용하도록 구성된 하나 이상의 프로세서들을 더 포함하며,
    상기 가중된 이웃 투영은 라벨링된 노드들의 서브셋으로부터의 다수의 최근접 이웃 노드들을 채용하는, 예측자.
  22. 제21항에 있어서, 상기 최근접 이웃 노드들의 수는 2개인, 예측자.
KR1020200124312A 2019-09-26 2020-09-24 실내 위치추정을 위한 준지도 변분 오토인코더 KR20210036845A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP19306204.9 2019-09-26
EP19306204.9A EP3798918A1 (en) 2019-09-26 2019-09-26 Using semi-supervised variational autoencoder for wi-fi-based indoor localization
US16/904,693 US11373096B2 (en) 2019-09-26 2020-06-18 Semi-supervised variational autoencoder for indoor localization
US16/904,693 2020-06-18

Publications (1)

Publication Number Publication Date
KR20210036845A true KR20210036845A (ko) 2021-04-05

Family

ID=68281349

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200124312A KR20210036845A (ko) 2019-09-26 2020-09-24 실내 위치추정을 위한 준지도 변분 오토인코더

Country Status (4)

Country Link
US (1) US11373096B2 (ko)
EP (1) EP3798918A1 (ko)
JP (1) JP2021056222A (ko)
KR (1) KR20210036845A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11887002B2 (en) 2022-06-16 2024-01-30 Actionpower Corp. Method of generating data by using artificial neural network model having encoder-decoder structure

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210282033A1 (en) * 2020-03-09 2021-09-09 Psj International Ltd. Positioning system for integrating machine learning positioning models and positioning method for the same
US11909482B2 (en) * 2020-08-18 2024-02-20 Qualcomm Incorporated Federated learning for client-specific neural network parameter generation for wireless communication
EP4001948A1 (en) 2020-11-13 2022-05-25 Naver Corporation Deep smartphone sensors fusion for indoor positioning and tracking
CN113221995B (zh) * 2021-04-30 2023-06-30 中南民族大学 基于半监督深度分类算法的数据分类方法、设备及装置
JP2023010182A (ja) * 2021-07-09 2023-01-20 パナソニックIpマネジメント株式会社 学習装置、経路推定システムおよび学習方法
CN113420731B (zh) * 2021-08-23 2021-11-16 北京的卢深视科技有限公司 模型训练方法、电子设备及计算机可读存储介质
CN113916231A (zh) * 2021-09-28 2022-01-11 上海浦东发展银行股份有限公司 移动设备定位导航方法、装置、移动设备及存储介质
CN114286282B (zh) * 2021-11-18 2023-12-26 中国科学院空天信息创新研究院 基于手机WiFi RSS数据和降维算法的指纹定位方法
CN114416948A (zh) * 2022-01-18 2022-04-29 重庆邮电大学 一种基于语义感知的一对多对话生成方法及装置
US20230309053A1 (en) * 2022-03-25 2023-09-28 Viavi Solutions Inc. Utilizing machine learning models to estimate user device spatiotemporal behavior
US20230376784A1 (en) * 2022-05-20 2023-11-23 Samsung Electronics Co., Ltd. Method, system, and apparatus for efficient neural data compression for machine type communications via knowledge distillation
WO2024016303A1 (zh) * 2022-07-22 2024-01-25 京东方科技集团股份有限公司 分类模型的训练方法、分类方法、装置、电子设备及介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002335697A1 (en) * 2001-09-05 2003-03-18 Newbury Networks, Inc. Position detection and location tracking in a wireless network
CN101718859A (zh) * 2008-10-09 2010-06-02 日电(中国)有限公司 以自适应分辨率定位目标的方法和系统
US20160371394A1 (en) * 2015-06-22 2016-12-22 The Governing Council Of The University Of Toronto Indoor localization using crowdsourced data
US10776712B2 (en) * 2015-12-02 2020-09-15 Preferred Networks, Inc. Generative machine learning systems for drug design
US11927965B2 (en) * 2016-02-29 2024-03-12 AI Incorporated Obstacle recognition method for autonomous robots
WO2018094502A1 (en) * 2016-11-22 2018-05-31 Aerial Technologies Device-free localization methods within smart indoor environments
CN109690577A (zh) * 2016-09-07 2019-04-26 皇家飞利浦有限公司 利用堆叠式自动编码器进行的半监督式分类
US11586915B2 (en) * 2017-12-14 2023-02-21 D-Wave Systems Inc. Systems and methods for collaborative filtering with variational autoencoders
US11573329B2 (en) * 2019-03-28 2023-02-07 Lyft, Inc. Modeling effects of structures on global-positioning system localization
KR20190089791A (ko) * 2019-07-11 2019-07-31 엘지전자 주식회사 삼차원 어라운드 뷰 제공 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11887002B2 (en) 2022-06-16 2024-01-30 Actionpower Corp. Method of generating data by using artificial neural network model having encoder-decoder structure

Also Published As

Publication number Publication date
US20210097387A1 (en) 2021-04-01
EP3798918A1 (en) 2021-03-31
JP2021056222A (ja) 2021-04-08
US11373096B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
KR20210036845A (ko) 실내 위치추정을 위한 준지도 변분 오토인코더
Chen et al. Traffic flow imputation using parallel data and generative adversarial networks
CN109117831B (zh) 物体检测网络的训练方法和装置
US11694109B2 (en) Data processing apparatus for accessing shared memory in processing structured data for modifying a parameter vector data structure
Luo et al. Enhancing Wi-Fi fingerprinting for indoor positioning using human-centric collaborative feedback
US11688077B2 (en) Adaptive object tracking policy
CN111583199B (zh) 样本图像标注方法、装置、计算机设备和存储介质
US11927448B2 (en) Deep smartphone sensors fusion for indoor positioning and tracking
CN110268338A (zh) 使用视觉输入进行代理导航
US11288538B2 (en) Object functionality predication methods, computer device, and storage medium
Zhou et al. Jaccard analysis and LASSO-based feature selection for location fingerprinting with limited computational complexity
CN113780270A (zh) 目标检测方法和装置
Abidin et al. Indoor positioning system in learning approach experiments
CN113762454A (zh) 轨迹异常检测方法及装置
Lee et al. PMNet: Robust pathloss map prediction via supervised learning
CN111583264B (zh) 图像分割网络的训练方法、图像分割方法和存储介质
Nagaraj et al. Leak detection in smart water grids using EPANET and machine learning techniques
KR102561799B1 (ko) 디바이스에서 딥러닝 모델의 레이턴시를 예측하는 방법 및 시스템
Chu et al. Simulating human mobility with a trajectory generation framework based on diffusion model
KR102500534B1 (ko) 순환신경망 기반 수자원 정보 생성 장치 및 방법
Zhou et al. Joint positioning and radio map generation based on stochastic variational Bayesian inference for FWIPS
KR102145698B1 (ko) 딥러닝 모델을 통해 예측된 해답을 해석하는 방법 및 시스템
CN113609097B (zh) 指纹库的生成方法、装置、计算机设备和存储介质
CN112612277A (zh) 车辆轨迹规划方法、装置、设备和计算机可读介质
CN108989974A (zh) 动物定位方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
A201 Request for examination