KR20210036845A - 실내 위치추정을 위한 준지도 변분 오토인코더 - Google Patents
실내 위치추정을 위한 준지도 변분 오토인코더 Download PDFInfo
- Publication number
- KR20210036845A KR20210036845A KR1020200124312A KR20200124312A KR20210036845A KR 20210036845 A KR20210036845 A KR 20210036845A KR 1020200124312 A KR1020200124312 A KR 1020200124312A KR 20200124312 A KR20200124312 A KR 20200124312A KR 20210036845 A KR20210036845 A KR 20210036845A
- Authority
- KR
- South Korea
- Prior art keywords
- neural network
- encoder
- decoder
- predictor
- autoencoder
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0252—Radio frequency fingerprinting
- G01S5/02521—Radio frequency fingerprinting using a radio-map
- G01S5/02522—The radio-map containing measured values of non-radio values
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0278—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves involving statistical or probabilistic considerations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B17/00—Monitoring; Testing
- H04B17/30—Monitoring; Testing of propagation channels
- H04B17/309—Measuring or estimating channel quality parameters
- H04B17/318—Received signal strength
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
- H04W64/003—Locating users or terminals or network equipment for network management purposes, e.g. mobility management locating network equipment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Quality & Reliability (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하기 위해 예측자를 학습시키는 방법은 실내 환경의 포지션들에서 무선 액세스 포인트들로부터 수신된 신호들의 강도를 포함하는 학습 데이터를 수신하는 단계 - 학습 데이터는 신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋 및 신호 강도 값들을 포함하고, 위치들을 나타내는 라벨들을 포함하지 않는 라벨링되지 않은 데이터의 서브셋을 포함함 - 학습 데이터의 신호 강도 값들의 재구성 손실을 최소화하도록 변분 오토인코더를 학습시키는 단계 - 변분 오토인코더는 인코더 신경망들 및 디코더 신경망들을 포함함 - 및 라벨링된 데이터에 대한 예측 손실을 최소화하도록 분류 신경망을 학습시키는 단계 - 분류 신경망은 잠재 변수에 기초하여 예측된 위치를 생성함 -를 포함하고, 인코더 신경망들 및 분류 신경망은 예측자를 형성한다.
Description
관련 출원에 대한 상호 참조
본 출원은 2019년 9월 26일에 출원된 EP 출원 번호 제19306204.9호의 우선권을 주장한다. 참조된 출원의 전체 개시내용은 본 명세서에 참조로 포함된다.
기술 분야
본 개시내용은 실내 위치추정(indoor localization)을 위한 시스템들 및 방법들에 관한 것이며, 특히 실내 위치추정을 위한 변분 오토인코더(variational autoencoder)들에 관한 것이다.
본 명세서에 제공된 발명의 배경이 되는 기술 설명은 본 개시내용의 맥락을 일반적으로 제시하기 위한 것이다. 본 기술 배경 섹션에 기술된 범위에서, 본 발명의 발명가들의 연구뿐만 아니라 출원 당시의 종래 기술로서 달리 자격이 되지 않을 것인 본 설명의 양태들은, 본 개시내용에 반한 선행 기술로서 명시적으로도 또는 암시적으로도 인정되지 않는다.
전자 디바이스들의 많은 애플리케이션들이 전자 디바이스의 현재 포지션을 수신하는 데 의존하는데, 이는 실내 환경(이는 완전히 밀폐된 곳(예컨대, 건물 또는 지하 동굴 내부)일 수 있음) 또는 부분적으로 밀폐된 곳(예컨대, 주차장 또는 터널 내부)에서는 쉽게 이용 가능하지 않을 수 있다. 실내에서는, 위성과의 가시선(line of sight), GPS(global positioning system), 갈릴레오 또는 GLONASS 글로벌 내비게이션 위성 시스템과 같은 위성 신호들을 통한 포지셔닝이 이용 가능하지 않을 수 있다.
실내 포지셔닝은 무선 액세스 포인트들로부터 수신된 신호들에 의존할 수 있다. 모바일 에이전트 또는 디바이스의 위치를 추정하기 위해, 3개 이상의 근처 Wi-Fi 액세스 포인트들의 위치들을 알고 있는 경우 삼변측량 방법들을 사용할 수 있다. 그러나 Wi-Fi 액세스 포인트 포지션들이 다수의 다른 공급자들에 의해 배포될 수 있으므로, Wi-Fi 액세스 포인트 포지션들이 이용 가능하지 않거나, 최신 상태가 아닐 수 있다. 복잡한 실내 환경은 벽들이나 문들과 같은 장애물들을 포함할 수 있고, 빈번하게 이동하는 물체들을 포함할 수 있기 때문에, 신호 다중 경로의 영향은 Wi-Fi 신호들의 삼변측량을 어렵게 한다.
이 문제를 극복하는 한 가지 방법은 실내 포지셔닝을 위한 Wi-Fi 핑거프린팅(fingerprinting)을 채용하는 것이다. Wi-Fi 핑거프린팅은 한 포지션에서 수신된 다양한 액세스 포인트들로부터의 신호 강도들의 목록을 포함하며, 액세스 포인트들 자체의 정확한 위치를 아는데 의존하지 않는다. 건물의 무선(또는 신호) 지도를 얻기 위해 신호 강도들의 목록을 미리 수집할 수 있다. Wi-Fi 핑거프린팅이 제대로 작동하기 위해서는 무선 지도를 조밀하고 최신 상태로 만든다. 그러나 실내 포지셔닝을 위해 Wi-Fi 데이터에 좌표, 방 식별자 또는 건물 번호와 같은 지리적 태그들을 라벨링할 수 있기 때문에 무선 지도를 생성하는 데 비용이 많이 들 수 있다.
데이터 수집 및 주석 작업을 줄이는 것이 바람직하다.
준지도(semi-supervised) 기계 학습은 라벨링된(labeled) 데이터와 라벨링되지 않은(unlabeled) 데이터를 사용한 학습을 포함하며, 기계 학습(ML)에 사용된다. 기계 학습을 사용하여 오프라인 Wi-Fi 데이터 수집을 줄일 수 있다. 준지도 기계 학습에서, 시스템에는 데이터 포인트들()의 튜플들 및 라벨들이라고도 하는 주석들()을 포함하는 학습 세트()가 제공되고, 라벨링되지 않은 데이터 포인트들()이 추가적으로 제공된다. 시스템은 예측 오차를 최소화하는 최상의 함수 관계()를 추론한다. 이 문제는 또한 학습 세트의 공간보다 작은 잠재 변수(latent variable)()의 공간에서 매핑 함수()를 찾는 것으로 기술될 수 있다. 그러면 최상의 예측자(predictor)는 파라미터()를 갖는 의 함수 으로 정의될 수 있다.
준지도 학습은 라벨링되지 않은 데이터에 의해 제공되는 기본 데이터 세트의 분포에 대한 정보로 증강된 지도 학습으로 간주될 수 있다. 비록 라벨링되지 않은 데이터는 예측 목표로 예측자를 명시적으로 학습시키는 데 사용되지 않을 수 있지만, 2개의 데이터 포인트들이 고밀도 영역에서 가까우면 각각의 예측들도 가까워야 한다고 가정할 수 있기 때문에 라벨링되지 않은 데이터는 예측자의 예측을 향상시킬 수 있다. 마찬가지로, 데이터 포인트들이 데이터 포인트들의 분포의 동일한 클러스터에 있는 경우, 이들은 주석들의 공간에서 가까울 수 있는데, 예컨대 주석과 동일한 클래스 라벨을 갖는다.
변분 오토인코더(VAE)들은 심층 신경망들(deep neural networks)로 구현된 확률적 생성 모델들의 한 클래스이다. VAE들은 확률적 인코더 신경망과 디코더 신경망을 동시에 학습시킨다. VAE들은 균일한 사전 분포()로부터 잠재 변수(latent variable)()의 샘플을 도출하는 것을 포함한다. 잠재 변수들의 공간은 VAE들의 입력 및 출력보다 작은 차원일 수 있다. 샘플()은 디코더 신경망을 통과하여 오리지널 입력을 재구성한다.
VAE들은 잠재 변수에 대한 베이지안 사후 분포(Bayesian posterior distribution)인
를 학습하는 것을 목표로 하지만, 이는 풀기 쉬운(tractable) 식이 아니다. VAE들은 변분 추론을 채용하여 파라미터적 분포, 예를 들어, 인코더 신경망에 의해 파라미터들이 학습된 가우스 분포들에 의해 를 근사화한다. 과제는 학습 세트의 요소()를 생성할 가능성을 최대화하는 잠재 변수(z)를 찾는 것이다.
실내 포지셔닝을 위한 분류자(classifier)의 학습에서 라벨링된 데이터의 필요성을 감소시키는 것이 바람직하다.
본 개시내용은 라벨링될 소량의 학습 데이터만 필요로 하면서도 여전히 실내 포지셔닝을 위한 충분히 정확한 분류자를 생성하는 딥 러닝 기법을 제안한다. 제안된 딥 러닝 기법은 변분 오토인코더(VAE)에 기초한다. 제안된 딥 러닝 기법은 학습 데이터 세트의 1 내지 5% 정도의 낮은 주석 비율로 합리적으로 정확한 예측자들을 얻을 수 있게 한다.
일 실시예에 따르면, 실내 환경에서의 컴퓨팅 디바이스의 위치에 대한 예측자를 학습시키는 컴퓨터 구현 방법이 제공된다. 방법은 실내 환경의 포지션들에서 수신된 무선 액세스 포인트들로부터의 신호들의 강도와 관련된 학습 데이터를 수신하는 단계를 포함하며, 학습 데이터는, 신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋 및 신호 강도 값들만 포함하는 라벨링되지 않은 데이터를 포함한다. 방법은 학습 데이터의 신호 강도 값들의 재구성 손실을 최소화하도록 변분 오토인코더를 학습시키는 단계를 포함하며, 변분 오토인코더는 잠재 변수에 신호 강도 값들을 인코딩하는 인코더 신경망들 및 잠재 변수를 재구성 손실을 계산하기 위한 재구성된 신호 강도 값들로 디코딩하는 디코더 신경망들을 포함한다.
방법은 분류 신경망을 학습시켜 라벨링된 데이터에 대한 예측 손실을 최소화하는 단계를 더 포함하며, 분류 신경망은 잠재 변수를 채용하여 예측된 위치를 생성한다. 학습이 완료되면 인코더 신경망들과 분류 신경망은 실내 환경에서의 컴퓨팅 디바이스의 위치에 대한 예측자를 형성한다.
다른 실시예에 따르면, 실내 환경에서의 컴퓨팅 디바이스의 위치들에 대한 예측자를 학습시키는 추가의 컴퓨터 구현 방법이 제공된다. 방법은 실내 환경의 포지션들에서 수신된 무선 액세스 포인트들로부터의 신호들의 강도와 관련된 학습 데이터를 수신하는 단계를 포함하며, 학습 데이터는, 신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋 및 신호 강도 값들만 포함하는 라벨링되지 않은 데이터를 포함한다. 방법은 분류 신경망을 변분 오토인코더와 함께 학습시키는 단계를 포함하며, 분류 신경망은 학습 데이터의 신호 강도 값들을 입력으로서 수신하고, 예측된 위치를 변분 오토인코더의 디코더 신경망들에 출력한다. 변분 오토인코더와 함께 분류 신경망을 학습시키는 단계는 재구성 손실 및 예측 손실을 최소화하는 것에 기초하며, 재구성 손실은 학습 데이터의 신호 강도 값들과 재구성된 신호 강도 값들 사이에서 계산되고, 예측 손실은 예측된 위치와 학습 데이터의 라벨링된 데이터 서브셋에 대한 위치 라벨들 사이에서 계산된다. 학습이 완료된 후에, 분류 신경망은 실내 환경에서의 컴퓨팅 디바이스의 위치에 대한 예측자를 형성한다.
일 양태에 따르면, 예측된 위치를 변분 오토인코더의 디코더 신경망들에 출력하는 것은 예측된 위치를 범주형 잠재 변수로서 디코더 신경망들에 출력하는 것을 포함하며, 변분 오토인코더는 신호 강도 값들을 연속 잠재 변수로 인코딩하는 인코더 신경망들을 포함하고, 디코더 신경망들은 범주형 잠재 변수 및 연속 잠재 변수를 재구성된 신호 강도 값들로 디코딩한다.
일 양태에 따르면, 재구성 손실 및 예측 손실을 최소화하는 것은 인코더 신경망들의 제1 은닉된 상태들, 디코더 신경망들의 제2 은닉된 상태들 및 분류 신경망의 제3 은닉된 상태들에 대한 제1 항 및 제2 항의 합의 기울기들을 결정하는 것을 포함하며, 제1 항은 학습 데이터에 대한 재구성 손실을 측정하고, 제2 항은 학습 데이터의 라벨링된 데이터의 서브셋에 대한 예측 손실을 측정한다.
다른 양태에 따르면, 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망, Z 좌표에 대한 인코더 신경망을 포함하고, 디코더 신경망들은 대응하는 디코더 네트워크들을 포함한다. 오토인코더를 학습시키는 단계는 좌표에 대한 각각의 인코더-디코더 쌍을 다른 좌표들에 대한 인코더-디코더 쌍들과 독립적으로 학습시키는 단계를 포함할 수 있다.
일 양태에 따르면, X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망, 및 Z 좌표에 대한 인코더 신경망의 출력들이 연결되어(concatenated) 잠재 변수를 형성한다.
일 실시예에 따르면, 실내 환경에서의 컴퓨팅 디바이스의 위치들에 대한 예측자가 제공되고, 예측자는 하나 이상의 컴퓨터들에 의해 구현된다. 예측자는 잠재 변수에 신호 강도 값들을 인코딩하는 인코더 신경망들을 포함한다. 예측자는 잠재 변수를 채용하여 컴퓨팅 디바이스의 예측된 위치를 생성하는 분류 신경망을 포함하며, 인코더 신경망들은 대응하는 디코더 신경망들과 함께 재구성 손실을 최소화하기 위한 변분 오토인코더로서 학습되었으며, 분류 신경망은 예측 손실을 최소화하도록 학습되었다.
다른 실시예에 따르면, 실내 환경에서의 컴퓨팅 디바이스의 위치들에 대한 예측자가 제공되며, 예측자는 하나 이상의 컴퓨터들에 의해 구현된다. 예측자는 분류 신경망을 포함하며, 분류 신경망은 신호 강도 값들로부터 예측된 위치를 생성한다. 분류 신경망은 변분 오토인코더와 함께 학습되었으며, 학습 중에 분류 신경망은 예측된 위치를 변분 오토인코더의 디코더 신경망들에 출력하며, 분류 신경망을 변분 오토인코더와 함께 학습시키는 것은 재구성 손실 및 예측 손실을 최소화하는 것에 기초한다.
일 양태에 따르면, 변분 오토인코더와 함께 분류 신경망을 학습시키는 동안, 예측된 위치는 변분 오토인코더의 범주형 잠재 변수이다.
일 양태에 따르면, 재구성 손실 및 예측 손실을 최소화하는 것은 변분 오토인코더의 인코더 신경망들의 제1 은닉된 상태들, 디코더 신경망들의 제2 은닉된 상태들 및 분류 신경망의 제3 은닉된 상태들에 대한 제1 항 및 제2 항의 합의 기울기들을 결정하는 것을 포함하며, 제1 항은 재구성 손실을 측정하고, 제2 항은 예측 손실을 측정한다.
일 양태에 따르면, 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망, Z 좌표에 대한 인코더 신경망을 포함하고, 디코더 신경망은 대응하는 디코더 네트워크들을 포함하며, 좌표에 대한 각각의 인코더-디코더 쌍은 다른 좌표들에 대한 인코더-디코더 쌍들과 독립적으로 학습된다.
또 다른 양태에 따르면, 예측 라벨들은 위치 좌표를 나타내는 다변량 데이터 값들이고, 예측 손실은 회귀 손실이다.
또 다른 양태에 따르면, 예측자는 예측 라벨들의 다변량 데이터 값에 의해 표시된 절대 좌표에 가중된 이웃 투영(weighted neighborhood projection)을 적용하도록 구성된 투영 컴포넌트를 포함하며, 가중된 이웃 투영은 라벨링된 노드들의 서브셋으로부터의 다수의 최근접 이웃 노드들을 채용한다. 실시예들에서, 최근접 이웃 노드들의 개수는 2개일 수 있다.
다른 실시예에 따르면, 컴퓨터 판독가능 저장 매체가 제공되며, 컴퓨터 판독가능 저장 매체에는, 하나 이상의 프로세서들에 의해 실행될 때, 전술된 바와 같이, 실내 환경에서의 컴퓨팅 디바이스의 위치에 대한 예측자를 학습시키는 방법을 수행하는 컴퓨터 실행가능 명령어들이 저장된다. 실시예들에 따르면, 컴퓨터 실행가능 명령어들은 전술된 실시예들에 따라 기술된 바와 같이 실내 환경에서의 컴퓨팅 디바이스의 위치에 대한 예측자를 제공할 수 있다.
일 특징에서, 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 학습시키는 컴퓨터 구현 방법이 기술된다. 방법은 실내 환경의 포지션들에서 무선 액세스 포인트들로부터 수신된 신호들의 강도를 포함하는 학습 데이터를 수신하는 단계 - 학습 데이터는: 신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋; 및 신호 강도 값들을 포함하고, 위치들을 나타내는 라벨들을 포함하지 않는 라벨링되지 않은 데이터의 서브셋을 포함함 -; 학습 데이터의 신호 강도 값들의 재구성 손실을 최소화하도록 변분 오토인코더를 학습시키는 단계 - 변분 오토인코더는: 잠재 변수에 신호 강도 값들을 인코딩하도록 구성된 인코더 신경망들; 및 재구성 손실을 판정하기 위해 재구성된 신호 강도 값들로 잠재 변수를 디코딩하도록 구성된 디코더 신경망들을 포함함 -; 및 라벨링된 데이터에 대한 예측 손실을 최소화하도록 분류 신경망을 학습시키는 단계 - 분류 신경망은 잠재 변수에 기초하여 예측된 위치를 생성했음 - 를 포함하고, 인코더 신경망들 및 분류 신경망은 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 형성한다.
일 특징에서, 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 학습시키는 컴퓨터 구현 방법이 기술된다. 방법은: 실내 환경의 포지션들에서 무선 액세스 포인트들로부터 수신된 신호들의 강도와 관련된 학습 데이터를 수신하는 단계 - 학습 데이터는: 신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋; 및 신호 강도 값들을 포함하고 위치들을 나타내는 라벨들을 포함하지 않는 라벨링되지 않은 데이터의 서브셋을 포함함 -; 및 변분 오토인코더와 공동으로 분류 신경망을 학습시키는 단계를 포함하고, 분류 신경망은 학습 데이터의 신호 강도 값들을 입력으로서 수신하고, 예측된 위치를 변분 오토인코더의 디코더 신경망들에 출력하도록 구성되고, 변분 오토인코더와 함께 분류 신경망을 학습시키는 단계는 재구성 손실 및 예측 손실을 최소화하는 단계를 포함하고, 재구성 손실은 학습 데이터의 신호 강도 값들과 재구성된 신호 강도 값들 사이에서 계산되고, 예측 손실은 예측된 위치와 학습 데이터의 라벨링된 데이터의 서브셋에 대한 위치 라벨들 사이에서 계산되고, 분류 신경망은 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 형성한다.
추가의 특징들에서, 분류 신경망은 예측된 위치를 변분 오토인코더의 디코더 신경망들에게 범주형 잠재 변수로서 출력하도록 구성된다.
추가의 특징들에서, 변분 오토인코더는 신호 강도 값들을 연속 잠재 변수에 인코딩하도록 구성된 인코더 신경망들을 포함한다.
추가의 특징들에서, 디코더 신경망들은 범주형 잠재 변수 및 연속 잠재 변수를 재구성된 신호 강도 값들로 디코딩한다.
추가의 특징들에서, 재구성 손실 및 예측 손실을 최소화하는 단계는, 인코더 신경망들의 제1 은닉된 상태들, 디코더 신경망들의 제2 은닉된 상태들, 및 분류 신경망의 제3 은닉된 상태들에 대한 제1 항 및 제2 항의 합의 그레이디언트들을 결정하는 것을 포함한다.
추가의 특징들에서, 제1 항은 학습 데이터에 대한 재구성 손실을 측정하고, 제2 항은 라벨링된 데이터의 서브셋에 대한 예측 손실을 측정한다.
추가의 특징들에서, 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망, 및 Z 좌표에 대한 인코더 신경망을 포함한다.
추가의 특징들에서, 디코더 신경망들은 X 좌표에 대한 디코더 신경망, Y 좌표에 대한 디코더 신경망, 및 Z 좌표에 대한 디코더 신경망을 포함한다.
추가의 특징들에서, 변분 오토인코더를 학습시키는 단계는, Y 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로, 그리고 Z 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로, X 좌표에 대한 인코더 신경망 및 디코더 신경망을 학습시키는 단계를 포함한다.
추가의 특징들에서, 변분 오토인코더를 학습시키는 단계는, Z 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로 Y 좌표에 대한 인코더 신경망 및 디코더 신경망을 학습시키는 단계를 포함한다.
추가의 특징들에서, X 좌표에 대한 인코더 신경망의 출력, Y 좌표에 대한 인코더 신경망의 출력, 및 Z 좌표에 대한 인코더 신경망의 출력은 연결되어 잠재 변수를 형성한다.
일 특징에서, 예측자는 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성되며, 예측자는 하나 이상의 프로세서들 및 코드에 의해 구현된다. 예측자는: 잠재 변수에 신호 강도 값들을 인코딩하도록 구성된 인코더 신경망들; 및 잠재 변수에 기초하여 컴퓨팅 디바이스의 위치에 대한 예측된 위치를 생성하도록 구성된 분류 신경망을 포함하고, 인코더 신경망들은 재구성 손실을 최소화하기 위해 변분 오토인코더로서 디코더 신경망들과 공동으로 학습되고, 분류 신경망은 예측 손실을 최소화하도록 학습된다.
일 특징에서, 예측자는 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성되며, 예측자는 하나 이상의 프로세서들 및 코드에 의해 구현된다. 예측자는: 신호 강도 값들로부터 예측된 위치를 생성하도록 구성된 분류 신경망을 포함하고, 분류 신경망은 재구성 손실 및 예측 손실을 최소화하는 것에 기초하여 변분 오토인코더와 함께 학습되며, 학습 중에, 분류 신경망은 예측된 위치를 변분 오토인코더의 디코더 신경망들에 출력한다.
추가의 특징들에서, 변분 오토인코더와 함께 분류 신경망을 학습시키는 동안, 예측된 위치는 변분 오토인코더의 범주형 잠재 변수이다.
추가의 특징들에서, 분류 신경망이 재구성 손실 및 예측 손실을 최소화하는 것에 기초하여 변분 오토인코더와 함께 학습되는 것은 변분 오토인코더의 인코더 신경망들의 제1 은닉된 상태들, 디코더 신경망들의 제2 은닉된 상태들, 및 분류 신경망의 제3 은닉된 상태들에 대한 제1 항 및 제2 항의 합의 그레이디언트들을 결정하는 것을 포함한다.
추가의 특징들에서, 제1 항은 재구성 손실을 측정하고, 제2 항은 예측 손실을 측정한다.
추가의 특징들에서, 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망, 및 Z 좌표에 대한 인코더 신경망을 포함하고, 디코더 신경망들은 X 좌표에 대한 디코더 신경망, Y 좌표에 대한 디코더 신경망, 및 Z 좌표에 대한 디코더 신경망을 포함한다.
추가의 특징들에서, X 좌표에 대한 인코더 신경망 및 디코더 신경망은 Y 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로, 그리고 Z 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로 학습되고, Y 좌표에 대한 인코더 신경망 및 디코더 신경망은 Z 좌표에 대한 인코더 신경망 및 디코더 신경망과 독립적으로 학습된다.
추가의 특징들에서, 예측 라벨들은 위치 좌표를 나타내는 다변량 데이터 값들이고, 예측 손실은 회귀 손실이다.
추가의 특징들에서, 하나 이상의 프로세서들은 예측 라벨들의 다변량 데이터 값에 의해 표시된 절대 좌표에 가중된 이웃 투영을 적용하도록 구성되며, 가중된 이웃 투영은 라벨링된 노드들의 서브셋으로부터의 다수의 최근접 이웃 노드들을 채용한다.
추가의 특징들에서, 최근접 이웃 노드들의 개수는 2개이다.
본 개시의 추가의 적용 분야들은 발명을 실시하기 위한 구체적인 내용, 청구 범위 및 도면으로부터 명백해질 것이다. 발명을 실시하기 위한 구체적인 내용 및 특정 예시들은 단지 예시를 위한 것이며, 본 개시의 범위를 제한하려는 것이 아니다.
본 개시내용은 발명을 실시하기 위한 구체적인 내용 및 하기의 첨부 도면들로부터 보다 완전히 이해될 것이다.
도 1은 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 것에 관한 개략도이다.
도 2는 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 것에 관한 개략도이다.
도 3은 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 방법의 흐름도이다.
도 4는 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 방법의 흐름도이다.
도 5는 Wi-Fi 기반 실내 위치추정을 위한 예측자의 실시예들에서 구현된 구조화된 회귀분석의 방법을 도시낸다.
도 6a는 Wi-Fi 기반 실내 위치추정을 위한 예측자의 테스트에 채용된 건물들의 항공 이미지이다.
도 6b는 항공 이미지에서 건물들을 하이라이트한다.
도 6c는 건물들에서의 Wi-Fi 액세스 포인트들의 분포를 도시한다.
도 7a는 실내 Wi-Fi 위치추정 방법들에 대한 주석 비율에 따른 위치 오차의 플롯들을 도시한다.
도 7b는 다양한 주석 비율들을 갖는 일 실시예에 따라 학습된 예측자에 대한 위치 오차의 누적 밀도 함수들을 도시한다.
도 8은 주석 비율 및 테스트 시간에 액세스 포인트들의 가용성에 따라 실시예들에 따른 예측자들의 위치추정 오차를 도시한다.
도 9a 및 도 9b는 변분 오토인코더에 의한 Wi-Fi 신호들의 재구성의 t-분산 확률적 이웃 임베딩(t-distributed stochastic neighbor embedding)을 도시한다.
도 10은 개시된 방법들이 수행될 수 있는 예시적인 아키텍처를 도시한다.
도면들에서, 참조 번호들은 유사하고/하거나 동일한 요소들을 식별하기 위해 재사용될 수 있다.
도 1은 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 것에 관한 개략도이다.
도 2는 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 것에 관한 개략도이다.
도 3은 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 방법의 흐름도이다.
도 4는 Wi-Fi 기반 실내 위치추정을 위한 예측자를 학습시키는 방법의 흐름도이다.
도 5는 Wi-Fi 기반 실내 위치추정을 위한 예측자의 실시예들에서 구현된 구조화된 회귀분석의 방법을 도시낸다.
도 6a는 Wi-Fi 기반 실내 위치추정을 위한 예측자의 테스트에 채용된 건물들의 항공 이미지이다.
도 6b는 항공 이미지에서 건물들을 하이라이트한다.
도 6c는 건물들에서의 Wi-Fi 액세스 포인트들의 분포를 도시한다.
도 7a는 실내 Wi-Fi 위치추정 방법들에 대한 주석 비율에 따른 위치 오차의 플롯들을 도시한다.
도 7b는 다양한 주석 비율들을 갖는 일 실시예에 따라 학습된 예측자에 대한 위치 오차의 누적 밀도 함수들을 도시한다.
도 8은 주석 비율 및 테스트 시간에 액세스 포인트들의 가용성에 따라 실시예들에 따른 예측자들의 위치추정 오차를 도시한다.
도 9a 및 도 9b는 변분 오토인코더에 의한 Wi-Fi 신호들의 재구성의 t-분산 확률적 이웃 임베딩(t-distributed stochastic neighbor embedding)을 도시한다.
도 10은 개시된 방법들이 수행될 수 있는 예시적인 아키텍처를 도시한다.
도면들에서, 참조 번호들은 유사하고/하거나 동일한 요소들을 식별하기 위해 재사용될 수 있다.
라벨링된 학습 데이터의 작은 부분만을 필요로 하는 준지도 학습 방식으로 Wi-Fi 기반 실내 위치추정을 위한 딥 러닝 시스템을 학습시키는 시스템이 다음과 같이 기술될 것이다. 설명을 목적으로, 예시들 및 특정 상세사항들이 실시예들의 완전한 이해를 제공하기 위해 제시된다. 실시예들은 이들 예시들의 특징들 중 일부 또는 전부를 단독으로 또는 아래에 기술된 다른 특징들과 조합하여 포함할 수 있고, 본 명세서에 기술된 특징들 및 개념들의 수정들 및 동등성들을 더 포함할 수 있다. 이하의 설명은 도 1 내지 도 10을 참조하여, 예시적인 실시예들 및 예시적인 기술적 이점들을 상세히 설명한다.
도 1 및 도 2의 시스템들을 학습시키는 것은 라벨링된 데이터의 서브셋()을 포함하는 학습 데이터를 채용한다. 은 라벨링된 데이터의 개수이며, 벡터()은 각각 Wi-Fi 액세스 포인트들() 중 하나로부터 수신된 신호 강도 값들의 벡터들이다. 변수들()은 절대 좌표들을 나타내는 범주형 변수들(categorical variables) 또는 다변량 변수들(multivariate variables)일 수 있는 주석이다.
가 범주 값들인 전자의 경우, 예측자를 학습시키기 위한 실시예들에 의해 해결되는 문제는 분류 문제이다. 후자의 경우, 는 절대 좌표들을 나타내는 다변량 데이터이며, 실시예들은 회귀분석 설정(regression setting)과 관련된다.
학습 데이터는 신호 강도 값들()의 컬렉션을 포함하는 라벨링되지 않은 데이터 값들()을 포함한다. 이하에서, 라벨링된 데이터의 분포는 에 의해 표현되고, 라벨링되지 않은 데이터의 분포는 에 의해 표현된다. 준지도 학습 방법의 기본 가정은 및 가 의 동일한 분포로부터 샘플링된다는 것이다.
특히, 본 명세서에 기술된 예시적인 실시예들은 인 경우에도 정확한 예측자를 생성할 수 있게 한다. 분수()는 주석 비율로도 지칭된다. 주석 비율은 학습 데이터에서 라벨링된 데이터와 라벨링되지 않은 데이터의 비율에 대응한다.
본 명세서에 기술된 학습 방법들 및 시스템들은 변분 오토인코더들에 기초한다. 변분 오토인코더들의 예시들은 “딥-생성 모델들을 이용한 준지도 학습(Semi-supervised Learning with Deep Generative Models)”arXiv: 1406.5298v2, Kingma et. al에 기술되어 있다.
본 출원은 Wi-Fi 기반과 같은, 실내 포지셔닝을 위한 분류자를 학습시키기 위해 변분 오토인코더(VAE)의 학습을 채용하는 개념에 기초한다. VAE의 인코더는, 라벨들이 이용가능한 경우, 라벨링된 데이터의 분류자 또는 회귀자(regressor) 역할을 하고, VAE의 디코더는 정규화기(regularizer) 역할을 한다. 변분 오토인코더들은 인코딩된 입력 신호 강도들을 잠재 공간에 임베딩하는 인코딩 및 위치 예측을 동시에 학습한다. 인코딩은 모든 학습 데이터로부터 학습되는 한편, 위치 예측은 학습 데이터의 라벨링된 서브셋으로부터 학습된다.
학습된 VAE는 입력 데이터의 잠재 공간 표현을 최적화하여 그의 재구성, 분류 작업이 해결되게 하고, 입력 데이터를 발생시키는 위치를 결정하는 것을 포함하고, 더 적은 라벨링된 데이터 포인트들로 학습될 수 있다.
도 1은 실내 환경에서의 컴퓨팅 디바이스의 포지션의 예측자를 학습시키는 시스템(100)을 포함한다. 도 3은 시스템(100)을 채용하는 실내 환경에서의 컴퓨팅 디바이스의 포지션에 대해 예측자를 학습시키기 위한 방법의 흐름도를 도시한다.
시스템(100)은 하나 이상의 프로세서들과 같은 하나 이상의 컴퓨터들에 의해 구현될 수 있다. 시스템(100)은 인코더 신경망(122) 및 디코더 신경망(124)을 포함하는 변분 오토인코더(12)를 포함한다.
(예컨대, VAE의) 예측자의 학습을 위해, 시스템(100)에는 및 를 포함하는 학습 데이터가 제공된다. 는 학습 데이터의 라벨링되지 않은 포인트들이고, 는 학습 데이터의 라벨링된 데이터 포인트들이다. 및 로부터 모든 신호 강도 데이터를 수집하는 신호 강도 값들의 세트()가 인코더 신경망(122)에 제공된다. 인코더 신경망(122)은 의 잠재 변수 분포에서 각각의 를 인코딩한다. 인코더 신경망(122)은 잠재 변수()의 분포의 파라미터들(, )을 결정할 수 있다. 디코더 신경망들(124)은 재구성된 신호 강도 값들()을 생성하기 위해 에서의 잠재 변수 분포로부터의 샘플들()을 채용한다.
시스템(100)은 위치 예측()을 생성하기 위해 잠재 변수 분포로부터의 샘플()을 채용하는 분류 신경망(16)을 더 포함한다. 실시예들에서, 학습 데이터의 라벨들()은 건물 번호들, 방 식별자들 및/또는 층수들과 같은 위치들을 나타내는 범주형 변수일 수 있으며, 예측된 위치는 대응하는 범주형 값이다. 대안적으로, 학습 데이터의 라벨들은 지점의 고도와 함께 위도 좌표 및 경도 좌표를 제공하는 3D 좌표를 나타내는 다변량 데이터일 수 있으며, 예측된 위치는 대응하는 다변량 데이터 값이다.
도 1은 잠재 특징 변별 모델(latent feature discriminative model)을 포함하는 제1 예시적인 실시예를 나타낸다. 제1 실시예는 다음에 따른 생성 모델에 기초한다.
여기서, 는 평균이 0이고, 단위 행렬()을 분산으로 가지는 가우시안 분포이다. 함수()는 생성 파라미터()를 갖는 비선형 우도 함수(likelihood function)이다. 함수()는 확률이 디코더 신경망들(124)에 의해 형성되는 가우시안 분포일 수 있으며, 생성 파라미터()는 디코더 신경망들(124)의 은닉된 상태들(hidden states)에 대응한다.
분포()는 잠재 변수()의 사전 분포이다. 정확한 사후 분포는 다루기 힘들 수 있기(intractable) 때문에, 변분 오토인코더(12)는 사후 분포에 대한 파라미터적 근사치를 채용할 수 있다. 변분 오토인코더(12)는 아래에 설명된 바와 같이 파라미터적 근사치와 정확한 사후 분포 간의 차이를 최소화하도록 학습된다. 변분 오토인코더(12)에 적용된 모델에 따르면, 잠재 변수()의 사후 분포는 다음의 파라미터적 가우시안 분포로 근사된다.
여기서, 파라미터들( 및 )은 인코더 신경망들(122)에 의해 생성된다. 수학식 2는 잠재 변수()의 잠재 변수 분포를 정의한다. 파라미터들()은 인코더 신경망들(122)의 은닉된 상태들에 대응하는 변분 파라미터들이다. 수학식 2는 변분 오토인코더의 추론 모델을 정의한다.
학습 하에서, 분류 신경망(16)은 인코더 신경망(122)의 출력으로부터 추론/판정된 잠재 변수()의 잠재 변수 분포로부터 샘플()을 수신하도록 구성된다. 인코더 신경망(122)의 출력은 를 인코딩한다.
분류 신경망(16)은 샘플()로부터 예측된 라벨()을 생성한다. 분류 신경망(16)은 예측된 라벨()과 라벨() 사이의 차이를 최소화하도록 학습될 수 있다. 이러한 방식으로, 인코더 신경망(122)에 의해 생성된 근사치 사후 분포()는 분류 신경망(16)을 학습시키기 위해, 라벨링된 데이터()에 대한 특징 추출기로서 사용된다.
따라서, 실내 환경에서의 컴퓨팅 디바이스의 위치에 대해 도 1에 따른 예측자를 학습시키기 위한 방법(300)은, 32에서, 하나 이상의 프로세서들에 의해, 라벨링된 데이터() 및 라벨링되지 않은 데이터()를 포함하는 학습 데이터를 수신하는 단계를 포함한다. 학습 데이터를 수신하는 단계는 라벨링되지 않은 데이터를 크라우드 소싱(crowd-sourcing)으로부터 또는 브라우징 로봇을 채용하여 얻는 단계를 포함할 수 있다.
34에서, 하나 이상의 프로세서들은 인코더 신경망들(122) 및 디코더 신경망들(124)을 포함하는 오토인코더를 학습시키며, 예를 들어, 확률적 경사 하강법(stochastic gradient descent)에 의해 신호 강도 값들() 및 재구성된 신호 강도 값들() 사이에서 산출된 손실()을 최소화하는 것을 포함한다. 손실을 최소화하는 것은 하나 이상의 프로세서들이 손실을 최소화하기 위해 생성 파라미터들() 및 변형 파라미터들() 중 하나 이상을 선택적으로 조정하는 것을 포함할 수 있다.
방법(300)은, 36에서, 하나 이상의 프로세서들이 라벨링된 데이터()에 대한 예측 오차(Err)를 최소화하기 위해 분류 신경망(16)을 학습시키는 것을 포함한다. 분류 신경망(16)은 입력() 그 자체 대신에 잠재 변수()의 잠재 변수 분포에 따라 입력()의 인코더 표현을 채용할 수 있기 때문에, 분류 신경망(16)은 인 경우에도 높은 정확도를 달성할 수 있다. 이는 의 잠재 공간에서 데이터 포인트들의 분리성이 향상되었기 때문일 수 있다.
시스템(100)의 학습 후에, 분류 신경망(16)이 전자 디바이스의 위치에 대한 예측자로서 인코더 신경망(122)과 함께 채용될 수 있다. 일단 학습되면, 분류 신경망(16) 및 인코더 신경망(122)은 전자 디바이스의 (현재) 위치를 예측/결정하도록 구성된다.
일 예시에서, 신호 강도 값들()은 전자 디바이스에 의해 수신되고, 그로부터 예측자에게 제공된다. 예측자의 학습된 인코더 신경망(122)은 을 수신하고, 최적화된 은닉된 파라미터들()을 채용하는 파라미터들( 및 )을 생성한다. 샘플()이 학습된 분류 신경망(16)에 제공되고, 학습된 분류 신경망(16)은 예측자의 출력으로서 예측 라벨()을 생성한다.
도 2는 예시적인 실시예에 따른 실내 위치추정을 위한 예측자를 학습시키기 위한 시스템(200)에 대한 개략도를 도시한다. 도 4는 도 2의 시스템을 채용하는 실내 환경에서의 컴퓨팅 디바이스의 포지션에 대해 예측자를 학습시키기 위한 방법의 흐름도를 도시한다. 도 1 및 도 3을 참조하여 설명된 실시예와 유사하게, 도 2에 따른 시스템은 라벨링된 데이터의 서브셋() 및 라벨링되지 않은 데이터의 서브셋()을 포함하는 학습 데이터(DT)를 채용한다.
시스템(200)은 인코더 신경망(222) 및 디코더 신경망(224)을 갖는 변분 오토인코더(22)를 포함한다. 인코더 신경망(222)은 신호 강도 값들()을 수신하고, 분류 신경망(26)과 함께 잠재 변수()의 잠재 변수 분포의 파라미터들()을 결정한다. 잠재 변수()의 잠재 변수 분포의 샘플()로부터, 디코더 신경망(224)은 를 재구성한다.
분류 신경망(26)은 학습 데이터의 신호 강도 값들()을 입력으로 수신하고, 잠재 변수()의 잠재 변수 분포의 파라미터들을 추론한다. 샘플()이 잠재 변수()의 잠재 변수 분포로부터 도출되고, 변분 오토인코더의 디코더 신경망들(224)에 제공된다.
라벨링되지 않은 서브셋()을 채용하는 도 2의 시스템(200)을 학습하는 경우, 변수()는 변분 오토인코더의 은닉된 변수로 취급되는 한편, 로 학습하는 경우, 변수()는 입력 변수이다.
도 2의 예시에 따르면, 예측자의 학습은 지도(supervised) 생성 모델의 오토인코더에 기초한다. 예측들은 잠재 연속 변수()에 추가하여 잠재 클래스 변수()를 사용하여 생성된다. 생성 모델은 다음과 같으며,
이에 의해 원래 입력의 공간에서의 상태들(), 즉 무선 강도 신호들()이 잠재 연속 변수()와 잠재 클래스 변수()로부터 재구성된다. 파라미터들()은 생성 모델의 은닉된 상태들이고, 함수()는 비선형 우도 함수이다. 함수()는 은닉된 상태들()을 갖는 디코더 신경망들(224개)에 의해 구현된다.
여기서, Cat는 요소들의 합이 1인 확률 벡터()가 있는 다항 분포이다. 는 미리 알려진 클래스들의 세트이며, 작업에 따라 결정될 수 있다. 따라서, 라벨들()은 클래스들()의 세트로부터 샘플링될 수 있다.
수학식 5는 잠재 변수()의 잠재 변수 분포를 정의하고, 오토인코더의 추론 모델을 정의한다. 도 2의 예시에 따르면, 파라미터()는 인코더 신경망(222)에 의해 생성되며, 파라미터()는 인코더 신경망(222) 및 분류 신경망(26)에 의해 공동으로 추정된다.
수학식 6은 잠재 변수(y)의 잠재 변수 분포를 정의한다. 수학시 6은 변별 분류자를 정의하는 것으로 볼 수 있다. 표기의 간결함을 위해, 분류 신경망(26)의 은닉된 상태들은 에 포함된 것으로 가정한다. 후술되는 바와 같은 학습 하에서, 도 2의 예시에 따른 학습은 사용된 근사치들 하에서 최적의 분류자를 얻을 수 있게 한다.
따라서, 도 2의 예시에 따른 시스템의 학습 동안, 수학식 5의 은 분류 신경망(26)에 의해 라벨링된 데이터로부터 추정되고, 인코더 신경망(222)에 의해 라벨링되지 않은 데이터로부터 추정된다.
도 2의 실시예에 따른 학습은 하기의 식을 평가하는 것을 포함한다.
여기서, 우변의 제1 항(first term)과 제2 항(second term)은 오토인코더 모델이 학습 데이터를 재현할 가능성의 하한으로부터 발생한다. 수학식 7의 우변의 제1 항은 라벨링된 데이터의 분포()를 채용하여 하기의 식을 평가한다.
여기서, 및 는 각각 수학식 4의 파라미터() 및 에 대응하고, 파라미터들()에 의존할 수 있다. 라벨링된 데이터에 대한 수학식 8의 평가는 라벨링된 데이터()를 오토인코더(22) 및 분류 신경망(26)에 공급하는 것을 포함하며, 이에 의해 변수()는 입력 변수로 취급된다.
여기서, 는 딥 러닝 네트워크의 도움으로 학습 단계 도중 학습할 수 있는 사후 분포이다. 이것은 랜덤한 것(예컨대, 값)으로 시작될 수 있으며, 학습 중에 재평가됨으로써 최종의 것(예컨대, 값)으로 수렴할 수 있다. 라벨링되지 않은 데이터에 대한 수학식 9의 평가는 라벨링되지 않은 데이터()를 오토인코더(22) 및 분류 신경망(26)에 공급하는 것을 포함하며, 이에 의해 변수()는 잠재 변수로 취급된다.
인코더 신경망(222), 디코더 신경망(224) 및 분류 신경망(26)은 하기의 식의 손실을 최소화하도록 학습된다.
여기서, 는 수학식 7에 따라 정의되고, 는 라벨링된 데이터에 대한 예측 손실이다. 수학식 10에서, 값()은 학습 과정에서 생성 모델의 기여도들과 변별 모델의 기여도들 사이의 트레이드 오프(trade-off)를 반영하는 미리 결정된 값이다.
도 2의 예시에 따른 예측자를 학습시키는 것은 제1 항과 제2 항의 합을 최소화하는 것에 기초하며, 제1 항은 학습 데이터에 대한 재구성 손실을 측정하고, 제2 항은 학습 데이터의 라벨링된 서브셋에 대한 예측 손실을 측정한다.
일 예시에서, 라벨들()은 위치 좌표들에 대한 다변량 데이터여서, 라벨들()이 위치 좌표들(예컨대, 위도, 경도 및 고도)을 나타낸다. 이 예시에서, 수학식 8의 분류 손실은 하기의 식에 의해 기술되는 회귀 손실이다.
도 4는 실내 환경에서의 컴퓨팅 디바이스의 위치에 대해 도 2의 예시에 따른 예측자를 학습시키기 위해 하나 이상의 프로세서들에 의해 수행되는 방법(400)을 도시한다. 42에서, 라벨링된 데이터() 및 라벨링되지 않은 데이터()를 포함하는 학습 데이터가 수신된다. 학습 데이터는 라벨링된 데이터의 서브셋을 크라우드 소싱으로부터의 라벨링되지 않은 데이터를 이용하여, 또는 브라우징 로봇을 채용함으로써 증강시킴으로써 얻을 수 있다.
44는 변분 오토인코더(22) 및 분류 신경망(26)을 학습시키는 단계를 포함한다. 변분 오토인코더(22) 및 분류 신경망(26)을 학습시키는 단계는, 예를 들어, 확률적 경사 하강법을 사용하여, 및 둘 모두로부터의 신호 강도 값들()을 오토인코더(22)에 공급하고, 신호 강도 값들() 및 로부터의 라벨들을 분류 신경망(26)에 공급하고, 손실을 최소화하기 위해 디코더 신경망(224)의 생성 파라미터들() 및 인코더 신경망(222) 및 분류 신경망(26)의 변분 파라미터들()을 조정함으로써 반복적으로 을 평가하는 것을 포함한다.
인코더 신경망(222), 디코더 신경망(224) 및 분류 신경망(26)이 학습된 후, 분류 신경망(26)은 인코더 신경망(222) 및 디코더 신경망(224)과 독립적으로 채용될 수 있다. 분류 신경망(26)에는 실내 환경에서 디바이스에 의해 수신된 신호 강도 값들()이 제공될 수 있고, 전술된 바와 같이 학습으로부터 생성된 분류 신경망(26)의 은닉된 상태들()의 값들을 채용하는 를 생성한다. 분포()로부터, 예측된 위치()는 디바이스의 위치에 대한 예측으로서 생성될 수 있다.
실시예들은 선택적으로 실현가능한 공간에 제약들을 제한하는 구조적 회귀분석의 방법들을 포함한다. 일부 회귀분석 방법들은 출력 변수들의 구조를 간과할 수 있으므로, 예측들이 실행가능성 공간을 벗어날 수 있다는 문제에 직면할 수 있다. 이는 예측 공간을, 즉 본 경우에는 실내 건물 공간을, 선험적으로(a priori) 제한할 수 있다.
분류 신경망들(16, 26)에 의해 생성된 위치 좌표들을 각각 나타내는 예측들()은 투영 컴포넌트들(18, 28)에 각각 제공되며, 이들은 실현가능한 공간 내에 놓이도록 예측()을 보정한다. 투영 컴포넌트들(18, 28)은 하나 이상의 프로세서들 및 코드에 의해 구현될 수 있다.
실시예들에서, 보정은 인코더에 의해 예측된 위치에 최근접한 학습 데이터의 라벨링된 서브셋()으로부터의 개의 이웃들을 고려하는 가중된 최근접 이웃 투영에 기초한다. 투영은 예측된 위치와 대응하는 이웃 사이의 거리들의 역(inverse)에 의해 가중치가 부여된 개의 최근접 이웃 노드들의 위치들의 가중된 합에 의해 주어진다. 이 투영은 개의 최근접 이웃 노드들의 컨벡스 헐(convex hull) 내의 투영에 대응하며, 최근접 이웃들이 예컨대 상이한 건물들에 속하지 않고 위상적으로(topologically) 서로 가까울 때 잘 작용한다. 이웃 노드들이 원거리일 때, 예를 들어, 상이한 건물들에 위치하는 경우, 구조적 투영으로 인해 오차가 증가할 수 있다. 이 오차의 위험은 의 다소 작은 값들을 선택함으로써 최소화할 수 있다. 실험 결과들에 따르면, =2는 적절하게 (예컨대, 가장) 정확한 결과들을 제공할 수 있다.
도 5는 일 예시에 따라 생성된 원시 예측들(raw predictions)에 적용된 구조화된 투영의 예시를 보여준다. 분류 신경망들(16, 26)의 위치 예측들(범례에서 "원시 예측"으로 표시됨)은 =2 최근접 라벨링된 이웃들 사이의 보간(interpolation)에 투영되어 투영된 위치("투영됨"으로 표시됨)를 얻는다. 도 5는 투영된 위치를 정답(ground truth)("GT"로 표시됨) 위치와 비교한다. 도 5의 예시는 투영이 몇몇 경우들을 제외한 모든 경우에서 위치추정 오차를 개선함을 보여준다.
실시예들에 따르면, 인코더 신경망들(122, 222), 디코더 신경망들(124, 224) 및 분류 신경망들(16, 26)은 모두, ReLU(정류 선형 유닛(rectified linear unit)) 활성화를 갖는 3개의 완전 연결 계층들이 있고, 512, 256 및 z = 128의 계층 크기들을 갖는 인공 신경망들로 구현된다. 예시들에서, 수학식 10에서 분류/회귀 손실은 로 가중된다. 예시들에서, 네트워크는 확률적 경사 하강법을 사용하여 학습되며, 예를 들어, 0.01의 학습률, 배치 정규화(batch normalization)들을 갖는 64의 배치 크기, 그리고 20,000회 반복에서 학습의 중지 기준을 갖는 아담 옵티마이저(Adam optimizer)를 채용함으로써 학습된다. 0.5의 확률을 갖는 드롭아웃(dropout)이 신경망들의 모든 계층들에 적용된다. 테스트 세트의 위치추정 오차는 평가 메트릭(evaluation metric)으로 사용된다.
일 예시에 따르면, 인코더 신경망들(122, 222)은 X, Y 및 Z 좌표들에 대한 별도의 인코더 신경망들을 포함하고, 디코더 신경망들(124, 224)은 X, Y 및 Z에 대한 대응하는 디코더들을 포함한다. 잠재 변수()는 3개의 인코더들의 인코더 출력들의 연결(concatenation)을 포함할 수 있다. 도 1 및 도 3, 또는 도 2 및 도 4에 따른 예측자의 학습은 X, Y 및 Z 좌표들의 각각의 인코더-디코더 쌍들을 다른 인코더-디코더 쌍들에 독립적으로 학습시키는 것을 포함할 수 있다. 따라서 본 실시예는 상이한 좌표들의 처리를 상관해제(decorrelate)하도록 허용한다.
다른 예시들에서, 인코더 신경망들(122, 222)은 X 및 Y에 대한 별도의 인코더 신경망들을 포함하고, 디코더 신경망들(124, 224)은 대응하여 X 및 Y에 대한 디코더들을 포함한다. 이 실시예에서, 도 1 및 도 3, 또는 도 2 및 도 4에 따른 예측자의 학습은 Y에 대한 인코더-디코더 쌍에 독립적으로 X에 대한 인코더-디코더 쌍을 학습시키는 것을 포함할 수 있다. 이 예시에서 잠재 변수 z는 2개의 인코더들의 인코더 출력들의 연결을 포함할 수 있다.
도 1 및 도 2의 예시들에 따른 학습은 건물 라벨을 또한 포함하는 학습 데이터로 건물 분류자(건물 내 위치들을 생성하도록 구성된 분류자)를 학습시키는 것을 더 포함할 수 있다. 분류 신경망들은 특정 건물들에 대해 학습된다. 건물 분류자에 의해 예측된 분류에 기초하여, 하나 이상의 프로세서들이 해당 건물에 대해 특별히 학습된 분류 신경망을 선택한다. 이는 특정 건물에 대한 위치 예측에서 더 정확한 분류 신경망들을 얻을 수 있게 한다.
실험적 평가
도 6은 전술한 실시예들에 따라 학습된 실내 위치들의 예측자를 평가하기 위해 수행된 테스트들의 설정을 도시한다. 도 6a 내지 도 6c는 스페인, 캠퍼스 카스텔로, 하우메 우노 대학교(Universitat Jaume I, Campus Castellσ, Spain)의 3개의 건물들의 108,703 평방 미터(m2)의 면적을 커버하는 UJI-IndoorLoc 데이터 세트를 포함한다.
도 6a는 3개의 건물들의 공중 뷰를 재현하고, 도 6b는 3개의 건물들의 면적을 하이라이트한다. 도 6c의 좌측 패널은 933개의 액세스 포인트들이 3개의 UJI 캠퍼스 건물들에 분산된 방식을 도시한다. 도 6c의 우측 패널은 데이터 세트에서 수신된 신호 강도 값들의 히스토그램을 플롯팅(plot)한다. 합계하여, 데이터 세트는 21,049개의 샘플 포인트들을 포함하고, 그중 19,938개 포인트들이 학습에 사용되고, 1,111개가 테스트에 사용된다. 데이터 세트 독립성을 보장하기 위해 학습 샘플들 4개월 후에 테스트 샘플들을 채취했다. 서로 상이한 25개의 모바일 디바이스 모델들을 이용하여 20명의 사용자가 데이터를 수집했다.
도 7은 도 6을 참조하여 기술된 실내 환경에 대해 본 개시에서 기술된 시스템들의 위치추정 오차에 대한 결과들을 도시한다. 위치추정 오차는 테스트 포인트의 예측된 좌표와 실제 좌표 사이의 유클리드 거리(Euclidean distance)이다. 테스트 세트에 대한 위치추정 오차들의 평균은 도 7a 내지 도 7c의 방법의 성능으로서 보고된다. 도 7a는 본 개시에서 기술된 실내 위치추정 시스템들의 예시들을 다른 실내 위치추정 시스템들과 비교한 것으로서, 도 7a는 준지도 학습의 학습 세트에서 주석 비율에 따른 각 방법의 위치추정 오차를 플롯팅한다.
실내 위치추정의 예시적인 다른 방법은 하이퍼 파라미터들(C 및 )을 채용하는 준지도 서포트 벡터 회귀분석(support vector regression, SVR)이다. 또 다른 예시적인 다른 방법은 하이퍼 파라미터(k)를 채용하는 k-최근접 이웃 회귀분석(k-nearest neighbor regression, kNN)이다. 최적의 하이퍼 파라미터들은 SVR에 대해서 을 검색하고, kNN에 대해서 을 검색하는 5중 내부 교차 검증(five-fold inner cross-validation)에 의해 결정되었다. kNN 방법은 신호 강도 값들에 적용되는 잡음 제거(de-noising) 오토인코더(AU)와 결합될 수 있다.
도 7a는 본 개시에서 제안된 변분 오토인코더들의 위치추정 오차의 결과들을 추가로 도시한 것으로서, 여기서, VAE-M1은 도 1의 제1 예시를 나타내고, VAE-M2는 도 2의 제2 예시를 나타내고, VAE1-SP 및 VAE2-SP는 각각 도 5를 참조하여 위에 설명된 바와 같은, 구조화된 투영에 의해 개선된 변분 오토인코더의 제1 예시 및 제2 예시를 나타낸다. 도 7a에 도시된 바와 같이, 모든 방법들은 주석 데이터 비율이 100일 때 완전 지도 설정에서 대략적으로 5 m의 평균 위치추정 오차를 달성한다. 테스트된 방법들에 대한 UJI 실내 로그 데이터 세트의 학습/테스트 분할을 채용한 위치추정 오차가 표 1에 주어진다. VAE2-SP 방법은 테스트된 방법들 중 가장 낮은 평균 위치추정 오차를 달성할 수 있다.
방법 | SVR | KNN | AU-KNN | VAE-M1 | VAE-M2 | VAE1-SP | VAE2-SP |
RMSE(m) | 5.41 | 5.98 | 5.47 | 5.32 | 5.21 | 4.73 | 4.65 |
도 7a에 도시된 바와 같이, 데이터의 10%만 라벨링된 경우, 본 출원에 기술된 방법들 이외의 방법들은 적어도 60 m(미터)의 위치추정 오차를 발생시키는 한편, 제1 및 제2 예시들의 변분 오토인코더는 더 낮은 위치추정 오차를 달성한다. 변분 오토인코더들이 도 5의 구조화된 투영에 의해 향상될 때, 위치추정 오차는 대략적으로 다른 예시들의 절반이다.도 7a에 표시된 결과들은 모든 방법들이 50% 이상의 데이터가 라벨링될 때 적당한(modest) 주석 감소에 합리적으로 잘 대응한다는 것을 나타낸다. 그러나, 감소가 상당해지고 라벨링된 데이터의 값 비싼 수집을 상당히 감소시킬 때, 본 개시에서 논의된 VAE 기반 방법들은 다른 방법들보다 더 잘 대응하고 여전히 합리적인 예측 정확도를 달성한다.
도 7b는 데이터에서 라벨링된 데이터의 비율을 감소시키는 효과를 도시한다. 도 7b는 VAE2-SP 학습에 기초한 예측자에 대한 위치추정 오차의 누적 분포 함수를 표시한다. 도 7b에 도시된 바와 같이, 해당 예측자는 1% 내지 5%의 주석 비율 감소까지 잘 대응한다.
도 8은 Wi-Fi 액세스 포인트들 중 일부가 예를 들어 기술 또는 비즈니스 관련 문제들로 인해 그의 신호들을 방출하는 것을 중지하는, 실제 환경에서의 실내 위치추정의 또 다른 문제에 관한 것이다. 도 8은 주석 비율과 이용가능한 Wi-Fi 액세스 포인트들의 비율 둘 모두에 따른 위치추정 오차를 플롯팅한다. 이용가능한 Wi-Fi 액세스 포인트들의 비율은 테스트 시간에 모든 Wi-Fi 액세스 포인트이 이용가능한 경우의 100%로부터, 테스트 시간에 Wi-Fi 액세스 포인트들의 절반만 이용가능한 경우의 50%까지 변화된다. 도 5에 제시된 결과들은 이용가능한 Wi-Fi 액세스 포인트들의 함수에서 모델을 다시 학습함으로써 얻은 것이다.
도 8의 결과들은 VAE2-SP 모델을 포함하는 예시에 관한 것이다. 이용가능한 액세스 포인트들이 50%인 경우, 위치추정 오차는 완전히 라벨링된 데이터의 경우 5.12 m이고, 주석 비율이 5%인 경우 6.43 m이며, 이는 100%의 액세스 포인트가 이용가능한 경우에 측정된 오차 - 완전히 라벨링된 데이터의 경우 5.65 m이고 주석 비율이 5%인 경우 6.12 m임 -에 비교할 만한 오차이다.
도 9a 및 도 9b는 각각 좌측 패널에서 VAE 이전, 즉 입력 신호 강도 데이터()에 적용되고, 우측 패널에서 VAE 이후, 즉 재구성된 신호 강도 데이터(, or )에 적용된 t-분산 확률적 이웃 임베딩(t-SNE) 형태의 VAE의 시각화를 도시한다. 데이터 포인트들은 분류 신경망, 도 9a의 건물 속성 또는 도 9b의 층 속성에 의해 생성된 라벨에 따라 회색이다. 도 9a 및 도 9b의 결과들은 VAE에 의해 생성된 데이터가 원래 데이터보다 더 우수한 분리성을 가지고 있음을 시사하며, 이는 낮은 주석 비율의 학습 하에서 예측자의 높은 정확도를 설명한다.
상술된 시스템들, 방법들 및 실시예들은 데이터 교환을 위한 인터넷과 같은 네트워크(106)(무선 및/또는 유선일 수 있음)를 통해 통신하는 서버(102) 및 하나 이상의 클라이언트 디바이스들(104)을 포함하는 도 10에 도시된 것과 같은 아키텍처 내에서 구현될 수 있다. 서버(102) 및 클라이언트 디바이스들(104)은 각각 데이터 프로세서(또는 더 간단히 프로세서)(112)(112-1 내지 112-5) 및 하드 디스크와 같은 메모리(113)(113-1 내지 113-5)를 포함한다. 클라이언트 디바이스들(104)은 셀룰러 전화들(104-2), 컴퓨터(104-3), 자율 주행 차량(104-4) 또는 로봇(104-5)을 포함하여 서버(102)와 통신하는 임의의 디바이스들일 수 있다. 보다 정확하게는, 일 실시예에서, 도 1 및 도 2의 실시예들에 따른 시스템은 서버(102)에 의해 구현될 수 있다. 클라이언트 디바이스들(104)은 하나 이상의 Wi-Fi(IEEE 802.11) 프로토콜들을 사용하여 통신하도록 구성된다.
서버(102)는 도 1 및 도 3, 또는 도 2 및 도 4의 실시예들에 따라 학습 데이터를 수신하고 예측자를 학습하고, 예측자를 메모리(113-1)에 저장할 수 있다. 예를 들어, 예측자가 학습되고 클라이언트 디바이스(104)에 저장되면, 실내 환경에 위치한 클라이언트 디바이스(104)는 무선 액세스 포인트들로부터 수신된 신호 강도 값들을 결정하고, 네트워크(106)를 통해 결정된 신호 강도 값들을 서버(102)에 제공하며, 서버는 학습된 예측자를 신호 강도 값들에 적용하여 클라이언트 디바이스(104)의 예측된 위치를 결정하며, 예측된 위치를 네트워크(106)를 통해 클라이언트 디바이스(104)에 제공할 수 있다. 대안적으로, 예측자는 오프라인 사용을 위해 클라이언트 디바이스들(104)에 다운로드될 수 있다.
전술한 방법 단계들의 일부 또는 전부는 프로세서, 마이크로 프로세서, 전자 회로 또는 처리 회로부에 의해(또는 그를 사용하여) 실행된다는 점에서 컴퓨터에 의해 구현될 수 있다.
전술된 실시예들은 하드웨어 또는 소프트웨어로 구현될 수 있다. 구현은 컴퓨터 판독가능 저장 매체와 같은 비일시적 저장 매체, 예를 들어, 플로피 디스크, DVD, Blu-Ray, CD, ROM(read only memory), PROM, EPROM, EEPROM, RAM(Random Access Memory) 또는 FLASH 메모리를 사용하여 수행될 수 있다. 그러한 컴퓨터 판독가능 매체는 범용 또는 특수 목적 컴퓨터 시스템에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수 있다.
일반적으로, 실시예들은 프로그램 코드 또는 컴퓨터 실행가능 명령어들을 갖는 컴퓨터 프로그램 제품으로서 구현될 수 있으며, 프로그램 코드 또는 컴퓨터 실행가능 명령어들은 컴퓨터 프로그램 제품이 컴퓨터에서 실행될 때 방법들 중 하나를 수행하도록 작동 가능하다. 프로그램 코드 또는 컴퓨터 실행가능 명령어들은 예를 들어, 컴퓨터 판독가능 저장 매체에 저장될 수 있다.
일 실시예에서, 저장 매체(또는 데이터 캐리어 또는 컴퓨터 판독가능 매체)는, 하나 이상의 프로세서들에 의해 수행될 때, 본 개시에서 기술된 방법들 중 하나를 수행하기 위한 컴퓨터 프로그램 또는 컴퓨터 실행가능 명령어들을 저장한다.
따라서, 본 개시의 방법들 및 시스템들은 학습을 위해 라벨링된 데이터 포인트들에 대한 필요성을 감소시키면서 정확한 실내 위치추정을 가능하게 하여 시스템 데이터의 학습 비용을 감소시킨다. 기술된 실시예들은 변분 오토인코더들의 잠재 공간이, 낮은 주석 비율들에서 높은 정확도로 분류자의 학습을 가능하게 한다는 인식에 기초한다.
전술한 설명은 본질적으로 단지 예시적인 것이며, 본 개시, 그의 응용, 또는 사용들을 제한하려는 것이 아니다. 본 개시의 광범위한 교시들은 다양한 형태들로 구현될 수 있다. 따라서, 본 개시는 특정 예시들을 포함하지만, 본 개시의 진정한 범위는 그들에 제한되지 않아야 하는데, 이는 도면들, 명세서 및 하기 청구 범위의 연구에 따라 다른 변형들이 명백해질 것이기 때문이다. 방법 내의 하나 이상의 단계들은 본 개시의 원리들을 변경하지 않고 상이한 순서로(또는 동시에) 실행될 수 있음을 이해해야 한다. 또한, 각각의 실시예들은 소정의 특징들을 갖는 것으로 전술되었지만, 본 개시의 임의의 실시예와 관련하여 기술된 이들 특징들 중 임의의 하나 이상은 임의의 다른 실시예들의 특징들로 구현되고/되거나 결합될 수 있는데, 그 조합은 명시적으로 기술되지는 않는다. 다시 말해서, 기술된 실시예들은 상호 배타적이지 않으며, 하나 이상의 실시예들의 서로의 순열/치환은 본 개시의 범위 내에 있다.
요소들(예를 들어, 모듈들, 회로 소자들, 반도체 층들 등) 사이의 공간 및 기능적 관계들은 "연결된", "연계된", "결합된", "인접한", "근접한", “상부에”, “위에”, “아래에” 및 “배치된”을 포함하는 다양한 용어들을 사용하여 설명된다. 제1 및 제2 요소들 사이의 관계가 상기 개시에서 설명될 때, "직접적인"것으로 명시적으로 언급되지 않는 한, 그 관계는 다른 중간 요소들이 제1 및 제2 요소들 사이에 존재하지 않는 직접적인 관계일 수 있지만, 또한 하나 이상의 개재 요소들이 제1 요소와 제2 요소 사이에 (공간적으로 또는 기능적으로) 존재하는 간접적인 관계일 수도 있다. 본 개시에서 사용된 바와 같이, 어구 A, B 및 C 중 적어도 하나는 비-배타적 논리 OR을 사용하는 논리 (A OR B OR C)를 의미하는 것으로 해석되어야 하며, "A 중 적어도 하나, B 중 적어도 하나 및 C 중 적어도 하나"를 의미하는 것으로 해석되어서는 안된다.
도면들에서, 화살촉으로 나타낸 화살표의 방향은 예시에서 관련성이 있는(of interest) 정보(예컨대, 데이터 또는 명령어들)의 흐름을 일반적으로 나타낸다. 예를 들어, 요소 A와 요소 B가 다양한 정보를 교환하지만, 요소 A로부터 요소 B로 송신되는 정보가 예시와 관련이 있는 경우, 화살표는 요소 A에서 요소 B를 향해 가리킬 수 있다. 이러한 단방향 화살표는 다른 어떤 정보도 요소 B로부터 요소 A로 송신되지 않는다고 암시하는 것이 아니다. 또한, 요소 A로부터 요소 B로 전송된 정보에 대해, 요소 B는 정보에 대한 요청들 또는 수신 응답 확인들을 요소 A로 전송할 수 있다.
용어 '코드'는 소프트웨어, 펌웨어 및/또는 마이크로 코드를 포함할 수 있으며, 프로그램들, 루틴들, 함수들, 클래스들, 데이터 구조들 및/또는 객체들을 지칭할 수 있다. 용어 '메모리'는 용어 '컴퓨터 판독가능 매체'의 서브셋이다. 본 개시에서 사용되는 용어 '컴퓨터 판독가능 매체'는 (예를 들어, 반송파 상에서) 매체를 통해 전파되는 일시적인 전기 또는 전자기 신호들을 포함하지 않으며; 따라서 용어 '컴퓨터 판독가능 매체'는 유형물(tangible)이고 비일시적인 것으로 간주될 수 있다. 비일시적, 유형의 컴퓨터 판독가능 매체의 제한적이지 않은 예시들은 비휘발성 메모리(예컨대, 플래시 메모리, 소거가능 프로그램가능 판독 전용 메모리 또는 마스크 판독 전용 메모리), 휘발성 메모리(예컨대, 정적 랜덤 액세스 메모리 또는 동적 랜덤 액세스 메모리), 자기 저장 매체(예컨대, 아날로그 또는 디지털 자기 테이프 또는 하드 디스크 드라이브) 및 광학 저장 매체(예컨대, CD, DVD 또는 Blu-ray 디스크)이다.
본 출원에 설명된 장치들 및 방법들은 컴퓨터 프로그램들로 구현된 하나 이상의 특정 기능들을 실행하도록 범용 컴퓨터를 구성함으로써 생성된 특수 목적 컴퓨터에 의해 부분적으로 또는 완전히 구현될 수 있다. 전술한 기능 블록들, 흐름도 컴포넌트들 및 기타 요소들은 숙련된 기술자 또는 프로그래머의 일상적인 작업에 의해 컴퓨터 프로그램들로 변환될 수 있는 소프트웨어 사양들로서의 역할을 한다.
컴퓨터 프로그램들은 적어도 하나의 비일시적, 유형의 컴퓨터 판독가능 매체에 저장된 프로세서 실행가능 명령어들을 포함한다. 컴퓨터 프로그램들은 또한 저장된 데이터를 포함하거나 그에 의존할 수 있다. 컴퓨터 프로그램은 특수 목적 컴퓨터의 하드웨어와 상호작용하는 기본 입/출력 시스템(BIOS), 특수 목적 컴퓨터의 특정 디바이스들과 상호작용하는 디바이스 드라이버들, 하나 이상의 운영 체제들, 사용자 애플리케이션들, 배경 서비스들, 배경 애플리케이션들 등을 포함할 수 있다.
컴퓨터 프로그램들은 (i) 하이퍼 텍스트 마크업 언어(HTML), 확장성 마크업 언어(XML) 또는 자바 스크립트 객체 표기법(JSON)과 같은 파싱될(parsed) 설명 텍스트, (ii) 어셈블리 코드, (iii) 컴파일러에 의해 소스 코드로부터 생성된 객체 코드, (iv) 인터프리터에 의한 실행을 위한 소스 코드, (v) JIT(just-in-time) 컴파일러에 의한 컴파일링 및 실행을 위한 소스 코드 등을 포함할 수 있다. 예를 들어, 소스 코드는 C, C ++, C #, Objective-C, Swift, Haskell, Go, SQL, R, Lisp, Java®Fortran, Perl, Pascal, Curl, OCaml, Javascript®HTML5(하이퍼 텍스트 마크업 언어 5차 개정), Ada, ASP(Active Server Pages), PHP (PHP: Hypertext Preprocessor), Scala, Eiffel, Smalltalk, Erlang, Ruby, Flash®Visual Basic®및 Python®을 포함하는 언어들의 구문을 사용하여 작성될 수 있다.
Claims (22)
- 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 학습시키는 컴퓨터 구현 방법으로서,
실내 환경의 포지션들에서 무선 액세스 포인트들로부터 수신된 신호들의 강도를 포함하는 학습 데이터를 수신하는 단계 - 상기 학습 데이터는:
신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된(labeled) 데이터의 서브셋; 및
신호 강도 값들을 포함하고 위치들을 나타내는 라벨들을 포함하지 않는 라벨링되지 않은(unlabeled) 데이터의 서브셋을 포함함 -; 및
상기 학습 데이터의 상기 신호 강도 값들의 재구성 손실을 최소화하도록 변분 오토인코더(variational autoencoder)를 학습시키는 단계 - 상기 변분 오토인코더는:
잠재 변수(latent variable)에 상기 신호 강도 값들을 인코딩하도록 구성된 인코더 신경망들; 및
상기 재구성 손실을 판정하기 위해 재구성된 신호 강도 값들로 상기 잠재 변수를 디코딩하도록 구성된 디코더 신경망들을 포함함 -; 및
라벨링된 데이터에 대한 예측 손실을 최소화하도록 분류 신경망을 학습시키는 단계
를 포함하고,
상기 분류 신경망은 상기 잠재 변수에 기초하여 예측된 위치를 생성하고,
상기 인코더 신경망들 및 상기 분류 신경망은 상기 실내 환경에서의 상기 컴퓨팅 디바이스의 위치를 예측하도록 구성된 상기 예측자를 형성하는, 컴퓨터 구현 방법.
- 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 학습시키는 컴퓨터 구현 방법으로서,
실내 환경의 포지션들에서 무선 액세스 포인트들로부터 수신된 신호들의 강도와 관련된 학습 데이터를 수신하는 단계 - 상기 학습 데이터는:
신호 강도 값들 및 위치 라벨들을 포함하는 라벨링된 데이터의 서브셋; 및
신호 강도 값들을 포함하고 위치들을 나타내는 라벨들을 포함하지 않는 라벨링되지 않은 데이터의 서브셋을 포함함 -; 및
변분 오토인코더와 공동으로 분류 신경망을 학습시키는 단계
를 포함하고,
상기 분류 신경망은 상기 학습 데이터의 신호 강도 값들을 입력으로서 수신하고, 예측된 위치를 상기 변분 오토인코더의 디코더 신경망들에 출력하도록 구성되고,
상기 변분 오토인코더와 함께 상기 분류 신경망을 학습시키는 단계는, 재구성 손실 및 예측 손실을 최소화하는 단계를 포함하고, 상기 재구성 손실은 상기 학습 데이터의 상기 신호 강도 값들과 상기 재구성된 신호 강도 값들 사이에서 계산되고, 상기 예측 손실은 상기 예측된 위치와 상기 학습 데이터의 상기 라벨링된 데이터의 서브셋에 대한 상기 위치 라벨들 사이에서 계산되고,
상기 분류 신경망은 상기 실내 환경에서의 상기 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자를 형성하는, 컴퓨터 구현 방법.
- 제2항에 있어서, 상기 분류 신경망은 상기 예측된 위치를 상기 변분 오토인코더의 상기 디코더 신경망들에게 범주형 잠재 변수(categorical latent variable)로서 출력하도록 구성되는, 컴퓨터 구현 방법.
- 제3항에 있어서, 상기 변분 오토인코더는 상기 신호 강도 값들을 연속 잠재 변수에 인코딩하도록 구성된 인코더 신경망들을 포함하는, 컴퓨터 구현 방법.
- 제4항에 있어서, 상기 디코더 신경망들은 상기 범주형 잠재 변수 및 상기 연속 잠재 변수를 재구성된 신호 강도 값들로 디코딩하는, 컴퓨터 구현 방법.
- 제4항에 있어서, 상기 재구성 손실 및 상기 예측 손실을 최소화하는 단계는, 상기 인코더 신경망들의 제1 은닉된 상태들(hidden states), 상기 디코더 신경망들의 제2 은닉된 상태들 및 상기 분류 신경망의 제3 은닉된 상태들에 대한 제1 항(first term) 및 제2 항(second term)의 합의 그레이디언트들(gradients)을 결정하는 단계를 포함하는, 컴퓨터 구현 방법.
- 제6항에 있어서, 상기 제1 항(first term)은 상기 학습 데이터에 대한 상기 재구성 손실을 측정하고, 상기 제2 항(second term)은 상기 라벨링된 데이터의 서브셋에 대한 상기 예측 손실을 측정하는, 컴퓨터 구현 방법.
- 제4항에 있어서, 상기 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망 및 Z 좌표에 대한 인코더 신경망을 포함하는, 컴퓨터 구현 방법.
- 제8항에 있어서, 상기 디코더 신경망들은 X 좌표에 대한 디코더 신경망, Y 좌표에 대한 디코더 신경망 및 Z 좌표에 대한 디코더 신경망을 포함하는, 컴퓨터 구현 방법.
- 제9항에 있어서, 상기 변분 오토인코더를 학습시키는 단계는, 상기 Y 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로, 그리고 상기 Z 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로, 상기 X 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망을 학습시키는 단계를 포함하는, 컴퓨터 구현 방법.
- 제10항에 있어서, 상기 변분 오토인코더를 학습시키는 단계는, 상기 Z 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로 상기 Y 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망을 학습시키는 단계를 포함하는, 컴퓨터 구현 방법.
- 제9항에 있어서, 상기 X 좌표에 대한 상기 인코더 신경망의 출력, 상기 Y 좌표에 대한 상기 인코더 신경망의 출력 및 상기 Z 좌표에 대한 상기 인코더 신경망의 출력은 연결(concatenate)되어 상기 잠재 변수를 형성하는, 컴퓨터 구현 방법.
- 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자로서, 상기 예측자는 하나 이상의 프로세서들 및 코드에 의해 구현되고, 상기 예측자는:
잠재 변수에 신호 강도 값들을 인코딩하도록 구성된 인코더 신경망들; 및
상기 잠재 변수에 기초하여 상기 컴퓨팅 디바이스의 상기 위치에 대한 예측된 위치를 생성하도록 구성된 분류 신경망
을 포함하고,
상기 인코더 신경망들은 재구성 손실을 최소화하기 위해 변분 오토인코더로서 디코더 신경망들과 공동으로 학습되고, 상기 분류 신경망은 예측 손실을 최소화하도록 학습되는, 예측자.
- 실내 환경에서의 컴퓨팅 디바이스의 위치를 예측하도록 구성된 예측자로서, 상기 예측자는 하나 이상의 프로세서들 및 코드에 의해 구현되고, 상기 예측자는:
신호 강도 값들로부터 예측된 위치를 생성하도록 구성된 분류 신경망을 포함하고,
상기 분류 신경망은 재구성 손실 및 예측 손실을 최소화하는 것에 기초하여 변분 오토인코더와 함께 학습되고,
상기 학습 동안, 상기 분류 신경망은 상기 예측된 위치를 상기 변분 오토인코더의 디코더 신경망들에 출력하는, 예측자.
- 제14항에 있어서, 상기 변분 오토인코더와 함께 상기 분류 신경망을 학습시키는 동안, 상기 예측된 위치는 상기 변분 오토인코더의 범주형 잠재 변수인, 예측자.
- 제14항에 있어서, 상기 분류 신경망이 재구성 손실 및 예측 손실을 최소화하는 것에 기초하여 변분 오토인코더와 함께 학습되는 것은, 상기 변분 오토인코더의 인코더 신경망들의 제1 은닉된 상태들, 상기 디코더 신경망들의 제2 은닉된 상태들 및 상기 분류 신경망의 제3 은닉된 상태들에 대한 제1 항(first term) 및 제2 항(second term)의 합의 그레이디언트들을 결정하는 것을 포함하는, 예측자.
- 제16항에 있어서, 상기 제1항(first term)은 상기 재구성 손실을 측정하고, 상기 제2항(second term)은 상기 예측 손실을 측정하는, 예측자.
- 제17항에 있어서,
상기 인코더 신경망들은 X 좌표에 대한 인코더 신경망, Y 좌표에 대한 인코더 신경망 및 Z 좌표에 대한 인코더 신경망을 포함하고,
상기 디코더 신경망들은 X 좌표에 대한 디코더 신경망, Y 좌표에 대한 디코더 신경망 및 Z 좌표에 대한 디코더 신경망을 포함하는, 예측자.
- 제18항에 있어서,
상기 X 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망은 상기 Y 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로, 그리고 상기 Z 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로 학습되고,
상기 Y 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망은 상기 Z 좌표에 대한 상기 인코더 신경망 및 상기 디코더 신경망과 독립적으로 학습되는, 예측자.
- 제14항에 있어서, 예측 라벨들은 위치 좌표를 나타내는 다변량(multivariate) 데이터 값들이고, 상기 예측 손실은 회귀 손실(regression loss)인, 예측자.
- 제20항에 있어서,
상기 예측 라벨들의 다변량 데이터 값에 의해 표시된 절대 좌표에 가중된 이웃 투영(weighted neighborhood projection)을 적용하도록 구성된 하나 이상의 프로세서들을 더 포함하며,
상기 가중된 이웃 투영은 라벨링된 노드들의 서브셋으로부터의 다수의 최근접 이웃 노드들을 채용하는, 예측자.
- 제21항에 있어서, 상기 최근접 이웃 노드들의 수는 2개인, 예측자.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19306204.9 | 2019-09-26 | ||
EP19306204.9A EP3798918A1 (en) | 2019-09-26 | 2019-09-26 | Using semi-supervised variational autoencoder for wi-fi-based indoor localization |
US16/904,693 US11373096B2 (en) | 2019-09-26 | 2020-06-18 | Semi-supervised variational autoencoder for indoor localization |
US16/904,693 | 2020-06-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210036845A true KR20210036845A (ko) | 2021-04-05 |
Family
ID=68281349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200124312A KR20210036845A (ko) | 2019-09-26 | 2020-09-24 | 실내 위치추정을 위한 준지도 변분 오토인코더 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11373096B2 (ko) |
EP (1) | EP3798918A1 (ko) |
JP (1) | JP2021056222A (ko) |
KR (1) | KR20210036845A (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11887002B2 (en) | 2022-06-16 | 2024-01-30 | Actionpower Corp. | Method of generating data by using artificial neural network model having encoder-decoder structure |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210282033A1 (en) * | 2020-03-09 | 2021-09-09 | Psj International Ltd. | Positioning system for integrating machine learning positioning models and positioning method for the same |
US11909482B2 (en) * | 2020-08-18 | 2024-02-20 | Qualcomm Incorporated | Federated learning for client-specific neural network parameter generation for wireless communication |
EP4001948A1 (en) | 2020-11-13 | 2022-05-25 | Naver Corporation | Deep smartphone sensors fusion for indoor positioning and tracking |
CN113221995B (zh) * | 2021-04-30 | 2023-06-30 | 中南民族大学 | 基于半监督深度分类算法的数据分类方法、设备及装置 |
JP2023010182A (ja) * | 2021-07-09 | 2023-01-20 | パナソニックIpマネジメント株式会社 | 学習装置、経路推定システムおよび学習方法 |
CN113420731B (zh) * | 2021-08-23 | 2021-11-16 | 北京的卢深视科技有限公司 | 模型训练方法、电子设备及计算机可读存储介质 |
CN113916231A (zh) * | 2021-09-28 | 2022-01-11 | 上海浦东发展银行股份有限公司 | 移动设备定位导航方法、装置、移动设备及存储介质 |
CN114286282B (zh) * | 2021-11-18 | 2023-12-26 | 中国科学院空天信息创新研究院 | 基于手机WiFi RSS数据和降维算法的指纹定位方法 |
CN114416948A (zh) * | 2022-01-18 | 2022-04-29 | 重庆邮电大学 | 一种基于语义感知的一对多对话生成方法及装置 |
US20230309053A1 (en) * | 2022-03-25 | 2023-09-28 | Viavi Solutions Inc. | Utilizing machine learning models to estimate user device spatiotemporal behavior |
US20230376784A1 (en) * | 2022-05-20 | 2023-11-23 | Samsung Electronics Co., Ltd. | Method, system, and apparatus for efficient neural data compression for machine type communications via knowledge distillation |
WO2024016303A1 (zh) * | 2022-07-22 | 2024-01-25 | 京东方科技集团股份有限公司 | 分类模型的训练方法、分类方法、装置、电子设备及介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2002335697A1 (en) * | 2001-09-05 | 2003-03-18 | Newbury Networks, Inc. | Position detection and location tracking in a wireless network |
CN101718859A (zh) * | 2008-10-09 | 2010-06-02 | 日电(中国)有限公司 | 以自适应分辨率定位目标的方法和系统 |
US20160371394A1 (en) * | 2015-06-22 | 2016-12-22 | The Governing Council Of The University Of Toronto | Indoor localization using crowdsourced data |
US10776712B2 (en) * | 2015-12-02 | 2020-09-15 | Preferred Networks, Inc. | Generative machine learning systems for drug design |
US11927965B2 (en) * | 2016-02-29 | 2024-03-12 | AI Incorporated | Obstacle recognition method for autonomous robots |
WO2018094502A1 (en) * | 2016-11-22 | 2018-05-31 | Aerial Technologies | Device-free localization methods within smart indoor environments |
CN109690577A (zh) * | 2016-09-07 | 2019-04-26 | 皇家飞利浦有限公司 | 利用堆叠式自动编码器进行的半监督式分类 |
US11586915B2 (en) * | 2017-12-14 | 2023-02-21 | D-Wave Systems Inc. | Systems and methods for collaborative filtering with variational autoencoders |
US11573329B2 (en) * | 2019-03-28 | 2023-02-07 | Lyft, Inc. | Modeling effects of structures on global-positioning system localization |
KR20190089791A (ko) * | 2019-07-11 | 2019-07-31 | 엘지전자 주식회사 | 삼차원 어라운드 뷰 제공 장치 및 방법 |
-
2019
- 2019-09-26 EP EP19306204.9A patent/EP3798918A1/en active Pending
-
2020
- 2020-06-18 US US16/904,693 patent/US11373096B2/en active Active
- 2020-09-24 KR KR1020200124312A patent/KR20210036845A/ko active Search and Examination
- 2020-09-25 JP JP2020161495A patent/JP2021056222A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11887002B2 (en) | 2022-06-16 | 2024-01-30 | Actionpower Corp. | Method of generating data by using artificial neural network model having encoder-decoder structure |
Also Published As
Publication number | Publication date |
---|---|
US20210097387A1 (en) | 2021-04-01 |
EP3798918A1 (en) | 2021-03-31 |
JP2021056222A (ja) | 2021-04-08 |
US11373096B2 (en) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210036845A (ko) | 실내 위치추정을 위한 준지도 변분 오토인코더 | |
Chen et al. | Traffic flow imputation using parallel data and generative adversarial networks | |
CN109117831B (zh) | 物体检测网络的训练方法和装置 | |
US11694109B2 (en) | Data processing apparatus for accessing shared memory in processing structured data for modifying a parameter vector data structure | |
Luo et al. | Enhancing Wi-Fi fingerprinting for indoor positioning using human-centric collaborative feedback | |
US11688077B2 (en) | Adaptive object tracking policy | |
CN111583199B (zh) | 样本图像标注方法、装置、计算机设备和存储介质 | |
US11927448B2 (en) | Deep smartphone sensors fusion for indoor positioning and tracking | |
CN110268338A (zh) | 使用视觉输入进行代理导航 | |
US11288538B2 (en) | Object functionality predication methods, computer device, and storage medium | |
Zhou et al. | Jaccard analysis and LASSO-based feature selection for location fingerprinting with limited computational complexity | |
CN113780270A (zh) | 目标检测方法和装置 | |
Abidin et al. | Indoor positioning system in learning approach experiments | |
CN113762454A (zh) | 轨迹异常检测方法及装置 | |
Lee et al. | PMNet: Robust pathloss map prediction via supervised learning | |
CN111583264B (zh) | 图像分割网络的训练方法、图像分割方法和存储介质 | |
Nagaraj et al. | Leak detection in smart water grids using EPANET and machine learning techniques | |
KR102561799B1 (ko) | 디바이스에서 딥러닝 모델의 레이턴시를 예측하는 방법 및 시스템 | |
Chu et al. | Simulating human mobility with a trajectory generation framework based on diffusion model | |
KR102500534B1 (ko) | 순환신경망 기반 수자원 정보 생성 장치 및 방법 | |
Zhou et al. | Joint positioning and radio map generation based on stochastic variational Bayesian inference for FWIPS | |
KR102145698B1 (ko) | 딥러닝 모델을 통해 예측된 해답을 해석하는 방법 및 시스템 | |
CN113609097B (zh) | 指纹库的生成方法、装置、计算机设备和存储介质 | |
CN112612277A (zh) | 车辆轨迹规划方法、装置、设备和计算机可读介质 | |
CN108989974A (zh) | 动物定位方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |