TW201931072A - 用於確定軌跡的系統和方法 - Google Patents

用於確定軌跡的系統和方法 Download PDF

Info

Publication number
TW201931072A
TW201931072A TW107139006A TW107139006A TW201931072A TW 201931072 A TW201931072 A TW 201931072A TW 107139006 A TW107139006 A TW 107139006A TW 107139006 A TW107139006 A TW 107139006A TW 201931072 A TW201931072 A TW 201931072A
Authority
TW
Taiwan
Prior art keywords
trajectory
motion
data
movement
mobile device
Prior art date
Application number
TW107139006A
Other languages
English (en)
Other versions
TWI706295B (zh
Inventor
束緯寰
徐海良
Original Assignee
大陸商北京嘀嘀無限科技發展有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大陸商北京嘀嘀無限科技發展有限公司 filed Critical 大陸商北京嘀嘀無限科技發展有限公司
Publication of TW201931072A publication Critical patent/TW201931072A/zh
Application granted granted Critical
Publication of TWI706295B publication Critical patent/TWI706295B/zh

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1654Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with electromagnetic compass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • G01C22/006Pedometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

本申請的實施例提供了用於確定對象的軌跡的系統和方法。該方法可以包括獲取行動裝置所附著的對象的運動資料;基於運動資料確定對象的運動狀態;以及使用與運動狀態對應的軌跡模型,基於運動資料確定軌跡。

Description

用於確定軌跡的系統和方法
本申請涉及確定對象的軌跡,更具體地,涉及使用行人航位推算通過附接在其上的行動裝置來確定對象的軌跡的系統和方法。
本申請主張2017年11月3日提交的編號為PCT/CN2017/109361的國際申請案的優先權,其內容以引用方式被包含於此。
隨著導航功能在行動電話中愈來愈普遍,基於位置的服務(LBS)迅速增長,它需要更準確、更可靠的行人導航和定位技術。然而,作爲行人導航中的主要定位手段,由於信號衰減、干擾和阻礙物或類似物的原因,全球定位系統(GPS)接收器不適合在複雜的城市峽谷和室內環境中定位。爲了獲得連續導航,已經使用了行人航位推算(Pedestrian Dead Reckoning,PDR)。PDR資料可以通過行動裝置(例如,行動電話、平板電腦、智慧手錶或類似物)中的各種感測器獲取。然後可以使用PDR模型基於PDR資料來確定使用者的軌跡。
然而,使用者可能具有不同的運動姿勢(例如,慢跑、步行、攀爬或類似物),並且每個運動姿勢可以爲PDR模型産生一組不同的資料。因此,確定不同運動姿勢的軌跡可能需要不同的PDR模型。此外,當行動裝置放置在使用者的不同部分上時,它可能産生完全不同的PDR資料,從而導致確定使用者移動軌跡的更多困難。
本申請的實施例提供了用於確定對象的軌跡的改良系統和方法,以解決上述一個或多個問題。
本申請的實施例提供了一種用於確定對象的軌跡的電腦實施的方法。所述方法可以包括經由行動裝置的至少一個感測器獲取行動裝置所附著的對象的運動資料。所述方法還可以包括由處理器基於運動資料確定對象的運動狀態。所述方法還可以包括由處理器使用與運動狀態對應的軌跡模型,基於運動資料確定軌跡。
本申請的實施例還提供了一種用於確定對象的軌跡的系統。該系統可以包括通訊介面,所述通訊介面被配置爲與附著在所述對象的行動裝置通訊,獲取所述對象的運動資料。所述系統還可以包括用於儲存至少一個軌跡模型的記憶體。所述系統還可以包括處理器,所述處理器被配置爲基於所述運動資料來確定所述對象的運動狀態,以及使用與所述運動狀態對應的軌跡模型,基於所述運動資料來確定所述軌跡。
本申請的實施例還提供一種儲存一組指令的非暫時性電腦可讀取媒體,當由裝置的至少一個處理器執行時,使所述裝置執行用於産生對象的軌跡的方法。所述方法可以包括獲取行動裝置所附著的所述對象的運動資料。所述方法還可以包括基於所述運動資料確定所述對象的運動狀態。所述方法還可以包括使用與運動狀態對應的軌跡模型基於所述運動資料來確定所述軌跡。
應當理解,前面的一般性描述和下面的詳細描述都只是示例性和說明性的,並不是對本申請所要求保護的發明進行限制。
現在將詳細參考示例性實施例,其示例在圖式中示出。盡可能地,在整個圖式中將使用相同的元件符號來表示相同或相似的部分。
圖1示出了根據本申請的實施例的使用者在其上附接有行動裝置100的情況下的示例性示意圖。
如圖1所示,例如,使用者可以在街道上慢跑,其中行動裝置100附著在她的手臂上。當行動裝置100附接到使用者時,可以通過定位行動裝置100來定位使用者。
隨著手臂的移動,行動裝置100可以收集用於確定使用者的軌跡的資料。資料可以由行動裝置100的至少一個感測器收集。至少一個感測器可以包括GPS模組、加速度計、陀螺儀、電子羅盤、氣壓計或類似物中的至少一個。GPS模組可以與定位衛星通訊,並且收集指示行動裝置100的位置的GPS信號,並且因此可以基於所收集的GPS信號來確定使用者的位置。加速度計可以測量對象的加速度,甚至是小的振動。例如,加速度計可以分別偵測沿著以原點爲中心的對象的座標的三個軸的加速度。電子羅盤可以測量地球的磁力。例如,電子羅盤可以測量磁場的方向、強度或相對變化,以便通過行動裝置100確定對象的方向。氣壓計可以測量氣壓,其可以幫助行動裝置100確定攜帶行動裝置100的對象是否從室外環境進入室內環境,或反之亦然。在一些實施例中,加速度、方向、方位、氣壓或類似物,可以被稱爲運動資料。
用於確定使用者的軌跡的流程可以包括訓練階段和確定階段。在訓練階段,GPS信號和運動資料可用於訓練軌跡模型。軌跡模型可以基於GPS信號和運動資料,通過例如使用機器學習技術的行人航位推算(PDR)方法來産生,使得軌跡模型可以在確定階段給出足夠的運動資料來「預測」軌跡。訓練階段的運動資料也可以被稱爲訓練資料,並且GPS信號可用於産生參考運動以用於訓練階段。在確定階段,通常不使用GPS信號,並且運動資料可以用於使用訓練的軌跡模型來確定軌跡。
可以設想,當行動裝置「附著」在使用者時,使用者可以佩戴行動裝置(例如,頭上的智慧眼鏡),將行動裝置保持在手中(例如,行動電話),或者將行動裝置放在口袋或手提包中。行動裝置如何「附著」的方式不限於上述示例,只要行動裝置的移動可以與對象(例如,使用者)的移動相關即可。例如,行動裝置100可以可選地附接到使用者的任何其他部分,例如腿、腰、手腕和頭或類似物。行動裝置100還可以經由附接到使用者的任何其他對象(諸如錢包、腰帶和衣服或類似物)間接地附接到使用者。
由行動裝置100收集的PDR資料可以由軌跡産生系統200進一步處理,這將參考圖2進一步描述。圖2示出了根據本申請的實施例的示例性軌跡産生系統200的示意圖。可以設想,軌跡産生系統200可以是單獨的系統(例如,伺服器)或行動裝置100的整合元件。因爲訓練軌跡模型可能需要大量的計算資源,所以在一些實施例中,軌跡産生系統200可以較佳地實現爲如圖2所示的單獨系統。
在一些實施例中,軌跡産生系統200可以包括子系統,其中一些子系統可以是遠程的,而其餘的可以駐留在行動裝置100上。軌跡産生系統200可以是通用伺服器或用於産生使用者軌跡的專有裝置。在一些實施例中,如圖2所示,軌跡産生系統200可以包括通訊介面202、處理器204和記憶體212。處理器204還可包括多個功能模組,例如,運動狀態判斷單元206、軌跡模型訓練單元208、軌跡産生單元210或類似物。這些模組(以及任何相應的子模組或子單元)可以是處理器204的功能硬體單元(例如,積體電路的部分),其被設計用於與其他組件或程式的一部分一起使用。程式可以儲存在電腦可讀取媒體上,並且當由處理器204執行時,它可以執行一個或多個的功能。儘管圖2示出了在一個處理器204內的所有單元206-210,但是可以預期這些單元可以分佈在彼此靠近或遠離的多個處理器之間。在一些實施例中,軌跡産生系統200可以在雲端中實現,或者在單獨的電腦/伺服器上實現。
通訊介面202可以被配置爲獲取行動裝置100所附著的對象(例如,使用者)的運動資料。在一些實施例中,當軌跡産生系統200被配置爲列車軌跡模型時,通訊介面202還可以被配置爲從行動裝置100獲取用於確定行動裝置100的準確位置的GPS信號。通訊介面202可以是整合服務數位網路(ISDN)卡、纜線數據機、衛星數據機或數據機,以提供資料通訊連接。又例如,通訊介面202可以是區域網路(LAN)卡,以提供與相容LAN的資料通訊連接。無線鏈路也可以由通訊介面202實現。在任何此類實施中,通訊介面202可以通過網路214發送和接收攜帶表示各種類型資訊的數位資料流的電信號、電磁信號或光信號。網路214可以包括蜂巢通訊網路、無線區域網路(WLAN)、廣域網路(WAN)或類似物。
運動狀態判斷單元206可以被配置爲基於運動資料確定對象的運動狀態。運動狀態可以包括對象的運動姿勢或者行動裝置100所附著的對象的位置。如上所述,運動資料可包括加速度、方向、方位、氣壓或類似物。基於上述運動資料,運動狀態判斷單元206可以確定對象的步幅長度、步幅頻率和運動方向中的至少一個。例如,可以基於沿三個正交軸的加速度來確定步幅頻率,可以基於陀螺儀和電子羅盤提供的方向確定運動方向,並且可以基於移動距離和步幅頻率來確定步幅長度。基於運動資料,還可以基於運動資料類似地確定行動裝置100所附著的對象的位置。例如,可確定行動裝置100附接到手臂(如圖1所示),戴在手腕上,放置在口袋或手提包中或類似物。
運動姿勢和行動裝置100所附著的對象的位置對於確定對象的軌跡是關鍵的。例如,即使對於相同的使用者,用於各種運動姿勢(例如,步行、慢跑和攀爬)的運動資料也可以是非常不同的。對於處於相同運動姿勢(例如,步行)的相同使用者,行動裝置100所附接的各個地方的運動資料也可以是不同的。因此,需要産生複數個軌跡模型以解決各種情況。可以設想,各種演算法可用於基於運動資料確定運動狀態。
軌跡模型訓練單元208可以基於訓練資料訓練軌跡模型。圖3示出了根據本申請實施例的示例性軌跡模型訓練單元208的示意圖。在一些實施例中,如圖3所示,軌跡模型訓練單元208還可包括訓練資料獲取單元302、參考運動獲取單元304、聚類單元306和軌跡模型産生單元308。組件302-308中的每一個可以連接到匯流排以進行內部和外部通訊。
訓練資料獲取單元302可以在複數個時間段內獲取與對象相關的訓練資料。訓練資料可以與運動資料類似地收集,並且可以類似地包括加速度、方向、方位、氣壓或類似物。因爲對象的運動模式不太可能在短時間內發生顯著變化,所以短時間段內的對象的運動資料通常用於訓練軌跡模型。在一些實施例中,時間段可以設置爲任何合適的數量,例如500毫秒。
參考運動獲取單元304可以獲取在各個時間段中與對象相關的參考運動。參考運動可以包括向量,例如,指示對象在相應時間段內移動的位移及其對應方向。每個參考運動在相應的時間段內與對象的運動資料相關。在一些實施例中,可以根據參考運動獲取單元304接收的GPS信號來獲取參考運動。參考運動獲取單元304可以基於GPS信號精確地確定對象的參考運動。可以設想,可以採用其他方法或演算法來確定參考運動。
聚類單元306可以將訓練資料和參考運動聚類成組。例如,可以使用機器學習技術來對訓練資料和參考運動進行聚類。如上所述,獲得的不同運動狀態的運動資料可以具有不同的特徵。可以從特定對象獲取不同運動狀態的運動資料。在一些實施例中,可能在運動姿勢期間行動裝置100所附著的位置會改變。例如,使用者在街道上行走時可以在第一時間段內將他/她的行動裝置100放置在口袋中,並且聚類單元306可以將訓練資料和第一時間段的參考運動聚類成稱爲「口袋/步行」的組。然後,在第二時間段中,使用者可以接收電話呼叫,並且行動裝置100可以在他/她繼續行走時被握在手中。然後,聚類單元306可以將訓練資料和第二時間段的參考運動聚類成稱爲「手/步行」的組。也就是說,即使對於在連續時間段期間産生的訓練資料,訓練資料和參考運動也可以與不同的運動狀態相關。因此,資料可以聚類成對應於各個運動狀態的不同組。
軌跡模型産生單元308可以基於訓練資料和各個組的參考運動來産生軌跡模型。基於各組的訓練資料和參考運動,可以使用機器學習技術産生對應於運動狀態的軌跡模型。産生的軌跡模型可以儲存在記憶體212中以供進一步處理。
返回參考圖2,軌跡産生單元210可以使用與運動狀態對應的軌跡模型基於運動資料來確定軌跡。如上所述,可以使用訓練資料訓練與運動狀態對應的軌跡模型。因此,基於當前的運動資料,可以確定當前的運動狀態。因此,可以識別對應於當前運動狀態的軌跡模型,並且應用該軌跡模型來確定軌跡。在一些實施例中,軌跡産生單元210還可以使用機器學習技術基於運動資料直接識別軌跡模型,而不必先確定當前運動狀態。
記憶體212可以被配置用於儲存軌跡模型和産生的軌跡。記憶體212可以實現爲任何類型的揮發性或非揮發性記憶體裝置或其組合,例如靜態隨機存取記憶體(SRAM)、電子可抹除可程式唯讀記憶體(EEPROM)、可抹除可程式唯讀記憶體(EPROM)、可程式唯讀記憶體(PROM)、唯讀記憶體(ROM)、磁記憶體、快閃記憶體或磁碟或光碟。
因此,根據本申請的實施例的軌跡産生系統200可以識別對應於運動狀態的軌跡模型,並使用相應的軌跡模型基於運動資料確定軌跡。此外,軌跡模型可以進一步與相應使用者相關。因此,軌跡産生系統200可以産生更精確的軌跡。
本申請的另一態樣提供了一種用於定位架構的閘道的方法。例如,圖4係根據本申請的一些實施例的産生對象的軌跡的示例性流程400的流程圖。例如,流程400可以由包括至少一個處理器的軌跡産生系統200實施,並且流程400可以包括如下所述的步驟S402-S408。
在步驟S402中,軌跡産生系統200可以獲取行動裝置所附著的對象的運動資料。行動裝置可以包括用於收集運動資料的至少一個感測器。所述至少一個感測器可包括嵌入在行動裝置內的加速度計、陀螺儀、電子羅盤或氣壓計中的至少一個。因此,運動資料可以包括加速度、方向、方位、氣壓或類似物。由行動裝置收集的運動資料可以被發送到軌跡産生系統200以進行進一步處理。
在步驟S404,軌跡産生系統200可以基於運動資料確定對象的運動狀態。運動狀態可以包括對象的運動姿勢或者行動裝置所附著的對象的位置。運動姿勢可以至少包括步行、慢跑、攀爬或類似物。行動裝置所附著的對象的位置可包括頭部、手腕、手臂、手提包、口袋或類似物。每個運動狀態可以具有運動資料的獨特模式。
在一些實施例中,軌跡産生系統200可基於運動資料確定諸如步幅長度、步幅頻率和運動方向的特徵,並基於這些特徵中的至少一個確定運動狀態。運動狀態可以通過對象的運動姿勢及/或行動裝置所附著的對象的位置來表徵。例如,步行的步幅頻率可以小於每分鐘120步。當確定的步幅頻率小於每分鐘120步時,軌跡産生系統200可以確定對象正在行走。對於更高的步幅頻率,對象被確定爲慢跑。在一些實施例中,如果行動裝置所附著的對象的位置不同,則步幅長度、步幅頻率和移動方向可能會改變。因此,軌跡産生系統200可以使用運動資料來確定運動狀態。例如,所確定的運動狀態可以是「口袋/行走」,說明行動裝置放置在口袋中並且當産生相應的運動資料時對象(例如,使用者)正在行走。
在步驟S406,軌跡産生系統200可以基於運動資料識別軌跡模型。軌跡模型可用於根據運動資料産生軌跡。軌跡産生系統200可以儲存與各種運動狀態相對應的複數個軌跡模型。在一些實施例中,可以使用具有更高計算能力的處理裝置來預訓練這些軌跡模型。因此,在確定運動狀態之後,軌跡産生系統200可以識別與運動狀態相對應的軌跡模型。可以設想,在一些實施例中,當機器學習技術用於處理在步驟S402中獲取的運動資料時,運動資料可以聚類成至少一個組。每個組可以對應於與運動狀態相關的軌跡模型。因此,軌跡産生系統200可以同時基於運動資料確定軌跡模型和運動狀態。在一些實施例中,圖4中列出的步驟可以依序地或平行地執行,而不受圖4的順序的限制。
在步驟S408中,軌跡産生系統200可以使用與運動狀態對應的軌跡模型基於運動資料來確定軌跡。軌跡産生系統200提供有運動資料和相應的軌跡模型,可以相應地確定軌跡。在一些實施例中,可以基於運動資料直接確定軌跡。例如,相應的軌跡模型可以接收運動資料並産生軌跡。在一些其他實施例中,軌跡模型可以接收諸如步幅長度、步幅頻率和在步驟S404産生的移動方向的特徵,並使用對應於運動狀態的軌跡模型基於上述特徵(例如,步幅長度、步幅頻率和方向)中的至少一個産生軌跡。
如上所述,軌跡産生系統200可以儲存複數個軌跡模型,並且軌跡模型可以由軌跡産生系統200訓練。圖5係根據本申請的一些實施例的基於訓練資料來訓練軌跡模型的示例性流程500的流程圖。例如,流程500也可以由軌跡産生系統200實現,並且流程500可以包括如下的步驟S502-S508。流程500可以獨立於流程400(例如,預訓練的)或作爲流程400的一部分(例如,即時訓練)來執行。
在步驟S502中,軌跡産生系統200可以在複數個時間段內獲取與對象相關的訓練資料。訓練資料可以包括行人航位推算(PDR)資料。訓練資料類似於上述的運動資料,爲清楚起見,這裏將省略其描述。由於對象的運動模式通常不會在短時間內發生顯著變化,因此在短時間內對象的運動資料可用於訓練軌跡模型。在一些實施例中,時間段可以被設置爲例如500毫秒。
在步驟S504中,軌跡産生系統200可以獲取在各個時間段中與對象相關的參考運動。參考運動與對象的運動相關,並且可以基於GPS信號來確定。在一些實施例中,軌跡産生系統200可以獲取由行動裝置接收的GPS信號,然後確定參考運動。在一些其他實施例中,參考運動可以由行動裝置100確定,然後由軌跡産生系統200獲取。
在步驟S504,軌跡産生系統200可以將訓練資料和參考運動聚類成組。因爲訓練資料和參考運動都可以在一段時間內與對象的運動相關,訓練資料和相應的參考運動可以使用機器學習技術進行聚類。因此,即使對象的運動狀態發生變化,産生的運動資料和參考運動仍然可以聚類成相應的組。也就是說,每個組與不同的運動狀態相關。
在步驟S506中,軌跡産生系統200可以基於各個組的訓練資料和參考運動産生軌跡模型。基於聚類的運動資料和參考運動,軌跡産生系統200可以使用機器學習技術來訓練軌跡模型。
流程500可以應用於産生複數個軌跡模型,並且流程400可以應用這些訓練的軌跡模型以基於其運動資料來確定對象軌跡。因爲軌跡模型與不同的運動狀態相關,所以即使對象改變他/她的運動狀態,流程400仍然可以確定準確的軌跡。
本申請的另一態樣涉及一種儲存指令的非暫時性電腦可讀取媒體,所述指令在被執行時使得一個或多個處理器執行如上所述的方法。所述電腦可讀取媒體包括揮發性或非揮發性、磁性、半導體、磁帶、光學、可移式動、不可移式或其他類型的電腦可讀取媒體或電腦可讀取儲存裝置。例如,如本申請的電腦可讀取媒體可以是儲存裝置或其上儲存有電腦指令的記憶體模組。在一些實施例中,電腦可讀取媒體可以是其上儲存有電腦指令的磁碟或快閃驅動器。
顯而易見,本領域具有通常知識者可以對本申請的定位系統和相關方法進行各種修改和變化。考慮到本申請的系統和相關方法的說明和實踐,其他實施例對於本領域具有通常知識者是顯而易見的。
本申請中的說明書和示例的目的僅被認爲是示例性的,真正的範圍由以下申請專利範圍及其均等物限定。
100‧‧‧行動裝置
200‧‧‧軌跡産生系統
202‧‧‧通訊介面
204‧‧‧處理器
206‧‧‧運動狀態判斷單元
208‧‧‧軌跡模型訓練單元
210‧‧‧軌跡産生單元
212‧‧‧記憶體
214‧‧‧網路
302‧‧‧訓練資料獲取單元
304‧‧‧參考運動獲取單元
306‧‧‧聚類單元
308‧‧‧軌跡模型産生單元
400‧‧‧流程
S402‧‧‧步驟
S404‧‧‧步驟
S406‧‧‧步驟
S408‧‧‧步驟
500‧‧‧流程
S502‧‧‧步驟
S504‧‧‧步驟
S506‧‧‧步驟
圖1示出了根據本申請的實施例的使用者在其上附接有行動裝置的情況下的示例性示意圖。
圖2示出了根據本申請的實施例的示例性軌跡産生系統的示意圖。
圖3示出了根據本申請的實施例的示例性軌跡模型訓練單元的示意圖。
圖4係根據本申請的一些實施例的産生對象的軌跡的示例性流程的流程圖。
圖5係根據本申請的一些實施例的基於訓練資料來訓練軌跡模型的示例性流程的流程圖。

Claims (20)

  1. 一種用於確定對象的軌跡的電腦實施的方法,包括: 經由行動裝置的至少一個感測器獲取行動裝置所附著的對象的運動資料; 由處理器基於所述運動資料確定所述對象的運動狀態;以及 由所述處理器,使用與所述運動狀態對應的軌跡模型,基於所述運動資料確定所述軌跡。
  2. 如申請專利範圍第1項之電腦實施的方法,其中,基於所述運動資料確定所述對象的運動狀態還包括: 基於所述運動資料確定步幅長度、步幅頻率和運動方向中的至少一個;以及 基於所述步幅長度、所述步幅頻率和所述運動方向中的至少一個確定所述運動狀態,其中所述運動狀態包括所述對象的運動姿勢或所述行動裝置附著在所述對象的位置。
  3. 如申請專利範圍第2項之電腦實施的方法,其中,使用所選擇的所述軌跡模型基於所述運動資料確定所述軌跡還包括: 使用與所述運動狀態對應的軌跡模型,基於所述步幅長度、所述步幅頻率和所述運動方向中的至少一個産生所述軌跡。
  4. 如申請專利範圍第1項之電腦實施的方法,還包括:基於訓練資料訓練所述軌跡模型。
  5. 如申請專利範圍第4項之電腦實施的方法,還包括: 獲取複數個時間段內與所述對象相關的所述訓練資料; 獲取各個時間段內與所述對象相關的參考運動; 將所述訓練資料和所述參考運動聚類成組; 基於各個組的所述訓練資料和所述參考運動産生所述軌跡模型。
  6. 如申請專利範圍第5項之電腦實施的方法,其中,基於各個組的所述訓練資料和所述參考運動産生至少一個軌跡模型還包括: 使用機器學習技術産生所述軌跡模型。
  7. 如申請專利範圍第5項之電腦實施的方法,其中每個組與不同的運動狀態相關。
  8. 如申請專利範圍第1項之電腦實施的方法,其中,所述至少一個感測器包括所述行動裝置的加速度計、陀螺儀、電子羅盤或氣壓計中的至少一個。
  9. 如申請專利範圍第4項之電腦實施的方法,其中所述訓練資料包括行人航位推算(PDR)資料。
  10. 如申請專利範圍第3項之方法,其中所述運動姿勢包括步行、慢跑或攀爬中的至少一種。
  11. 一種用於産生對象的軌跡的系統,包括: 通訊介面,被配置爲與附著在所述對象的行動裝置通訊,獲取所述對象的運動資料; 記憶體,被配置爲儲存至少一個軌跡模型;以及 至少一個處理器,被配置爲: 基於所述運動資料確定所述對象的運動狀態,以及 使用與所述運動狀態對應的軌跡模型,基於所述運動資料確定所述軌跡。
  12. 如申請專利範圍第11項之系統,其中,所述至少一個處理器還被配置爲: 基於所述運動資料確定步幅長度、步幅頻率和運動方向中的至少一個;以及 基於所述步幅長度、所述步幅頻率和所述運動方向中的至少一個確定所述運動狀態,其中所述運動狀態包括所述對象的運動姿勢或所述行動裝置附著在所述對象的位置。
  13. 如申請專利範圍第11項之系統,其中所述至少一個處理器還被配置爲: 使用與所述運動狀態對應的軌跡模型,基於所述步幅長度、所述步幅頻率和所述運動方向中的至少一個産生所述軌跡。
  14. 如申請專利範圍第11項之系統,其中所述至少一個處理器還被配置爲: 基於訓練資料訓練所述軌跡模型。
  15. 如申請專利範圍第14項之系統,其中所述至少一個處理器還被配置爲: 獲取複數個時間段內與所述對象相關的所述訓練資料; 獲取各個時間段內與所述對象相關的參考運動; 將所述訓練資料和所述參考運動聚類成組;以及 基於各個組的所述訓練資料和所述參考運動産生所述軌跡模型。
  16. 如申請專利範圍第15項之系統,其中所述處理器還被配置爲: 使用機器學習技術産生所述軌跡模型。
  17. 如申請專利範圍第15項之系統,其中每個組與不同的運動狀態相關。
  18. 如申請專利範圍第14項之系統,其中所述至少一個感測器包括所述行動裝置的加速度計、陀螺儀、電子羅盤或氣壓計中的至少一個。
  19. 如申請專利範圍第13項之系統,其中所述運動姿勢包括步行、慢跑或攀爬中的至少一種。
  20. 一種儲存一組指令的非暫時性電腦可讀取媒體,當由裝置的至少一個處理器執行時,使所述裝置執行用於産生對象的軌跡的方法,所述方法包括: 獲取行動裝置所附著的所述對象的運動資料; 基於所述運動資料確定所述對象的運動狀態;以及 使用與所述運動狀態對應的軌跡模型,基於所述運動資料確定所述軌跡。
TW107139006A 2017-11-03 2018-11-02 用於確定軌跡的系統和方法 TWI706295B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
??PCT/CN2017/109361 2017-11-03
PCT/CN2017/109361 WO2019084918A1 (en) 2017-11-03 2017-11-03 System and method for determining a trajectory
WOPCT/CN2017/109361 2017-11-03

Publications (2)

Publication Number Publication Date
TW201931072A true TW201931072A (zh) 2019-08-01
TWI706295B TWI706295B (zh) 2020-10-01

Family

ID=66331249

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107139006A TWI706295B (zh) 2017-11-03 2018-11-02 用於確定軌跡的系統和方法

Country Status (4)

Country Link
US (1) US11692829B2 (zh)
CN (1) CN109997014B (zh)
TW (1) TWI706295B (zh)
WO (1) WO2019084918A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8552548B1 (en) * 2011-11-29 2013-10-08 Amkor Technology, Inc. Conductive pad on protruding through electrode semiconductor device
US11263347B2 (en) * 2019-12-03 2022-03-01 Truata Limited System and method for improving security of personally identifiable information

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7797106B2 (en) * 2005-06-30 2010-09-14 Nokia Corporation System and method for adjusting step detection based on motion information
JP4641252B2 (ja) * 2005-12-12 2011-03-02 本田技研工業株式会社 脚式移動ロボットの歩容生成装置
US8374775B2 (en) * 2009-11-05 2013-02-12 Apple Inc. Adaptive sensor-based activity classification
WO2011095842A1 (en) * 2010-02-02 2011-08-11 Nokia Corporation Method and an apparatus for step counting.
CA2827113A1 (en) * 2011-02-10 2012-08-16 Dorsavi Pty. Ltd. Apparatus and method for classifying orientation of a body of a mammal
US9158740B2 (en) * 2012-11-08 2015-10-13 Google Technology Holdings LLC Systems and methods for speed estimation based on stride data using predictive modeling
US11041725B2 (en) 2012-12-03 2021-06-22 Navisens, Inc. Systems and methods for estimating the motion of an object
US9125015B2 (en) * 2013-06-28 2015-09-01 Facebook, Inc. User activity tracking system and device
US20150149085A1 (en) * 2013-11-27 2015-05-28 Invensense, Inc. Method and system for automatically generating location signatures for positioning using inertial sensors
CN104754111A (zh) * 2013-12-31 2015-07-01 北京新媒传信科技有限公司 移动终端应用的控制方法和控制装置
CN104061934B (zh) * 2014-06-10 2017-04-26 哈尔滨工业大学 基于惯性传感器的行人室内位置跟踪方法
GB201500411D0 (en) * 2014-09-15 2015-02-25 Isis Innovation Determining the position of a mobile device in a geographical area
CN104484888A (zh) * 2014-11-28 2015-04-01 英业达科技有限公司 运动轨迹感测系统及其运动模型建立方法
CN105741260A (zh) 2014-12-12 2016-07-06 财团法人资讯工业策进会 行动定位装置及其定位方法
CN105606102B (zh) * 2016-01-27 2017-04-19 中国地质大学(武汉) 一种基于格网模型的pdr室内定位方法及系统
CN106408124B (zh) * 2016-09-22 2020-01-10 西安科技大学 一种面向数据稀疏环境下的移动路径混合预测方法
CN106705967A (zh) * 2016-11-18 2017-05-24 南京邮电大学 一种基于行人航位推算的精度改善的室内定位和方法
CN106679657B (zh) * 2016-12-06 2019-10-25 北京航空航天大学 一种运动载体导航定位方法及装置
CN106908060A (zh) * 2017-02-15 2017-06-30 东南大学 一种基于mems惯性传感器的高精度室内定位方法
CN107105404B (zh) * 2017-03-22 2020-04-17 无锡中科富农物联科技有限公司 一种基于步长匹配的行人室内定位方法
CN107246872B (zh) * 2017-06-28 2019-10-11 东南大学 基于mems传感器和vlc定位融合的单粒子滤波导航装置和方法
CN107246672B (zh) 2017-07-17 2022-08-30 西安建筑科技大学 一种适用于寒冷地区的户式新风净化全空调系统

Also Published As

Publication number Publication date
CN109997014B (zh) 2023-08-18
TWI706295B (zh) 2020-10-01
US11692829B2 (en) 2023-07-04
US20200132465A1 (en) 2020-04-30
CN109997014A (zh) 2019-07-09
WO2019084918A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
Tian et al. A multi-mode dead reckoning system for pedestrian tracking using smartphones
CN105074381B (zh) 确定设备与行人之间的未对准的方法和装置
Kang et al. Improved heading estimation for smartphone-based indoor positioning systems
Chon et al. Lifemap: A smartphone-based context provider for location-based services
Jin et al. A robust dead-reckoning pedestrian tracking system with low cost sensors
US10652696B2 (en) Method and apparatus for categorizing device use case for on foot motion using motion sensor data
US10837794B2 (en) Method and system for characterization of on foot motion with multiple sensor assemblies
WO2014074837A1 (en) Unsupervised indoor localization and heading directions estimation
US11573086B2 (en) Electronic apparatus of estimation of movement direction and method thereof
US10830606B2 (en) System and method for detecting non-meaningful motion
EP3204721A1 (en) Pedestrian dead reckoning position tracker
US10533874B2 (en) Inertial positioning and navigation device featuring a novel walk detection method
Xuan et al. Making indoor maps with portable accelerometer and magnetometer
CN112729301A (zh) 一种基于多源数据融合的室内定位方法
AU2016202042B2 (en) Backtracking indoor trajectories using mobile sensors
Lee et al. A step length estimation based on motion recognition and adaptive gait cognition using a smartphone
TWI706295B (zh) 用於確定軌跡的系統和方法
Zheng et al. Heading estimation for multimode pedestrian dead reckoning
Qian et al. RPNOS: Reliable pedestrian navigation on a smartphone
CN106767770A (zh) 一种基于便携智能设备的用户行走方向检测与追踪方法
JP6147446B1 (ja) ソフト制約及びペナルティ機能を使用した慣性センサの初期化
Lin et al. A Cnn-Speed-Based Gnss/Pdr Integrated System For Smartwatch
Wang et al. A robust context-based heading estimation algorithm for pedestrian using a smartphone
Sadhukhan et al. IRT-SD-SLE: An Improved Real-time Step Detection and Step Length Estimation using Smartphone Accelerometer
Shoushtari et al. L5in+: From an analytical platform to optimization of deep inertial odometry