TWI739339B - 人員室內定位與移動機器人對特定人員追蹤互動之系統及其方法 - Google Patents

人員室內定位與移動機器人對特定人員追蹤互動之系統及其方法 Download PDF

Info

Publication number
TWI739339B
TWI739339B TW109108085A TW109108085A TWI739339B TW I739339 B TWI739339 B TW I739339B TW 109108085 A TW109108085 A TW 109108085A TW 109108085 A TW109108085 A TW 109108085A TW I739339 B TWI739339 B TW I739339B
Authority
TW
Taiwan
Prior art keywords
robot
module
personnel
positioning
mobile device
Prior art date
Application number
TW109108085A
Other languages
English (en)
Other versions
TW202134681A (zh
Inventor
宋開泰
宋劭桓
盧姵諄
Original Assignee
國立陽明交通大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立陽明交通大學 filed Critical 國立陽明交通大學
Priority to TW109108085A priority Critical patent/TWI739339B/zh
Application granted granted Critical
Publication of TWI739339B publication Critical patent/TWI739339B/zh
Publication of TW202134681A publication Critical patent/TW202134681A/zh

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本發明提出一種人員室內定位與移動機器人對特定人員追蹤互動之系統及其方法,本室內定位技術採用深度類神經網路(Deep Neutral Network,DNN)技術,以無線訊號強度(Received Signal Strength Indicator,RSSI)及藍芽裝置之朝向角為特徵進行空間區域分類,再以粒子濾波器估測藍芽裝置的位置,達成無線訊號精確室內定位。即時更新使用者的位置以及人臉資料庫ID給予機器人進行伴隨控制。機器人具備自主定位導航功能,以雷射測距SLAM自我定位,同時能夠自主閃避障礙物,機器人成功辨識到目標人員,機器人導航控制運用人員辨識資訊接近使用者,停止於使用者面前與之互動。

Description

人員室內定位與移動機器人對特定人員追蹤互動之系統及其 方法
本發明關於一種對特定人員追蹤互動之系統,特別是移動機器人對特定人員辨識的一種人員室內定位與移動機器人對特定人員辨識追蹤之系統。
先前技術,衛星定位對於戶外物體提供定位功能,但對於室內定位,無法提供具體追蹤特定人員的定位功能。
先前技術,在人數少以及人與人距離遠的環境下,追蹤特定人員,但在人數眾多以及人與人距離相近的環境下,無法提供追蹤特定人員的定位,然後提供服務的功能。
因此,本發明的目的即在提供一種人員室內定位與移動機器人對特定人員追蹤互動之系統及其方法,可以藉由透過部署於空間中的藍芽無線訊號發射裝置估測使用者的位置,結合人臉辨識與特定使用者互動。機器人獲得該使用者的估測位置,能夠自主導航前往使用者的地點,在接近使用者時以人員辨識及伴隨運動控制持續追蹤特定使用者提供服務。使用者可透過行動裝置 與雲端資料呼叫機器人前來進行服務,或命令機器人前往另一個使用者的位置,遞交物品給指定的使用者。本發明採用深度學習技術以無線訊號強度與裝置朝向角為特徵進行空間中區域分類,結合粒子濾波器優化人員追蹤準確度與即時性,平均定位誤差於50cm以內,符合機器人陪伴追蹤控制之需求。本發明整合室內定位技術以及人臉辨識於機器人導引控制系統,達成機器人找尋特定人之功能,擴充了室內定位技術在機器人領域的應用。。
在本發明的一實施例中,一種人員室內定位與移動機器人對特定人員追蹤互動之系統,包括:一機器人;複數個信標,分散置於一室內區域,藉由該信標的訊號強度(RSSI)訊號,將該室內區域分割成複數個子區間,每個子區間的中心點是定位的一錨點;一行動裝置,該行動裝置具有一識別碼,待追蹤的一特定人員持用該行動裝置,相應於該錨點的該行動裝置,具有一估測位置訊息;以及一雲端伺服器,儲存該特定人員的人臉特徵資訊,以及該行動裝置的估測位置訊息,該雲端伺服器具有辨識該錨點位置機率的一位置辨識模組,該位置辨識模組具有一深度學習的類神經網路的模組,該深度學習的類神經網路的模組具有複數層,第一層是一輸入層,由最後一層是一輸出層,輸出該錨點的位置機率至粒子濾波器位置估測模組,提供定位資訊給該機器人,藉以作動該機器人追蹤持用該行動裝置的特定人員。
在本發明的一實施例中,一種人員室內定位與移動機器人對特定人員追蹤互動之系統,其中該雲端伺服器,更包括一離線訓練模組,用以接收並儲存不同的該信標的訊號強度(RSSI)訊號的向量值後,在經由該雲端伺服器的卡爾曼濾波模組取樣每次中的最佳化訊號強度(RSSI)訊號,輸出至一離線錨點機率模組。
在本發明的一實施例中,一種人員室內定位與移動機器人對特定人員追蹤互動之系統,其中雲端伺服器,更包括一在線定位模組,該在線定位模組,包括:一錨點機率辨識模組,由該離線錨點機率模組輸出參數至該在線定位模組的錨點機率辨識模組,於實際定位時,該訊號強度(RSSI)訊號經由該卡爾曼濾波模組取樣每次中的最佳化訊號強度(RSSI)訊號,與歸一化朝向角後,由該在線錨點機率模組輸出一錨點機率向量;一粒子濾波器位置估測模組,經由一初始隨機取樣模組取出樣本,並與原始朝向角、該使用者的移動速度、以及前一時間點位置估計值,於一目標估測模組中,產出一最終位置估計值後,再將該最終位置估計值與該錨點機率向量,經由一權重計算模組輸出每一粒子的權重,該粒子的權重經由一循序重新取樣模組,產生所有粒子的權重更新值,再經由一定位估測模組產生最終位置估計值。
在本發明的一實施例中,一種人員室內定位與移動機器人對特定人員追蹤互動之系統,其中該機器人具有一雷射掃描器,藉以作動該機器人追蹤持用該行動裝置的人員時,判斷空間中的障礙,並迴避該障礙物位置後,續行作動該機器人追蹤持用該行動裝置的人員。
在本發明的一實施例中,一種人員室內定位與移動機器人對特定人員追蹤互動之系統,其中該機器人包括:一攝影機以及一偵測模組,藉以偵測持用該行動裝置的特定人員的人臉特徵資訊;以及一人臉辨識模組,當作動該機器人追蹤至持用該行動裝置的特定人員的鄰近位置時,經由該偵測模組的該特定人員的人臉特徵資訊,與儲存在該雲端伺服器中的該特定人員的人臉特徵資訊進行比對辨識相同後,計算該機器人與持用該行動裝置的特定人員的距離以及水平位移後,作動該機器人追蹤至持用該行動裝置的特定人員的面前。
在本發明的一實施例中,一種人員室內定位與移動機器人之追蹤互動方法,包括下列步驟:移動一機器人透過一自主導航模式追蹤一特定人員目標;該自主導航模式係透過該特定人員目標的一行動裝置定位;判斷移動該機器人是否到達該行動裝置的定位估測位置;當移動該機器人找尋到該特定人員目標,則將移動該機器人由該自主導航模式切換至一人員追蹤控制模式並等待該特定人員目標的指示動作;若未收到該特定人員目標的一人臉資訊,則移動該機器人繼續往該定位估測位置前進並繼續進行一人臉辨識;當移動該機器人遺失該特定人員目標,則會切回該自主導航控制並以該室內定位所估測資訊做為一目標點。
在本發明的一實施例中,一種人員室內定位與移動機器人之追蹤互動方法,其中該機器人具有一雷射掃描器,藉以作動該機器人追蹤持該行動裝置定位時,判斷空間中的一障礙物,並迴避該障礙物的位置後,續行作動移動該機器人以追蹤該特定人員目標。
在本發明的一實施例中,一種人員室內定位與移動機器人之追蹤互動方法,該自主導航模式更包括一離線訓練模組,用以接收並儲存不同的分散置於一室內區域內的至少一信標的訊號強度(RSSI)訊號的向量值後,在經由一雲端伺服器的卡爾曼濾波模組取樣每次中的最佳化訊號強度(RSSI)訊號,輸出至一離線錨點機率模組。
在本發明的一實施例中,一種人員室內定位與移動機器人之追蹤互動方法,該雲端伺服器,更具有一在線定位模組,包括:一錨點機率辨識模組,由該離線錨點機率模組輸出參數至該在線定位模組的錨點機率辨識模組,於實際定位時,該訊號強度(RSSI)訊號經由該卡爾曼濾波模組取樣每次中的最佳 化訊號強度(RSSI)訊號,與一歸一化朝向角後,由該在線錨點機率模組輸出一錨點機率向量;一粒子濾波器位置估測模組,經由一初始隨機取樣模組取出樣本,並與原始朝向角、該使用者的移動速度、以及前一時間點位置估計值,於一目標估測模組中,產出一最終位置估計值後,再將該最終位置估計值與該錨點機率向量,經由一權重計算模組輸出每一粒子的權重,該粒子的權重經由一循序重新取樣模組後,產生所有該粒子的權重更新,再經由一定位估測模組產生最終位置估計值。
本發明具體達成的功效是,使用深度類神經網路技術(Deep Neutral Network,DNN)以無線訊號強度(Received Signal Strength Indicator,RSSI)為特徵進行空間中區域分類之估測,再以粒子濾波器進一步估測人員的位置,提高無線訊號室內定位系統的精確度,藉以結合人員位置資訊與機器人的自主導航,使用者透過行動裝置能呼叫機器人前往使用者位置服務,或由機器人自行尋找特定人進行互動。
1:攝影機
2:機器人介面
3:機器人
4:雲端伺服器
5:行動裝置
6:卡爾曼濾波模組
7:位置辨識模組
8:人臉辨識模組
9:雷射掃描器
20:錨點
21:信標
22:子區域
θ P :歸一化朝向角
θ h :當前朝向角
81:初始隨機取樣模組
82:目標估測模組
83:權重計算模組
84:循序重新取樣模組
85:定位估測模組
86:離線錨點機率模組
87:在線錨點機率模組
88:錨點機率辨識模組
89:粒子濾波器位置估測模組
90:在線定位模組
91:離線訓練模組
92:識別碼
93:人臉特徵資訊
201:三軸加速計
202:磁力計
203:指數平滑模組
204:步伐偵測模組
205:座標模組
61:連接鍵
62:信標位置及訊號強度顯示區
63:掃描鍵
64:到達鍵
65:朝向角估測顯示區
66:測步顯示區
67:載物鍵
68:帶人尋找鍵
700:深度學習的類神經網路的模組
71:第1層
72:第2層
77:第7層
78:丟棄層
701:優化器
702:損失函數模組
T1~T35:測試點
S30~S34:步驟30~步驟34
S41~S48:步驟41~步驟48
S71~S78:步驟71~步驟78
S301~S304:步驟301~步驟304
第1圖為根據本發明一實施例的室內人員追蹤互動之系統架構圖。
第2圖為根據本發明一實施例的一種的無線訊號室內定位架構圖。
第3圖為根據本發明一實施例的機器人人員定位導引系統示意圖。
第4圖為根據本發明一實施例的一訊號指紋地圖辨識示意圖。
第5圖為根據本發明一實施例的錨點分類深度類神經網路(DNN)架構的示意圖。
第6圖為根據本發明一實施例的人員步伐及裝置姿態估測系統架構示意圖。
第7A圖為根據本發明一實施例的測試實驗場地示意圖。
第7B圖為根據本發明一實施例的場地區域劃分及錨點設置示意圖。
第8圖為根據本發明一實施例的粒子濾波器位置估測流程圖。
第9圖為根據本發明一實施例的臉部辨識輸出結果的示意圖。
第10圖為根據本發明一實施例的機器人靠近使用者功能控制架構圖。
第11圖為根據本發明一實施例的機器人伴隨控制架構圖。
第12圖為根據本發明一實施例的機器人追蹤控制流程圖。
第13圖為根據本發明一實施例的測試點分布的示意圖。
第14圖為根據本發明一實施例的手機APP應用程式人機介面示意圖。
第15圖為根據本發明一實施例的人員追蹤實驗過程的影片截圖。
第16圖為根據本發明一實施例的於位置(g)人臉辨識結果截圖。
第17圖為根據本發明一實施例的於位置(k)人臉辨識結果截圖。
第18圖為根據本發明一實施例的人臉辨識人員追蹤系統軌跡紀錄示意圖。
以下根據第1-18圖,說明本發明的實施方式。所做說明並非為限制本發明的實施方式,而僅為本發明之一些實施例。
本發明提出一套使用低功耗藍芽無線訊號室內定位系統與人員辨識之機器人伴隨系統,應用於服務型機器人3主動找尋使用者提供服務之功能。本室內定位技術採用深度類神經網路(Deep Neutral Network,DNN)技術,以無線訊號強度(Received Signal Strength Indicator,RSSI)及藍芽裝置之朝向角為特徵進行空間區域分類,再以粒子濾波器估測藍芽標籤的位置,達成無線訊號精確室內定位,系統達到50公分以內之精準度。使用者行動裝置5上記錄該行動 裝置5的ID以及其對應的人臉資訊,當使用者透過行動裝置5下達命令時,其對應的人臉ID上傳至雲端做為系統辨識的目標,即時更新使用者的位置以及人臉資料庫ID給予機器人3進行伴隨控制。機器人3具備自主定位導航功能,以雷射測距進行同步定位與地圖構建(Simultaneous localization and mapping,SLAM)自我定位,同時能夠自主閃避障礙物,在環境中執行導航定位的命令。根據雲端提供之人員資訊,機器人3使用導航控制前往目標位置,並在前往目標位置的過程中,運用安裝於機器人3頭部的攝影機1對環境中的人員進行辨識。一旦機器人3成功辨識到目標人員,機器人3導航控制運用人員辨識資訊接近使用者,停止於使用者面前與之互動。
如第1圖所示,依據本發明的一實施例的一種員室內定位與移動機器人3對特定人員追蹤互動之系統及其方法,本發明的系統架構提出一套結合低功耗藍芽無線裝置(Bluetooth low-energy,BLE)與使用者臉部辨識之人員室內定位系統。結合人員位置資訊與機器人3自主導航功能,使用者透過行動裝置5能夠呼叫機器人3前往使用者位置提供服務。透過即時更新之使用者位置資訊及人臉追蹤控制,機器人3主動找到使用者提供互動服務。本發明所設計機器人3之人員追蹤系統架構圖如第1圖所示,此架構分為兩部分:人員定位與辨識系統以及機器人3自主導航與追蹤控制系統。
如第1圖所示,使用者的行動裝置5(mobile phone)接收環境中的信標訊號強度(iBeacon RSSI)的訊號,行動裝置5上記錄著該行動裝置5的ID以及其對應的人臉資訊。利用TCP/IP持續上傳環境中訊號強度以及對應的行動裝置5的ID至雲端伺服端4。當使用者對機器人3下達命令時,其對應的人臉ID同樣上傳至雲端伺服端4並比對對應的人臉資料庫做為系統辨識的目標。雲端伺服端4執 行室內定位的演算法計算以及人員的人臉資料庫辨識。一旦客戶端(行動裝置5)有命令需求,將下載對應的使用者估測位置以及人臉辨識給予機器人3進行追蹤與控制。
如第1圖所示,機器人3安裝雷射掃描器9,雷射測距用於執行,同步定位與地圖構建(Simultaneous localization and mapping,SLAM)的定位,同時也用於偵測環境中障礙物資訊,定位導航途中可自主閃避障礙物。根據雲端伺服端4提供之人員資訊,機器人3將使用導航控制前往目標估測位置。在前往目標位置的同時,安裝於機器人3頭部的攝影機1利用由雲端伺服端4所載下目標人員臉部資訊,持續對環境中的人員進行辨識。一旦機器人3成功辨識到目標人員,機器人3控制器將會切換至人員辨識追蹤控制來接近使用者;若過程中遺失使用者臉部資訊,則會切換回基於室內定位為目標的機器人3導航控制。當機器人3成功透過人員辨識追蹤控制到達使用者面前或是到達室內定位目標點,則切換至服務使用者的狀態與使用者進行互動。
如第2圖所示,依據本發明一實施例的無線訊號室內定位系統,提出一套使用低功耗藍芽無線訊號裝置之人員室內定位系統,採用深度類神經網路(DNN)以訊號強度(RSSI)為特徵進行空間中區域分類及辨識。為了提高位置定位及追蹤的性能,粒子濾波器位置估測模組89以粒子濾波器(particle filter)進行位置估測,達成高精準度之無線訊號室內定位系統。本發明所設計之定位架構如圖2所示,該架構主要分為兩大部分:由類神經網路所建立之訊號指紋地圖模型以及粒子濾波器人員定位流程。其中訊號指紋地圖模型分成了深度類神經網路(DNN)的離線訓練(Offline Training)階段的離線訓練模組91、以及在線定位(Online Localization)階段的在線定位模組90。在深度類神經網路技術(DNN)的 離線訓練(Offline Training)階段利用低功耗藍芽無線裝置(Bluetooth low-energy,BLE)蒐集裝置蒐集環境中不同信標(iBeacon)之訊號強度(RSSI)值,經過濾波處理後並結合裝置朝向角資料訓練深度類神經網路(DNN),用以估計區域分類錨點20(Anchor Point)之機率。在線定位(Online Localization)階段先以深度類神經網路(DNN)模型辨識出行動裝置5經由藍芽信標在空間中區域分類之機率,再利用粒子濾波器位置估測模組89的粒子濾波流程進行更精準的定位,其中濾波過程之觀測值由訓練之錨點機率模型提供各錨點的期望值位置提供,透過持續預測及觀測值修正達到位置估測的結果。
如第2圖所示,RSSI raw 所示:RSSI,接收訊號強度指標(Received Signal Strength Indicator)為Wireless Sensor Network(WSN)中用於量測裝置之間傳遞訊號的功率測量量值。RSSI raw 在此處為來自6個不同裝置之原始RSSI組成的向量。
如第2圖所示,RSSI kal 所示:雖然訊號強度與距離間可以繪製為一對數函數來表示,但在RSSI值未進行處理的情況下,即使蒐集裝置處於同個朝向角狀態下,所蒐集到之RSSI變異仍可達到6至7個dBm間;此外在蒐集裝置對於同一位置不同朝向下,RSSI平均值也有顯著差異。在接收訊號越強的區間而言,以RSSI平均值來對比其dBm與距離間有較為明顯的變化。而在較遠處則是尤其的不明顯。在原始資料的可信度上,量值越大的dBm可採取的可信度較為高,反之則是較為可信度低。因此在進入卡爾曼濾波器前會先以一定數量的取樣值來進行濾波程序。取出每次取樣時間中最佳化的RSSI作為該次的代表,並標示為RSSI kal
如第2圖所示,朝向角(Orientation,θ p )所示:裝置在蒐集資料的朝向角(簡化後),由於在同一地點以不同接收姿態蒐集RSSI其平均會有明顯的差異,因此在訓練時以簡化朝向角(Orientation,θ p )來輔助訓練模型進行判斷,因此DNN的輸入 X 是由6個來自不同裝置之RSSI組成向量及Orientation組成 X =[ RSSI p ]。
如第2圖所示,RSSI raw,k 所示:實際定位時,裝置所蒐集到的RSSI原始值,RSSI kal,k :將蒐集到之RSSI進行卡爾曼濾波處理,且得到較為穩定的RSSI數值rssi k ,其中下標k代表來自於編號k之發送器iBeacon。在本發明中以六個部署於環境不同位置之iBeacon作為訊號特徵之提供者,因此k為1到6的編碼。每顆iBeacon都有其獨有的Minor編號,因此可以透過讀取其編號來確定蒐集到的RSSI是來自於哪個裝置。在每一次的環境掃描資料蒐集階段,蒐集裝置將提供我們來自不同iBeacon的rssi k ,並將其個別數值儲存為一向量RSSI。若其中rssi k 存在空集合時,將會定義其數值為-100,代表未收到任何訊號。
RSSI={rssi 1 ,rssi 2 ,rssi 3 ,rssi 4 ,rssi 5 ,rssi 6}#(1)
如第2圖所示,θ p 所示:裝置在蒐集資料的朝向角(將原始朝向角進行簡化),在每一次掃描結果後獲得裝置當前朝向角θ h 以及當下來自不同裝置的RSSI量值 RSSI ,為了降低歧異的影響,θ h 將被分類成四類並歸一化記作θ p
Figure 109108085-A0305-02-0013-1
如第2圖所示,
Figure 109108085-A0305-02-0014-3
所示:粒子濾波器中的樣本,其中
Figure 109108085-A0305-02-0014-4
表示了在第n次執行中,第k次的預測結果,在系統啟動階段,N個數目粒子
Figure 109108085-A0305-02-0014-5
將會被平均分布於所有可移動空間中,透過使用者的行動裝置5,可以獲得使用者的移動狀態並且預測使用者可能轉移的目標位置。
如第2圖所示,θ h 所示:裝置朝向角(原始),以內建Android作業系統之手持行動裝置5上之六軸慣性測量裝置(IMU)來估測裝置當下時刻之朝向以及偵測使用者之移動步伐。慣性測量裝置(IMU)是由三種測量裝置所組成:三軸加速計201(Accelerometer)、陀螺儀(Gyroscope)、磁力計202(Magnetometer)。在三維空間中,將三軸加速計量值 G est 歸一化可視為重力方向,而磁力計量值
Figure 109108085-A0305-02-0014-56
則視為裝置水平方向,找到兩向量所形成平面的法向量 n d 後,利用羅德里格旋轉公式能夠找到裝置於水平下之 n i ,以及裝置以任意姿態計算 n d 間的旋轉矩陣
Figure 109108085-A0305-02-0014-6
。接著使用尤拉角公式拆解
Figure 109108085-A0305-02-0014-7
獲得當下裝置對於世界坐標系之Roll、Pitch、Yaw軸各個旋轉狀態,其中Yaw的旋轉角即為所求之θ h
如第2圖所示,V t 所示:單位時間內使用者的移動速度,粒子濾波器是一混和資料估測之流程,結合兩種不同感測器資訊來預測及修正估測的結果。一般而言,用於預測模型所使用的感測器為連續型資訊,代表更新頻率較觀測模型的感測器快速,持續去對當下的結果進行修正。以使用者所持之行動裝置5上IMU作為預測模型之感測器,可以透過三軸加速度感測器以及磁力計來推算使用者之朝向θ h 以及單位時間內移動之步伐N step ,利用兩者可以推算出使用者於空間中所移動之位移量。假設使用者每一步伐的移動量為固定並且以下式來簡單推算於單位時間內使用者所移動之速度。
Figure 109108085-A0305-02-0015-8
其中為 v t 估測之移動速率,K s 為使用者假設之步伐量量值,本論文以0.4m為測試值, T 為裝置取樣時間。
如第2圖所示,
Figure 109108085-A0305-02-0015-10
所示:使用者的估測移動位置,當使用者的速率 v t 以及朝向θ h 決定,位置轉移的方式可以透過空間座標的轉移函式進行估測,得出使用者移動至的位置
Figure 109108085-A0305-02-0015-12
Figure 109108085-A0305-02-0015-13
除此之外,散佈於各處的粒子
Figure 109108085-A0305-02-0015-14
同樣以相同的方式轉移其位置:
Figure 109108085-A0305-02-0015-15
如第2圖所示,Z所示:當錨點辨識模型輸出結果,當錨點辨識模型經由所蒐集到之RSSI及裝置朝向資訊,該模型將輸出各個錨點之機率值,以該機率值做為各錨點之權重,並以其觀測值得座標Z(Z x ,Z y )作為觀測之輸出,根據輸出之來對地圖上存在之粒子之權重進行分配。
如第2圖所示,
Figure 109108085-A0305-02-0015-17
所示:編號i之粒子配與之權重,高斯機率密度函數來做為粒子權重分配的基準。當錨點辨識模型輸出結果Z,來給定觀測值M:M= ZB #(6)其中 Z 為模型給定之各錨點之機率值。 B 為個錨點對應之座標位置,為一12×2矩陣,每一列由An1至An2對應地圖之二維座標。接著透過下式來獲得各粒子之權重值:
Figure 109108085-A0305-02-0015-18
Figure 109108085-A0305-02-0016-20
為編號i之粒子配與之權重,
Figure 109108085-A0305-02-0016-21
為編號i之粒子座標,σ為高斯模型之變異數,透過調整σ可以決定觀測值對於預測值的影響程度,E r 為整體粒子對於錨點Z之平均:
Figure 109108085-A0305-02-0016-22
Figure 109108085-A0305-02-0016-23
:本發明以SIR(Sequential Important Resampling)來完成重新取樣,為了刪除一些不重要的粒子並且產生新的粒子以加速系統收斂速度的流程。若多數粒子權重都過小時,粒子權重將會重新以均等的方式定義。反之,系統則會通過並以此次的粒子權重果並輸出估測結果。系統估測結果X t 由粒子本身的位置
Figure 109108085-A0305-02-0016-25
及對應的權重
Figure 109108085-A0305-02-0016-26
彼此相乘並相加:
Figure 109108085-A0305-02-0016-27
X t X t 為室內定位系統最終所估測的空間位置,
Figure 109108085-A0305-02-0016-28
:前一刻的估計位置。
如第1圖、第2圖、第4圖所示,在本發明的一實施例中,一種人員室內定位與移動機器人3對特定人員追蹤互動之系統,包括:一機器人3;複數個信標21,分散置於一室內區域,藉由該信標21的訊號強度(RSSI)訊號,將該室內區域分割成複數個子區間,每個子區間的中心點是定位的一錨點20;一行動裝置5,該行動裝置5具有一識別碼,待追蹤的一特定人員持用該行動裝置5,相應於該錨點20的該行動裝置5,具有一估測位置訊息;以及一雲端伺服器4,儲存該特定人員的人臉特徵資訊,以及該行動裝置5的估測位置訊息,該雲端伺服器4具有辨識該錨點20位置機率的一位置辨識模組7,該位置辨識模組7具有一深度學習的類神經網路的模組,該深度學習的類神經網路的模組具有複數層, 第一層是一輸入層,最後一層是一輸出層,輸出該錨點20的位置機率至該機器人3,藉以作動該機器人3追蹤持用該行動裝置5的特定人員。
如第1圖、第2圖、第4圖所示,在本發明的一實施例中,一種人員室內定位與移動機器人3對特定人員追蹤互動之系統,其中該雲端伺服器4的該位置辨識模組7,更包括一離線訓練模組91,用以接收並儲存不同的該信標21的訊號強度(RSSI)訊號的向量值後,在經由該雲端伺服器4的卡爾曼濾波模組6取樣每次中的最大訊號強度(RSSI)訊號,輸出至一離線錨點機率模組86。
如第1圖、第2圖所示,在本發明的一實施例中,一種人員室內定位與移動機器人3對特定人員追蹤互動之系統,其中雲端伺服器4的該位置辨識模組7,更包括一在線定位模組90,該在線定位模組90,包括:一錨點機率辨識模組88,由該離線錨點機率模組86輸出參數至該在線定位模組90的錨點機率辨識模組88,於實際定位時,該訊號強度(RSSI)訊號經由該卡爾曼濾波模組6取樣每次中的最佳化之訊號強度(RSSI)訊號,與歸一化朝向角後,由該在線錨點機率模組87輸出一錨點機率向量;一粒子濾波器位置估測模組89,經由一初始隨機取樣模組81取出樣本,並與原始朝向角、該使用者的移動速度、以及前一時間點位置估計值,於一目標估測模組82中,產出一最終位置估計值後,再將該最終位置估計值與該錨點機率向量,經由一權重計算模組83輸出每一粒子的權重,粒子的權重經由一循序重新取樣模組84後,產生所有粒子的權重更新值,再經由一定位估測模組85產生最終位置估計值。
如第1圖、第2圖所示,在本發明的一實施例中,一種人員室內定位與移動機器人3對特定人員追蹤互動之系統,其中該機器人3具有一雷射掃描器9,藉以作動該機器人3追蹤持用該行動裝置5的特定人員時,判斷空間中的障 礙,並迴避該障礙物位置後,續行作動該機器人3追蹤持用該行動裝置5的特定人員。
如第1圖、第2圖所示,在本發明的一實施例中,一種人員室內定位與移動機器人3對特定人員追蹤互動之系統,其中該雲端伺服器4,更包括一人臉辨識模組,進行比對辨識經由及時取像的該特定人員的人臉特徵資訊,與儲存在該雲端伺服器4中的該特定人員的人臉特徵資訊。
如第1圖、第2圖所示,在本發明的一實施例中,一種人員室內定位與移動機器人3對特定人員追蹤互動之系統,其中該機器人,包括:一攝影機1,該攝影機1藉以偵測持用該行動裝置的特定人員的人臉特徵資訊,當作動該機器人3追蹤至持用該行動裝置5的特定人員的鄰近位置時,經由該攝影機1的該特定人員的人臉特徵資訊,與儲存在該雲端伺服器4中的該特定人員的人臉特徵資訊,由該人臉辨識模組8進行比對辨識相同後,計算該機器人3與持用該行動裝置5的特定人員的距離以及水平位移,並作動該機器人3追蹤至持用該行動裝置5的特定人員的面前。
如第1圖、第2圖、第11圖所示,在本發明的一實施例中,步驟41(S41):使用該攝影機1,偵測以及擷取持用該行動裝置的特定人員的人臉特徵資訊。步驟46(S46):當作動該機器人追蹤至持用該行動裝置的特定人員的鄰近位置時,經由該攝影機1的該特定人員的人臉特徵資訊,與儲存在該雲端伺服器中的該特定人員的人臉特徵資訊,由該人臉辨識模組進行比對辨識相同後,計算該機器人與持用該行動裝置的特定人員的距離以及水平位移,並作動該機器人追蹤至持用該行動裝置的特定人員的面前。
如第1圖、第2圖、第11圖所示,在本發明的一實施例中,步驟42(S42),經由一雷射掃描器9的環境圖像,進行自主閃避障礙物。步驟43(S43):經由位置辨識模組7得到最終位置估計值,與SLAM自我定位結合,進行尋標靠站定位。步驟44(S44):經由一雷射掃描器9的環境圖像,由SLAM進行自我定位。步驟45(S45):係步驟42(S42)與步驟43(S43)結合下進行導航控制。步驟47(S47):係一種狀態的選擇模組,由步驟46(S46)以及步驟45(S45)選擇其中一種控制方式進行作動機器人,當該攝影機1偵測到該特定人員的人臉特徵資訊時,進行步驟46(S46),否則,當該攝影機1無法偵測到該特定人員的人臉特徵資訊時,進行步驟45(S45)。步驟48(S48):進行作動機器人。
如第3圖所示,依據本發明一實施例的整個系統實施之示意圖,本發明透過人員手持之行動裝置5讀取部屬於環境中六個信標21,不同MAC Address的iBeacon RSSI資訊,並將其透過TCP/IP傳送於雲端伺服器4中輸入至室內定位系統。系統將持續定位行動裝置5並輸出給機器人3來更新環境中人員的相對位置,持續追蹤特定人員。
依據本發明一實施例的接收訊號強度指標(Received Signal Strength Indicator,RSSI)訊號處理,為了能夠獲得更有效的RSSI觀測值,以卡爾曼濾波器(Kalman filter)濾除接收訊號之擾動,使定位時能夠快速反應出真正的RSSI量值。根據Path Loss模型可知RSSI與距離的關係是呈現一近似對數函數關係,在接收訊號越強的區間而言,以RSSI平均值對比其dBm與距離間有較為明顯的變化。而在較遠處則不明顯。在原始資料的可信度上,量值越大的dBm可採取的可信度較為高,反之則可信度較低。因此在進入卡爾曼濾波器前會先以一定數量的取樣值來進行最大值濾波程序。取出每次取樣時間中最佳化的RSSI 作為該次的代表。假設當前RSSI和上一時刻的RSSI不是彼此獨立,因此,偵測到的觀測數值不是一個固定值,而是一串訊號序列。RSSI值在短時間內變化較小,透過卡爾曼濾波過程持續估測RSSI量值,使其平均數值趨於穩定。
如第4圖所示,依據本發明一實施例的一種訊號指紋地圖辨識(Fingerprint)系統設計,訊號指紋地圖辨識(Fingerprint)定位法中的子區域22(Sub-regions)定義以及錨點20(Anchor point)描述。在定位環境中部署多個信標21,係訊號發射裝置iBeacon,接著將需要進行室內定位區域之地圖切割成等分的子區域22,其中每個子區塊的中心稱作為錨點20。透過分析及判斷來自不同裝置之RSSI於每個子區域22中所呈現的狀態來決定最有可能的子區域22編號,並以其錨點20的位置資訊作為輸出的結果。
依據本發明一實施例的一種基於深度類神經網路錨點辨識模型設計,為了建立適合的指紋訊號地圖,本發明不以自行定義RSSI訊號特徵來進行錨點20的分類,而是以類神經網路的方式以大量的訓練資料提供給模型訓練,以學習的方式進行錨點20之分類估測。
如第5圖所示,依據本發明一實施例的錨點20辨識之深度類神經網路((Deep Neutral Network,DNN)設計,深度學習的類神經網路模組700,提出的類神經網路共有9層,層數的選擇是透過持續刪除中間層,直至模型發散停止:第一層為輸入層71,輸入為 X ,第2層72~第7層77為隱藏層,第九層為輸出層, X 是由6個來自不同裝置之RSSI組成向量及朝向角(Orientation,θ p )組成;第二至八層為隱藏層,啟動函數為線性整流函式(ReLU);在第二與第三層間放置一丟棄層78(Dropout),其功用是來防止訓練時過度擬合(overfitting)的發生。 Z 為此模型的輸出,為基於當下模型的權重分配所估算出來各個錨點20的機率值, 其向量構成與標籤 Y 相同。在線使用階段 Z 元素之最大值的標號將會是輸出的錨點20。
依據本發明一實施例的DNN訓練時輸入資料(dataset)設計,本發明提供給訓練模型的資料包括蒐集裝置所偵測到來自於6台環境中所部署的iBeacon以及當下搜集器所呈現的姿態。為了使之能夠順利給予神經網路進行訓練及應用,X中之元素必須進行正規化,由於定義未收到之值為-100dBm,且1m處為-40dBm,因此正規的方式如式(10)(11):
Figure 109108085-A0305-02-0021-29
X ={ RSSI n ,θ p }#(11)
如此一來可以確定於有效接收範圍內能夠使之保持在0至1的區段中。
本發明所使用的訓練方式為監督式學習,因此在準備訓練資料的過程中必須要標示當下最佳的學習結果。此處以 Y 作為學習時所參考的標籤(label), Y 是以One-hot encoding的資料形式來表示其分類結果。本發明將環境共分割為12個子區域22,因此 Y 將會是一12個元素的向量,其中各個元素的加總將會是1。
Figure 109108085-A0305-02-0021-63
其中,P i 代表在標號i子區域22的機率。對於訓練標籤資料而言,蒐集裝置在已知的位置k放置並讀取儲存資料,當下區域k的條件是確立的,對於標籤 Y 而言, Y 的空間機率只有在區域k有值, Y 中的q個元素只有在第k個元素有值。
如第6圖所示,本發明以內建Android作業系統之手持行動裝置5上之六軸慣性測量裝置(IMU)來估測裝置當下時刻之朝向以及偵測使用者之移動步伐,如第6圖所示,為其裝置姿態估測流程圖。其中慣性測量單元(Inertial measurement unit,IMU)是由三種測量裝置所組成:三軸加速計201(Accelerometer)、陀螺儀(Gyroscope)、磁力計202(Magnetometer)。對於估測裝置朝向,至少需要使用到加速度計以及磁力計。對於所有測量裝置的訊號Mraw、Graw包含個方向之量值,都會先經過指數平滑模組203的指數平滑處理,進行處理為Mest、Gest,其方式如式(13):
Figure 109108085-A0305-02-0022-57
其功能可以視為一低通濾波器,主要是可以處理測量值的浮動部分,其中α為阻尼係數,此處為0.9。在三維空間中,將三軸加速計201量值 G est 正規化可視為重力方向,而磁力計量值
Figure 109108085-A0305-02-0022-58
則視為裝置水平方向,透過式(11)外積 G est
Figure 109108085-A0305-02-0022-59
能找到兩向量所形成平面的法向量 n d
Figure 109108085-A0305-02-0022-60
座標模組205,利用羅德里格旋轉公式(Rodrigues' rotation formula)能夠找到裝置於水平下之 n i 以及裝置以任意姿態計算 n d 間的旋轉矩陣
Figure 109108085-A0305-02-0022-31
。接著使用尤拉角公式拆解
Figure 109108085-A0305-02-0022-32
獲得當下裝置對於世界坐標系之RollPitchYaw軸各個旋轉狀態,其中Yaw的旋轉角即為所求之θ h 。步伐偵測模組204,為了估測出使用者的步伐N step ,透過分析三軸加速計
Figure 109108085-A0305-02-0022-61
的量值變化來獲取角速度量值ω step ,以取樣時間T為1s,角速度ω step 低於-200(degree/s)時視為一步。
如第7A圖、第7B圖所示,依據本發明一實施例的一種DNN模型訓練,由前上述已經對本發明所使用的模型進行了規劃,以Keras所提供的工具來進行訓練模型的實現。如第7A圖、第7B圖所示為本發明用於測試的實驗場地,實驗場地共有6顆iBeacon黏貼於2.1公尺高的牆面。實驗場地被切割成12塊2.8m x 2.8m的子區域22來進行訓練資料的蒐集,以智慧型攜帶裝置作為蒐集的裝置,並由TCP/IP傳送蒐集的數據至PC server來進行儲存。
主要以三次不同時段進行RSSI數據蒐集:實驗中分別為早上(10:00~)、下午(15:00~)及晚上(20:00~)。對於每一次資料蒐集,使用者持行動裝置5於定義的子區域22中,以隨機的方向及位置持續偵測環境中之RSSI值,大概需持續5分鐘。對於環境中的每一子區域22執行相同的動作。對於三個時段同樣做相同動作。將所有蒐集之資料組合成一訓練集且隨機將其順序打散,所訓練資料共有181,853筆,其中提取10%之資料作為驗證集來測試系統訓練模型的有效性。
本發明所提出之RSSI-DNN錨點辨識模型是可以收斂且成功分類的。最後以第972次所產生的模型權重參數擁有最高的驗證集準確率89.2%:以及最小的驗證集損失0.531,來為接下來的位置估測提供觀測值。
如第8圖所示,依據本發明一實施例的粒子濾波器定位設計,粒子濾波器透過一組具有權重的隨機樣本來表示隨機事件的後驗機率,從含有雜訊或不完整的觀測序列,估計出動態系統的狀態。第8圖為本發明所提出之粒子濾波器位置估測模型流程及架構。在系統啟動階段,N個數目粒子
Figure 109108085-A0305-02-0023-64
將會被平均分布於所有可移動空間中。透過使用者的行動裝置5,可以獲得使用者的移動狀態並且預測使用者可能轉移的目標位置。每當錨點辨識模型經由所蒐集到之 RSSI及裝置朝向資訊,該模型將輸出各個錨點20之機率值,以該機率值做為各錨點20之權重,並以其期望值座標Z(Z x ,Z y )作為觀測之輸出,根據輸出對地圖上存在之粒子之權重進行分配。為了減輕系統計算上負擔以及排除非必要及不合理之粒子,重要性取樣步驟中將針對其進行篩選,並決定最後系統所估測之結果。
本發明以使用者所持之行動裝置5上慣性測量單元(Inertial measurement unit,IMU)作為預測模型之感測器,透過行動裝置5上三軸加速度感測器以及磁力計來推算使用者之朝向θ h 以及單位時間內移動之步伐N step ,利用兩者可以推算出使用者於空間中所移動之位移量。
如第9圖所示,依據本發明一實施例的人員辨識與機器人3伴隨控制,臉部偵測與辨識功能使用OpenFace及dlib兩個開源函式庫完成,使用者在使用臉部辨識功能前需要先提供機器人3使用者2至3張臉部影像,使用OpenFace函式庫中所提供的神經網路模型對臉部進行編碼,最後輸出128個測量值做為後續比對之用。機器人3會透過方向梯度直方圖(Histogram of oriented gradient,HOG)在畫面中找到所有人員的臉部後,針對每一個偵測到的臉部使用同樣的網路進行編碼,並且和使用者的編碼值進行比對來進行辨識,最後輸出使用者臉部的中心位置(x f ,y f )以及外框的長寬值(h f ,w f ),如第9圖所示。
一旦機器人3接近使用者,使用偵測到臉部的外框長寬計算出臉部的面積值A f ,並且使用式(15)換算使用者與機器人3之間的距離D。除此之外,使用者位於畫面中之水平中心位置x f 同樣也將輸出作為機器人3追蹤控制的輸入。
D=206.7549A f -0.5895973#(15)
如第10圖所示,依據本發明一實施例的機器人3基於人臉辨識追蹤控制的架構圖。步驟30(S30):由攝影機1取得特定人員的人臉資訊。步驟31(S31):進行人臉辨識。步驟32(S32):根據所獲得機器人3與使用者間的距離D,根據此距離決定機器人3的線速度v,如式(16)所示。
Figure 109108085-A0305-02-0025-33
步驟33(S33):角速度則使用機器人3與使用者之間的相對位置來決定角速度的大小與轉向,如式(17)所示。其中△x為使用者臉部的水平中心位置x f 和機器人3水平中心位置x c 差距,計算如式(18),ω max 為機器人3設定的最大角速度,x max 則為機器人3視野距離中心的最大值。
Figure 109108085-A0305-02-0025-34
x=x f -x c #(18)步驟34(S34):當機器人3與使用者間的距離小於D min ,則其控制線速度v將會設為零。當使用者與機器人3中心偏移量△x小於一定閥值,同樣將控制角速度ω設為零。當兩速度都為停止狀態,則視為已到達使用者服務位置,並開始與使用者互動。
如第11圖所示,依據本發明一實施例的機器人3人員伴隨控制,本發明結合提出之室內人員定位系統以及臉部人員辨識機器人3追蹤控制架構如第11圖所示。機器人3具備SLAM定位導航功能,透過雷射測距儀距離與朝向資訊[r i i ]對環境進行建圖與定位,同時用於障礙物閃避控制來決定閃避命令[v o ,ω o ]。透過室內定位系統能獲得環境中使用者資訊[X t ],作為機器人3導航的 目標點,且根據與目標的距離決定控制速度[v g ,ω g ]。再由導航控制器混合[v o ,ω o ]及[v g ,ω g ]並給予機器人3整合之運動控制。當機器人3接近目標使用者(Target person)位置過程中,頭部攝影機偵測到使用者將會輸出機器人與使用者間的估測距離以及臉部於畫面中心之偏移量[D,△x],並決定機器人3辨識追蹤控制命令,再如第11圖產生最終給予馬達的命令[u f ]。機器人3將回傳編碼器所計算之[v l ,v r ]結合雷射掃描儀資訊,利用SLAM來定位機器人當前之位置與朝向[x c ,y c ,θ c ]。
如第12圖所示,依據本發明一實施例的機器人3追蹤互動控制流程圖。第12圖所示,說明在前往目標過程中,一旦有成功找尋到目標使用者,則會將機器人3自主導航模式切換至人員辨識機器人3追蹤控制。若追蹤過程中目標遺失,則會切回自主導航控制並以室內定位所估測資訊做為目標點。機器人3到達估測位置進而成功停止於使用者面前則視為追隨到使用者。步驟71(S71):特定人員的行動裝置5定位。步驟72(S72):判斷機器人3是否到達特定人員行動裝置5的定位估測位置。步驟73(S73):若到達接近特定人員行動裝置5的定位估測位置,等待特定人員指示,進行作動。步驟74(S74):若未收到特定人員的人臉資訊,機器人繼續往特定人員位置前進並繼續進行人臉辨識。步驟76(S76):前往特定人員的目標過程中,一旦有成功找尋到目標使用者,則會將機器人3自主導航模式切換至人員辨識的機器人3追蹤控制。步驟75(S75):若機器人3追蹤過程中目標的特定人員遺失,則會切回自主導航控制並以室內定位所估測資訊做為目標點。步驟77:係由步驟75(S75)以及步驟76(S76)其中一種模式下,作動機器人3。步驟78(S78):進行機器人雷射掃描定位(SLAM)。
如第13圖所示,依據本發明一實施例的人員定位實驗,根據上述第0053段錨點辨識模型測試結果,其模型可輸出成功率達9成的錨點20辨識結果輸出給粒子濾波器進行位置估測。本發明測試時透過35個分布於測試區域的不同點位來測試環境中靜止的人員的定位。第13圖星號是選定測試點位置T i ,使用者將手持行動裝置5站在各個點位約一分鐘,為了使估測值收斂,於啟動裝置後約5秒後記錄所估測之結果,選擇的點位主要分為三類,第一類是所訓練之錨點20區域中心點位;第二類為任意兩個不同錨點之間;第三類則是四個錨點點間的交集處。最終將各個測試點的平均誤差繪製成表1。以驗證結果得知,在訓練點位上有相對精準的準確度,而越靠近中間區域,整體精確度相對準確,而越外圍部分則誤差越高,而整體平均誤差為0.5125m。
Figure 109108085-A0305-02-0027-35
如第14圖所示,手機APP應用程式人機介面示意圖。依據本發明一實施例的機器人3人員追蹤實驗,本實施例使用Android OS的智慧行動裝置5並安裝一APP應用程式,以提供使用者介面對機器人3下達命令,第14圖為手機應用程式之人機介面。應用程式中顯示了目前有接收到的iBeacon MAC Address及對應的RSSI值、電子羅盤讀值以顯示智慧行動裝置5的朝向,以及使用者移動 偵測的結果。位於介面中間有「CALL ROBOT」按鈕,當使用者按下該按鈕時,機器人3會主動前往按下此按鈕的使用者位置;在介面下方則有兩排相同ID排序的按鈕,左排為遞送功能,機器人3會先前往呼叫者的位置,再前往所指定ID對象之裝置位置,完成遞交物件的服務;右排則是呼叫功能,機器人3會先前往所點選之ID對象位置,並告知該對象前往呼叫者位置,並在引導過程中執行機器人3自主導引功能。連接鍵61,進行行動裝置5連接雲端伺服器4。信標位置及訊號強度顯示區62,顯示信標位置及訊號強度。掃描鍵63,進行信標21的訊號強度掃描。到達鍵64,呼叫機器人3到達使用者面前。朝向角估測顯示區65,顯示朝向角。測步顯示區66,顯示步伐估測。載物鍵67,下指令給機器人,進行機器人載物至特定人員。帶人尋找鍵68,呼叫機器人尋找特定人員。
如第15圖所示,依據本發明一實施例的人員追蹤實驗過程影片截圖,由位置(a)~位置(o)所連續的動作。其中,位置(a)是呼叫機器人3的使用者(Caller)的位置,位置(b)是被呼叫/或被尋找的目標人(Target Person)的位置,位置(c)是機器人3待命地點的位置,位置(d)是呼叫機器人3的使用者(Caller)經由行動裝置5詢問/或尋被呼叫/或被尋找的目標人(Target Person)的位置,位置(e)~位置(g)是呼叫機器人3的使用者(Caller)呼叫機器人3,位置(h)是機器人3到達呼叫機器人3的使用者(Caller)的位置,位置(i)~位置(k)是呼叫機器人3的使用者(Caller)命令機器人3前往被呼叫/或被尋找的目標人(Target Person)的位置,位置(l)是機器人3到達被呼叫/或被尋找的目標人(Target Person)的位置,位置(m)是機器人3返回待命點的位置,位置(n)是機器人3避開行人,位置(o)機器人3返回待命點的位置。
如第16圖所示,依據本發明一實施例的目的在於結合人臉辨識追蹤環境中人員的位置,並以合適的姿態與使用者進行互動。如第15圖所示,依據本發明一實施例的人員追蹤實驗過程影片截圖,首先一個呼叫機器人3的使用者(Caller)站於An2與An5間區域如第15圖位置(a),要被呼叫/或被尋找的目標人(Target Person)則是位於第15圖位置(b)的位置。機器人3待命點如第15圖位置(c)所示。實驗一開始,一位訪客前來詢問叫機器人3的使用者(Caller)要尋找被呼叫/或被尋找的目標人(Target Person)(第15圖位置(d))。呼叫機器人3的使用者(Caller)使用APP(第15圖位置(e))命令機器人3前往當前位置進行服務。機器人3收到命令後,使用室內定位所給定的估測點作為目標開始前往(第15圖位置(f))。當機器人3接近使用者時,機器人3會透過位於頭部之相機進行人臉辨識(第15圖位置(g)),辨識結果如第16圖所示。最後到達使用者面前進行互動(第15圖位置(h))。呼叫機器人3的使用者(Caller)使用APP(第15圖位置(i))命令機器人3帶領訪客前往被呼叫/或被尋找的目標人(Target Person)位置,使用室內定位所給定的估測點作為目標開始前往(第15圖位置(j))。當機器人3接近使用者時,機器人3會透過位於頭部之相機進行人臉辨識(第15圖位置(k))辨識結果如第17圖所示。最後到達使用者面前進行互動(第15圖位置(l))。完成任務後,機器人3自行返回待命點(第15圖位置(m))。在過程中遇到行人並進行閃避(第15圖位置(n))。直到待命點後等待下一輪命令(第15圖位置(o))。
如第18圖所示,為機器人3以及各人員紀錄軌跡。步驟301(S301):機器人3位於待命位置。步驟302(S302):呼叫機器人3的使用者(Caller)於所在位置,並呼叫機器人3至使用者(Caller)於步驟302(S302)所在位置。步驟303(S303):機器人3帶領使用者(Caller)前往被呼叫/或被尋找的目標人(Target Person)位置, 步驟304(S304):機器人3在運行過程中遇到行人的位置,機器人3並進行閃避行人。如第18圖所示,機器人3由步驟301(S301)至步驟304(S304),依序完成本發明的人員室內定位與移動機器人對特定人員追蹤互動之系統的實驗測試。
雖然本發明已以實施方式揭露如上,然其並非用以限定本發明,任何熟習此技藝者,在不脫離本發明之精神和範圍內,當可作各種之更動與潤飾,因此本發明之保護範圍當視後附之申請專利範圍所界定者為準。
81:初始隨機取樣模組
82:目標估測模組
83:權重計算模組
84:循序重新取樣模組
85:定位估測模組
86:離線錨點機率模組
87:在線錨點機率模組
88:錨點機率辨識模組
89:粒子濾波器位置估測模組
90:在線定位模組
91:離線訓練模組
6:卡爾曼濾波模組

Claims (10)

  1. 一種人員室內定位與移動機器人對特定人員追蹤互動之系統,包括:一機器人;複數個信標,分散置於一室內區域,藉由各該信標的訊號強度(RSSI)訊號,將該室內區域分割成複數個子區間,每個子區間的中心點是定位的一錨點;一行動裝置,該行動裝置具有一識別碼,待追蹤的一特定人員持用該行動裝置,相應於該錨點的該行動裝置,具有一估測位置訊息;以及一雲端伺服器,儲存該特定人員的人臉特徵資訊,以及該行動裝置的估測位置訊息,該雲端伺服器具有辨識該錨點位置機率的一位置辨識模組,該位置辨識模組具有一深度學習的類神經網路的模組,該深度學習的類神經網路的模組具有複數層,第一層是一輸入層,由最後一層是一輸出層,輸出該錨點的位置機率至該機器人,藉以作動該機器人追蹤持用該行動裝置的特定人員。
  2. 如請求項1所述之人員室內定位與移動機器人對特定人員追蹤互動之系統,其中該雲端伺服器的該位置辨識模組,更包括一離線訓練模組,用以接收並儲存不同的該信標的訊號強度(RSSI)訊號的向量值後,在經由該雲端伺服器的卡爾曼濾波模組取樣每次中的最佳化訊號強度(RSSI)訊號,輸出至一離線錨點機率模組。
  3. 如請求項1所述之人員室內定位與移動機器人對特定人員追蹤互動之系統,其中該雲端伺服器的該位置辨識模組,更包括一在線定位模組,該在線定位模組,包括:一錨點機率辨識模組,由該離線錨點機率模組輸出參數至該在線定位模組的錨點機率辨識模組,於實際定位時,該訊號強度(RSSI)訊號經由該卡爾曼濾波 模組取樣每次中的最佳化訊號強度(RSSI)訊號,與一歸一化朝向角後,由該在線錨點機率模組輸出一錨點機率向量;一粒子濾波器位置估測模組,經由一初始隨機取樣模組取出樣本,並與原始朝向角、該使用者的移動速度、以及前一時間點位置估計值,於一目標估測模組中,產出一最終位置估計值後,再將該最終位置估計值與該錨點機率向量,經由一權重計算模組輸出每一粒子的權重,該粒子的權重經由一循序重新取樣模組後,產生所有該粒子的權重更新,再經由一定位估測模組產生最終位置估計值。
  4. 如請求項1所述之人員室內定位與移動機器人對特定人員追蹤互動之系統,其中該機器人具有一雷射掃描器,藉以作動該機器人追蹤持用該行動裝置的特定人員時,判斷空間中的障礙,並迴避該障礙物位置後,續行作動該機器人追蹤持用該行動裝置的特定人員。
  5. 如請求項1所述之人員室內定位與移動機器人對特定人員追蹤互動之系統,其中該雲端伺服器,更包括一人臉辨識模組,進行比對辨識經由即時取像的該特定人員的人臉特徵資訊,與儲存在該雲端伺服器中的該特定人員的人臉特徵資訊。
  6. 如請求項1所述之人員室內定位與移動機器人對特定人員追蹤互動之系統,其中該機器人,包括:一攝影機,該攝影機藉以偵測持用該行動裝置的特定人員的人臉特徵資訊,當作動該機器人追蹤至持用該行動裝置的特定人員的鄰近位置時,經由該攝影機的該特定人員的人臉特徵資訊,與儲存在該雲端伺服器中的該特定人員的人臉特徵資訊,由該人臉辨識模組進行比對辨識相同後,計算該機器人與持用該行動裝置的特定人員的距離以及水平位移,並作動該機器人追蹤至持用該行動裝置的特定人員的面前。
  7. 一種人員室內定位與移動機器人之追蹤互動方法,包括下列步驟:移動一機器人透過一自主導航模式追蹤一特定人員目標;該自主導航模式係透過該特定人員目標的一行動裝置定位;判斷移動該機器人是否到達該行動裝置的定位估測位置;當移動該機器人找尋到該特定人員目標,則將移動該機器人由該自主導航模式切換至一人員追蹤控制模式並等待該特定人員目標的指示動作;若未收到該特定人員目標的一人臉資訊,則移動該機器人繼續往該定位估測位置前進並繼續進行一人臉辨識;以及當移動該機器人遺失中該特定人員目標,則會切回該自主導航控制並以該室內定位所估測資訊做為一目標點。
  8. 如請求項7所述之人員室內定位與移動機器人之追蹤互動方法,其中移動該機器人具有一雷射掃描器,藉以作動該機器人追蹤持該行動裝置定位時,判斷空間中的一障礙物,並迴避該障礙物的位置後,續行作動移動該機器人以追蹤該特定人員目標。
  9. 如請求項7所述之人員室內定位與移動機器人之追蹤互動方法,該自主導航模式更包括一離線訓練模組,用以接收並儲存不同的分散置於一室內區域內的至少一信標的訊號強度(RSSI)訊號的向量值後,在經由一雲端伺服器的卡爾曼濾波模組取樣每次中的最佳化訊號強度(RSSI)訊號,輸出至一離線錨點機率模組。
  10. 如請求項9所述之人員室內定位與移動機器人之追蹤互動方法,該雲端伺服器,更具有一在線定位模組,包括:一錨點機率辨識模組,由該離線錨點機率模組輸出參數至該在線定位模組的錨點機率辨識模組,於實際定位時,該訊號強度(RSSI)訊號經由該卡爾曼濾波 模組取樣每次中的最佳化訊號強度(RSSI)訊號,與一歸一化朝向角後,由該在線錨點機率模組輸出一錨點機率向量;一粒子濾波器位置估測模組,經由一初始隨機取樣模組取出樣本,並與原始朝向角、該使用者的移動速度、以及前一時間點位置估計值,於一目標估測模組中,產出一最終位置估計值後,再將該最終位置估計值與該錨點機率向量,經由一權重計算模組輸出每一粒子的權重,該粒子的權重經由一循序重新取樣模組後,產生所有該粒子的權重更新,再經由一定位估測模組產生最終位置估計值。
TW109108085A 2020-03-11 2020-03-11 人員室內定位與移動機器人對特定人員追蹤互動之系統及其方法 TWI739339B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW109108085A TWI739339B (zh) 2020-03-11 2020-03-11 人員室內定位與移動機器人對特定人員追蹤互動之系統及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW109108085A TWI739339B (zh) 2020-03-11 2020-03-11 人員室內定位與移動機器人對特定人員追蹤互動之系統及其方法

Publications (2)

Publication Number Publication Date
TWI739339B true TWI739339B (zh) 2021-09-11
TW202134681A TW202134681A (zh) 2021-09-16

Family

ID=78777333

Family Applications (1)

Application Number Title Priority Date Filing Date
TW109108085A TWI739339B (zh) 2020-03-11 2020-03-11 人員室內定位與移動機器人對特定人員追蹤互動之系統及其方法

Country Status (1)

Country Link
TW (1) TWI739339B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI812053B (zh) * 2021-09-29 2023-08-11 大陸商深圳市慧鯉科技有限公司 定位方法、電子設備及電腦可讀儲存媒體
TWI814408B (zh) * 2022-05-30 2023-09-01 友通資訊股份有限公司 定位系統及定位方法
TWI839718B (zh) * 2022-04-26 2024-04-21 緯創資通股份有限公司 優化方法及其伺服器

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI815613B (zh) * 2022-08-16 2023-09-11 和碩聯合科技股份有限公司 適用於機器人之導航方法及其機器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011146259A2 (en) * 2010-05-20 2011-11-24 Irobot Corporation Mobile human interface robot
CN106355242A (zh) * 2016-09-26 2017-01-25 苏州小璐机器人有限公司 一种基于人脸检测的互动机器人
TW201913262A (zh) * 2017-09-06 2019-04-01 宏碁股份有限公司 物件遞送系統以及其方法
TW201935186A (zh) * 2018-02-08 2019-09-01 佳綸生技股份有限公司 機器人輔助互動系統及其方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011146259A2 (en) * 2010-05-20 2011-11-24 Irobot Corporation Mobile human interface robot
CN106355242A (zh) * 2016-09-26 2017-01-25 苏州小璐机器人有限公司 一种基于人脸检测的互动机器人
TW201913262A (zh) * 2017-09-06 2019-04-01 宏碁股份有限公司 物件遞送系統以及其方法
TW201935186A (zh) * 2018-02-08 2019-09-01 佳綸生技股份有限公司 機器人輔助互動系統及其方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI812053B (zh) * 2021-09-29 2023-08-11 大陸商深圳市慧鯉科技有限公司 定位方法、電子設備及電腦可讀儲存媒體
TWI839718B (zh) * 2022-04-26 2024-04-21 緯創資通股份有限公司 優化方法及其伺服器
TWI814408B (zh) * 2022-05-30 2023-09-01 友通資訊股份有限公司 定位系統及定位方法

Also Published As

Publication number Publication date
TW202134681A (zh) 2021-09-16

Similar Documents

Publication Publication Date Title
TWI739339B (zh) 人員室內定位與移動機器人對特定人員追蹤互動之系統及其方法
US11257223B2 (en) Systems and methods for user detection, identification, and localization within a defined space
US11340610B2 (en) Autonomous target following method and device
US11673269B2 (en) Method of identifying dynamic obstacle and robot implementing same
JP4630146B2 (ja) 位置管理システムおよび位置管理プログラム
US7873448B2 (en) Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles
WO2018068771A1 (zh) 目标跟踪方法、系统、电子设备和计算机存储介质
CN111932588A (zh) 一种基于深度学习的机载无人机多目标跟踪系统的跟踪方法
CN105760824A (zh) 一种运动人体跟踪方法和系统
US11475671B2 (en) Multiple robots assisted surveillance system
CN206277403U (zh) 一种多功能物业服务机器人
Huang et al. Multitarget visual tracking based effective surveillance with cooperation of multiple active cameras
CN109933061A (zh) 基于人工智能的机器人及控制方法
Croce et al. Enhancing tracking performance in a smartphone-based navigation system for visually impaired people
CN112119627A (zh) 基于云台的目标跟随方法、装置、云台和计算机存储介质
KR20210076668A (ko) 시각 정보 처리 기반의 위치 인식 방법 및 시스템
Nandkumar et al. Simulation of Indoor Localization and Navigation of Turtlebot 3 using Real Time Object Detection
Sun et al. Real-time and fast RGB-D based people detection and tracking for service robots
JP2022012173A (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN113741550A (zh) 移动机器人跟随方法和系统
JP5418938B2 (ja) グループ行動推定装置およびサービス提供システム
US20210053232A1 (en) Information processing apparatus, information processing method and program
Cielniak et al. Appearance-based tracking of persons with an omnidirectional vision sensor
US20190314983A1 (en) Recording medium, information processing apparatus, and information processing method
Ruo et al. Follow me: an architecture for user identification and social navigation with a mobile robot