TWI685296B - 基於學習演算法的動作感測系統與其方法 - Google Patents

基於學習演算法的動作感測系統與其方法 Download PDF

Info

Publication number
TWI685296B
TWI685296B TW107147383A TW107147383A TWI685296B TW I685296 B TWI685296 B TW I685296B TW 107147383 A TW107147383 A TW 107147383A TW 107147383 A TW107147383 A TW 107147383A TW I685296 B TWI685296 B TW I685296B
Authority
TW
Taiwan
Prior art keywords
pet
motion
sensing
action
posture
Prior art date
Application number
TW107147383A
Other languages
English (en)
Other versions
TW202023366A (zh
Inventor
呂藝光
Original Assignee
國立臺灣師範大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立臺灣師範大學 filed Critical 國立臺灣師範大學
Priority to TW107147383A priority Critical patent/TWI685296B/zh
Application granted granted Critical
Publication of TWI685296B publication Critical patent/TWI685296B/zh
Publication of TW202023366A publication Critical patent/TW202023366A/zh

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一種基於學習演算法的動作感測系統,其係用於寵物,且包括感測裝置、感測訊號獲取單元與動作姿態處理單元。於判讀模式下,所述動作姿態處理單元根據動作名稱、感測裝置穿戴於寵物的穿戴狀態資訊與寵物個體資訊自建立的多個動作姿態參考資料中選擇其中對應一者,所述感測訊號獲取單元獲取所述感測裝置所感測到的至少一動作感測訊號,以及所述動作姿態處理單元比較基於所述至少一動作感測訊號形成的動作姿態資料與選擇的所述動作姿態參考資料,以判斷所述寵物的動作姿態是否正確。

Description

基於學習演算法的動作感測系統與其方法
本發明係關於一種用於寵物的動作感測技術,尤其指一種其感測裝置能夠以任意穿戴位置、穿戴方式穿戴於任意體態之寵物也不會影響其動作姿態判讀結果的基於學習演算法的動作感測系統與其方法。
現在社會中,有不少家庭都養有寵物,例如:貓、狗、貂、鸚鵡或蜥蜴等。隨著動保觀念與科技的進步,不少主人會重視寵物的健康,甚至願意花時間金錢去訓練寵物作出特定動作來增加其才藝,並藉此與寵物互動,使得寵物也從中得到滿足,而不易憂鬱。
於現有技術中,已被提出之用於寵物的穿戴裝置說明如下。中華民國TW M511836號專利提出一種寵物用之穿戴型醫療保健裝置。此寵物用之穿戴型醫療保健裝置可穿繞寵物之軀體,並固定於寵物之背部上。此寵物用之穿戴型醫療保健裝置還具有輻射發熱層,且輻射發熱層用來發出紅外線輻射或遠紅外線輻射,以對寵物之背部及髖關節進行照射。如此,可以透過紅外線輻射或遠紅外線輻射對寵物的關節、骨頭與肌肉進行治療,從而解決寵物一般好動而不願意待坐(或待臥)於特定地方進行治療的問題。
中華民國TW M527577號專利提供一種穿戴式感應裝置,其可以被人或寵物所穿戴,且具有定位裝置,以定位穿戴的用戶或寵物的位置,從而避免用戶或寵物走失。由上可知,中華民國TW M511836號專利僅提供具醫療功能之寵物用的穿戴型裝置,而中華民國TW M527577號專利僅提供具定位功能之通用的穿戴型裝置,因此現有技術並未提供一種可以感測寵物之動作的穿戴裝置與動作感測系統。
另外,現有技術雖有提供可被人穿戴並感測動作資料的穿戴裝置,但這些穿戴裝置的穿戴位置與穿戴方式係為固定的,且當且用戶的體態不同時,則可能無法正確地判讀用戶的動作姿態是否正確。因此,上述這些具有感測動作姿態的穿戴裝置並無法直接應用於不同體態的寵物。
舉例來說,中華民國TW I491379號專利提出了一種可穿戴於用戶之肢體的穿戴型動態感測裝置,以檢測用戶之肢體的動態生理訊號。此穿戴型動態感測裝置包括感測模組、傳輸模組以及穩定模組,且主要應用於關節彎曲姿態矯正或復健。換言之,此穿戴型動態感測裝置必須穿戴於用戶的肢體,且不具有任意穿戴位置與穿戴方式的適應性設計。
再舉一例來說,中華民國TW M537280號專利提出一種跌倒偵測系統,其包括有用以供用戶穿戴的穿戴式裝置以及處理器。穿戴式裝置上係設置有用以偵測用戶動作數據的慣性感測器。中華民國TW M537280號5專利主要是透過穿戴型姿態動態感測裝置量測正常動作姿態資料,並將資料存入資料庫,以比對正常與異常資料,判定跌倒與否。因此,中華民國TW M537280號專利同樣地也沒有提到任意穿戴位置與穿戴方式的適應性設計。
綜上所述,現有技術並未提供一種可以感測寵物動作的動作感測系統,而且也沒有提供一種其感測裝置以任意穿戴方式與/或穿戴位置穿戴於任意體態之寵物之用於寵物的動作感測系統。
因此,為了克服現有技術的不足之處,本發明實施例提供一種基於學習演算法的動作感測系統與其方法,其係用於寵物。即使以不同穿戴方式與/或穿戴位置把所述用於寵物的動作感測系統中的感測裝置穿戴於不同體態的寵物身上,所述用於寵物的動作感測系統與其方法仍能正確地判讀寵物的動作姿態。簡單地說,所述用於寵物的動作感測系統與其方法使得穿戴於寵物的感測裝置能具有任意穿戴位置、任意穿戴方式與任意寵物體態的適應性設計。
基於前述目的的至少其中之一者,本發明實施例提供一種之基於學習演算法的動作感測系統,其係用於寵物且包括感測裝置、感測訊號獲取單元與動作姿態處理單元。感測裝置包括至少一感測器,係用於被寵物所穿戴。感測訊號獲取單元電性連接或通訊連結所述感測裝置。動作姿態處理單元電性連接或通訊連結所述感測訊號獲取單元。於判讀模式下,所述動作姿態處理單元根據動作名稱、所述感測裝置穿戴於所述寵物的穿戴狀態資訊與寵物個體資訊自建立的多個動作姿態參考資料中選擇其中對應一者,所述感測訊號獲取單元獲取所述感測裝置所感測到的至少一動作感測訊號,以及所述動作姿態處理單元比較基於所述至少一動作感測訊號形成的動作姿態資料與選擇的所述動作姿態參考資料,以判斷所述寵物的動作姿態是否正確。
可選地,於本發明實施例中,所述基於學習演算法的動作感測系統,更包括另一感測裝置以及另一感測訊號獲取單元。另一感測裝置包括至少另一感測器,係用於被另一寵物所穿戴。另一感測訊號獲取單元電性連接或通訊連結所述另一感測裝置與所述動作姿態處理單元。於所述判讀模式下,所述動作姿態處理單元根據另一動作名稱、所述另一感測裝置穿戴於所述另一寵物的另一穿戴狀態資訊與另一寵物個體資訊自建立的多個動作姿態參考資料中選擇其中對應另一者,所述感測訊號獲取單元獲取所述另一感測裝置所感測到的至少一動作感測訊號,以及所述動作姿態處理單元比較基於所述另一感測裝置的所述至少一動作感測訊號形成的另一動作姿態資料與選擇的所述另一動作姿態參考資料,以判斷所述另一寵物的另一動作姿態是否正確。
可選地,於本發明實施例中,所述動作姿態處理單元包括兩個客戶端處理單元與伺服器端處理單元。所述兩個客戶端處理單元分別電性連接或通訊連結所述兩個感測訊號獲取單元。伺服器端處理單元電性連接或通訊連結所述兩個客戶端處理單元。
可選地,於本發明實施例中,於學習模式下,所述動作姿態處理單元記錄所述動作名稱、所述穿戴狀態資訊與所述寵物個體資訊,並且所述感測訊號獲取單元獲取所述感測裝置所感測到的至少一訓練感測訊號,以及所述動作姿態處理單元根據所述訓練感測訊號建立對應於所述動作名稱、所述穿戴狀態資訊與所述寵物個體資訊的所述動作姿態參考資料。
可選地,於本發明實施例中,所述穿戴裝置資訊包括所述感測裝置穿戴於所述寵物的穿戴方式與穿戴位置的資訊。
可選地,於本發明實施例中,所述寵物個體資訊包括所述寵物的身高、身長、體重、性別、年齡與健康狀況的資訊。
可選地,於本發明實施例中,所述動作姿態處理單元更包括語音輸入單元,其中用戶透過所述語音輸入單元控制所述基於學習演算法的動作感測系統。
可選地,於本發明實施例中,所述感測器包括九軸姿態感測器、壓力感測器、張力感測器、溫度感測器或震動感測器。
可選地,於本發明實施例中,所述基於學習演算法的動作感測系統更連結至社群網路或聊天軟體,以及所述基於學習演算法的動作感測系統更包括定位裝置或文字/語音轉換裝置。
基於前述目的的至少其中一者,本發明實施例還提供一種基於學習演算法的動作感測方法,其係用於寵物且包括以下步驟。於判讀模式下:根據動作名稱、感測裝置穿戴於寵物的穿戴狀態資訊與寵物個體資訊自建立的多個動作姿態參考資料中選擇其中對應一者;獲取穿戴於所述寵物之所述感測裝置所感測到的至少一動作感測訊號;以及比較基於所述至少一動作感測訊號形成的動作姿態資料與選擇的所述動作姿態參考資料,以判斷所述寵物的動作姿態是否正確。於學習模式下:記錄所述動作名稱、所述穿戴狀態資訊與所述寵物個體資訊;獲取所述感測裝置所感測到的至少一訓練感測訊號;以及根據所述至少一訓練感測訊號建立對應於所述動作名稱、所述穿戴狀態資訊與所述寵物個體資訊的所述動作姿態參考資料。
簡言之,本發明的基於學習演算法的動作感測系統與其方法可以將其感測裝置以不同穿戴方式穿戴於寵物的不同穿戴位置,且於學習模式下,能夠建立出對應於穿戴方式、穿戴位置與寵物個體資訊之動作姿態參考資料,以供在判讀模式下使用動作姿態參考資料作為判讀寵物之動作姿態是否正確的參考標準。因此,本發明的基於學習演算法的動作感測系統與其方法可以不限制感測裝置的穿戴方式、穿戴位置與穿戴對象(即可以適應於不同個體的寵物),故能提升使用上的方便性與靈活性。另外,本發明的基於學習演算法的動作感測系統與其方法除了可以應用於用戶與寵物互動時的動作姿態判讀外,還可以應用於寵物訓練與多寵物進行競技遊戲時的動作姿態判讀,故本發明極具有商品化的潛力。
11‧‧‧用戶
121~123‧‧‧寵物
131~133‧‧‧感測裝置
14‧‧‧自動餵食器
2‧‧‧穿戴裝置
21‧‧‧電路區
221‧‧‧第一接合單元
222‧‧‧第二接合單元
3~5‧‧‧基於學習演算法的動作感測系統
31、41、51‧‧‧動作姿態處理單元
32、421~42k、521~52k‧‧‧感測訊號獲取單元
511‧‧‧伺服器端處理單元
5121~512k‧‧‧客戶端處理單元
6‧‧‧社群網路的畫面
7‧‧‧聊天軟體的畫面
S1~Sn‧‧‧感測器
S801~S811、S901~S906‧‧‧步驟
第1圖是本發明實施例之基於學習演算法的動作感測系統中的感測裝置穿戴於不同體態之寵物的情境示意圖。
第2圖是本發明實施例之基於學習演算法的動作感測系統中的穿戴裝置的平面示意圖。
第3圖是本發明實施例之基於學習演算法的動作感測系統的功能方塊圖。
第4圖是本發明另一實施例之基於學習演算法的動作感測系統的功能方塊圖。
第5圖是本發明另一實施例之基於學習演算法的動作感測系統的功能方塊圖。
第6圖是本發明實施例之基於學習演算法的動作感測系統所連結上之社群網路的畫面示意圖。
第7圖是本發明實施例之基於學習演算法的動作感測系統所連結上之聊天軟體的畫面示意圖。
第8圖是本發明實施例的基於學習演算法的動作感測方法於學習模式下所執行的步驟之流程圖。
第9圖是本發明實施例的基於學習演算法的動作感測方法於判讀模式下所執行的步驟之流程圖。
為充分瞭解本發明之目的、特徵及功效,茲藉由下述具體之實施例,並配合所附之圖式,對本發明做一詳細說明,說明如後。
本發明實施例提供一種基於學習演算法的動作感測系統與其方法,其可以讓用戶彈性地決定感測裝置穿戴於寵物的穿戴位置與穿戴方式,並且此用於寵物的動作感測系統與方法不會因穿戴位置、穿戴方式與寵物個體差異(包括體態差異、健康狀況差異與/或性別差異)等因素,而無法正確判讀寵物的動作姿態。進一步地,基於學習演算法的動作感測系統與其方法具有兩種模式,其分別為學習模式與判讀模式。
於學習模式下,基於學習演算法的動作感測系統與其方法會記錄感測裝置的穿戴狀態資訊(包括穿戴方式與穿戴位置的至少其中之一)及寵物個體資訊(包括寵物的身長、身高、體重、年齡、健康狀況與性別的至少其中之一)。針對每一種動作,基於學習演算法的動作感測系統與其方法在學習模式下,會 獲取寵物之正確動作姿態的多個訓練感測訊號,並透過學習演算法(例如,類神經網路架構的深度學習演算法,但不以此為限),根據前述多個訓練感測訊號建立出對應的動作姿態參考資料。
於判讀模式下,基於學習演算法的動作感測系統與其方法會獲取寵物穿戴感測裝置的穿戴狀態資訊、寵物個體資訊與動作名稱,以據此來選取對應的動作姿態參考資料,並且獲取相應於感測寵物之動作姿態所產生的多個動作感測訊號的動作姿態資料。接著,基於學習演算法的動作感測系統與其方法可於判讀模式下,根據動作姿態資料與選取的動作姿態參考資料判斷寵物的動作姿態是否正確。
簡單地說,本發明實施例的基於學習演算法的動作感測系統與其方法具有學習模式與判讀模式。在學習模式下,透過獲取的多個訓練感測訊號,建立關聯於寵物穿戴感測裝置的穿戴狀態資訊以及寵物個體資訊之各種動作的動作姿態參考資料。在判讀模式下,針對其中一種動作,選取關聯於寵物穿戴感測裝置的穿戴狀態資訊以及寵物個體資訊之動作姿態參考資料,並將由多個動作感測訊號產生的動作姿態資料與選取的動作姿態參考資料進行比較,以判讀寵物進行所述動作的動作姿態是否正確。
如此,可以透過上述基於學習演算法的動作感測系統與其方法來訓練寵物進行特定動作,並在完成特定動作時,透過連結的自動餵食器給予零食或飼料給寵物作為獎勵,從而達成與寵物的互動,讓寵物從中得到滿足,並不易罹患憂鬱症。較佳地,上述用於寵物的動作感測系統與其方法還可以通過連結的社群網路發出寵物進行特定動作的資訊,從而達到寵物之主人間的互 動;或者,上述用於寵物的動作感測系統與其方法還可以通過連結的聊天軟體讓寵物訓練師(或主人)於線上對寵物進行訓練。
在大概說明了本發明的具體概念與可實現的作法後,接著,將進一步配合圖式與各種實施例,詳細地說明本發明的至少一種實現方式。
首先,請參照第1圖,第1圖是本發明實施例之基於學習演算法的動作感測系統中的感測裝置穿戴於不同體態之寵物的情境示意圖。第1圖繪示了一個用戶11(主人或寵物訓練師)與寵物121~123互動的情況,於第1圖中,寵物121~123的寵物的身長、身高、體重、年齡、健康狀況與性別可能不相同,因此感測裝置131~133可能以不同穿戴方式與/或不同穿戴位置穿戴於寵物121~123的身體上。例如,寵物121為雄性大型犬,故感測裝置131的兩端可能以額外的綁帶圍繞寵物131的軀幹,以將感測裝置131固定於寵物131的軀幹上;寵物122是腿較粗壯的小型犬,因此感測裝置132可以圍繞綑綁於寵物122的前腿上;以及寵物123是腿較細的中型犬,故感測裝置133僅能圍繞綑綁於寵物123的脖子。
於第1圖的實施例中,用於寵物121~123的動作感測系統包括了感測裝置131~133、多個感測訊號獲取單元與動作姿態處理單元,其中感測裝置131~133的每一者包括至少一個感測器,以在學習模式下與判讀模式下,分別感測寵物動作時的訓練感測訊號與動作感測訊號。感測訊號獲取單元可以與感測裝置131~133一同整合成一個穿戴裝置,而動作姿態處理單元可以由其中一個或多個穿戴裝置中的處理單元與輸入/輸出電路來實現,亦可以由與穿戴裝置通訊連結的伺服器或計算裝置來實現。
以坐下的動作姿態為例,用於寵物121~123的動作感測系統的動作姿態處理單元可以在學習模式下,記錄感測裝置131~133穿戴於寵物121~123的穿戴狀態資訊與寵物121~123的寵物個體資訊,並透過多個感測訊號獲取 單元取得寵物121~123的坐下時感測裝置131~133感測到的多個訓練感測訊號,來產生每一個寵物121~123對應於坐下動作的動作姿態參考資料。接著,於判讀模式下,用於寵物121~123的動作感測系統的多個感測訊號獲取單元獲取寵物121~123坐下時感測裝置131~133感測到的多個動作感測訊號,並且動作姿態處理單元據此產生相應的動作姿態資料,以將寵物121~123之動作姿態參考資料與動作姿態資料比較,從而判斷寵物121~1231坐下的動作姿態是否正確。另外,用於寵物121~123的動作感測系統還可以具有自動餵食器14,其中動作姿態處理單元可以通過有線或無線的方式連結自動餵食器14,以在寵物121~123正確完成坐下動作時,控制自動餵食器14送出飼料或零食給寵物121~123,從而達到與寵物121~123互動與訓練寵物121~123完成特定動作的目的。
簡單地說,不似傳統的感測裝置僅能以特定穿戴方式穿戴於特定穿戴位置,第1圖的用於寵物的動作感測系統具有將感測裝置131~133以不同穿戴方式穿戴於寵物121~123之不同穿戴位置的適應性設計,而且用於寵物121~123的動作感測系統在判讀動作姿態是否正確時,更考量了寵物121~123的寵物個體狀況。一般來說,除了穿戴方式與穿戴位置會使得感測訊號有差異外,對於同一種動作,因為不同寵物121~123之間的諧調性與爆發力(與寵物121~123的體態、健康狀況與性別等有關)等可能都太不相同,故不同寵物121~123間的感測訊號也會有所差異。本發明實施例的用於寵物121~123的動作感測系統因考量了寵物121~123的寵物個體狀況,故能夠更準確判讀寵物121~123的動作姿態。
接著,請進一步地參照第2圖,第2圖是本發明實施例之基於學習演算法的動作感測系統中的穿戴裝置的平面示意圖。穿戴裝置包括彈性伸縮帶2,彈性伸縮帶2的一面具有第一接合單元221(例如,第一魔鬼氈),彈性伸縮帶2 的另一面具有第二接合單元222(例如,第二魔鬼氈)。第一接合單元221與第二接合單元222可以彼此接合,如此,彈性伸縮帶2可以圍繞寵物的身體,並固定於寵物的身體,使得穿戴裝置可穿戴於寵物的身體上。另外,當寵物的體型過大,第一接合單元221與第二接合單元222可以與額外的綁帶接合,以使得穿戴裝置可穿戴於寵物的身體上。再者,彈性伸縮帶2的兩面之間可以具有電路區21,其中感測裝置可以設置於電路區21中。除此之外,如同前面所述,穿戴裝置更可以包括感測訊號獲取單元與動作姿態處理單元,其中感測訊號獲取單元與動作姿態處理單元可以設置於電路區中21。
接著,請進一步地參照第3圖,第3圖是本發明實施例之基於學習演算法的動作感測系統的功能方塊圖。基於學習演算法的動作感測系統3包括動作姿態處理單元31、感測訊號獲取單元32與由多個感測器S1~Sn組成的感測裝置,其中多個感測器S1~Sn電連接或通訊連結感測訊號獲取單元32,以及感測訊號獲取單元32電連接或通訊連結動作姿態處理單元31。於此實施例中,動作姿態處理單元31、感測訊號獲取單元32與多個感測器S1~Sn可以整合於一個穿戴裝置中,或者,僅有多個感測器S1~Sn與感測訊號獲取單元32整合於一個穿戴裝置中,而動作姿態處理單元31為伺服器或例如為電腦、平板、智慧型手機的計算機裝置。
感測器S1~Sn可以是九軸姿態感測器(三軸磁場感測器、三軸加速度計與三軸陀螺儀)、壓力感測器、張力感測器、溫度感測器與震動感測器的任一者與其組合,其用以感測寵物之動作姿態所產生的多個訓練感測訊號(於學習模式下)或多個動作感測訊號(於判讀模式下)。訊號獲取單元32用以獲取感測器S1~Sn感測寵物之動作姿態所產生的多個訓練感測訊號(於學習模式下)或多個動作感測訊號(於判讀模式下),並用以將獲取的多個訓練感測訊號(於學習模 式下)或多個動作感測訊號(於判讀模式下)傳送給動作姿態處理單元31。動作姿態處理單元31則用於在學習模式下根據接收的多個訓練感測訊號建立對應於穿戴方式、穿戴位置與寵物個體資訊之各種動作的動作姿態參考資料,以及在判讀模式下,選擇使用相應於目前穿戴方式、穿戴位置與寵物個體資訊之動作的動作姿態參考資料來與由目前多個動作感測訊號產生之動作姿態資料進行比較,從而判讀寵物的進行動作所相應的動作姿態是否正確。
上述於學習模式下建立動作姿態參考資料的方式可以使用人工智慧或資料統計等學習演算法,且本發明不以此為限制,其他例如資料探勘、模糊邏輯、類神經網路或深度學習的演算法都能適用。另外,所建立的每一筆動作姿態參考資料對應有穿戴方式、穿戴位置、寵物個體資訊與動作名稱,因此,針對不同寵物與不同穿戴方式跟穿戴位置,用於寵物的動作感測系統3都能夠準確地判讀寵物的動作姿態。由於,用於寵物的動作感測系統3統提供了極高的適應性,因此於不必同時判讀多個寵物的動作的情況下,用戶不用針對不同寵物購買多個穿戴裝置,而僅需要購買一個,便能夠依據其適應性而有不同穿戴方式與穿戴位置或給不同寵物使用,故本發明還能減少穿戴裝置的購置成本。
更進一步地說,動作姿態處理單元31使用了感測訊號融合濾波技術、使用者輸入(動作名稱(或分解姿態名稱)、寵物個體資訊、穿戴狀態資訊(穿戴方式與穿戴位置)、模式選擇(進入學習模式或判讀模式))與學習演算法來完成動作姿態學習、動作姿態判讀、寵物辨識與動作姿態判讀結果輸出等功能。值得一提的是,動作姿態處理單元31可以具有語音輸入單元,以讓用戶(主人或訓練師)可以在與寵物互動(或訓練寵物)時同時設定動作名稱、分解姿態名稱與姿態順序等,從而提升互動(或訓練)效能。
第3圖的基於學習演算法的動作感測系統3可以例如用於個別寵物的互動或訓練,用戶可以自行定義寵物的動作姿態,並利用用於寵物的動作感測系統3評估寵物互動與訓練成效。舉例來說,在學習模式下,用戶可以設定穿戴裝置穿戴於寵物身體之穿戴方式與穿戴位置為綁在寵物的胸部,而動作名稱為爬行翻滾(趴下後翻滾),用戶可以利用語音輸入讓動作姿態處理單元31獲得趴下與趴下後翻滾的多個訓練感測訊號,以建立的動作姿態參考資料。然後,在判讀模式下,動作姿態處理單元31根據獲取的多個動作感測訊號產生的動作姿態資料與動作姿態參考資料便能判讀目前寵物所作的趴下翻滾之動作姿態是否正確。
再者,動作姿態處理單元31可擴展至有線或無線連結至遠端或雲端的伺服器、資料庫與雲端運算等,以同時完成多個寵物之動作姿態學習、多個寵物之動作姿態判讀、多個寵物辨識與多個寵物動作姿態判讀結果輸出,其細節如第4圖與第5圖之實施例。
接著,請參照第4圖,第4圖是本發明另一實施例之基於學習演算法的動作感測系統的功能方塊圖。基於學習演算法的動作感測系統4包括動作姿態處理單元41、多個感測訊號獲取單元421~42k與多個感測裝置,其中每一個感測裝置由多個感測器S1~Sn組合而成,多個感測裝置分別電連接或通訊連結相應的多個感測訊號獲取單元421~42k,以及多個感測訊號獲取單元421~42k電連接或通訊連結動作姿態處理單元21。
在此請注意,雖然上述多個感測裝置的多個感測器的數量都為n個,但本發明不以此為限制,不同感測裝置的感測器數量可能彼此不相同。另外,於此實施例中,每一個感測裝置與感測訊號獲取單元421~42k的其中對應一者係整合於一個穿戴裝置中,故於本實施例中,共有k個穿戴裝置可供k個寵 物穿戴。動作姿態處理單元41可以是伺服器或例如為電腦、平板、智慧型手機的計算機裝置,又或者整合於k個穿戴裝置的其中一者。
於此實施例中,適應性動作姿態感測系統4可應用於多個寵物的集體訓練或互動,例如握手、坐下、跑步或立正等,透過群組(或遠端)教學,寵物訓練師或主人可以指示群組內的其中一個被訓練得較好的寵物示範一個動作姿態,以設定一個動作姿態參考資料,並讓群組內其他訓練還不是很完整的寵物依示範的動作姿態進行動作。然後,動作姿態處理單元41可以比較其他寵物的動作姿態資料與動作姿態參考資料,以判斷其他寵物是否正確地作出動作姿態,以評估訓練與互動成效。
再者,請參照第5圖,第5圖是本發明另一實施例之基於學習演算法的動作感測系統的功能方塊圖。基於學習演算法的動作感測系統5包括動作姿態處理單元51、多個感測訊號獲取單元521~52k與多個感測裝置,其中每一個感測裝置由多個感測器S1~Sn組合而成,多個感測裝置分別電連接或通訊連結相應的多個感測訊號獲取單元521~52k,以及多個感測訊號獲取單元521~52k電連接或通訊連結動作姿態處理單元51。
在此請注意,雖然上述多個感測裝置的多個感測器的數量都為n個,但本發明不以此為限制,不同感測裝置的感測器數量可能彼此不相同。另外,動作姿態處理單元51係由伺服器端處理單元511與多個客戶端處理單元5121~512k所組成,其中多個客戶端處理單元5121~512k通訊連結伺服器端處理單元511。於此實施例中,每一個感測裝置、感測訊號獲取單元521~52k的其中對應一者與客戶端處理單元5121~512k的其中對應一者係整合於一個穿戴裝置中,故於本實施例中,共有k個穿戴裝置可供k個寵物穿戴。
於此實施例中,基於學習演算法的動作感測系統5可應用寵物競技遊戲(各寵物進行特定動作姿態以決定誰的訓練或互動最好),透過群組(亦遠端)教學,寵物訓練師或主人讓群組一個訓練完備的寵物示範(設定)一個動作姿態,以設定一個動作姿態參考資料,並讓群組內其他寵物依示範的動作姿態進行動作以進行寵物競技遊戲。接著,動作姿態處理單元51可以比較其他寵物的動作姿態資料與動作姿態參考資料,以判斷其他寵物是否正確地作出動作姿態,以評估評估寵物競技遊戲的比賽成績。
在此請注意,前述適應性動作姿態感測系統3~5中的動作姿態處理單元51、51與51都是依據用戶輸入的寵物個體資訊、穿戴方式、穿戴位置與動作名稱來選取相應的動作姿態參考資料,然而,本發明不以此為限制。由於人工智慧演算法已經越來越完善,因此,動作姿態處理單元31、41與51亦可以是根據目前獲得的動作姿態資料來向用戶推薦寵物之可能的動作姿態參考資料,並由用戶確認寵物之可能的動作姿態參考資料是否正確。
接著,請參照第6圖,第6圖是本發明實施例之基於學習演算法的動作感測系統所連結上之社群網路的畫面示意圖。基於學習演算法的動作感測系統還可以連結上社群網路(例如透過動作姿態處理單元連結至社群網路),且穿戴裝置除了感測裝置之外,更可以具有定位裝置。因此,在社群網路的畫面6中,基於學習演算法的動作感測系統可以自動發表寵物完成的動作、所在位置、獲得獎賞與特定表情等。舉例來說,其中一隻寵物可能在特定時間完成5個握手動作與5個轉圈圈,並且獲得了一塊餅乾作為獎賞,則基於學習演算法的動作感測系統可以將其完成的5個握手動作與5個轉圈圈之動作、獲得餅乾的獎賞、完成動作的時間與位置等資訊發佈於社群網路的畫面6中,以達到寵物之主人間的交流與互動等。
接著,請參照第7圖,第7圖是本發明實施例之基於學習演算法的動作感測系統所連結上之聊天軟體的畫面示意圖。基於學習演算法的動作感測系統還可以連結上聊天軟體(例如透過動作姿態處理單元連結至聊天軟體),且穿戴裝置除了感測裝置之外,更可以具有文字/語音轉換裝置。在聊天軟體的畫面7中,寵物訓練師(或主人)可透過聊天軟體輸入文字,而穿戴裝置的文字/語音轉換裝置會將文字轉換為語音,以讓寵物聽到語音,從而使得寵物根據語音進行相應的動作。舉例來說,於聊天軟體的畫面7中,遠端的寵物訓練師(或主人)輸入握手的文字,寵物聽到握手的語音後,會進行握手的動作。如果寵物進行了正確的握手動作,則基於學習演算法的動作感測系統可以自動於聊天軟體上回覆訊息,例如,完成動作。如果基於學習演算法的動作感測系統一直判讀到已經訓練過的寵物一直都無法完成握手動作,則可以判斷寵物可能生病或有什麼狀況,則基於學習演算法的動作感測系統可以自動於聊天軟體上警示訓練師(或主人),例如,產生需要幫忙的文字於聊天軟體的畫面7中。換言之,基於學習演算法的動作感測系統透過連結聊天軟體,可以達到線上之訓練師(或主人)對寵物進行訓練或與寵物互動的功能。
接著,請參照第8圖,第8圖是本發明實施例的基於學習演算法的動作感測方法於學習模式下所執行的步驟之流程圖。首先,在步驟S801中,動作姿態處理單元先記錄寵物個體資訊(包括寵物的身長、體重、身高、健康狀況與性別等資訊)與穿戴狀態資訊(包括感測裝置穿戴於寵物的穿戴方式與穿戴位置等資訊)。接著,在步驟S802中,動作姿態處理單元記錄對應要學習之動作名稱,例如趴下翻滾。然後,在步驟S803中,動作姿態處理單元記錄分解姿態名稱,例如趴下翻滾的趴下與翻滾。接著,在步驟S804中,動作姿態處理單元獲取相應於分解姿態的多個訓練感測訊號。在步驟S805中,動作姿態處理單元根 據用戶(主人或寵物訓練師)輸入來確認分解姿態的多個訓練感測訊號是否正確。若分解姿態的多個訓練感測訊號不正確,則在步驟S807中,動作姿態處理單元捨棄分解姿態的多個訓練感測訊號,並接著重新執行步驟S805;若分解姿態的多個訊練感測訊號正確,則在步驟S806中,動作姿態處理單元儲存分解姿態的多個訓練感測訊號。
接著,在步驟S808中,動作姿態處理單元根據用戶的輸入確認是否有下一個分解姿態。如果有下一個分解姿態,則執行步驟S803;如果沒有下一個分解姿態,則執行步驟S809。舉例來說,趴下翻滾有趴下與翻滾兩個分解姿態,因此,需要趴下與翻滾兩個分解姿態的多個訓練感測訊號才能完整表達趴下翻滾。
接著,在步驟S809中,動作姿態處理單元判斷目前獲取的多個訓練感測訊號的樣本數量是否足夠。如果樣本數量不夠,則繼續執行步驟S803;如果樣本數量足夠,則執行步驟S810。舉例來說,樣本數量可以是10個,則動作姿態處理單元可以獲取10組趴下翻滾的兩個分解姿態的多個訓練感測訊號。然後,在步驟S810中,動作姿態處理單元根據多組動作姿態的訓練感測訊號建立出寵物的動作姿態參考資料。
在步驟S811中,動作姿態處理單元根據用戶的確認判斷是否結束學習模式。如果確定結束學習模式,則終止圖8的所有流程;如果用戶還要建立寵住之其他的動作姿態參考資料且確定不結束學習模式,則執行步驟S801。透過圖8的流程,對應於不同穿戴方式、穿戴位置與寵物個體資訊的多種不同動作的動作姿態參考資料可以被建立。例如,對應其中一個寵物將感測裝置綁在胸部間之趴下翻滾的動作姿態參考資料可以被建立,以及對應其中另一個寵物將感測裝置圍繞在前腳的趴下翻滾的動作姿態參考資料可以被建立。
接著,請參照第9圖,第9圖是本發明實施例的用於寵物的動作感測方法於判讀模式下所執行的步驟之流程圖。在步驟S901中,動作姿態處理單元獲取穿戴狀態資訊與寵物個體資訊。在步驟S902中,動作姿態處理單元獲取動作名稱,並找出相應於動作名稱、穿戴狀態資訊與寵物個體資訊的動作姿態參考資料。
接著,在步驟S903中,動作姿態處理單元獲取多個動作感測訊號。之後,在步驟S904中,動作姿態處理單元比對多個動作感測訊號形成的動作姿態資料與動作姿態參考資料,以判斷寵物的動作姿態是否正確。若寵物的動作姿態正確,則在步驟S905中,動作姿態處理單元累加動作姿態正確次數;若寵物的動作姿態不正確,則執行步驟S906。在步驟S906中,動作姿態處理單元根據用戶的確認判斷是否結束判讀模式。如果確認結束判讀模式,則終止圖9的所有流程;如果確認要繼續判讀下一個動作姿態是否正確,而不結束判讀模式,則執行步驟S903。在此請注意,圖9的流程並非用以限制本發明,在不結束判讀模式的情況下,也有可能是要變更動作名稱、穿戴狀態資訊與寵物個體資訊,因此,圖9也可以設計出更多的判斷步驟,以讓用戶在判讀模式變更下一個被選擇用來作為比對基準的動作姿態參考資料。
據此,透過本發明實施例提供的基於學習演算法的動作感測系統與其方法,用戶可以任意地將感測裝置穿戴於寵物之身體的任意位置,並以不同方式穿戴。再者,同一個感測裝置也可以適應於不同的寵物。簡單地說,本發明的基於學習演算法的動作感測系統與其方法可以能提升感測裝置在使用上的方便性與靈活性。
本發明在上文中已以較佳實施例揭露,然熟習本項技術者應理解的是,上述實施例僅用於描繪本發明,而不應解讀為限制本發明之範圍。應注意的是,舉凡與前述實施例等效之變化與置換,均應設為涵蓋於本發明之範疇內。因此,本發明之保護範圍當以申請專利範圍所界定者為準。
3‧‧‧基於學習演算法的動作感測系統
31‧‧‧動作姿態處理單元
32‧‧‧感測訊號獲取單元
S1~Sn‧‧‧感測器

Claims (6)

  1. 一種基於學習演算法的動作感測系統,係可適應性用於判斷不同體型的寵物之動作姿態是否正確,其包括:一感測裝置,包括至少一感測器,係用於被一寵物所穿戴;一感測訊號獲取單元,電性連接或通訊連結所述感測裝置;以及一動作姿態處理單元,電性連接或通訊連結所述感測訊號獲取單元;於一判讀模式下,所述動作姿態處理單元根據一動作名稱、所述感測裝置穿戴於所述寵物的一穿戴狀態資訊與一寵物個體資訊自建立的多個動作姿態參考資料中選擇其中對應一者,所述感測訊號獲取單元獲取所述感測裝置所感測到的至少一動作感測訊號,以及所述動作姿態處理單元比較基於所述至少一動作感測訊號形成的一動作姿態資料與選擇的所述動作姿態參考資料,以判斷所述寵物的一動作姿態是否正確;其中於一學習模式下,所述動作姿態處理單元記錄所述動作名稱、所述穿戴狀態資訊與所述寵物個體資訊,並且所述感測訊號獲取單元獲取所述感測裝置所感測到的至少一訓練感測訊號,以及所述動作姿態處理單元根據所述至少一訓練感測訊號建立對應於所述動作名稱、所述穿戴狀態資訊與所述寵物個體資訊的所述動作姿態參考資料; 其中所述穿戴裝置資訊包括所述感測裝置穿戴於所述寵物的一穿戴方式與一穿戴位置的資訊,所述寵物個體資訊包括所述寵物的一身高、一身長、一體重、一性別、一年齡與一健康狀況的資訊;其中所述動作姿態處理單元還包括一語音輸入單元,其中一用戶透過所述語音輸入單元控制所述基於學習演算法的動作感測系統。
  2. 如請求項第1項所述之基於學習演算法的動作感測系統,更包括:另一感測裝置,包括至少另一感測器,係用於被另一寵物所穿戴;以及另一感測訊號獲取單元,電性連接或通訊連結所述另一感測裝置與所述動作姿態處理單元;於所述判讀模式下,所述動作姿態處理單元根據另一動作名稱、所述另一感測裝置穿戴於所述另一寵物的另一穿戴狀態資訊與另一寵物個體資訊自建立的多個動作姿態參考資料中選擇其中對應另一者,所述感測訊號獲取單元獲取所述另一感測裝置所感測到的至少一動作感測訊號,以及所述動作姿態處理單元比較基於所述另一感測裝置的所述至少一動作感測訊號形成的另一動作姿態資料與選擇的所述另一動作姿態參考資料,以判斷所述另一寵物的另一動作姿態是否正確。
  3. 如請求項第2項所述之基於學習演算法的動作感測系統,其中所述動作姿態處理單元包括: 兩個客戶端處理單元,分別電性連接或通訊連結所述兩個感測訊號獲取單元;以及一伺服器端處理單元,電性連接或通訊連結所述兩個客戶端處理單元。
  4. 如請求項第1項所述之基於學習演算法的動作感測系統,其中所述感測器包括一九軸姿態感測器、一壓力感測器、一張力感測器、一溫度感測器或一震動感測器。
  5. 如請求項第1項所述之基於學習演算法的動作感測系統,其中所述基於學習演算法的動作感測系統更連結至一社群網路或一聊天軟體,以及所述基於學習演算法的動作感測系統更包括一定位裝置或一文字/語音轉換裝置。
  6. 一種基於學習演算法的動作感測方法,係可適應性用於判斷不同體型的寵物之動作姿態是否正確,包括:於一判讀模式下:根據一動作名稱、一感測裝置穿戴於一寵物的一穿戴狀態資訊與一寵物個體資訊自建立的多個動作姿態參考資料中選擇其中對應一者;獲取穿戴於所述寵物之所述感測裝置所感測到的至少一動作感測訊號;以及比較基於所述至少一動作感測訊號形成的一動作姿態資料與選擇的所述動作姿態參考資料,以判斷所述寵物的一動作姿態是否正確;以及 於一學習模式下:記錄所述動作名稱、所述穿戴狀態資訊與所述寵物個體資訊;獲取所述感測裝置所感測到的至少一訓練感測訊號;以及根據所述至少一訓練感測訊號建立對應於所述動作名稱、所述穿戴狀態資訊與所述寵物個體資訊的所述動作姿態參考資料;其中所述穿戴裝置資訊包括所述感測裝置穿戴於所述寵物的一穿戴方式與一穿戴位置的資訊,所述寵物個體資訊包括所述寵物的一身高、一身長、一體重、一性別、一年齡與一健康狀況的資訊;其中所述動作姿態處理單元還包括一語音輸入單元,其中一用戶透過所述語音輸入手段控制所述用於寵物的動作感測方法。
TW107147383A 2018-12-27 2018-12-27 基於學習演算法的動作感測系統與其方法 TWI685296B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW107147383A TWI685296B (zh) 2018-12-27 2018-12-27 基於學習演算法的動作感測系統與其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW107147383A TWI685296B (zh) 2018-12-27 2018-12-27 基於學習演算法的動作感測系統與其方法

Publications (2)

Publication Number Publication Date
TWI685296B true TWI685296B (zh) 2020-02-21
TW202023366A TW202023366A (zh) 2020-07-01

Family

ID=70413358

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107147383A TWI685296B (zh) 2018-12-27 2018-12-27 基於學習演算法的動作感測系統與其方法

Country Status (1)

Country Link
TW (1) TWI685296B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI767861B (zh) * 2021-10-27 2022-06-11 南臺學校財團法人南臺科技大學 犬隻復健裝置及系統

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107960341A (zh) * 2017-11-28 2018-04-27 北京小米移动软件有限公司 宠物行为的纠正方法及装置
JP2018174830A (ja) * 2017-04-14 2018-11-15 国立大学法人東北大学 行動誘導システム及び行動誘導方法
CN208129193U (zh) * 2018-04-24 2018-11-23 江流清 一种宠物陪伴及训练机器人
US20180359995A1 (en) * 2009-01-28 2018-12-20 Mark L. Anderson Conformable and reusable lick deterrent

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180359995A1 (en) * 2009-01-28 2018-12-20 Mark L. Anderson Conformable and reusable lick deterrent
JP2018174830A (ja) * 2017-04-14 2018-11-15 国立大学法人東北大学 行動誘導システム及び行動誘導方法
CN107960341A (zh) * 2017-11-28 2018-04-27 北京小米移动软件有限公司 宠物行为的纠正方法及装置
CN208129193U (zh) * 2018-04-24 2018-11-23 江流清 一种宠物陪伴及训练机器人

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI767861B (zh) * 2021-10-27 2022-06-11 南臺學校財團法人南臺科技大學 犬隻復健裝置及系統

Also Published As

Publication number Publication date
TW202023366A (zh) 2020-07-01

Similar Documents

Publication Publication Date Title
Chae et al. Development and clinical evaluation of a web-based upper limb home rehabilitation system using a smartwatch and machine learning model for chronic stroke survivors: prospective comparative study
McColl et al. Brian 2.1: A socially assistive robot for the elderly and cognitively impaired
Funahashi et al. Brief report: the smiles of a child with autism spectrum disorder during an animal-assisted activity may facilitate social positive behaviors—quantitative analysis with smile-detecting interface
US20150199494A1 (en) Cloud-based initiation of customized exercise routine
CN109070332A (zh) 行为自主型机器人以及计算机程序
CN105980008A (zh) 用于智能可穿戴设备的身体位置优化和生物信号反馈
KR20200071837A (ko) 인공지능을 이용한 반려동물 감성봇 장치 및 이를 이용한 교감 방법
CN110477924B (zh) 适应性运动姿态感测系统与方法
Annaswamy et al. Using biometric technology for telehealth and telerehabilitation
Franchak et al. A contactless method for measuring full-day, naturalistic motor behavior using wearable inertial sensors
Luque-Moreno et al. Reinforced feedback in virtual environment for plantar flexor poststroke spasticity reduction and gait function improvement
Bethel et al. Therabot-an adaptive therapeutic support robot
TWI685296B (zh) 基於學習演算法的動作感測系統與其方法
Kushnir et al. STASISM: A Versatile Serious Gaming Multi-Sensor Platform for Personalized Telerehabilitation and Telemonitoring
Claxton et al. Sitting infants alter the magnitude and structure of postural sway when performing a manual goal‐directed task
Willingham et al. Leveraging Emerging Technologies to Expand Accessibility and Improve Precision in Rehabilitation and Exercise for People with Disabilities
Chen [Retracted] Research on Intelligent Bodybuilding System Based on Machine Learning
Collins et al. What skin is your robot in?
Teikari et al. Precision strength training: Data-driven artificial intelligence approach to strength and conditioning
Antonioni et al. Autonomous and remote controlled humanoid robot for fitness training
JP2022189528A (ja) 情報処理装置及び情報処理方法
Silva et al. iBoccia: a framework to monitor the Boccia gameplay in elderly
Gámez-Granados et al. JKinect: A new Java Software for Designing and Assessing Gross Motor Activities in children with autism based on JFML
KR102366054B1 (ko) 말을 이용한 힐링 시스템
Huerta et al. Review of Active Extracorporeal Medical Devices to Counteract Freezing of Gait in Patients with Parkinson Disease