TWI797013B - 姿態動作辨識系統 - Google Patents

姿態動作辨識系統 Download PDF

Info

Publication number
TWI797013B
TWI797013B TW111118002A TW111118002A TWI797013B TW I797013 B TWI797013 B TW I797013B TW 111118002 A TW111118002 A TW 111118002A TW 111118002 A TW111118002 A TW 111118002A TW I797013 B TWI797013 B TW I797013B
Authority
TW
Taiwan
Prior art keywords
state
bed
head
deep learning
judged
Prior art date
Application number
TW111118002A
Other languages
English (en)
Other versions
TW202345108A (zh
Inventor
林献堂
曾瀚皜
陳浩瑋
魏華廷
皮遠韸
Original Assignee
伍碩科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 伍碩科技股份有限公司 filed Critical 伍碩科技股份有限公司
Priority to TW111118002A priority Critical patent/TWI797013B/zh
Application granted granted Critical
Publication of TWI797013B publication Critical patent/TWI797013B/zh
Publication of TW202345108A publication Critical patent/TW202345108A/zh

Links

Images

Landscapes

  • Breeding Of Plants And Reproduction By Means Of Culturing (AREA)
  • Micro-Organisms Or Cultivation Processes Thereof (AREA)
  • Farming Of Fish And Shellfish (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

一種姿態動作辨識系統,係包含有至少一影像擷取設備及至少一個後台伺服設備,其中該影像擷取設備用以取得一目標環境內的一三維深度影像數據,而該後台伺服設備能夠接收該影像擷取設備所取得之該三維深度影像數據,並透過一深度學習應用程式將該三維深度影像數據進行影像偵測與追蹤,以取得一人體頭部位置及一床型物體位置,再依據該人體頭部位置進行判斷該目標環境內的人數,並能夠再依據該人體頭部位置與該床型物體位置之重疊狀態判斷一床上狀態,且能夠再依據該人體頭部的跌落幅度與跌落幅度時間判斷一非床上狀態,之後再將該床上狀態或/及該非床上狀態傳送給電子設備,以進行警示與通知。

Description

姿態動作辨識系統
本發明是有關一種姿態動作辨識系統,特別是一種能夠判斷床上狀態或/及非床上狀態、並將其傳送給該電子設備進行警示與通知之姿勢辨識系統。
對於老年或是身體虛弱之患者,跌倒已成為醫院和長照機構意外傷害和死亡的主要原因,而跌倒往往發生在患者要離開病床的同時,然而若是要護理人員無時無刻關注患者,但基於醫療及照護的需求漸增的情況下,這基本上是不太可能的。
因此,若是能夠當患者打算離開病床時,能夠進行監測離床與跌倒或是其他行為,並及時提出警示與通知,將能夠有效解決上述問題,而本案更透過人體頭部位置及床型物體位置,進行判斷目標環境內的人數、床上狀態、非床上狀態,並將其姿態狀態傳送給該電子設備,以進行警示與通知,因此,本案應為一最佳解決方案。
本發明姿態動作辨識系統,係包含:至少一影像擷取設備,係用以取得一目標環境內的一三維深度影像數據;以及至少一個後台伺服設備,係能夠接收該影像擷取設備所取得之該三維深度影像數據,而該後台伺服設備係內建有一深度學習應用程式,能夠將該三維深度影像數據進行影像偵測與追蹤,以取得一人體頭部位置及一床型物體位置,再依據該人體頭部位置進行判斷該目標環境內的人數,並能夠再依據該人體頭部位置與該床型物體位置之重疊狀態判斷一床上狀態,且能夠再依據該人體頭部的跌落幅度與跌落幅度時間判斷一非床上狀態。
更具體的說,所述深度學習應用程式係包含有:一深度訓練單元,該後台伺服設備係儲存有多個場域深度資料,而該深度訓練單元對該場域深度資料進行模型訓練,以建立出一深度學習模型;一影像接收單元,係能夠接收該三維深度影像數據;以及一影像偵測暨追蹤單元,係與該深度訓練單元及該影像接收單元相連接,而該影像偵測暨追蹤單元內具有該深度學習模型,用以透過該深度學習模型對該三維深度影像數據進行影像偵測與追蹤,用以偵測該目標環境內的該人體頭部位置及該床型物體位置,並對該人體頭部及該床型物體進行追蹤;以及一狀態判斷單元,係與該影像偵測暨追蹤單元相連接,用以依據該人體頭部位置進行判斷該目標環境內的人數,並再依據該人體頭部位置與該床型物體位置之重疊狀態判斷該床上狀態,且再依據該人體頭部的跌落幅度與跌落幅度時間判斷該非床上狀態。
更具體的說,所述深度訓練單元係透過一物體檢測算法技術進行模型訓練,以透過該深度學習模型對該三維深度影像數據進行影像偵測與追蹤。
更具體的說,所述物體檢測算法技術係為CenterNet、YOLO、SSD、DarkNet或是MobileNet。
更具體的說,所述深度學習應用程式於每一次進行判斷有狀態變化產生時,能夠將有狀態變化的影像進行儲存。
更具體的說,所述深度學習應用程式能夠依據該目標環境內的床型物體位置,進一步判斷出一床位移動狀態或是一床位未移動狀態。
更具體的說,所述深度學習應用程式能夠依據該目標環境內的人數進行判斷該目標環境內是一無人狀態、一單人狀態或是一多人狀態,並能夠進一步針對該單人狀態進行分析該床上狀態及該非床上狀態,其中能夠先判斷該人體頭部位置是否位於該床型物體位置之範圍內,若是位於範圍內,則進行判斷該床上狀態,若是沒有位於範圍內,則進行判斷該非床上狀態。
更具體的說,所述深度學習應用程式能夠依據一身高資料進行區分出第一高度及第二高度,其中該第一高度係為該身高資料的0.2~0.25倍數之間,而該第二高度係為該身高資料的0.25~0.4倍數之間,若該人體頭部位置若低於該第一高度,則進行判斷該床上狀態係為一躺床狀態,若該人體頭部位置若介於該第一高度與該第二高度之間,則進行判斷該床上狀態係為一起身狀態,若該人體頭部位置若高於該第二高度,則進行判斷該床上狀態係為一坐床狀態。
更具體的說,所述深度學習應用程式於判斷為該坐床狀態後,若於一定時間內,偵測到該人體頭部位置已非位於該床型物體位置之範圍內,則能夠進一步判斷該床上狀態係為一離床狀態。
更具體的說,所述深度學習應用程式於判斷為該躺床狀態後,若於一定時間內,偵測到該人體頭部位置沒有變化,則能夠進一步判斷該床上狀態係為一靜止狀態。
更具體的說,所述深度學習應用程式能夠依據該人體頭部之一傾斜速度及一傾斜時間進行判斷該人體頭部的跌落幅度,若該人體頭部的跌落幅度低於一加速度標準值,則進行判斷該非床上狀態係為一有人進入狀態,若該人體頭部的跌落幅度高於該加速度標準值,則進行判斷該非床上狀態係為一可能跌倒狀態。
更具體的說,所述加速度標準值係為100~120cm/s。
更具體的說,所述深度學習應用程式於判斷為該可能跌倒狀態後,若偵測到該人體頭部位置停止於超過一定時間,則能夠進一步判斷該非床上狀態係為一嚴重跌倒狀態,若偵測到該人體頭部位置停止未超過一定時間,則判斷該非床上狀態係為一輕微跌倒狀態。
更具體的說,所述後台伺服設備更能夠與一電子設備進行連線,並能夠將該深度學習應用程式所判斷之該床上狀態或/及該非床上狀態傳送給該電子設備,而該電子設備係為手機、平板電腦、筆記型電腦或是桌上型電腦。
更具體的說,所述三維深度影像數據係為RGB 三色通道所組成或是灰階單色通道所組成,而該三維深度影像數據之輸入位元數為8位元或是16位元。
更具體的說,所述能夠以多於該人體頭部之65~70%的部位即可標記進行偵測與追蹤。
有關於本發明其他技術內容、特點與功效,在以下配合參考圖式之較佳實施例的詳細說明中,將可清楚的呈現。
請參閱1~3圖,為本發明姿態動作辨識系統之整體架構示意圖、後台伺服設備之架構示意圖及深度學習應用程式之架構示意圖,如圖所示,該系統係包含有至少一影像擷取設備1以及至少一個後台伺服設備2,該影像擷取設備1係為一能夠取得一目標環境內的三維深度影像數據之深度影像拍攝設備或是具有深度影像拍攝功能的裝置;
其中該三維深度影像數據(例如點雲圖)為表示深度相機接收其與環境之距離資訊的資料型態,深度影像主要是呈現物體大致輪廓,相較於色彩影像具有較佳的隱密性,相較於色彩除了有較高的隱密性,而且有「深度資訊」可以利用,具有運用於隱密空間的優勢;
該三維深度影像數據係為RGB 三色通道所組成或是灰階單色通道所組成,而該單通道的深度影像(灰階圖)係經過投影演算法所投射產生,由於深度影像為表達物體的距離資訊,一般色彩影像由RGB三色通道所組成,然而過多的通道數會造成 AI 模型偵測所需要的時間與消耗系統資源,因此能夠修正為接受單通道,而單通道相較於三通道,故能夠釋放不必要的資源消耗,減少每次運算之時間,以提升整體效能。
該三維深度影像數據之輸入位元數(深度影像之每個畫素)為8位元或是16位元,以 0 至 65535 來表達所偵測到的距離資訊來說,若為了符合 CenterNet 的輸入要求,將深度影像壓縮為 8 位元再輸入,會造成距離資訊有過多的流失,無法獲得良好的偵測結果,因此修改 CenterNet 可以接收 16 位元的資料,呈現最好的效果,因此若是使用16 位元的資料,將能夠輸入原始無壓縮的深度資訊,提供 AI 完整的細節資料,提高其判斷的準確度,以得到高準確率的效果。
該後台伺服設備2用以接收該影像擷取設備1所取得之該三維深度影像數據,其中該後台伺服設備2係至少包含有至少一個處理器21及至少一個電腦可讀取記錄媒體22,該等電腦可讀取記錄媒體22儲存有至少一個深度學習應用程式221,其中該電腦可讀取記錄媒體22更進一步儲存有電腦可讀取指令,當由該等處理器21執行該等電腦可讀取指令時,能夠將該三維深度影像數據進行影像偵測與追蹤,並進行判斷該目標環境內的人數、床上狀態或/及非床上狀態。
該深度學習應用程式221係包含有: (1)     一深度訓練單元2211,該後台伺服設備2係儲存有多個場域深度資料,而該深度訓練單元2211對該場域深度資料進行模型訓練,以建立出一深度學習模型; (2)     一影像接收單元2212,係能夠接收該三維深度影像數據; (3)     一影像偵測暨追蹤單元2213,係與該深度訓練單元2211及該影像接收單元2212相連接,而該影像偵測暨追蹤單元2213系透過該深度學習模型對該三維深度影像數據進行影像偵測與追蹤,用以偵測該目標環境內的該人體頭部位置及該床型物體位置,並對該人體頭部及該床型物體進行追蹤; (4)     一狀態判斷單元2214,係與該影像偵測暨追蹤單元2213相連接,用以依據該人體頭部位置進行判斷該目標環境內的人數,並再依據該人體頭部位置與該床型物體位置之重疊狀態判斷該床上狀態,且再依據該人體頭部的跌落幅度與跌落幅度時間判斷該非床上狀態。
該深度訓練單元2211係透過一物體檢測算法技術進行模型訓練,以透過該深度學習模型對該三維深度影像數據進行影像偵測與追蹤,其中該物體檢測算法技術係為CenterNet、YOLO、SSD、DarkNet或是MobileNet。
而本案的深度訓練單元2211能夠透過收集大量不同環境的資料進行訓練,而本案訓練之模型更具有以下模型優化過程: (1)     收集不同場域的深度資料,增加資料的多樣性; (2)     標記收集深度資料中頭為於畫面中的位置,其中標記深度影像中人體頭部的位置,以畫面中出現多於 65~70%的頭就可進行標記,如此將能夠減少一定需要標記整顆頭而造成的標記疏失; (3)     訓練模型; (4)     測試訓練完成之模型在不同環境的準確率是否大於 98%,如未達到便進行資料標記的檢視與修正; (5)     如達模型準確性的目標,接著結合行為演算法運用於實際場域中測試一週或更長時間; (6)     過程中如有發生行為不如預期,或偵測不到之情形,再對模型資料與行為演算法進行優化達到最好的效果。
該深度學習應用程式2211於每一次進行判斷有狀態變化產生時,能夠將有狀態變化的影像進行儲存,故能夠節省多次儲存的成本與時間。
該深度學習應用程式2211之運作實施流程如第4A~4C圖所示,說明如下: (1)     當影像輸入401後,則開始進行影像偵測402,以依據該目標環境內的人數進行判斷該目標環境內是一無人狀態406、一單人狀態404或是一多人狀態405; (2)     其中多人狀態為照服員進入協助的狀態,而為了跌倒的精準判斷與降低誤差,故進一步針對該單人狀態進行分析該床上狀態及該非床上狀態,但亦能夠針對多人狀態進行分析判斷床上狀態及該非床上狀態; (3)     接著開始進行影像追蹤407,並進行判斷重疊408,也就是判斷該人體頭部位置是否位於該床型物體位置之範圍內,若是有重疊(位於範圍內),則進行判斷該床上狀態,若是沒有重疊(沒有位於範圍內),則進行判斷該非床上狀態; (4)     若是判斷有重疊,則進行判斷該人體頭部位置是否高於該第一高度409,若比第一高度低,則判斷該床上狀態係為一躺床狀態410(例如人員平躺在床上);反之若比第一高度高,則再進行判斷該人體頭部位置是否高於該第二高度411;若是比第二高度低,則判斷該床上狀態係為一起身狀態412(例如抬頭翻身,弓身於床);若是比第二高度高,則判斷該床上狀態係為一坐床狀態413(例如坐立於床); (5)     而當判斷沒有重疊,則進一步判斷是否有跌倒,主要依據該人體頭部之一傾斜速度及一傾斜時間進行判斷該人體頭部的跌落幅度,先判斷人體頭部是否有傾斜414,若是沒有,則重新回到影像追蹤407; (6)     若是有傾斜,則進行判斷人體頭部的跌落幅度是否高於一加速度標準值(100~120cm/s,100 cm/s、101cm/s、102 cm/s、103 cm/s、104 cm/s、105 cm/s、106 cm/s、107 cm/s、108 cm/s、109 cm/s、110 cm/s、111 cm/s、112 cm/s、113 cm/s、114 cm/s、115 cm/s、116 cm/s、117 cm/s、118 cm/s、119 cm/s、120 cm/s)415,若是沒有,則判斷該非床上狀態係為一有人進入狀態416(可視範圍偵測到人員進入);若是有,則判斷該非床上狀態係為一可能跌倒狀態417; (7)     之後,於判斷為該可能跌倒狀態後,進行判斷該人體頭部位置停止於超過一定時間418(能自行設定),若是沒有,則判斷該非床上狀態係為一輕微跌倒狀態419;若是有,則判斷該非床上狀態係為一嚴重跌倒狀態420(例如離床跌落地板、站立失足跌倒)。
其中該深度學習應用程式能夠依據一身高資料進行區分出第一高度及第二高度(能夠讓使用者預先輸入身高資訊以供系統進行設定),其中該第一高度係為該身高資料的0.2~0.25倍數之間,而該第二高度係為該身高資料的0.25~0.4倍數之間。
當判斷為該坐床狀態後,若於一定時間內,偵測到該人體頭部位置已非位於該床型物體位置之範圍內,則能夠進一步判斷該床上狀態係為一離床狀態(坐床緣傾身準備離開或下床)。
當判斷為該躺床狀態後,若於一定時間內,偵測到該人體頭部位置沒有變化,則能夠進一步判斷該床上狀態係為一靜止狀態。
而該深度學習應用程式更能夠依據該目標環境內的床型物體位置,於一定時間範圍內,判斷出一床位移動狀態或是一床位未移動狀態。
其中該後台伺服設備2更能夠與一電子設備3進行連線,並能夠將該深度學習應用程式211所判斷之該床上狀態或/及該非床上狀態傳送給該電子設備,而該電子設備係為手機、平板電腦、筆記型電腦或是桌上型電腦,而該姿態狀態傳送給該電子設備,針對以下幾種姿態狀態進行說明: (1)     坐床狀態,當狀態轉換至坐床時3秒內發出通知,若狀態持續,每十分鐘會再通知一次。 (2)     離床狀態,當狀態轉換至離床時3秒內發出通知,若狀態持續,每十分鐘會再通知一次。 (3)     嚴重跌倒狀態,當狀態轉換至嚴重跌倒時3秒內發出通知,若狀態持續,每十分鐘會再通知一次。 (4)     靜止狀態,當躺床持續數十分鐘連微動都沒有,則發出通知,若狀態持續,每十分鐘會再通知一次。 (5)     有人進入狀態,當有人躺床或坐床時,偵測到人進入靠近,則發出通知。 (6)     床位移動狀態,當偵測到床位被移動時會告警並通知人員將床歸位,未歸位前所有偵測系統會暫時關閉直到床歸位,狀態未解除每十分鐘通報一次提醒。
本發明所提供之姿態動作辨識系統,與其他習用技術相互比較時,其優點如下: 1.         本發明能夠當患者打算離開病床時,能夠進行監測離床與跌倒或是其他行為。 2.         本發明主要透過人體頭部位置及床型物體位置,進行判斷目標環境內的人數、床上狀態、非床上狀態、床位移動狀態,並將其姿態狀態傳送給該電子設備,以進行警示與通知。
本發明已透過上述之實施例揭露如上,然其並非用以限定本發明,任何熟悉此一技術領域具有通常知識者,在瞭解本發明前述的技術特徵及實施例,並在不脫離本發明之精神和範圍內,當可作些許之更動與潤飾,因此本發明之專利保護範圍須視本說明書所附之請求項所界定者為準。
1:影像擷取設備 2:後台伺服設備 21:處理器 22:電腦可讀取記錄媒體 221:深度學習應用程式 2211:深度訓練單元 2212:影像接收單元 2213:影像偵測暨追蹤單元 2214:狀態判斷單元 3:電子設備
[第1圖] 係本發明姿態動作辨識系統之整體架構示意圖。 [第2圖] 係本發明姿態動作辨識系統之後台伺服設備之架構示意圖。 [第3圖] 係本發明姿態動作辨識系統之深度學習應用程式之架構示意圖。 [第4A圖] 係本發明姿態動作辨識系統之實施流程示意圖。 [第4B圖] 係本發明姿態動作辨識系統之實施流程示意圖。 [第4C圖] 係本發明姿態動作辨識系統之實施流程示意圖。
1:影像擷取設備
2:後台伺服設備
3:電子設備

Claims (8)

  1. 一種姿態動作辨識系統,係包含:至少一影像擷取設備,係用以取得一目標環境內的一三維深度影像數據;以及至少一個後台伺服設備,係能夠接收該影像擷取設備所取得之該三維深度影像數據,而該後台伺服設備係內建有一深度學習應用程式,能夠將該三維深度影像數據進行影像偵測與追蹤,以取得一人體頭部位置及一床型物體位置,再依據該人體頭部位置進行判斷該目標環境內的人數,並能夠再依據該人體頭部位置與該床型物體位置之重疊狀態判斷一床上狀態,且能夠再依據該人體頭部的跌落幅度與跌落幅度時間判斷一非床上狀態;該深度學習應用程式能夠依據該人體頭部之一傾斜速度及一傾斜時間進行判斷該人體頭部的跌落幅度,若該人體頭部的跌落幅度低於一加速度標準值,則進行判斷該非床上狀態係為一有人進入狀態,若該人體頭部的跌落幅度高於該加速度標準值,則進行判斷該非床上狀態係為一可能跌倒狀態。
  2. 如請求項1所述之姿態動作辨識系統,其中該深度學習應用程式係包含有:一深度訓練單元,該後台伺服設備係儲存有多個場域深度資料,而該深度訓練單元對該場域深度資料進行模型訓練,以建立出一深度學習模型;一影像接收單元,係能夠接收該三維深度影像數據;一影像偵測暨追蹤單元,係與該深度訓練單元及該影像接收單元相連接,而該影像偵測暨追蹤單元內具有該深度學習模型,用以透過該深度學習模型對該三維深度影像數據進行影像偵測與追蹤,用以偵測該目標環境內的該人體頭部位置及該床型物體位置,並對該人體頭部及該床型物體進行追蹤;以及 一狀態判斷單元,係與該影像偵測暨追蹤單元相連接,用以依據該人體頭部位置進行判斷該目標環境內的人數,並再依據該人體頭部位置與該床型物體位置之重疊狀態判斷該床上狀態,且再依據該人體頭部的跌落幅度與跌落幅度時間判斷該非床上狀態。
  3. 如請求項1所述之姿態動作辨識系統,其中該深度學習應用程式能夠依據該目標環境內的人數進行判斷該目標環境內是一無人狀態、一單人狀態或是一多人狀態,並能夠進一步針對該單人狀態進行分析該床上狀態及該非床上狀態,其中能夠先判斷該人體頭部位置是否位於該床型物體位置之範圍內,若是位於範圍內,則進行判斷該床上狀態,若是沒有位於範圍內,則進行判斷該非床上狀態。
  4. 如請求項1所述之姿態動作辨識系統,其中該深度學習應用程式能夠依據一身高資料進行區分出第一高度及第二高度,其中該第一高度係為該身高資料的0.2~0.25倍數之間,而該第二高度係為該身高資料的0.25~0.4倍數之間,若該人體頭部位置若低於該第一高度,則進行判斷該床上狀態係為一躺床狀態,若該人體頭部位置若介於該第一高度與該第二高度之間,則進行判斷該床上狀態係為一起身狀態,若該人體頭部位置若高於該第二高度,則進行判斷該床上狀態係為一坐床狀態。
  5. 如請求項4所述之姿態動作辨識系統,其中該深度學習應用程式於判斷為該坐床狀態後,若於一定時間內,偵測到該人體頭部位置已非位於該床型物體位置之範圍內,則能夠進一步判斷該床上狀態係為一離床狀態。
  6. 如請求項4所述之姿態動作辨識系統,其中該深度學習應用程式於判斷為該躺床狀態後,若於一定時間內,偵測到該人體頭部位置沒有變化,則 能夠進一步判斷該床上狀態係為一靜止狀態。
  7. 如請求項1所述之姿態動作辨識系統,其中該深度學習應用程式於判斷為該可能跌倒狀態後,若偵測到該人體頭部位置停止於超過一定時間,則能夠進一步判斷該非床上狀態係為一嚴重跌倒狀態,若偵測到該人體頭部位置停止未超過一定時間,則判斷該非床上狀態係為一輕微跌倒狀態。
  8. 如請求項1所述之姿態動作辨識系統,其中該三維深度影像數據係為RGB三色通道所組成或是灰階單色通道所組成,而該三維深度影像數據之輸入位元數為8位元或是16位元。
TW111118002A 2022-05-13 2022-05-13 姿態動作辨識系統 TWI797013B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW111118002A TWI797013B (zh) 2022-05-13 2022-05-13 姿態動作辨識系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW111118002A TWI797013B (zh) 2022-05-13 2022-05-13 姿態動作辨識系統

Publications (2)

Publication Number Publication Date
TWI797013B true TWI797013B (zh) 2023-03-21
TW202345108A TW202345108A (zh) 2023-11-16

Family

ID=86692544

Family Applications (1)

Application Number Title Priority Date Filing Date
TW111118002A TWI797013B (zh) 2022-05-13 2022-05-13 姿態動作辨識系統

Country Status (1)

Country Link
TW (1) TWI797013B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116863500A (zh) * 2023-06-14 2023-10-10 中国人民解放军总医院第一医学中心 一种患者离床监控方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201705095A (zh) * 2015-07-28 2017-02-01 由田新技股份有限公司 防止跌落裝置與其操作方法
US20170155877A1 (en) * 2008-05-06 2017-06-01 Careview Communications, Inc. System and method for predicting patient falls
CN114300130A (zh) * 2020-10-07 2022-04-08 八乐梦床业株式会社 床系统
TWM625774U (zh) * 2021-08-19 2022-04-21 立普思股份有限公司 基於深度影像的被照護者行為分析的照護檢測系統

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170155877A1 (en) * 2008-05-06 2017-06-01 Careview Communications, Inc. System and method for predicting patient falls
TW201705095A (zh) * 2015-07-28 2017-02-01 由田新技股份有限公司 防止跌落裝置與其操作方法
CN114300130A (zh) * 2020-10-07 2022-04-08 八乐梦床业株式会社 床系统
TWM625774U (zh) * 2021-08-19 2022-04-21 立普思股份有限公司 基於深度影像的被照護者行為分析的照護檢測系統

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116863500A (zh) * 2023-06-14 2023-10-10 中国人民解放军总医院第一医学中心 一种患者离床监控方法和系统
CN116863500B (zh) * 2023-06-14 2024-05-10 中国人民解放军总医院第一医学中心 一种患者离床监控方法和系统

Also Published As

Publication number Publication date
TW202345108A (zh) 2023-11-16

Similar Documents

Publication Publication Date Title
US11948401B2 (en) AI-based physical function assessment system
US11650659B2 (en) User input processing with eye tracking
García et al. An m-health application for cerebral stroke detection and monitoring using cloud services
US9411416B2 (en) Computer device operable with user's eye movement and method for operating the computer device
CN109086729B (zh) 通信行为检测方法、装置、设备及存储介质
Chen et al. Using real-time acceleration data for exercise movement training with a decision tree approach
JP2020086819A (ja) 画像処理プログラムおよび画像処理装置
CN104919396A (zh) 在头戴式显示器中利用身体握手
TWI797013B (zh) 姿態動作辨識系統
CN113366529A (zh) 护理记录装置、护理记录系统、护理记录程序及护理记录方法
Štrbac et al. Kinect in neurorehabilitation: computer vision system for real time hand and object detection and distance estimation
Kapoor et al. Light-weight seated posture guidance system with machine learning and computer vision
JP3238765U (ja) 姿勢・動作識別システム
CN107195163B (zh) 一种报警方法、装置和可穿戴设备
Qin et al. A High-Precision Fall Detection Model Based on Dynamic Convolution in Complex Scenes
KR102590549B1 (ko) 사용자 제스처 분석 장치 및 이를 이용한 운동 자세 분석 정보 제공 방법
TWI470565B (zh) 非接觸式醫療導覽系統及其控制方法
KR100686517B1 (ko) 동공 모양 모델링 방법
JP2020071717A (ja) 情報処理装置、情報処理方法及びプログラム
TWM632258U (zh) 姿態動作辨識系統
WO2021033453A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
KR20140046197A (ko) 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체
US20200074671A1 (en) Image detection method and image detection device for selecting representative image of user
Yen et al. Adaptive Indoor People-Counting System Based on Edge AI Computing
Jansen et al. Home monitoring of elderly people with 3d camera technology