TWI438702B - 影像環境邊界之動態設定方法及人員活動內容之即時判定方法 - Google Patents

影像環境邊界之動態設定方法及人員活動內容之即時判定方法 Download PDF

Info

Publication number
TWI438702B
TWI438702B TW100115553A TW100115553A TWI438702B TW I438702 B TWI438702 B TW I438702B TW 100115553 A TW100115553 A TW 100115553A TW 100115553 A TW100115553 A TW 100115553A TW I438702 B TWI438702 B TW I438702B
Authority
TW
Taiwan
Prior art keywords
image
boundary
person
target
environment
Prior art date
Application number
TW100115553A
Other languages
English (en)
Other versions
TW201246089A (en
Inventor
Kai Tai Song
Wei Jyun Chen
Original Assignee
Univ Nat Chiao Tung
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Nat Chiao Tung filed Critical Univ Nat Chiao Tung
Priority to TW100115553A priority Critical patent/TWI438702B/zh
Priority to US13/207,782 priority patent/US8634595B2/en
Publication of TW201246089A publication Critical patent/TW201246089A/zh
Application granted granted Critical
Publication of TWI438702B publication Critical patent/TWI438702B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

影像環境邊界之動態設定方法及人員活動內容之即時判定方法
本案係關於一種利用人員姿態與所處區域等資訊的組合,來進行演算的影像環境邊界之動態設定方法,及應用該動態設定方法的人員活動內容之即時判定方法。
利用影像辨識技術來進行人員偵測的應用,係為現今監控保全產業與居家照護產業的發展關鍵,而台灣第I335181號專利案及第I322963號專利案所揭示之技術也皆位於此範疇中。
其中,台灣第I335181號專利案係揭示一種人類行為偵測系統、方法及裝置,此案所揭露的技術內容係先於特定場所的上方周緣安裝多台固定式的攝影機以進行監視影像之錄製,接著利用動態影像偵測裝置偵測出監視影像中的移動物體,隨即再利用事件分析裝置分析出例如為跌倒之事件。而台灣第I322963號專利案所揭示的人類動作的辨識方法,則係結合了時序姿態比對與模糊法則,來完成人類動作的辨識。
然而,經過實際的探討後發現,上揭兩件專利案之技術還存在著精確性及實用性不足的缺點。究其原因,即在於固定式攝影機的限制,以及沒有環境邊界的設計所導致。具體來說,由於固定式攝影機係面向特定的場景來供系統進行初始化設定,所以一旦攝影機不慎被人移動或是場景產生了改變,系統就無法再藉由錄製到的影像進行準確的辨識,同時,由於沒有環境邊界的設計,所以在利用人員影像進行辨識時,僅能模糊地辨識出人員的姿態,而無法進一步辨識出人員影像所代表的內容。而且在未來保全、居家照護機器人之應用情境中,機器人皆具備攝影機,上述專利技術並不能滿足攝影機為可移動之情況。
因此,如何提供一種不受傳統固定式攝影機的限制,且能即時辨識出人員影像所代表的活動內容之技術,即為現今業界所亟待解決之課題。
鑒於習知技術的種種缺失,本發明之主要目的係在於提供一種適用於移動平台且可即時地辨識出人員影像所代表的內容之技術。
為了達到上述目的及其它目的,本發明遂提供一種影像環境邊界之動態設定方法,係包括以下步驟:以預定角度擷取至少一初始環境影像,並設定該初始環境影像中的目標物及環境邊界,再計算出該初始環境影像中的該目標物及該環境邊界之邊界設定關係式;利用移動平台以任意角度擷取包含該目標物之動態環境影像,並辨識且計算出該動態環境影像中的目標物位置;以及利用該邊界設定關係式及該動態環境影像中的目標物位置,計算出對應於該動態環境影像之環境邊界。
其次,本發明還提供一種人員活動內容之即時判定方法,係包括以下步驟:以預定角度擷取至少一初始環境影像,俾計算出該初始環境影像中的目標物及環境邊界之邊界設定關係式;利用移動平台以任意角度擷取包含該目標物之動態環境影像,並利用該邊界設定關係式及該動態環境影像中之目標物位置計算出對應於該動態環境影像之環境邊界;辨識出該動態環境影像中的人員影像,並記錄該人員影像的停留時間,且利用該人員影像辨識出人員姿態;以及依據該動態環境影像之環境邊界及所辨識出的人員影像判斷出人員所處區域,並利用該人員所處區域、人員姿態及停留時間即時地判定出人員活動內容。
相較於習知技術,由於本發明之實施基礎並不需事先在環境周緣佈設多台固定式的攝影機,所以可完全免除固定式的攝影機之種種限制,又因本發明可辨識出影像中的目標物再利用邊界設定關係式演算出新的環境邊界,所以即便是攝影機經過了移動或改變了角度,亦能準確地進行影像辨識。而藉由可自動更新環境邊界、記錄停留時間及辨識出人員姿態等功能,本發明更可即時、準確地辨識出人員影像所代表的內容,進而提供更多元的應用模式。
以下係藉由特定的具體實施型態說明本發明之實施方式,熟悉此技術之人士,係可藉由本說明書所揭示之內容輕易地瞭解本發明之其他優點與功效。而本發明亦可藉由其他不同的具體實施型態加以施行或應用。
請一併參閱第1圖至第6圖,以清楚瞭解本發明之影像環境邊界之動態設定方法,以及應用所述的影像環境邊界之動態設定方法的人員活動內容之即時判定方法。
其中,第1圖係為本發明所述的人員活動內容之即時判定方法的步驟流程圖,第2圖係為包含目標物及環境邊界的空間示意圖,第3圖係為計算出動態環境影像中的目標物位置及對應於動態環境影像的環境邊界之細部流程圖,第4圖係為辨識出動態環境影像中的人員影像之細部流程圖,第5圖係為辨識出動態環境影像中的人員姿態之細部流程圖,而第6圖係為能判定出人員活動內容的有限狀態機之示意圖。需先說明的是,下敘步驟S11至步驟S13的內容,即可用以闡釋本發明所述的影像環境邊界之動態設定方法。
於步驟S11中,係以預定角度擷取至少一初始環境影像,並設定初始環境影像中的目標物及環境邊界,再計算出初始環境影像中的目標物及環境邊界兩者的邊界設定關係式。
具體來說,實施本發明之系統(未圖示)可於執行步驟S11時,先選定一如第2圖所示之室內空間作為預定的監控環境,該監控環境得處於無人或有人的狀態,接著,選擇該室內空間中的一平面物體作為預定的目標物,如第2圖所示之目標物AO(Assigned object),並將其特徵點儲存於相關的目標物資料庫中,同時,也在室內空間中畫出能區分不同的生活區域之一分界線,如第2圖所示之環境邊界RB(Room boundary)。於實際的生活情境中,目標物AO可設定為室內空間中之平面畫框,而環境邊界RB則可設定為能區分出室內空間中之餐廳(dining room)及客廳(living room)之分界線。
接著,可再令執行本發明之系統利用一例如為移動式攝影機之移動平台,以特定的角度擷取出至少一包含目標物AO及環境邊界RB之初始環境影像,並令執行本發明之系統利用目標物AO及環境邊界RB於初始環境影像中之影像平面座標、影像平面斜率及影像平面高度差等資訊進行邊界設定關係式之計算。
為了更清楚說明計算出目標物及環境邊界之邊界設定關係式的實施細節,請再同時參照第2圖。如第2圖所示,(x0 ,y0 ),(x1 ,y1 ),(x2 ,y2 ),(x3 ,y3 )代表初始環境影像中的目標物AO的四個角點,目標物AO的高為d 1 =y 3 -y 0 ,目標物AO的下底線的斜率為,環境邊界RB由參考點(bx ,by )及斜率mb 形成。為了簡化說明,本實施形態係令系統將環境邊界RB與目標物AO設定為在室內空間中互為平行者,所以m b =m 23 ,且設定參考點(bx ,by )=(x0 ,y0 -d2 )。
接著,可再令系統以最遠、中間、及最近這三種距離來求得d1 和d2 的值及關係式,藉此求得環境邊界RB的y座標,以完成目標物AO及環境邊界RB之關係式。其中,最遠的距離,係指將攝影機移遠,但取得的初始環境影像中仍可清楚地辨識到目標物AO的最遠距離;最近的距離,係指將攝影機拉近到取得的初始環境影像中環境邊界RB已經要消失不見的距離;而中間的距離則定義為介於最遠的距離及最近的距離間。
舉例來說,系統可假設d1 和d2 滿足一個二元一次方程式的函式,如d 2 =α *d 1 2 +β *d 1 +γ ,此時,若系統在最遠的距離時測得d1 =71、d2 =257,在中間的距離時測得d1=93、d2 =341,在最近的距離時測得d1 =114、d2 =449,則系統會將測得的d1 、d2 帶入,進而求得α=0.0308、β=-1.2341、γ=229.3572以及d 2 =0.0308*d 1 2 -1.2341*d 1 +229.3572。故,系統遂可將,(bx,by)=(x0,y0-d2),及d 2 =0.0308*d 1 2 -1.2341*d 1 +229.3572這些條件關係予以儲存,並將這些條件關設定為目標物AO及環境邊界RB之邊界設定關係式,以供後續的實施應用。
於步驟S12中,係令系統利用例如為移動式攝影機之移動平台以任意角度擷取包含有目標物AO之動態環境影像,並辨識出動態環境影像中的目標物AO,進而計算出目標物AO於動態環境影像中的目標物位置。具體來說,當完成步驟S11的初始化設定後,系統即可令移動平台進行移動,而以動態的方式就預定的監控環境開始擷取至少一動態環境影像,此時,所擷取到的動態環境影像雖然仍包含了目標物AO,但已經與初始設定時擷取到的影像產生了若干角度差異,故,系統即可先從移動後所擷取到的動態環境影像中辨識出目標物AO,進而計算出移動後所擷取到的動態環境影像中的目標物AO的位置。
於步驟S13中,係利用步驟S11中求得的邊界設定關係式,及步驟S12求得的目標物AO的位置,進一步計算出對應於移動平台在移動後所擷取到的動態環境影像之新的環境邊界RB。
為了清楚地瞭解步驟S12及步驟S13的實施細節,請一併參照第3圖。如第3圖所示,當移動平台將移動後所擷取到的動態環境影像輸入系統後,系統即可利用加速強健特徵點演算法(Speed Up Robust Feature,SURF)特徵點萃取,連同目標物資料庫內的資料來進行比對,以從移動後所擷取到的動態環境影像中辨識出目標物AO。在辨識出動態環境影像中包含之目標物AO後,即可再利用單應矩陣(Homography)的轉換關係來進行目標物AO的位置估測,進而求得動態環境影像包含之目標物AO的位置座標。而求得動態環境影像包含之目標物AO的位置座標後,遂可再利用步驟S11中求得的目標物AO及環境邊界RB之邊界設定關係式,估測出對應於動態環境影像之新的環境邊界RB,並將其予以輸出。
於步驟S14中,係令系統辨識出移動後所擷取到的動態環境影像中的人員影像,並記錄該人員影像的停留時間,且利用該人員影像辨識出人員姿態。
於步驟S14中,令系統辨識出動態環境影像中的人員影像之實施細節係如第4圖所示。首先,在移動平台輸入了移動後以任意角度所擷取到的動態環境影像後,系統即可先將前景分離,以擷取出動態環境影像的前景,接著,利用例如為像素投影之技術於擷取出的前景中取出特定欲辨識的區域,隨即再透過例如為方向梯度直方圖(Histogram of Oriented Gradient,HOG)之技術於該特定欲辨識的區域中萃取出特徵點,爾後再利用例如為支持向量機(Support Vector Machine,SVM)之分類器進行人型辨識分類。而於分類完後,即可進行是否為人形之判斷,例如,當判斷為否時,則進行排除,而當判斷為是時,則進入後續的姿態辨識的處理流程。
在進入姿態辨識的處理流程後,如第5圖所示,系統可先輸入動態環境影像中的人形輪廓,接著進行邊緣萃取,以輸出人形邊緣,接著,再利用星狀骨架(Star Skeleton)技術進行特徵點萃取,以輸出骨架編號序列,而於輸出骨架編號序列後,系統即可再利用隱藏式馬可夫模型(Hidden Markov Model,HMM)來進行人員姿態的辨識,進而將辨識出的人員姿態予以輸出。
於步驟S15中,系統係可依據步驟S13中求得的對應於動態環境影像之環境邊界,連同步驟S14中辨識出的人員影像來進行綜合性的判斷,以判斷出人員所處區域,並利用判斷出的人員所處區域、步驟S14中辨識出的人員姿態、及步驟S14中記錄的停留時間,進一步判定出人員活動內容。
具體來說,步驟S15係可藉由如第6圖所設計之有限狀態機(Finite State Machine,FSM)來整合所有求得的資訊,進而進行步驟S15中的判斷與判定。參照第6圖所設計之有限狀態機,當人員被偵測到時,有限狀態機可利用新的環境邊界RB來判定出人員在哪一個區域中,假設系統中設定了餐廳和客廳這兩個區域,有限狀態機就會藉由人員跨越新的環境邊界RB之方向判定出人員走入的區域,而當人員在所處環境中超過一定的時間(如10frames)後,系統就會判定人員是待在此區域中,例如當人員由餐廳走入客廳時,活動內容偵測就會判定為“移動至客廳”,當人員待在客廳超過一定時間(如10frames)後,系統就會判定為“待在客廳”。而當系統判定出人員所處區域後,更可依據人員不同的姿態和不同的停留的時間,做出更精緻的活動內容判定,例如圖中所述之“在客廳中坐著”或“在餐廳中躺著”,並對其進行記錄。
相較於習知技術,由於本發明可根據目標物與環境邊界之邊界設定關係式,自動地於攝影機移動後重新演算出對應的新的環境邊界,所以,除了可準確提供人員姿態、人員所處區域、及人員停留時間外,也能利用前述人員姿態、人員所處區域、及人員停留時間準確地推測出人員活動內容,大大增加了應用於遠距離居家照護或監控保全之實用性,並提供了更多元的應用模式。其次,因本發明的設計可適用於能以多角度動態擷取影像的移動式平台上,故不但不需在特定的環境中預先架設多台固定式的攝影機,也不需額外在人員、環境或平台中配置相關的感應器,是以,更能有效減低硬體設施的配置成本,並使用在未來保全、居家照護機器人之應用情境中。實際進行時,本發明可藉由一個解析度在30萬畫素左右的網路攝影機搭配移動式機器人來予以執行。而實際進行測試後,本發明之人員辨識準確度係可至少達到95.33%,而對人員姿態的辨識準確度度也至少達到94.8%。
惟,上述實施型態僅例示性說明本發明之原理及其功效,而非用於限制本發明。任何熟習此項技藝之人士均可在不違背本發明之精神及範疇下,對上述實施型態進行修飾與改變。因此,本發明之權利保護範圍,應如後述之申請專利範圍所列。
AO...目標物
RB...環境邊界
S11~S15...步驟
第1圖係為本發明的步驟流程圖;
第2圖係為包含目標物及環境邊界的空間示意圖;
第3圖係為計算出動態環境影像中的目標物位置及對應於動態環境影像的環境邊界之細部流程圖;
第4圖係為辨識出動態環境影像中的人員影像之細部流程圖;
第5圖係為辨識出動態環境影像中的人員姿態之細部流程圖;以及
第6圖係為判定出人員活動內容的有限狀態機之示意圖。
S11~S15...步驟

Claims (8)

  1. 一種人員活動內容之即時判定方法,係包括以下步驟:以預定角度擷取至少一初始環境影像,俾計算出該初始環境影像中的目標物及環境邊界之邊界設定關係式;利用移動平台以任意角度擷取包含該目標物之動態環境影像,並利用該邊界設定關係式及該動態環境影像中之目標物位置計算出對應於該動態環境影像之環境邊界;辨識出該動態環境影像中的人員影像,並記錄該人員影像的停留時間,且利用該人員影像辨識出人員姿態;以及依據該動態環境影像之環境邊界及所辨識出的人員影像判斷出人員所處區域,並利用該人員所處區域、人員姿態及停留時間即時判定出人員活動內容。
  2. 如申請專利範圍第1項所述之人員活動內容之即時判定方法,其中,計算出該邊界設定關係式之步驟,係利用該初始環境影像中的目標物及環境邊界之影像平面座標、影像平面斜率及影像平面高度差來進行計算。
  3. 如申請專利範圍第1項所述之人員活動內容之即時判定方法,其中,辨識出該動態環境影像中的人員影像之步驟,係指先擷取出影像前景,再利用像素投影於該影像前景中取出特定的區域,接著透過方向梯度直方圖(Histogram of Oriented Gradient,HOG)於該特定的區域取出特徵點,並利用支持向量機(Support Vector Machine,SVM)分類器處理該特徵點,進而辨識出該人員影像。
  4. 如申請專利範圍第1項所述之人員活動內容之即時判定方法,其中,辨識出人員姿態之步驟,係利用星狀骨架(Star Skeleton)技術及隱藏式馬可夫模型(Hidden Markov Model,HMM)來進行辨識。
  5. 如申請專利範圍第1項所述之人員活動內容之即時判定方法,其中,依據該動態環境影像之環境邊界及所辨識出的人員影像判斷出人員所處區域,並利用該人員所處區域、人員姿態及停留時間即時判定出人員活動內容之步驟,係利用有限狀態機(Finite State Machine,FSM)來進行判斷與判定。
  6. 一種影像環境邊界之動態設定方法,係包括以下步驟:以預定角度擷取至少一初始環境影像,並設定該初始環境影像中的目標物及環境邊界,再計算出該初始環境影像中的該目標物及該環境邊界之邊界設定關係式;利用移動平台以任意角度擷取包含有該目標物之動態環境影像,並辨識且計算出該動態環境影像中的目標物位置;以及利用該邊界設定關係式及該動態環境影像中的目標物位置,計算出對應於該動態環境影像之環境邊界。
  7. 如申請專利範圍第6項所述之影像環境邊界之動態設定方法,其中,計算出該邊界設定關係式之步驟,係利用該初始環境影像中的目標物及環境邊界之影像平面座標、影像平面斜率及影像平面高度差進行計算。
  8. 如申請專利範圍第6項所述之影像環境邊界之動態設定方法,其中,辨識且計算出該動態環境影像中的目標物位置之步驟,係先利用加速強健特徵點演算法(Speed Up Robust Feature,SURF)特徵點萃取來進行該目標物之辨識,再利用單應矩陣(Homography)的轉換關係來計算該目標物位置。
TW100115553A 2011-05-04 2011-05-04 影像環境邊界之動態設定方法及人員活動內容之即時判定方法 TWI438702B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW100115553A TWI438702B (zh) 2011-05-04 2011-05-04 影像環境邊界之動態設定方法及人員活動內容之即時判定方法
US13/207,782 US8634595B2 (en) 2011-05-04 2011-08-11 Method for dynamically setting environmental boundary in image and method for instantly determining human activity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW100115553A TWI438702B (zh) 2011-05-04 2011-05-04 影像環境邊界之動態設定方法及人員活動內容之即時判定方法

Publications (2)

Publication Number Publication Date
TW201246089A TW201246089A (en) 2012-11-16
TWI438702B true TWI438702B (zh) 2014-05-21

Family

ID=47090279

Family Applications (1)

Application Number Title Priority Date Filing Date
TW100115553A TWI438702B (zh) 2011-05-04 2011-05-04 影像環境邊界之動態設定方法及人員活動內容之即時判定方法

Country Status (2)

Country Link
US (1) US8634595B2 (zh)
TW (1) TWI438702B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI671707B (zh) * 2018-06-15 2019-09-11 緯創資通股份有限公司 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013063767A1 (en) * 2011-11-01 2013-05-10 Intel Corporation Dynamic gesture based short-range human-machine interaction
US9513120B2 (en) * 2012-09-20 2016-12-06 Trimble Navigation Limited Workflow improvements for stakeout
TWI480808B (zh) * 2012-11-27 2015-04-11 Nat Inst Chung Shan Science & Technology 行人偵測系統與方法
TWI497422B (zh) * 2012-12-25 2015-08-21 Univ Nat Chiao Tung 車牌影像辨識系統及方法
CN104850219A (zh) * 2014-02-19 2015-08-19 北京三星通信技术研究有限公司 估计附着物体的人体姿势的设备和方法
US20220366716A1 (en) * 2019-06-26 2022-11-17 Nec Corporation Person state detection apparatus, person state detection method, and non-transitory computer readable medium storing program
US11536857B2 (en) 2019-12-19 2022-12-27 Trimble Inc. Surface tracking on a survey pole
CN114663412B (zh) * 2022-04-01 2023-02-10 中国科学院地理科学与资源研究所 基于陆表水域生态红线的长连续遥感图像处理方法及装置
CN115311324A (zh) * 2022-04-15 2022-11-08 北京航空航天大学杭州创新研究院 姿态跟踪方法、装置、电子设备和计算机可读介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6049281A (en) * 1998-09-29 2000-04-11 Osterweil; Josef Method and apparatus for monitoring movements of an individual
US7303341B2 (en) * 2004-08-02 2007-12-04 Arnold Itzkowitz Stable platform for image capturing
US8284254B2 (en) * 2005-08-11 2012-10-09 Sightlogix, Inc. Methods and apparatus for a wide area coordinated surveillance system
WO2007067721A2 (en) * 2005-12-08 2007-06-14 Lenel Systems International, Inc. System and method for counting people near objects
TWI335181B (en) 2006-12-13 2010-12-21 Univ Chung Yuan Christian Human behavior event detection system, method and device
TW200832237A (en) 2007-01-19 2008-08-01 Univ Nat Chiao Tung Human activity recognition method by combining temple posture matching and fuzzy rule reasoning
US20080273754A1 (en) * 2007-05-04 2008-11-06 Leviton Manufacturing Co., Inc. Apparatus and method for defining an area of interest for image sensing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI671707B (zh) * 2018-06-15 2019-09-11 緯創資通股份有限公司 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體

Also Published As

Publication number Publication date
TW201246089A (en) 2012-11-16
US8634595B2 (en) 2014-01-21
US20120281918A1 (en) 2012-11-08

Similar Documents

Publication Publication Date Title
TWI438702B (zh) 影像環境邊界之動態設定方法及人員活動內容之即時判定方法
US10198823B1 (en) Segmentation of object image data from background image data
WO2021047232A1 (zh) 交互行为识别方法、装置、计算机设备和存储介质
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP6428266B2 (ja) 色補正装置、色補正方法および色補正用プログラム
US20170154424A1 (en) Position detection device, position detection method, and storage medium
US10063843B2 (en) Image processing apparatus and image processing method for estimating three-dimensional position of object in image
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
EP3373201A1 (en) Information processing apparatus, information processing method, and storage medium
KR101551576B1 (ko) 로봇 청소기, 제스쳐 인식 장치 및 방법
JP2014182480A (ja) 人物認識装置、及び方法
JP2012221437A (ja) 物体認識装置および物体認識方法
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
TW201832182A (zh) 動作學習裝置、技能判別裝置以及技能判別系統
Volkhardt et al. Fallen person detection for mobile robots using 3D depth data
JP7230345B2 (ja) 情報処理装置及び情報処理プログラム
JP2010157093A (ja) 運動推定装置及びプログラム
WO2020202865A1 (ja) 人検出装置および人検出方法
WO2020137193A1 (ja) 人検出装置および人検出方法
CN106406507B (zh) 图像处理方法以及电子设备
JP5552946B2 (ja) 顔画像サンプル採取装置、顔画像サンプル採取方法、プログラム
JP6163732B2 (ja) 画像処理装置、プログラム、及び方法
KR20170048108A (ko) 객체 및 상황 인지 방법 및 시스템
Wang et al. Adaptive visual tracking based on discriminative feature selection for mobile robot
JP2005228274A (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees