TW201447827A - 觸發訊號的方法及車用電子裝置 - Google Patents

觸發訊號的方法及車用電子裝置 Download PDF

Info

Publication number
TW201447827A
TW201447827A TW102121160A TW102121160A TW201447827A TW 201447827 A TW201447827 A TW 201447827A TW 102121160 A TW102121160 A TW 102121160A TW 102121160 A TW102121160 A TW 102121160A TW 201447827 A TW201447827 A TW 201447827A
Authority
TW
Taiwan
Prior art keywords
eye
information
face
center point
image
Prior art date
Application number
TW102121160A
Other languages
English (en)
Other versions
TWI492193B (zh
Inventor
Chia-Chun Tsou
Chih-Heng Fang
Po-Tsung Lin
Original Assignee
Utechzone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Utechzone Co Ltd filed Critical Utechzone Co Ltd
Priority to TW102121160A priority Critical patent/TWI492193B/zh
Priority to CN201310314413.2A priority patent/CN104238733B/zh
Priority to US13/971,840 priority patent/US20140369553A1/en
Publication of TW201447827A publication Critical patent/TW201447827A/zh
Application granted granted Critical
Publication of TWI492193B publication Critical patent/TWI492193B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一種觸發訊號的方法及車用電子裝置。在此,利用影像擷取裝置連續擷取駕駛者的多張影像,以藉由這些影像來偵測駕駛者的臉部擺動或眼部開閉,而獲得臉部擺動資訊或眼部開閉資訊。並且,在臉部擺動資訊或眼部開閉資訊符合門檻資訊時,觸發指定訊號而傳送至指定裝置。

Description

觸發訊號的方法及車用電子裝置
本發明是有關於一種影像處理技術,且特別是有關於一種利用人臉辨識技術來觸發訊號的方法及車用電子裝置。
人臉部辨識技術在影像辨識技術中佔有重要的角色,也是目前各大科技研究中心致力研發的技術之一。而人臉辨識技術一般應用於人機介面(human computer interface)、家庭視訊保全(home video surveillance)、生物偵測的臉部辨識或是海關出入境的安全檢查、公共監視器、個人電腦甚至是銀行金庫等安全監控。
近年來,由於科技的進步以及技術的普及,人臉辨識的技術也逐漸地開始應用於一般的數位相機或攝影機中。另外,由於具有相機的電子裝置越來越普及,因此將人臉辨識技術應用於生活中的各種狀況,亦顯得重要。
然而,在進行人臉辨識時,由於人臉上的器官較多,因此若要針對單一部位進行偵測,容易造成辨識率低落與誤判。據此,如何改善人臉辨識的誤判率則為目前研究課題上重要的一環。
本發明提供一種觸發訊號的方法及車用電子裝置,判斷駕駛者的動作是否符合門檻資訊,以決定是否觸發指定訊號。
本發明的一種車用電子裝置,包括影像擷取單元及耦接至影像擷取單元的運算裝置。上述影像擷取單元用來擷取駕駛者的多張影像。並且,運算裝置在接收上述影像後,對各影像執行影像辨識程序,藉以偵測駕駛者的臉部擺動或眼部開閉,而獲得臉部擺動資訊或眼部開閉資訊,並且,在臉部擺動資訊或眼部開閉資訊符合門檻資訊時,觸發求救訊號而傳送至無線通訊單元。
在本發明的一實施例中,上述影像擷取單元可設置於車輛的駕駛座前方,以擷取駕駛者的影像。另,影像擷取單元還具有照明元件,藉以透過照明元件進行補光動作。而上述運算裝置對各影像執行影像辨識程序,藉以偵測各影像的臉部的鼻孔位置資訊,並且基於鼻孔位置資訊來獲得臉部擺動資訊或眼部開閉資訊。上述臉部擺動資訊包括駕駛者的轉頭次數、點頭次數及繞圈次數,而上述眼部開閉資訊包括駕駛者的閉眼次數。
本發明的一種觸發訊號的方法,用於車用電子裝置。此方法包括:連續擷取多張影像,其中各影像包括一臉部;偵測臉部的鼻孔區域,而獲得鼻孔位置資訊;基於鼻孔位置資訊來判斷臉部是否轉動,藉此而獲得臉部擺動資訊;比對臉部擺動資訊與門檻資訊;以及當臉部擺動資訊符合門檻資訊時,觸發一指定訊號。
在本發明的一實施例中,上述的鼻孔位置資訊包括兩個鼻孔的第一中心點與第二中心點。上述基於鼻孔位置資訊來判斷臉部是否轉動的步驟包括:依據第一中心點與第二中心點執行水平方向測量,藉以找出臉部的第一邊界點與第二邊界點;計算第一邊界點與第二邊界點的中心點,而以此中心點作為參考點;比較參考點與第一中心點,以判斷臉部是否向第一方向轉動;比較參考點與第二中心點,以判斷臉部是否向第二方向轉動;以及計算在預設時間內該部向第一方向轉動的次數以及向第二方向轉動的次數,藉以獲得臉部擺動資訊。
在本發明的一實施例中,上述基於鼻孔位置資訊來判斷臉部是否轉動的步驟還包括:依據由第一中心點與第二中心點所形成的直線以及一基準線,獲得轉動角度;比較轉動角度與第一預設角度,以判斷臉部是否向第一方向轉動;比較轉動角度與第二預設角度,以判斷臉部是否向第二方向轉動;以及.計算在預設時間內臉部向第一方向轉動的次數以及向第二方向轉動的次數,藉以獲得臉部擺動資訊。
在本發明的一實施例中,在上述獲得該鼻孔位置資訊的步驟之後,更包括:依據鼻孔位置資訊來預估眼部搜尋框,以在眼部搜尋框內偵測眼部物件;基於眼部物件的尺寸來判斷眼部物件是否閉上,藉此而獲得眼部開閉資訊;將臉部擺動資訊與眼部開閉資訊與門檻資訊進行比對;以及當臉部擺動資訊與眼部開閉資訊符合門檻資訊時,觸發指定訊號。
在本發明的一實施例中,上述基於眼部物件的尺寸來判斷眼部物件是否閉上的步驟包括:當眼部物件的高度小於高度門檻值,且眼部物件的寬度大於寬度門檻值時,判定眼部物件為閉上;以及計算在預設時間內該眼部物件的閉眼次數,藉此而獲得眼部開閉資訊。
在本發明的一實施例中,在上述觸發指定訊號的步驟之後,還可透過無線通訊單元傳送指定訊號至指定裝置。
本發明的另一種觸發訊號的方法,用於車用電子裝置。此方法包括:連續擷取多張影像,其中各影像包括一臉部;偵測臉部的鼻孔區域,而獲得鼻孔位置資訊;依據鼻孔位置資訊來預估眼部搜尋框,以在眼部搜尋框內偵測眼部物件;基於眼部物件的尺寸來判斷眼部物件是否閉上,藉此而獲得眼部開閉資訊;比對眼部開閉資訊與一門檻資訊;以及當眼部開閉資訊符合門檻資訊時,觸發指定訊號。
本發明的又一種觸發訊號的方法,用於車用電子裝置。此方法包括:連續擷取多張影像,其中各影像包括一臉部;偵測臉部的鼻孔區域,而獲得鼻孔位置資訊;基於鼻孔位置資訊來判斷臉部是否轉動,藉此而獲得臉部擺動資訊;依據鼻孔位置資訊來預估眼部搜尋框,以在眼部搜尋框內偵測眼部物件;基於眼部物件的尺寸來判斷眼部物件是否閉上,藉此而獲得眼部開閉資訊;將臉部擺動資訊及眼部開閉資訊與門檻資訊進行比對;以及當臉部擺動資訊與眼部開閉資訊符合門檻資訊時,觸發指定訊號。
基於上述,依據鼻孔位置資訊來判斷駕駛者的動作是否符合一門檻資訊以決定要觸發一指定訊號。由於利用鼻孔的特徵資訊,可減少計算量並降低誤判率。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
10‧‧‧運算裝置
100‧‧‧車用電子裝置
110‧‧‧影像擷取單元
120‧‧‧處理單元
130‧‧‧儲存單元
140‧‧‧無線通訊單元
300、410、420‧‧‧影像
71、73‧‧‧中心點
710、730‧‧‧眼部搜尋框
720、740‧‧‧眼部影像區域
810‧‧‧眼部物件
B1‧‧‧第一邊界點
B2‧‧‧第二邊界點
d1‧‧‧第一方向
d2‧‧‧第二方向
N1‧‧‧第一中心點
N2‧‧‧第二中心點
R‧‧‧參考點
θ‧‧‧轉動角度
NL‧‧‧直線
RL‧‧‧基準線
D‧‧‧距離
k1‧‧‧第一估計值
k2‧‧‧第二估計值
w‧‧‧寬度
h‧‧‧高度
S205~S225‧‧‧第一實施例的觸發訊號的方法各步驟
S605~S630‧‧‧第二實施例的觸發訊號的方法各步驟
S905~S935‧‧‧第三實施例的觸發訊號的方法各步驟
圖1是依照本發明第一實施例的車用電子裝置的示意圖。
圖2是依照本發明第一實施例的觸發訊號的方法流程圖。
圖3是依照本發明第一實施例的具有正面臉部影像的示意圖。
圖4A及圖4B是依照本發明第一實施例的臉部轉動影像的示意圖。
圖5A及圖5B是依照本發明第一實施例的鼻孔區域的示意圖。
圖6是依照本發明第二實施例的觸發訊號的方法流程圖。
圖7是依照本發明第二實施例的預估眼部搜尋框的示意圖。
圖8A及圖8B是依照本發明第二實施例的眼部影像區域的示意圖。
圖9是依照本發明第三實施例的觸發訊號的方法流程圖。
第一實施例
圖1是依照本發明第一實施例的車用電子裝置的示意圖。請參照圖1,在本實施例中,車用電子裝置100包括影像擷取單元110及運算裝置10。影像擷取單元110耦接至運算裝置10。在本實施例中,運算裝置10包括:處理單元120、儲存單元130及無線通訊單元140。處理單元120分別耦接至影像擷取單元110、儲存單元130及無線通訊單元140。上述影像擷取單元110用來擷取駕駛者的多張影像。在此,影像擷取單元110例如是採用電荷耦合元件(Charge coupled device,CCD)鏡頭、互補式金氧半電晶體(Complementary metal oxide semiconductor transistors,CMOS)鏡頭、或紅外線鏡頭的攝影機、照相機。
而影像擷取單元110例如設置於車輛的駕駛座前方,以擷取駕駛者的影像,之後將所擷取的影像傳送給運算裝置10,而由運算裝置10對各影像執行影像辨識程序,藉以偵測駕駛者的臉部擺動或眼部開閉,而獲得臉部擺動資訊或眼部開閉資訊。上述臉部擺動資訊包括駕駛者的轉頭次數、點頭次數及繞圈次數,而上述眼部開閉資訊包括駕駛者的閉眼次數。並且,在臉部擺動資訊或眼部開閉資訊符合門檻資訊時,運算裝置10觸發求救訊號並傳送至無線通訊單元140。例如,處理單元120觸發求救訊號並傳送至無線通訊單元140,再透過無線通訊單元140將求救訊號傳送至指定裝置。上述指定裝置例如為社區守望相互會的任一會員的 電子設備(例如為手機、電腦等)、或是車輛管控中心的電子設備。
另外,影像擷取單元110還具備一可轉動鏡頭(未繪示),以調整拍攝方向及角度。在此,將鏡頭調整為朝向駕駛者臉部的狀態,使得所拍攝的每張影像中皆包括駕駛者的臉部。由於人臉中鼻孔為呈現黑色而易於被正確地辨識出來,之後便可利用鼻孔的特徵來獲得臉部其他的特徵。而為了清楚拍攝到駕駛者的鼻孔,還可進一步使影像擷取單元110的鏡頭以仰角45度的角度朝向駕駛者臉部。如此,影像擷取單元110所拍攝到的每一張影像中的鼻孔都會被清楚地顯示出來,據此可提升鼻孔的辨識度而有助於隨後鼻孔的偵測。又,在其他實施例中,影像擷取單元110還具有一照明元件,用以在光線不足時適時進行補光動作,以確保其所拍攝到的影像的清晰度。
據此,利用運算裝置10來偵測駕駛者的動作,並在動作符合門檻資訊觸發指定訊號並傳送至指定裝置。門檻資訊為駕駛者的轉頭次數N1次、點頭次數N2次、繞圈次數N3次及閉眼次數N4次至少其中之一或其組合者。例如,門檻資訊為在預設時間(例如3-7秒)內向右擺頭2次後,再向左擺頭2次;或者為在預設時間(例如3秒)內眨眼3次;又或者為在預設時間(例如3-7秒)內眨眼3次加向右擺頭2次後,再向左擺頭2次。然,上述門檻資訊僅為舉例說明,並不以此為限。
上述處理單元120例如為中央處理單元(Central Processing Unit,CPU)或微處理器(microprocessor)等。儲存單 元130例如為非揮發性記憶體(Non-volatile memory)、隨機存取記憶體(Random Access Memory,RAM)或硬碟等。無線通訊單元140例如為第三代(third Generation,3G)行動通訊模組、通用封包無線服務(General Packet Radio Service,GPRS)模組或Wi-Fi模組等。上述僅為舉例說明,並不以此為限。
本實施例是以程式碼來實現。例如,儲存單元130中儲存有多個程式碼片段,上述程式碼片段在被安裝後,會由處理單元120來執行。例如,儲存單元130中包括多個模組,藉由這些模組來分別執行多個功能,而各模組是由一或多個程式碼片段所組成。上述模組包括影像處理模組、判斷模組以及訊號觸發模組。影像處理模組用以對影像執行影像辨識程序,藉以偵測駕駛者的臉部擺動或眼部開閉,而獲得臉部擺動資訊或眼部開閉資訊。判斷模組用以判斷臉部擺動資訊或眼部開閉資訊是否符合門檻資訊。訊號觸發模組用以在臉部擺動資訊或眼部開閉資訊符合門檻資訊時,觸發指定訊號而傳送至指定裝置。這些程式碼片段包括多個指令,處理單元120藉由這些指令來執行觸發訊號的方法的多個步驟。在本實施例中,車用電子裝置100僅包括一個處理單元120,而在其他實施例中,車用電子裝置100亦可包括多個處理單元,而由這些處理單元來執行被安裝的程式碼片段。
底下即搭配上述車用電子裝置100來詳細說明觸發訊號的方法各步驟。圖2是依照本發明第一實施例的觸發訊號的方法流程圖。請同時參照圖1及圖2,在步驟S205中,透過影像擷取 單元110連續擷取多張影像,其中每一張影像皆包括一臉部。在此,可事先於車用電子裝置100中設定一取樣頻率,使得影像擷取單元110持續地依照此一取樣頻率來擷取多張影像。另外,在其他實施例中,可於車用電子裝置100中設置一啟動鈕(可以是實體按鈕或虛擬按鈕),當啟動鈕被致能(enable)時,便會啟動影像擷取單元110以開始擷取影像並進行後續處理。
在步驟S210中,處理單元120會於所擷取的影像中偵測臉部的鼻孔區域,而獲得鼻孔位置資訊。具體而言,影像擷取單元110將這些影像傳送至處理單元120,而由處理單元120來逐張進行人臉辨識的處理。在此,可利用AdaBoost演算法或其他現有的人臉辨識演算法(如,利用Haar-like特徵來進行人臉辨識動作)來獲得各影像中的臉部。在偵測到臉部之後,處理單元120便可在臉部中搜尋鼻孔區域,即,兩個鼻孔的所在位置。鼻孔位置資訊例如為兩個鼻孔的第一中心點與第二中心點。舉例來說,圖3是依照本發明第一實施例的具有正面臉部影像的示意圖。在圖3所示影像300中,以被拍攝者的方向而言,將右鼻孔的中心點視為第一中心點N1,將左鼻孔的中心點視為第二中心點N2。
然後,在步驟S215中,處理單元120基於鼻孔位置資訊來判斷臉部是否轉動,藉此而獲得臉部擺動資訊。利用第一中心點N1與第二中心點N2來判斷影像中的臉部是否向第一方向d1轉動或向第二方向d2轉動。在此,以被拍攝者的方向而言,將向右方向視為第一方向d1,將向左方向視為第二方向d2,如圖3所 示。例如,將第一中心點N1與第二中心點N2與一參考點進行比對,藉由第一中心點N1與參考點之間的位置關係以及第二中心點N2與參考點之間的位置關係,判斷臉部往哪一方向轉動。
舉例來說,處理單元120在獲得鼻孔位置資訊之後,依據第一中心點N1與第二中心點N2執行水平方向測量(gauge),藉以找出臉部的第一邊界點B1與第二邊界點B2。具體而言,以第一中心點N1與第二中心點N2兩者的中心點為基準,往上及往下於X軸(水平軸)上共取2~10條(即,共4~20條)像素列。以各取5條為例,第一中心點N1與第二中心點N2兩者的中心點的Y座標為240,則往上取241、242、243…與往下取239、238、237…共10個Y座標在X軸的像素列。分別在各像素列上找出左右臉頰的邊界(例如為由黑到白的像素),並將在10條像素列所找的結果平均,而獲得第一邊界點B1與第二邊界點B2。
在獲得兩邊臉頰的邊界(即第一邊界點B1與第二邊界點B2)之後,處理單元120計算第一邊界點B1與第二邊界點B2的中心點,而以此中心點作為參考點R。也就是說,假設第一邊界點B1的座標為(B_x1,B_y1),第二邊界點B2的座標為(B_x2,B_y2),則參考點R的X座標為(B_x1+B_x2)/2,Y座標為(B_y1+B_y2)/2。
接著,比較參考點R與第一中心點N1,以判斷臉部是否向第一方向d1轉動。並且,比較參考點R與第二中心點N2,以判斷臉部是否向第二方向d2轉動。例如,在第一中心點N1位於 參考點R的第一方向d1的一側時,判定臉部向第一方向d1轉動。而在第二中心點N2位於參考點R的第二方向d2的一側時,判定臉部向第二方向d2轉動。另外,如圖3所示,當參考點R位於第一中心點N1與第二中心點N2兩點之間時,則判定臉部為朝向正面並未轉動。
之後,處理單元120會計算在預設時間(例如10秒)內臉部向第一方向d1轉動的次數以及向第二方向d2轉動的次數,藉以獲得臉部擺動資訊。而上述臉部擺動資訊例如可記錄為(d1,d1,d2,d2),其表示臉部先向第一方向d1轉動2次之後,再向第二方向d2轉動兩次。然,上述僅為其中一種實施方式的說明,並不以此為限。
之後,在步驟S220中,處理單元120比對臉部擺動資訊與門檻資訊。舉例來說,上述門檻資訊包括兩個門檻值,其中之一代表臉部向第一方向d1轉動的門檻值,其中另一代表臉部向第二方向d2轉動的門檻值。另外,門檻資訊中還定義了向第一方向d1轉動與向第二方向d2轉動的順序。
而在步驟S225中,當臉部擺動資訊符合門檻資訊時,觸發一指定訊號。在處理單元120觸發對應的指定訊號之後,還可進一步透過無線通訊單元140將指定訊號傳送至指定裝置。例如,此指定訊號為求救訊號,指定裝置例如為社區守望相互會的任一會員,或是車輛管控中心的如手機、電腦等電子設備。或者,在車用電子裝置100以手機實施的情況下,駕駛者可事先設定好一 電話號碼,在處理單元120觸發對應的指定訊號之後,由此指定訊號來致能撥號功能,而由車用電子裝置100發話至設定好的電話號碼所使用的指定裝置。
另外,底下再列舉實施方式來說明如何判斷臉部是否轉動。圖4A及圖4B是依照本發明第一實施例的臉部轉動影像的示意圖。其中,圖4A所示為臉部向第一方向d1轉動的影像410,圖4B所示為臉部向第二方向d2轉動的影像420。
請參照圖4A及圖4B,在此以影像410、420的最左下方的點作為原點,並且假設兩個鼻孔的第一中心點N1的座標為(N1_x,N1_y),第二中心點N2的座標為(N2_x,N2_y),為第一邊界點B1與第二邊界點B2的中心點的參考點R的座標為(R_x,R_y)。
當參考點R的X座標R_x大於第一中心點N1的X座標N1_x,判定臉部向第一方向d1轉動,如圖4A所示。另外,當參考點R的X座標R_x小於第二中心點N2的X座標N2_x時,判定臉部向第二方向d2轉動。
另外,為了使得臉部轉向的判斷更為準確,還可進一步搭配一轉動角度來進行判斷。舉例來說,圖5A及圖5B是依照本發明第一實施例的鼻孔區域的示意圖。圖5A為臉部向第一方向d1轉動的鼻孔區域示意圖。圖5B為臉部向第二方向d2轉動的鼻孔區域的示意圖。在本例中,依據由第一中心點N1與第二中心點N2所形成的直線NL以及基準線RL,獲得轉動角度θ。即,以第一中心點N1為頂點,直線NL與基準線RL所相夾的角度。在此, 基準線RL為第一中心點N1為基準的水平軸,並以基準線RL作為0°。
請參照圖4A及圖5A,當第一中心點N1位於參考點R的第一方向d1的一側,且轉動角度θ符合一第一預設角度時,判斷臉部向第一方向d1轉動。例如,當參考點R的X座標R_x大於第一中心點N1的X座標N1_x,同時轉動角度θ大於或等於A°(A的範圍介於2~5)時,則判定臉部向第一方向d1轉動(即,臉部向右轉動)。
請參照圖4B及圖5B,當第二中心點N2位於參考點R的第二方向d2的一側,且轉動角度θ符合第二預設角度時,判斷臉部向第二方向d2轉動。例如,當參考點R的X座標R_x小於第二中心點N2的X座標N2_x,同時轉動角度θ小於或等於-A°時,則判定臉部向第二方向d2轉動(即,臉部向左轉動)。
而在判定臉部向第一方向d1或向第二方向d2轉動之後,處理單元120便可進一步計算在預設時間內臉部向第一方向d1轉動的次數以及向第二方向d2轉動的次數,藉以獲得臉部擺動資訊。
另外,在其他實施例中亦可以第二中心點N2的水平軸作為基準線,或是以正面臉部的第一中心點N1與第二中心點N2兩點連線作為基準線,並且可依據需求來適當調整第一預設角度與第二預設角度,在此並不限制。
此外,亦可僅以旋轉角度來進行判斷。即,依據由第一 中心點N1與第二中心點N2所形成的直線NL以及基準線RL,獲得轉動角度θ。之後,比較轉動角度θ與第一預設角度,以判斷臉部是否向第一方向d1轉動,並且,比較轉動角度θ與第二預設角度,以判斷臉部是否向第二方向d2轉動。例如,當轉動角度θ大於或等於A°(A的範圍介於2~5)時,則判定臉部向第一方向d1轉動(即,臉部向右轉動)。當轉動角度θ小於或等於-A°時,則判定臉部向第二方向d2轉動(即,臉部向左轉動)。
本實施例利用鼻孔位置資訊來判斷臉部是否轉動,並在轉動的方向與次數符合門檻資訊時,觸發指定訊號。據此,可避免使用眼睛的特徵資訊,減少計算量並降低誤判率。
第二實施例
圖6是依照本發明第二實施例的觸發訊號的方法流程圖。底下亦搭配圖1的車用電子裝置100來進行說明。
在步驟S605中,透過影像擷取單元110連續擷取多張影像,其中每一張影像皆包括一臉部。接著,在步驟S610中,處理單元120偵測臉部的鼻孔區域,而獲得鼻孔位置資訊。在此,步驟S605及步驟S610的詳細說明可參照上述步驟S205及步驟S210,在此不再贅述。
之後,在步驟S615中,依據鼻孔位置資訊來預估眼部搜尋框,以在眼部搜尋框內偵測眼部物件。也就是說,相較於眼睛,鼻孔在影像中更容易辨識,因此,先找出鼻孔之後,在往上估算出一眼部搜尋框,以在眼部搜尋框內找出眼部物件,藉此縮小搜 尋範圍。
舉例來說,圖7是依照本發明第二實施例的預估眼部搜尋框的示意圖。處理單元120在找到兩個鼻孔的第一中心點N1與第二中心點N2之後,計算出第一中心點N1與第二中心點N2之間的距離D。接著,依據距離D來估測眼部搜尋框的中心點及長寬距離。
具體而言,以第二中心點N2(N2_x,N2_y)作為起算點,將X軸座標往第二方向d2加上第一估計值k1,將Y軸座標往上方加上第二估計值k2,藉此獲得一中心點71。即,中心點71的X座標C_x=N2_x+k1,Y座標C_y=N2_y+k2。k1與k2的設定例如可以為:k1=D×e1,k1=D×e2,其中1.3<e1<2.0,而1.5<e2<2.2,可視需求來進行調整,在此並不限制。在獲得中心點71之後,依據事先定義的寬度w及高度h而獲得眼部搜尋框710,其中寬度w大於高度h。例如,寬度w為2×22個像素,高度h為2×42個像素。
又,與上述方法類似,以第一中心點N1(N1_x,N1_y)作為起算點,將X軸座標往第一方向d1減去第一估計值k1,將Y軸座標往上方加上第二估計值k2,來獲得另一中心點73。並在獲得中心點71之後,依據事先定義的寬度w及高度h而獲得另一眼部搜尋框730。另外,在其他實施例中,起算點亦可以為第一中心點N1與第二中心點N2之間的中間點,在此並不限制。
在獲得眼部搜尋框710、730之後,處理單元120進一步 在眼部搜尋框710、730中而獲得更為精準的眼部影像區域720、740。以被拍攝者的左眼為例,底下再舉一實施例說明。
圖8A及圖8B是依照本發明第二實施例的眼部影像區域的示意圖。在此,圖8A例如為圖7的眼部影像區域720的閉眼狀態。在自眼部搜尋框710取出眼部影像區域720之後,調整眼部影像區域720的對比,而獲得加強影像。即,調整眼部影像區域720的增益(gain)值與偏移(offset)值。舉例來說,統計眼部影像區域720的所有像素灰階值的平均值avg。倘若平均值avg小於150,則將偏移值設為平均值avg的負值,即-avg,並且將增益值設為G1,其中3.2<G1<2.1。倘若平均值avg不小於150,則將偏移值設為平均值avg的負值,即-avg,並且將增益值設為G2,其中1.9<G2<2.5。
之後,對加強影像進行去雜點處理,而獲得去雜點影像。例如,利用值皆為1的3×3矩陣來進行去雜點處理。然後,對去雜點影像進行邊緣銳利化處理,而獲得銳化影像。例如,利用改良的Soble遮罩(mask),其值為(1,0,0,0,-1)來進行邊緣銳利化處理。接著,對銳化影像進行二值化處理,而獲得二值化影像。而後再次對二值化影像進行邊緣銳利化處理,如圖8B所示,而獲得眼部物件810。
返回圖6,在偵測到眼部物件810後,在步驟S620中,處理單元120基於眼部物件810的尺寸來判斷眼部物件是否閉上,藉此而獲得眼部開閉資訊。例如,當眼部物件810的高度小 於高度門檻值(例如,高度門檻值的範圍界於5~7個像素),且眼部物件810的寬度大於寬度門檻值(例如,寬度門檻值的範圍界於60~80個像素)時,判定眼部物件810為閉上。若不符合上述條件,則一律判定為張開。而後,處理單元120會計算在預設時間內眼部物件的閉眼次數,藉此而獲得眼部開閉資訊。
接著,在步驟S625中,比對眼部開閉資訊與門檻資訊。上述門檻資訊包括一眨眼門檻值(如,3次)。而在步驟S630中,當眼部開閉資訊符合門檻資訊時,觸發一指定訊號。在處理單元120觸發對應的指定訊號之後,還可進一步透過無線通訊單元140將指定訊號傳送至指定裝置。
本實施例利用鼻孔位置資訊來找出眼部物件,以判斷是否眨眼。並在眨眼的次數符合門檻值時,觸發指定訊號。利用容易辨識的鼻孔的特徵資訊來獲得適當的眼部搜尋框,再於眼部搜尋框中獲得眼部影像區域,以僅在眼部影像區域中偵測眼部物件。據此,大幅降低辨識的複雜度,並且提高辨識速度。
第三實施例
本實施例是結合了臉部擺動資訊及眼部開閉資訊來判斷是否要觸發一指定訊號。圖9是依照本發明第三實施例的觸發訊號的方法流程圖。同樣搭配圖1來進行說明。在步驟S905中,透過影像擷取單元110連續擷取多張影像,其中每一張影像皆包括一臉部。接著,在步驟S910中,處理單元120偵測臉部的鼻孔區域,而獲得鼻孔位置資訊。在此,步驟S905及步驟S910的詳細 說明可參照上述步驟S205及步驟S210,在此不再贅述。
在獲得鼻孔位置資訊之後,便可利用鼻孔位置資訊來判斷臉部是否轉動,以及利用鼻孔位置資訊來找到眼部物件,以偵測眼部物件是否閉上(眨眼)。在本實施例中判斷臉部是否轉動與偵測眼部物件是否閉上的順序僅為方便說明,並不以此為限。
在步驟S915中,處理單元120基於鼻孔位置資訊來判斷臉部是否轉動,藉此而獲得臉部擺動資訊。關於步驟S915的詳細說明可參照第一實施例的步驟S215,在此不再贅述。
接著,在步驟S920中,依據鼻孔位置資訊來預估眼部搜尋框,以在眼部搜尋框內偵測眼部物件。並且,在步驟S925中,處理單元120基於眼部物件的尺寸來判斷眼部物件是否閉上,藉此而獲得眼部開閉資訊。在此,關於步驟S920與步驟S925的詳細說明可參照第二實施例的步驟S615與步驟S620,在此不再贅述。
而在獲得臉部擺動資訊與眼部開閉資訊之後,在步驟S930中,將臉部擺動資訊及眼部開閉資訊與門檻資訊進行比對。在此,門檻資訊包括三個門檻值,即,眨眼門檻值、臉部向第一方向轉動的門檻值及臉部向第二方向轉動的門檻值。另外,門檻資訊中還定義了向第一方向轉動與向第二方向轉動的順序。
最後,在步驟S630中,當臉部擺動資訊及眼部開閉資訊符合門檻資訊時,觸發一指定訊號。在處理單元120觸發對應的指定訊號之後,還可進一步透過無線通訊單元140將指定訊號傳 送至指定裝置。
綜上所述,在人機互動介面中,可藉由上述實施例可在不驚動、不打擾旁人的情況下來獲取駕駛者的動作,在駕駛者的動作符合指定條件(即,門檻資訊)時,即可觸發指定訊息。在上述實施例中,先找出臉部中的鼻孔區域以獲得鼻孔位置資訊,之後再依據鼻孔位置資訊來判斷駕駛者的動作是否符合一門檻資訊以決定要觸發一指定訊號。例如,在駕駛者遇到無法出聲呼救的突發事件的當下,可利用轉頭及/或眨眼來觸發指定訊息,藉此可確保駕駛者自身的安全。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
10‧‧‧運算裝置
100‧‧‧車用電子裝置
110‧‧‧影像擷取單元
120‧‧‧處理單元
130‧‧‧儲存單元
140‧‧‧無線通訊單元

Claims (21)

  1. 一種車用電子裝置,包括:一影像擷取單元,擷取一駕駛者的多張影像;以及一運算裝置,耦接至該影像擷取單元,接收該些影像,並對每一該些影像執行一影像辨識程序,藉以偵測該駕駛者的一臉部擺動或一眼部開閉,而獲得一臉部擺動資訊或一眼部開閉資訊,並且,在該臉部擺動資訊或該眼部開閉資訊符合一門檻資訊時,觸發一求救訊號而傳送至一無線通訊單元。
  2. 如申請專利範圍第1項所述的車用電子裝置,其中該影像擷取單元設置於一車輛的駕駛座前方,以擷取該駕駛者的該些影像;其中,該影像擷取單元具有一照明元件,透過該照明元件進行補光動作。
  3. 如申請專利範圍第1項所述的車用電子裝置,其中該運算裝置對每一該些影像執行該影像辨識程序,藉以偵測每一該些影像的一臉部的一鼻孔位置資訊,並且,基於該鼻孔位置資訊來獲得該臉部擺動資訊或該眼部開閉資訊。
  4. 如申請專利範圍第1項所述的車用電子裝置,其中該臉部擺動資訊包括該駕駛者的一轉頭次數、一點頭次數及一繞圈次數;該眼部開閉資訊包括該駕駛者的一閉眼次數。
  5. 一種觸發訊號的方法,用於一車用電子裝置,該方法包括:連續擷取多張影像,其中每一該些影像包括一臉部; 偵測該臉部的鼻孔區域,而獲得一鼻孔位置資訊;基於該鼻孔位置資訊來判斷該臉部是否轉動,藉此而獲得一臉部擺動資訊;比對該臉部擺動資訊與一門檻資訊;以及當該臉部擺動資訊符合該門檻資訊時,觸發一指定訊號。
  6. 如申請專利範圍第5項所述的方法,其中該鼻孔位置資訊包括兩個鼻孔的一第一中心點與一第二中心點;其中,基於該鼻孔位置資訊來判斷該臉部是否轉動的步驟包括:依據該第一中心點與該第二中心點執行一水平方向測量,藉以找出該臉部的一第一邊界點與一第二邊界點;計算該第一邊界點與該第二邊界點的中心點,而以該中心點作為一參考點;比較該參考點與該第一中心點,以判斷該臉部是否向一第一方向轉動;比較該參考點與該第二中心點,以判斷該臉部是否向一第二方向轉動;以及計算在一預設時間內該臉部向該第一方向轉動的次數以及向該第二方向轉動的次數,藉以獲得該臉部擺動資訊。
  7. 如申請專利範圍第6項所述的方法,其中基於該鼻孔位置資訊來判斷該臉部是否轉動的步驟包括:依據由該第一中心點與該第二中心點所形成的一直線以及一 基準線,獲得一轉動角度;當該第一中心點位於該參考點的該第一方向的一側,且該轉動角度符合一第一預設角度時,判斷該臉部向該第一方向轉動;以及當該第二中心點位於該參考點的該第二方向的一側,且該轉動角度符合一第二預設角度時,判斷該臉部向該第二方向轉動。
  8. 如申請專利範圍第5項所述的方法,其中該鼻孔位置資訊包括上述兩個鼻孔區域的一第一中心點與一第二中心點;其中,基於該鼻孔位置資訊來判斷該臉部是否轉動的步驟包括:依據由該第一中心點與該第二中心點所形成的一直線以及一基準線,獲得一轉動角度;比較該轉動角度與一第一預設角度,以判斷該臉部是否向該第一方向轉動;比較該轉動角度與一第二預設角度,以判斷該臉部是否向該第二方向轉動;以及計算在一預設時間內該臉部向該第一方向轉動的次數以及向該第二方向轉動的次數,藉以獲得該臉部擺動資訊。
  9. 如申請專利範圍第5項所述的方法,其中在獲得該鼻孔位置資訊的步驟之後,更包括:依據該鼻孔位置資訊來預估一眼部搜尋框,以在該眼部搜尋框內偵測一眼部物件; 基於該眼部物件的尺寸來判斷該眼部物件是否閉上,藉此而獲得一眼部開閉資訊;將該臉部擺動資訊與該眼部開閉資訊與該門檻資訊進行比對;以及當該臉部擺動資訊與該眼部開閉資訊符合該門檻資訊時,觸發該指定訊號。
  10. 如申請專利範圍第9項所述的方法,其中基於該眼部物件的尺寸來判斷該眼部物件是否閉上的步驟包括:當該眼部物件的高度小於一高度門檻值,且該眼部物件的寬度大於一寬度門檻值時,判定該眼部物件為閉上;以及計算在一預設時間內該眼部物件的閉眼次數,藉此而獲得該眼部開閉資訊。
  11. 如申請專利範圍第5項所述的方法,其中在觸發該指定訊號的步驟之後,更包括:透過一無線通訊單元傳送該指定訊號至一指定裝置。
  12. 一種觸發訊號的方法,用於一車用電子裝置,該方法包括:連續擷取多張影像,其中每一該些影像包括一臉部;偵測該臉部的鼻孔區域,而獲得一鼻孔位置資訊;依據該鼻孔位置資訊來預估一眼部搜尋框,以在該眼部搜尋框內偵測一眼部物件;基於該眼部物件的尺寸來判斷該眼部物件是否閉上,藉此而 獲得一眼部開閉資訊;比對該眼部開閉資訊與一門檻資訊;以及當該眼部開閉資訊符合該門檻資訊時,觸發一指定訊號。
  13. 如申請專利範圍第12項所述的方法,其中在該眼部搜尋框內偵測該眼部物件的步驟包括:在該眼部搜尋框取出一眼部影像區域;調整該眼部影像區域的對比,而獲得一加強影像;對該加強影像進行一去雜點處理,而獲得一去雜點影像;對該去雜點影像進行一邊緣銳利化處理,而獲得一銳化影像;對該銳化影像進行一二值化處理,而獲得一二值化影像;以及再次對該二值化影像進行該邊緣銳利化處理,而獲得該眼部物件。
  14. 如申請專利範圍第12項所述的方法,其中基於該眼部物件的尺寸來判斷該眼部物件是否閉上的步驟包括:當該眼部物件的高度小於一高度門檻值,且該眼部物件的寬度大於一寬度門檻值時,判定該眼部物件為閉上;以及計算在一預設時間內該眼部物件的閉眼次數,藉此而獲得該眼部開閉資訊。
  15. 如申請專利範圍第12項所述的方法,其中在觸發該指定訊號的步驟之後,更包括:透過一無線通訊單元傳送該指定訊號至一指定裝置。
  16. 一種觸發訊號的方法,用於一車用電子裝置,該方法包括:連續擷取多張影像,其中每一該些影像包括一臉部;偵測該臉部的鼻孔區域,而獲得一鼻孔位置資訊;基於該鼻孔位置資訊來判斷該臉部是否轉動,藉此而獲得一臉部擺動資訊;依據該鼻孔位置資訊來預估一眼部搜尋框,以在該眼部搜尋框內偵測一眼部物件;基於該眼部物件的尺寸來判斷該眼部物件是否閉上,藉此而獲得一眼部開閉資訊;將該臉部擺動資訊及該眼部開閉資訊與該門檻資訊進行比對;以及當該臉部擺動資訊與該眼部開閉資訊符合該門檻資訊時,觸發一指定訊號。
  17. 如申請專利範圍第16項所述的方法,其中該鼻孔位置資訊包括兩個鼻孔的一第一中心點與一第二中心點;其中,基於該鼻孔位置資訊來判斷該臉部是否轉動的步驟包括:依據該第一中心點與該第二中心點執行一水平方向測量,藉以找出該臉部的一第一邊界點與一第二邊界點;計算該第一邊界點與該第二邊界點的中心點,而以該中心點作為一參考點; 比較該參考點與該第一中心點,以判斷該臉部是否向一第一方向轉動;比較該參考點與該第二中心點,以判斷該臉部是否向一第二方向轉動;以及計算在一預設時間內該臉部向該第一方向轉動的次數以及向該第二方向轉動的次數,藉以獲得該臉部擺動資訊。
  18. 如申請專利範圍第17項所述的方法,其中基於該鼻孔位置資訊來判斷該臉部是否轉動的步驟包括:依據由該第一中心點與該第二中心點所形成的一直線以及一基準線,獲得一轉動角度;當該第一中心點位於該參考點的該第一方向的一側,且該轉動角度符合一第一預設角度時,判斷該臉部向該第一方向轉動;以及當該第二中心點位於該參考點的該第二方向的一側,且該轉動角度符合一第二預設角度時,判斷該臉部向該第二方向轉動。
  19. 如申請專利範圍第16項所述的方法,其中在該眼部搜尋框內偵測該眼部物件的步驟包括:在該眼部搜尋框取出一眼部影像區域;調整該眼部影像區域的對比,而獲得一加強影像;對該加強影像進行一去雜點處理,而獲得一去雜點影像;對該去雜點影像進行一邊緣銳利化處理,而獲得一銳化影像;對該銳化影像進行一二值化處理,而獲得一二值化影像;以 及再次對該二值化影像進行該邊緣銳利化處理,而獲得該眼部物件。
  20. 如申請專利範圍第16項所述的方法,其中基於該眼部物件的尺寸來判斷該眼部物件是否閉上的步驟包括:當該眼部物件的高度小於一高度門檻值,且該眼部物件的寬度大於一寬度門檻值時,判定該眼部物件為閉上;以及計算在一預設時間內該眼部物件的閉眼次數,藉此而獲得該眼部開閉資訊。
  21. 如申請專利範圍第16項所述的方法,其中在觸發該指定訊號的步驟之後,更包括:透過一無線通訊單元傳送該指定訊號至一指定裝置。
TW102121160A 2013-06-14 2013-06-14 觸發訊號的方法及車用電子裝置 TWI492193B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW102121160A TWI492193B (zh) 2013-06-14 2013-06-14 觸發訊號的方法及車用電子裝置
CN201310314413.2A CN104238733B (zh) 2013-06-14 2013-07-24 触发信号的方法及车用电子装置
US13/971,840 US20140369553A1 (en) 2013-06-14 2013-08-21 Method for triggering signal and in-vehicle electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW102121160A TWI492193B (zh) 2013-06-14 2013-06-14 觸發訊號的方法及車用電子裝置

Publications (2)

Publication Number Publication Date
TW201447827A true TW201447827A (zh) 2014-12-16
TWI492193B TWI492193B (zh) 2015-07-11

Family

ID=52019254

Family Applications (1)

Application Number Title Priority Date Filing Date
TW102121160A TWI492193B (zh) 2013-06-14 2013-06-14 觸發訊號的方法及車用電子裝置

Country Status (3)

Country Link
US (1) US20140369553A1 (zh)
CN (1) CN104238733B (zh)
TW (1) TWI492193B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9408076B2 (en) * 2014-05-14 2016-08-02 The Regents Of The University Of California Sensor-assisted biometric authentication for smartphones
US9323984B2 (en) * 2014-06-06 2016-04-26 Wipro Limited System and methods of adaptive sampling for emotional state determination
CN104924907B (zh) * 2015-06-19 2018-09-14 宇龙计算机通信科技(深圳)有限公司 一种调节车速的方法及装置
JP7074432B2 (ja) * 2017-06-26 2022-05-24 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
US10915769B2 (en) * 2018-06-04 2021-02-09 Shanghai Sensetime Intelligent Technology Co., Ltd Driving management methods and systems, vehicle-mounted intelligent systems, electronic devices, and medium
US10970571B2 (en) * 2018-06-04 2021-04-06 Shanghai Sensetime Intelligent Technology Co., Ltd. Vehicle control method and system, vehicle-mounted intelligent system, electronic device, and medium
US11195301B1 (en) * 2020-07-26 2021-12-07 Nec Corporation Of America Estimation of head yaw in an image

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6130617A (en) * 1999-06-09 2000-10-10 Hyundai Motor Company Driver's eye detection method of drowsy driving warning system
CN1144166C (zh) * 1999-06-17 2004-03-31 现代自动车株式会社 瞌睡驾驶警告系统的驾驶员瞌睡检测方法
HK1053239A2 (en) * 2002-10-09 2003-09-26 Titanium Tech Ltd Apparatus and method for recognizing images
US7202792B2 (en) * 2002-11-11 2007-04-10 Delphi Technologies, Inc. Drowsiness detection system and method
KR100617777B1 (ko) * 2004-01-26 2006-08-28 삼성전자주식회사 졸음운전 경고 장치에서 운전자의 눈 영상 검출 장치 및 방법
US7746235B2 (en) * 2005-03-10 2010-06-29 Delphi Technologies, Inc. System and method of detecting eye closure based on line angles
US7689008B2 (en) * 2005-06-10 2010-03-30 Delphi Technologies, Inc. System and method for detecting an eye
JP3962803B2 (ja) * 2005-12-16 2007-08-22 インターナショナル・ビジネス・マシーンズ・コーポレーション 頭部検出装置、頭部検出方法および頭部検出プログラム
JP2007207009A (ja) * 2006-02-02 2007-08-16 Fujitsu Ltd 画像処理方法及び画像処理装置
JP4640404B2 (ja) * 2007-11-22 2011-03-02 トヨタ自動車株式会社 車両運転者状態検出装置
WO2009091029A1 (ja) * 2008-01-16 2009-07-23 Asahi Kasei Kabushiki Kaisha 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
JP4888838B2 (ja) * 2008-05-12 2012-02-29 トヨタ自動車株式会社 運転者撮像装置および運転者撮像方法
KR101030613B1 (ko) * 2008-10-08 2011-04-20 아이리텍 잉크 아이이미지에서 관심영역정보 및 인식적 정보획득방법
US8547435B2 (en) * 2009-09-20 2013-10-01 Selka Elektronik ve Internet Urunleri San.ve Tic.A.S Mobile security audio-video recorder with local storage and continuous recording loop
TWI488149B (zh) * 2009-09-22 2015-06-11 Automotive Res & Testing Ct Driver monitoring method and its monitoring system
CN102034334B (zh) * 2009-09-28 2012-12-19 财团法人车辆研究测试中心 驾驶人监控方法及其监控系统
CN101916496B (zh) * 2010-08-11 2013-10-02 无锡中星微电子有限公司 一种司机驾驶姿势检测的系统和方法
CN101950355B (zh) * 2010-09-08 2012-09-05 中国人民解放军国防科学技术大学 基于数字视频的驾驶员疲劳状态检测方法
TWI418478B (zh) * 2010-12-03 2013-12-11 Automotive Res & Testing Ct And a method and system for detecting the driving state of the driver in the vehicle
US20120215403A1 (en) * 2011-02-20 2012-08-23 General Motors Llc Method of monitoring a vehicle driver
CN102324166B (zh) * 2011-09-19 2013-06-12 深圳市汉华安道科技有限责任公司 一种疲劳驾驶检测方法及装置
TWM426839U (en) * 2011-11-24 2012-04-11 Utechzone Co Ltd Anti-doze apparatus
CN102982316A (zh) * 2012-11-05 2013-03-20 安维思电子科技(广州)有限公司 一种对驾驶员非正常驾驶行为的识别装置和方法

Also Published As

Publication number Publication date
CN104238733B (zh) 2017-11-24
US20140369553A1 (en) 2014-12-18
CN104238733A (zh) 2014-12-24
TWI492193B (zh) 2015-07-11

Similar Documents

Publication Publication Date Title
TWI492193B (zh) 觸發訊號的方法及車用電子裝置
US10990808B2 (en) Face liveness detection using background/foreground motion analysis
KR102299847B1 (ko) 얼굴 인증 방법 및 장치
US10339402B2 (en) Method and apparatus for liveness detection
US9613200B2 (en) Ear biometric capture, authentication, and identification method and system
US9607138B1 (en) User authentication and verification through video analysis
WO2020062969A1 (zh) 动作识别方法及装置、驾驶员状态分析方法及装置
WO2020083111A1 (zh) 活体检测方法、装置、电子设备、存储介质及应用活体检测方法的相关系统
WO2017088470A1 (zh) 图像分类方法及装置
WO2016127437A1 (zh) 活体人脸验证方法及系统、计算机程序产品
JP2018032391A (ja) ライブネス検査方法及び装置
CN110612530B (zh) 用于选择脸部处理中使用的帧的方法
US11963759B2 (en) State determination device, state determination method, and recording medium
CN109460697B (zh) 人脸辨识的辅助过滤装置及电子装置的启动方法
US9594958B2 (en) Detection of spoofing attacks for video-based authentication
CN108875468B (zh) 活体检测方法、活体检测系统以及存储介质
US9501691B2 (en) Method and apparatus for detecting blink
WO2015158087A1 (zh) 一种检测人眼健康状态的方法、装置及移动终端
WO2020083183A1 (zh) 活体检测方法、装置、电子设备、存储介质及应用活体检测方法的相关系统
CN108668080A (zh) 提示镜头脏污程度的方法及装置、电子设备
WO2018103416A1 (zh) 用于人脸图像的检测方法和装置
JP5061563B2 (ja) 検出装置、生体判定方法、およびプログラム
KR20160062521A (ko) 목디스크 예방시스템 및 방법
US20230222842A1 (en) Improved face liveness detection using background/foreground motion analysis
TWI528331B (zh) 注意力偵測裝置、方法、電腦可讀取紀錄媒體、及其電腦程式產品