TWI570638B - 凝視分析方法與裝置 - Google Patents

凝視分析方法與裝置 Download PDF

Info

Publication number
TWI570638B
TWI570638B TW104124525A TW104124525A TWI570638B TW I570638 B TWI570638 B TW I570638B TW 104124525 A TW104124525 A TW 104124525A TW 104124525 A TW104124525 A TW 104124525A TW I570638 B TWI570638 B TW I570638B
Authority
TW
Taiwan
Prior art keywords
eye
angle
gaze
face
sclera
Prior art date
Application number
TW104124525A
Other languages
English (en)
Other versions
TW201705041A (zh
Inventor
林敬文
蔡貴鈐
Original Assignee
財團法人資訊工業策進會
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人資訊工業策進會 filed Critical 財團法人資訊工業策進會
Priority to TW104124525A priority Critical patent/TWI570638B/zh
Priority to CN201510500976.XA priority patent/CN106709398A/zh
Priority to US14/884,200 priority patent/US9984289B2/en
Publication of TW201705041A publication Critical patent/TW201705041A/zh
Application granted granted Critical
Publication of TWI570638B publication Critical patent/TWI570638B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Description

凝視分析方法與裝置
本發明係關於一種對獲取之影像進行分析的技術,且特別是一種凝視分析方法與裝置。
隨著電子技術的發展,影像擷取裝置已經廣泛地見於各種電子裝置中,例如手持裝置、筆記型電腦或電子看板中。配合軟體演算法,電子裝置可以對擷取的影像進行凝視分析,以判斷所擷取之影像中的人是否凝視著特定目標,並據此執行相關指令,例如指示目標播放特定資訊。
目前有凝視分析技術是採用角膜反射法取得瞳孔中心位置與紅外線反射點的相對位置來判斷人的視線方向,以藉此判斷人是否凝視著特定目標,然而,此種作法需要紅外線輔助,且紅外線離人的眼睛太近,會有安全性的疑慮。除此之外,此種作法除了需使用高解析度的影像擷取裝置外,還有容易因光照而影響分析的準確率。
另外一種凝視分析技術是找出內外側眼角,並定位眼球範圍後,偵測虹膜中心以將其配對到虹膜邊界模型相對應的位置,從而判斷人是否凝視著特定目標。此種作法需要預先地儲存眼睛模組,並進行複雜的模型比對。
再一種凝視分析技術是記錄瞳孔的影像,並經過複雜的校正與驗證程序,以判斷人是否凝視著特定目標。
又一種凝視分析技術是使用電極作為感測器,並將電極貼附在人臉的皮膚上來感測眼睛周圍的肌肉運動行為,以測量眼睛之水平與垂直的動作,並藉此判斷人是否凝視著特定目標。
前述凝視分析技術各有不同的缺點,如需額外輔助設備、會受光線影響、需進行複雜的比對、校正或驗證等。
本發明實施例提供一種凝視分析方法,其步驟如下。於影像中偵測到人臉時,根據人臉的人臉角度以及人眼角度計算凝視角度,並判斷凝視角度是否位於第一特定範圍,其中人眼角度依據左眼虹膜與左眼鞏膜的資訊以及右眼虹膜與右眼鞏膜的資訊獲得。於凝視角度位於該第一特定範圍時,計算焦距以及人臉與目標之間的間隔距離的差異值是否位於第二特定範圍,根據差異值是否位於第二特定範圍的判斷結果以判斷目標是否被凝視,其中焦距依據左眼虹膜與左眼鞏膜的資訊以及右眼虹膜與右眼鞏膜的資訊獲得。
本發明實施例提供一種凝視分析裝置,其包括一個以上的電路,以執行上述凝視分析方法。
據此,本發明實施例提供的凝視分析方法與裝置是根據左右眼之虹膜與鞏膜的資訊來判斷人眼是否凝視目標,因此,相較於先前技術,其不易受到光照影響,且計算複雜度較低,甚至其不需要採用高解析度的鏡頭與紅外線的輔助,故成本低廉。
為使能更進一步瞭解本發明之特徵及技術內容,請參閱以下有關本發明之詳細說明與附圖,但是此等說明與所附圖式僅係用來說明本發明,而非對本發明的權利範圍作任何的限制。
10‧‧‧人
11‧‧‧電子裝置
2‧‧‧凝視分析裝置
20‧‧‧影像擷取裝置
21‧‧‧人臉偵測裝置
22‧‧‧人臉角度計算裝置
23‧‧‧人眼角度計算裝置
24‧‧‧凝視角度判斷裝置
25‧‧‧凝視目標判斷裝置
26‧‧‧計時裝置
27‧‧‧指示裝置
401‧‧‧左眼左邊鞏膜部份
402‧‧‧左眼虹膜
403‧‧‧左眼右邊鞏膜部份
411‧‧‧右眼左邊鞏膜部份
412‧‧‧右眼虹膜
413‧‧‧右眼右邊鞏膜部份
Aeye‧‧‧人眼角度
S30~S37‧‧‧步驟流程
M‧‧‧左右眼之中心點
A(eye)L‧‧‧左眼角度
A(eye)R‧‧‧右眼角度
A‧‧‧左眼眼球中心
B‧‧‧右眼眼球中心
F‧‧‧焦點
OBJ‧‧‧目標
LLE、BLE、RLE、LRE、BRE、RRE‧‧‧長度
L‧‧‧間隔距離
W‧‧‧人臉寬度
H‧‧‧人臉高度
圖1是本發明實施例之人眼凝視目標的示意圖。
圖2是本發明實施例之凝視分析裝置的方塊圖。
圖3是本發明實施例之凝視分析方法的流程圖。
圖4A是本發明實施例之人眼直視前方物體的示意圖。
圖4B是本發明實施例之人眼凝視旁邊物體的示意圖。
圖4C是本發明實施例之人眼凝視無窮遠處的示意圖。
圖5是本發明實施例之人眼凝視目標的人眼角度示意圖。
圖6是本發明實施例之人眼凝視目標之焦距的示意圖。
圖7是本發明實施例透過人臉面積計算人臉與目標之間隔距離的示意圖。
在下文將參看隨附圖式更充分地描述各種例示性實施例,在隨附圖式中展示一些例示性實施例。然而,本發明概念可能以許多不同形式來體現,且不應解釋為限於本文中所闡述之例示性實施例。確切而言,提供此等例示性實施例使得本發明將為詳盡且完整,且將向熟習此項技術者充分傳達本發明概念的範疇。在諸圖式中,可為了清楚而誇示層及區之大小及相對大小。類似數字始終指示類似元件,且本文中所使用的術語「或」視實際情況可能包括相關聯之列出項目中之任一者或者多者之所有組合。
本發明實施例提供一種凝視分析方法與裝置,且所述凝視分析方法與裝置會計算人臉角度與人眼角度,以判斷人眼的凝視方向為特定方向,其中人眼角度是透過左眼虹膜與左眼鞏膜的資訊以及右眼虹膜與右眼鞏膜的資訊所獲得,所述左眼虹膜與左眼鞏膜的資訊可以是左眼虹膜於影像中的長度(以像素為單位)與左眼鞏膜之左右部分於影像中的長度,且右眼虹膜與右眼鞏膜的資訊是右眼虹膜於影像中的長度與右眼鞏膜之左右部分於影像中的長度。接著,所述凝視分析方法與裝置還會進一步判斷人眼是否凝視著特定方向上的特定目標,以及計算凝視特定目標的時間,以 進一步地判斷人眼是否持續地凝視特定目標,並藉此執行相關指令。
在此請注意,於本發明實施例中,人眼角度是透過左眼與右眼的鞏膜與虹膜所佔據的比例關係而獲得。舉例來說,本發明其中一個實施例是透過左眼的左邊與右邊鞏膜的長度差與左眼與右眼總長度的第一比例與右眼的右邊與左邊鞏膜的長度差與左眼與右眼總長度的第二比例來獲得人眼角度。
另外,判斷人眼是否凝視著特定方向上的特定目標是透過判斷人眼之焦距與人臉及目標之間的間隔距離之差異值是否位於特定範圍內來決定,其中人眼之焦距相關於左眼與右眼的鞏膜與虹膜之間的關係。舉例來說,本發明其中一個實施例是先依據左眼的左邊鞏膜所佔鞏膜的第三比例決定左眼之眼球中心相對於焦點的左眼角度,以及依據右眼的右邊鞏膜所佔鞏膜的第四比例決定右眼之眼球中心相對於焦點的右眼角度後,再依據左眼角度、右眼角度與左右眼的兩眼球中心點之間的距離得到焦距。
請參照圖1,圖1是本發明實施例之人眼凝視目標的示意圖。於圖1中,電子裝置11本身為目標,且用來判斷人10是否凝視電子裝置11。電子裝置11配置有凝視分析裝置,以判斷人凝視電子裝置11本身,並對應地執行相關的指令,例如播放特定資訊給人10。於本發明實施例中,電子裝置11本身為廣告看板,然而,本發明並不限制於此。電子裝置11於其他實施例中,亦可以是筆記型電腦或其他具有影像擷取裝置的設備。於其他實施例中,電子裝置11本身亦可以不為目標,目標可以是某種特定的物件,例如演講者或者特定販售物品等等。以下將進一步地介紹凝視分析裝置的細節。
請參照圖2,圖2是本發明實施例之凝視分析裝置的方塊圖。凝視分析裝置2透過一個以上的電路組成,且包括影像擷取裝置20、人臉偵測裝置21、人臉角度計算裝置22、人眼角度計算裝置 23、凝視角度判斷裝置24、凝視目標判斷裝置25、計時裝置26與指示裝置27。影像擷取裝置20電性連接人臉偵測裝置21,人臉偵測裝置21電性連接人臉角度計算裝置22,人臉角度計算裝置22電性連接人眼角度計算裝置23,且人眼角度計算裝置23電性連接凝視角度判斷裝置24。凝視角度判斷裝置24電性連接凝視目標判斷裝置25與影像擷取裝置20,凝視目標判斷裝置25電性連接計時裝置26與影像擷取裝置20,且計時裝置26電性連接指示裝置27與影像擷取裝置20。凝視分析裝置2用以執行凝視分析方法,且各元件的功能與作用將介紹如下。
接著,請同時參照圖2與圖3,圖3是本發明實施例之凝視分析方法的流程圖。首先,在步驟S30中,影像擷取裝置20會擷取影像,並將擷取的影像送至人臉偵測裝置21。接著,在步驟S31中,人臉偵測裝置21會對影像進行人臉偵測,以判斷影像中是否有人臉,其中判斷人臉是否存在於影像中,係可以採用馬可夫模型人臉偵測方式來實現。然而,本發明並不限制上述偵測人臉的實現方式。倘若偵測到影像中有人臉,則人臉偵測裝置21將影像送給人臉角度計算裝置22,以執行步驟S32;倘若未偵測到影像中有人臉,則人臉偵測裝置21指示影像擷取裝置20繼續執行步驟S30。
在步驟S32中,人臉角度計算裝置22會根據影像中的人臉計算出人臉角度Aface,人臉角度Aface包括人臉的水平偏轉角Ahorizontal以及垂直仰角Avertical,其中計算人臉角度Aface的方式,係取得影像中人臉中眼睛與嘴巴位置,並參考頭部型態模型來實現。然而,本發明並不限制上述計算人臉角度Aface的實現方式。另外,在本發明實施例中,步驟S32亦可以僅計算出人臉的水平偏轉角Ahorizontal,而不計算垂直仰角Avertical,亦即人臉角度Aface僅包括人臉的水平偏轉角Ahorizontal。在人臉角度計算裝置22計算完人臉角度Aface後,會將影像送給人眼角度計算裝置23。
接著,在步驟S33中,人眼角度計算裝置23依據影像計算人眼角度Aeye,且人眼角度Aeye是透過左眼與右眼的鞏膜與虹膜所佔據的比例關係而獲得。以下將說明其中一種透過左眼與右眼的鞏膜與虹膜所佔據的比例關係來計算人眼角度Aeye的實現方式,然而,本發明並不限制於此種實現方式。
請參照圖4A,圖4A是本發明實施例之人眼直視前方物體的示意圖。於圖4A中,當人眼直視前方物體OBJ時,其人眼角度Aeye等於0度,故理論上左眼左邊鞏膜部份401的長度LLE與左眼右邊鞏膜部份403的長度RLE的差值應該等於右眼右邊鞏膜部份413的長度RRE與右眼左邊鞏膜部份411的長度LRE的差值,亦即,LLE-RLE=RRE-LRE
請參照圖4B,圖4B是本發明實施例之人眼凝視旁邊物體的示意圖。於圖4B中,當人眼凝視旁邊物體OBJ時,其人眼角度Aeye不為0度,故理論上左眼左邊鞏膜部份401的長度LLE與左眼右邊鞏膜部份403的長度RLE的差值應該不等於右眼右邊鞏膜部份413的長度RRE與右眼左邊鞏膜部份411的長度LRE的差值,亦即,LLE-RLE≠RRE-LRE
請參照圖4C,圖4C是本發明實施例之人眼凝視無窮遠處的示意圖。於圖4C中,當人眼凝視無窮遠處時,理論上左眼左邊鞏膜部份401的長度LLE與左眼右邊鞏膜部份403的長度RLE的差值應該等於右眼左邊鞏膜部份411的長度LRE與右眼右邊鞏膜部份413的長度RRE的差值,亦即,LLE-RLE=LRE-RRE。此時焦距在無窮遠處,故無須計算焦距,而人眼角度Aeye可視情況來決定是否計算。
請參照圖5,圖5是本發明實施例之人眼凝視目標的人眼角度示意圖。人眼角度Aeye為左右眼之中心點M之法線以及左右眼之中心點M與目標OBJ之間連線的角度,針對三種情況,直視、極限地往左方看與極限地往右方看,其人眼角度Aeye分別為0、-90 與90度,歸納出其中一種可以實現計算人眼角度Aeye的公式如下: 。假設當人眼直視前方物體OBJ時,長度LLE、BLE(左眼虹膜402的長度)、RLE、LRE、BRE(右眼虹膜412的長度)與RRE的比例為1:2:1:1:2:1,此時,Aeye=sin-1(0/4)=0度。當極限地往左方看時,長度LLE、BLE、RLE、LRE、BRE與RRE的比例為0:1:1:0:1:1,此時,Aeye=sin-1(-4/4)=-90度。當極限地往右方看時,長度LLE、BLE、RLE、LRE、BRE與RRE的比例為1:1:0:1:1:0,此時,Aeye=sin-1(4/4)=90度。
簡單地說,於本發明其中一個實施例中,人眼角度Aeye的計算是透過左眼的左邊與右邊鞏膜的長度差(LLE-RLE)與左眼與右眼總長度(LLE+BLE+RLE+LRE+BRE+RRE)的比例與右眼的右邊與左邊鞏膜的長度差(RRE-LRE)與左眼與右眼總長度(LLE+BLE+RLE+LRE+BRE+RRE)的比例來獲得。然而,上述僅是其中一種實現方式,其並非用以限制本發明。
請繼續參照圖2與圖3,在人眼角度計算裝置23依據影像計算人眼角度Aeye後,影像與計算出來的人眼角度Aeye及是否凝視無窮遠處的資訊被送到凝視角度判斷裝置24。於步驟S34中,若人眼非凝視無窮遠處,則凝視角度判斷裝置24會計算人眼角度Aeye與人臉角度Aface的之角度和作為凝視角度,並進一步地判斷凝視角度是否位於第一特定範圍,其中第一特定範圍為一個角度範圍。舉例來說,第一特定範圍包括水平偏轉角度範圍為±5度與垂直仰角角度範圍為40~50度。
當凝視角度位非於第一特定範圍時,則表示人眼未凝視目標,故凝視角度判斷裝置24指示影像擷取裝置20繼續執行步驟S30;當凝視角度位於第一特定範圍時,則表示人眼凝視目標,故 凝視角度判斷裝置24將影像傳送給凝視目標判斷裝置25,以執行步驟S35。在步驟S35中,凝視目標判斷裝置25先計算焦距MF與人臉與目標之間的間隔距離L,再計算焦距MF與間隔距離L的差異值(MF-L),接著,再判斷此差異值是否位於第二特定範圍內,其中第二特定範圍為±D個單位距離的距離範圍,亦即判斷「-D≦(MF-L)≦D」是否為真。以下將進一步說明,計算焦距與間隔距離的實現方式。
請參照圖6,圖6是本發明實施例之人眼凝視目標之焦距的示意圖。如圖6所示,左右眼注視著焦點F,且人眼之焦距MF相關於左眼與右眼的鞏膜與虹膜之間的關係。於此實施例中,更進一步地說,左眼眼球中心A與焦點F之間連線AF與左眼眼球中心A與焦點F之間連線AM形成的左眼角度A(eye)L可以由左眼的左邊鞏膜所佔鞏膜的比例(LLE/(LLE+RLE))決定,亦即,A(eye)L=180°.(LLE/(LLE+RLE)),同樣地,右眼眼球中心B與焦點F之間連線BF與左眼眼球中心B與焦點F之間連線BM形成的左眼角度A(eye)R可以由左眼的左邊鞏膜所佔鞏膜的比例(RRE/(LRE+RRE))決定,亦即,A(eye)R=180°.(RRE/(LRE+RRE))。
接著,透過正弦定理,依據左眼角度A(eye)L、右眼角度A(eye)R與左右眼的兩眼球中心點之間的距離AB便可以得到焦距MF。詳細地說,透過正弦定理可以先獲得,左眼眼球中心A到焦點的距離AF與右眼眼球中心B到焦點的距離BF,然後透過距離AB、AF、BF便能得到焦距MF。
正弦定理所衍生的關係式可以表示如下: 。透過上述關係,可以求得距離AB、AF。另外,焦距MF的計算方式是透過三角形中線定理,其計算方式如下:
接著,請參照圖7,圖7是本發明實施例透過人臉面積計算人臉與目標之間隔距離的示意圖。於圖7中,人臉的面積為人臉寬度W與人臉高度H的乘積。一般來說,影像中的人臉面積(W.H)越大,表示人臉與目標OBJ之間隔距離L越小,相反地,影像中的人臉面積(W.H)越小,表示人臉與目標OBJ之間隔距離L越大。因此,可以將人臉面積的倒數1/(W.H)乘上一個特定數值來獲得人臉與目標OBJ之間隔距離L。
當焦距MF與間隔距離L的差異值(MF-L)並未位於第二特定範圍內時,則凝視目標判斷裝置25會指示影像擷取裝置20繼續執行步驟S30;當焦距MF與間隔距離L的差異值(MF-L)位於第二特定範圍內時,則凝視目標判斷裝置25指示計時裝置26執行步驟S36。
於步驟S36中,計時裝置26計算凝視角度位於第一特定範圍且焦距MF與間隔距離L的差異值(MF-L)位於第二特定範圍內的持續或累積時間,以獲得人眼凝視目標的凝視時間,並判斷凝視時間是否大於特定值(例如T個單位時間),以判斷人眼是否持續凝視目標。若判斷凝視時間未大於特定值,則計時裝置26指示影像擷取裝置20繼續執行步驟S30;若判斷凝視時間大於特定值,則計時裝置26命令指示裝置27執行步驟S37。於步驟S37中,指示裝置27執行相應指令以通知其他硬體或裝置執行對應的動作。
綜合以上所述,本發明實施例提供的凝視分析方法與裝置是根據左右眼之虹膜與鞏膜的資訊來判斷人眼是否凝視目標,因此,相較於先前技術,其不易受到光照影響,且計算複雜度較低,甚至其不需要採用高解析度的鏡頭與紅外線的輔助,故成本低廉。
以上所述,僅為本發明最佳之具體實施例,惟本發明之特徵 並不侷限於此,任何熟悉該項技藝者在本發明之領域內,可輕易思及之變化或修飾,皆可涵蓋在以下本案之專利範圍。
S30~S37‧‧‧步驟流程

Claims (13)

  1. 一種凝視分析方法,包括:於一影像中偵測到一人臉時,根據該人臉的一人臉角度以及一人眼角度計算一凝視角度,並判斷該凝視角度是否位於一第一特定範圍,其中該人眼角度依據一左眼虹膜與一左眼鞏膜的資訊以及一右眼虹膜與一右眼鞏膜的資訊獲得;以及於該凝視角度位於該第一特定範圍時,計算一焦距以及該人臉與一目標之間的一間隔距離的一差異值是否位於一第二特定範圍,並根據該差異值是否位於該第二特定範圍的一判斷結果以判斷該目標是否被凝視,其中該焦距依據該左眼虹膜與該左眼鞏膜的資訊以及該右眼虹膜與該右眼鞏膜的資訊獲得。
  2. 如請求項第1項的凝視分析方法,其中取得該影像中該人臉中兩眼睛與一嘴巴之多個位置,並參考至少一頭部型態模型來獲得該人臉角度。
  3. 如請求項第1項的凝視分析方法,其中該人眼角度是透過一左眼與一右眼的該兩鞏膜與該兩虹膜所佔據的比例關係而獲得。
  4. 如請求項第3項的凝視分析方法,其中該人眼角度是透過該左眼的左邊與右邊鞏膜的一長度差與該左眼與該右眼的一總長度的比例與該右眼的右邊與左邊鞏膜的一長度差與該左眼與該右眼之該總長度的比例來獲得。
  5. 如請求項第1項的凝視分析方法,其中依據一左眼的一左邊鞏膜所佔一左眼總鞏膜的一比例決定該左眼之一眼球中心相對於一焦點的一左眼角度,以及依據一右眼的一右邊鞏膜所佔一右眼總鞏膜的一比例決定該右眼之一眼球中心相對於該焦點的一右眼角度後,再依據該左眼角度、該右眼角度與該左右眼的兩眼球中心點之間的一距離得到該焦距。
  6. 如請求項第5項的凝視分析方法,其中透過一餘弦定理,根據 該左眼角度、該右眼角度與該左右眼的兩眼球中心點之間的該距離得到該左眼之該眼球中心至該焦點的一第一距離與該右眼之該眼球中心至該焦點的一第二距離,以及透過一中線定理,根據該第一距離、該第二距離與該左右眼的兩眼球中心點之間的該距離得到該焦距。
  7. 如請求項第1項的凝視分析方法,其中依據該影像中該人臉的一面積計算出該間隔距離。
  8. 如請求項第1項的凝視分析方法,更包括:計算該差異值位於該第二特定範圍內的一持續或累積時間,以獲得一凝視時間;判斷該凝視時間是否大於一特定值;以及當該凝視時間是否大於該特定值,執行一相應指令。
  9. 如請求項第1項的凝視分析方法,更包括:偵測該影像中是否有該人臉。
  10. 如請求項第9項的凝視分析方法,其中採用一馬可夫模型人臉偵測方式來偵測該影像中是否有該人臉。
  11. 如請求項第1項的凝視分析方法,其中該人臉角度包括一水平偏轉角度。
  12. 如請求項第11項的凝視分析方法,其中該人臉角度更包括一垂直仰角。
  13. 一種凝視分析裝置,包括一影像擷取裝置、一人臉偵測裝置、一人臉角度計算裝置、一人眼角度計算裝置、一凝視角度判斷裝置、一凝視目標判斷裝置、一計時裝置與一指示裝置,以執行如請求項第1~12項所述多個凝視分析方法的其中之一,其中該影像擷取裝置電性連接該人臉偵測裝置,該人臉偵測裝置電性連接該人臉角度計算裝置,該人臉角度計算裝置電性連接該人眼角度計算裝置,該人眼角度計算裝置電性連接該凝視角度判斷裝置,該凝視角度判斷裝置電性連接該凝視目標判斷裝 置與該影像擷取裝置,該凝視目標判斷裝置電性連接該計時裝置與該影像擷取裝置,且該計時裝置電性連接該指示裝置與該影像擷取裝置。
TW104124525A 2015-07-29 2015-07-29 凝視分析方法與裝置 TWI570638B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW104124525A TWI570638B (zh) 2015-07-29 2015-07-29 凝視分析方法與裝置
CN201510500976.XA CN106709398A (zh) 2015-07-29 2015-08-14 凝视分析方法与装置
US14/884,200 US9984289B2 (en) 2015-07-29 2015-10-15 Gaze analysis method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW104124525A TWI570638B (zh) 2015-07-29 2015-07-29 凝視分析方法與裝置

Publications (2)

Publication Number Publication Date
TW201705041A TW201705041A (zh) 2017-02-01
TWI570638B true TWI570638B (zh) 2017-02-11

Family

ID=57882892

Family Applications (1)

Application Number Title Priority Date Filing Date
TW104124525A TWI570638B (zh) 2015-07-29 2015-07-29 凝視分析方法與裝置

Country Status (3)

Country Link
US (1) US9984289B2 (zh)
CN (1) CN106709398A (zh)
TW (1) TWI570638B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105954992B (zh) * 2016-07-22 2018-10-30 京东方科技集团股份有限公司 显示系统和显示方法
CN110058693B (zh) * 2019-04-23 2022-07-15 北京七鑫易维科技有限公司 数据采集方法、装置、电子设备及存储介质
CN110365905B (zh) * 2019-07-25 2021-08-31 北京迈格威科技有限公司 自动拍照方法及装置
CN110554777A (zh) * 2019-09-24 2019-12-10 大连理工大学 一种基于电磁波追踪眼球凝视角度量测方法
CN111767820A (zh) * 2020-06-23 2020-10-13 京东数字科技控股有限公司 对象被关注的识别方法、装置、设备及存储介质
CN113221699B (zh) * 2021-04-30 2023-09-08 杭州海康威视数字技术股份有限公司 一种提高识别安全性的方法、装置、识别设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120147328A1 (en) * 2010-12-13 2012-06-14 Microsoft Corporation 3d gaze tracker
TW201306573A (zh) * 2011-04-08 2013-02-01 Digitaloptics Corp 具有影像擷取及分析模組之顯示裝置
CN103516985A (zh) * 2013-09-18 2014-01-15 上海鼎为软件技术有限公司 移动终端及其获取图像的方法
CN103518172A (zh) * 2011-04-21 2014-01-15 索尼计算机娱乐公司 凝视辅助的计算机界面
WO2014023931A1 (en) * 2012-07-06 2014-02-13 Iriss Medical Technologies Limited Strabismus detection
US20150138066A1 (en) * 2013-11-15 2015-05-21 Hyundai Motor Company Gaze detecting apparatus and method

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
JP4469476B2 (ja) * 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
US8121356B2 (en) * 2006-09-15 2012-02-21 Identix Incorporated Long distance multimodal biometric system and method
US8154583B2 (en) * 2007-05-31 2012-04-10 Eastman Kodak Company Eye gazing imaging for video communications
US9036871B2 (en) * 2007-09-01 2015-05-19 Eyelock, Inc. Mobility identity platform
US9053524B2 (en) * 2008-07-30 2015-06-09 Fotonation Limited Eye beautification under inaccurate localization
JP4793451B2 (ja) * 2009-01-21 2011-10-12 ソニー株式会社 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム
US8836777B2 (en) * 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
EP2587342A1 (en) * 2011-10-28 2013-05-01 Tobii Technology AB Method and system for user initiated query searches based on gaze data
CN102508551B (zh) * 2011-11-18 2014-06-18 北京恒信彩虹科技有限公司 一种目光捕捉方法和采用目光捕捉的人机交互方法
CN103369214A (zh) * 2012-03-30 2013-10-23 华晶科技股份有限公司 图像获取方法与图像获取装置
US9638537B2 (en) * 2012-06-21 2017-05-02 Cellepathy Inc. Interface selection in navigation guidance systems
US9908048B2 (en) * 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
CN103604412B (zh) * 2013-10-30 2015-11-18 北京智谷睿拓技术服务有限公司 定位方法及定位装置
JP2017527036A (ja) * 2014-05-09 2017-09-14 グーグル インコーポレイテッド セキュアなモバイル通信で眼信号を用いるためのシステムおよび方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120147328A1 (en) * 2010-12-13 2012-06-14 Microsoft Corporation 3d gaze tracker
TW201306573A (zh) * 2011-04-08 2013-02-01 Digitaloptics Corp 具有影像擷取及分析模組之顯示裝置
CN103518172A (zh) * 2011-04-21 2014-01-15 索尼计算机娱乐公司 凝视辅助的计算机界面
US20140333535A1 (en) * 2011-04-21 2014-11-13 Sony Computer Entertainment Inc. Gaze-assisted computer interface
WO2014023931A1 (en) * 2012-07-06 2014-02-13 Iriss Medical Technologies Limited Strabismus detection
CN103516985A (zh) * 2013-09-18 2014-01-15 上海鼎为软件技术有限公司 移动终端及其获取图像的方法
US20150138066A1 (en) * 2013-11-15 2015-05-21 Hyundai Motor Company Gaze detecting apparatus and method

Also Published As

Publication number Publication date
TW201705041A (zh) 2017-02-01
CN106709398A (zh) 2017-05-24
US9984289B2 (en) 2018-05-29
US20170032173A1 (en) 2017-02-02

Similar Documents

Publication Publication Date Title
TWI570638B (zh) 凝視分析方法與裝置
US9398848B2 (en) Eye gaze tracking
JP6340503B2 (ja) 目追跡システム及び利き目を検出する方法
Lee et al. Gaze tracking system at a distance for controlling IPTV
WO2019153370A1 (en) 3d gazing point detection by binocular homography mapping
ES2936093T3 (es) Fiabilidad de los datos de seguimiento de la mirada para el ojo izquierdo y derecho
CN104809424B (zh) 一种基于虹膜特征实现视线追踪的方法
KR101470243B1 (ko) 시선 검출 장치 및 그 시선 검출 방법
WO2005063114A1 (ja) 視線検出方法および装置ならびに三次元視点計測装置
JPWO2007113975A1 (ja) 視点検出装置
JP7030317B2 (ja) 瞳孔検出装置及び瞳孔検出方法
CN108369744B (zh) 通过双目单应性映射的3d注视点检测
JP6631951B2 (ja) 視線検出装置及び視線検出方法
KR102099223B1 (ko) 사시 진단 시스템 및 방법, 시선 영상 획득 시스템, 컴퓨터 프로그램
JP2021531601A (ja) ニューラルネットワーク訓練、視線検出方法及び装置並びに電子機器
CN111522430A (zh) 注视追踪模型的训练
US11624907B2 (en) Method and device for eye metric acquisition
JP2019097675A (ja) 視線検出校正方法、システム、及びコンピュータプログラム
Li et al. Open-source software for real-time visible-spectrum eye tracking
TWI761930B (zh) 頭戴式顯示裝置以及距離量測器
JP5371051B2 (ja) 視線計測装置、方法及びプログラム
JP5719216B2 (ja) 視線測定装置および視線測定プログラム
Arai et al. Computer input with human eyes only using two Purkinje images which works in a real time basis without calibration
JP6496917B2 (ja) 視線測定装置および視線測定方法
Kim et al. Resolution estimation technique in gaze tracking system for HCI