TW201403379A - 分析人的手勢命令的技術 - Google Patents

分析人的手勢命令的技術 Download PDF

Info

Publication number
TW201403379A
TW201403379A TW102111700A TW102111700A TW201403379A TW 201403379 A TW201403379 A TW 201403379A TW 102111700 A TW102111700 A TW 102111700A TW 102111700 A TW102111700 A TW 102111700A TW 201403379 A TW201403379 A TW 201403379A
Authority
TW
Taiwan
Prior art keywords
user
television
image
computer
mobile device
Prior art date
Application number
TW102111700A
Other languages
English (en)
Inventor
wen-long Li
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of TW201403379A publication Critical patent/TW201403379A/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Abstract

在某些實施例中,臉部辨識可用來輔助人之手勢命令與特定使用者之聯想,及使特定計算裝置與那些使用者相關聯。在一個實施例中,這可以被用來例如控制電視之觀看,並致使使用者能夠提供具有關於電視節目資訊的手勢命令,從電視發送給與其有關的計算裝置。此外,臉部辨識可輔助區別來自某位使用者與來自其他使用者的命令,可避免要求使用者停留在與每一位使用者相關聯之固定位置的需要。

Description

分析人的手勢命令的技術
通言之,本發明係有關電腦系統,更特定地說,本發明係有關回應人之手勢命令而操作的電腦系統。
人之手勢命令為任何可識別的身體構形,例如,電腦經由訓練可將其瞭解為特定的命令而採取特定的動作。例如,諸如大姆指向上或大姆指向下的手勢為習知的人之手勢命令。通常,這些手勢命令可在設定階段藉由使用與電腦相關聯的照相機來記錄命令而被辨識。接著,使用影像分析來識別命令的本質,並使被成像的命令與被訓練的回應相關聯。
例如,可從微軟公司獲得到的Kinect電腦系統,允許電腦理解使用者所作出的移動來做為遊戲的輸入。例如,使用者可作出與一般打保齡球相關聯的擲球動作,電腦可分析該動作來決定在真實保齡球館中投擲真實保齡球的效果做為指示。
32‧‧‧電視
40‧‧‧照相機
34‧‧‧行動裝置
A‧‧‧手臂
B‧‧‧身體
F‧‧‧手
H‧‧‧頭部
30‧‧‧網路
36‧‧‧電視顯示器
38‧‧‧處理器
42‧‧‧網路介面卡
44‧‧‧伺服器
46‧‧‧無線介面
58‧‧‧儲存器
26‧‧‧顯示器
54‧‧‧處理器
48‧‧‧天線
50‧‧‧天線
56‧‧‧照相機
28‧‧‧儲存器
52‧‧‧無線介面
一些實施例之描述係參考以下各圖:圖1係本發明之一個實施例的透視圖;圖2係用於一個實施例的系統描繪;圖3係按照一個實施例在電視接收器上所實施之序列的流程圖;圖4係按照一個實施例擺設用來實施圖3中所示序列之電視接收器之序列的流程圖;圖5係按照一個實施例之行動裝置所實施的序列。
藉由致使電腦系統能夠分析人之手勢命令,可獲得到額外的資訊以進一步有助於手勢命令式系統的使用者親合性。例如,需要使用者站在特定之位置以便提供命令的系統可能建立使用不便的使用者-電腦介面。使用者可能忘了站在預先指定的區域中,且要求使用者要停留在位置中,會使得他們更難提供所想要的手勢資訊。
因此,吾人需要更佳的方法來致使電腦系統能夠使用人之手勢命令。在某些實施例中,使用臉部辨識可令使用者的手勢命令與特定的使用者相關聯。
因此,請參閱圖1,圖中顯示客廳之擺設,用來說明本發明之實施例之一種可能的操作模式。在多名使用者的情況中,例如,有兩名使用者(U1與U2)正在使用手勢命令而與單一電腦裝置32互動。在一個實施例中,電腦 裝置可以是具有處理器的電視接收器。該電視接收器可配備有照相機40用來對觀看電視接收器的使用者成像。合宜地說,與電視接收器相關聯的照相機可對觀看電視接收器的人或是玩顯示在電視接收器上之遊戲的人成像。
在圖1中,如果左邊的使用者U1抬起他的右手作出手勢命令,而右邊的使用者U2抬起她的左手作出手勢命令,則系統可能無法決定各個命令是由哪一位使用者所作出的。有若干不同的情況會發生此問題。與玩遊戲有關的問題是手勢命令可能變成與錯誤的遊戲者相關聯,使得遊戲無法玩下去。與電視系統有關的問題是其中的資訊可能會回饋給作出特定手勢命令的特定使用者,知道是哪一位使用者作出該手勢命令是重要的。例如,使用者為了以與其相關聯之行動裝置接收特定之內容而作出手勢命令。
此等命令與反饋系統的實例可包括致使某位使用者能夠以他或她的行動裝置34來接收正在電視接收器上顯示之電視內容。另一實例可容使用者以行動裝置接收來自正在電視顯示的螢幕快照(screen shot)。還有另一實例係允許使用者以行動裝置來接收不同於目前接收器所顯示之內容。在某些實施例中,可為這些可能的每一個輸入提供不同的手勢命令。
在某些實施例中,預定的手勢命令可被用來啟動手勢分析。這簡化了電腦的手勢分析工作,因為在絕大部分的時間,電腦僅需要監視一個手勢。
每一個行動裝置34也可與照相機56相關聯。由於使 用者的行動裝置可提供數位照片,然後傳送給電視,這可進一步有助於使特定的使用者與特定的命令相關聯。接著,電視可比較從行動裝置所接收到的照片與電視照相機所拍攝到的照片。電視可使其所拍攝到之影像所描繪的每一位使用者,與發送其中具有所拍攝之使用者影像之訊息給電視的特定行動裝置相關聯。這進一步有利於使各式命令與特定的行動裝置及/或使用者相關聯。
因此,如同本文中所使用者,“使特定之命令與特定的使用者相關聯”包括使命令與被成像的使用者相關聯以及使命令與該名使用者的行動裝置相關聯。
在圖1所說明的情況中,正坐在沙發上的使用者U1與U2接近彼此。使用者U1作出以F指示之姆指向下的手勢,使用者U2之手F指示作出姆指向上的手勢。每一位使用者的手F經由手臂A而被連接到身體B,每一個使用者的頭部以H來予以指示。因此,在某些實施例中,視訊分析可被用來偵測藉由使用者之手F所指示的命令,並將該命令連結到特定的使用者U1或U2。這可經由識別手臂A連接到手F及身體B連接手臂A來予以完成。最後,身體B被連接到使用者的頭部H且特別是使用者的臉部。臉部辨識可被用來識別使用者,而後將特定的使用者及他或她的命令與自特定使用者的行動裝置34所送出或送至特定使用者的行動裝置34之資訊繫連在一起。
在某些情況中,與行動裝置34相關聯的照相機56可被用來進一步輔助識別使用者及區別使用者U1與使用者 U2。例如,照相機56可被用來成像使用者的臉部,並發送訊息給電腦裝置32。接著,電腦裝置32可比較它所取得的影像與它接收自行動裝置34的影像,以確認使用者的識別,並進一步將使用者與他的臉部影像與特定的行動裝置34相關聯。當然,同樣的技術也可被用來使來自多位使用者之命令清楚。
可被使用之行動裝置的實例包括含有照相機的任何行動裝置,其包括行動電話、平板電腦、膝上型電腦或行動網際網路裝置。不過,本發明也可被使用於非行動式電腦。
現請參閱圖2,依據一個實施例,電視或娛樂裝置與行動裝置可以是網路的一部分。多台娛樂裝置,諸如電視、視訊或音訊播放系統或遊戲可以是網路的一部分。網路可以是有線網路或無線網路,包括以短程無線技術做為基礎的網路為一個實例,或有線與無線混合的裝置為另一個實例。
因此,在一個實施例中的網路30可包括電視32,其包括電視顯示器36。電視32可包括耦接至儲存器58與照相機40的處理器38。網路介面卡(NIC)42也可被耦接至處理器38。
網路介面卡42致使有線或無線網路能夠連接到伺服器44,在一個實施例中,伺服器44可以是另一電腦系統或家用伺服器做為兩個實例。伺服器44可以被耦接至無線介面46,而後又被耦接至天線48。
天線48可致使能夠與使用者的行動裝置34無線通信。行動裝置34可包括耦接至無線介面52的天線50。無線介面52可被耦接至處理器54。接著,在一個實施例中,處理器54然後可被耦接至照相機56、儲存器28及顯示器26。更多的行動裝置可被耦接至網路以及,舉幾個例子來說,更多的電視顯示器、媒體播放裝置、或遊戲裝置。
現請參閱圖3,依據一個實施例,序列60可藉由電視接收器32來予以實施。序列60可以用軟體、韌體、及/或硬體的方式來予以實施。在軟體與韌體的實施例中,其可藉由儲存在一或多個非暫態電腦可讀取媒體(諸如,磁性、半導體或光學儲存媒體)中的電腦執行指令來予以實施。
在某些實施例中,該序列可在電視接收器上本地式地實施。在另些實施例中,該序列可藉由耦接至電視的本地伺服器來予以實施。又在另些實施例中,該序列例如可藉由透過網際網路所連接的伺服器來予以實施,諸如雲端伺服器。
如方塊62所示,序列60從經由照相機40所拍攝的影像來接收手勢命令開始。接著,如方塊64所示,該命令可藉由比較來自照相機40之影像與所儲存之與特定命令相關聯的資訊來予以辨識,並決定哪一個命令與所接收到的影像相匹配。在某些實施例中,這可使用視訊分析來加以完成。
接著,手勢命令可與使用者的臉部相關聯,在某些實施例中,如方塊66所示,藉由使用者的手追蹤回使用者的臉部。在一個實施例中,這可包括使用影像辨識技術與視訊分析來辨識連接到該手之使用者的手臂、連接到該手臂之使用者的身體、及連接到該身體之使用者的頭部或臉部。
因此,在接收手勢命令之時,一旦找到使用者的臉部,即可藉由比較在訓練序列期間所獲得的影像與藉由與電視接收器相關聯之照相機40所獲得的影像而識別出使用者,如方塊68所示。
接著,在某些實施例中,電視接收器依所辨識出的使用者及手勢命令而採取動作。亦即,在一個實施例中,透過網路30而將內容送至使用者的行動裝置34,如方塊70所示。因此,即使當多位使用者出現於電視前之時,系統仍可識別出作出命令的特定使用者,而不需要使用者站在特定的位置或採取特定之不自然的動作過程。況且,在某些實施例中,電視可將使用者的手勢命令與臉部及行動裝置同步(亦即,鏈結)。
接下來換到圖4,電視擺設(set-up)序列80可以用軟體、韌體及/或硬體的方式來予以實施。在軟體與韌體的實施例中,其可藉由儲存在一或多個非暫態電腦可讀取媒體(諸如,磁性、半導體或光學儲存媒體)中的電腦執行指令來予以實施。在某些實施例中,擺設序列致能圖3中所描繪的序列,且因而,可在真正使用該系統來接收與 處理手勢命令之前先被實施。例如,在某些實施例中,可能需要訓練序列以便接收與區別手勢命令。
圖4中所示的擺設序列80從接收使使用者的行動裝置與電視接收器之間同步化或鏈結的請求開始,如方塊82所示。在此種情況中,可使用電視的照相機40來拍攝使用者的臉部影像,如方塊84所示。在此同時,使用者的行動裝置可提供使用者的識別符及藉由使用者之行動裝置所獲得到的影像,如方塊86所示。如方塊88所示,識別符可被鏈結到取得自電視的臉部影像,並且與來自行動裝置做匹配。
接著,如方塊90所示,可訓練使用者可能希望使用的各種手勢。例如,使用者可經歷一序列的手勢,而後可指示這些手勢的每一個何者可能意欲要傳送。手勢的識別可使用行動裝置、電視遙控器、或任何其它的輸入裝置來予以鍵入。例如,使用者可具有使用者介面(其中,使用者在特定的命令上點選),並提示選擇使用者希望與該命令相關聯之適當的手勢命令。例如,可顯示可能之命令的下拉式選單。
最後換到圖5,行動裝置序列100可以用軟體、韌體及/或硬體的方式來予以實施。在軟體與韌體的實施例中,其可藉由儲存在一或多個非暫態電腦可讀取媒體(諸如,磁性、半導體或光學儲存媒體)中的電腦執行指令來予以實施。
行動裝置序列100從接收來自使用者的同步命令開 始,如方塊102所示。回應同步命令,系統可自動地將使用者的影像拍攝於行動裝置上,如方塊104所示。圖形使用者介面可預先通知使用者或請使用者準備影像拍攝。特別是,使用者會被要求對準行動裝置的照相機以獲取使用者的臉部肖像。接著,透過網路而將此影像與識別符傳送給一或多部電視、媒體播放裝置或遊戲,如方塊106所示。
以下的條款及/或實例係有關進一步的實施例:
1.一種方法,包含:藉由使用某人之手、手臂、及臉部的電腦視訊分析以使手與臉部相關聯而聯想來自多人中之該某人的手勢命令。
2.如條款1之方法,包括拍攝第一與第二人之影像;以及使用電腦視訊分析來決定手勢命令是由該第一人或該第二人所作出。
3.如條款2之方法,包括識別與作出可辨識之手勢之該手所連接的手臂、身體、與臉部。
4.如條款3之方法,包括使用臉部辨識來識別該某人。
5.如條款1之方法,包括將該使用者的影像拍攝於第一電腦內。
6.如條款5之方法,包括使用第一電腦來拍攝該使用者之影像以使該手勢命令與該使用者相關聯。
7.如條款6之方法,包括接收該使用者之來自第二電腦 的影像。
8.如條款7之方法,包括比較來自不同電腦的該等影像。
9.如條款8之方法,包括使該等影像的至少其中之一與該第一人與該第二電腦相關聯。
10.如條款9之方法,包括發送訊息給該第二電腦。
11.如條款1之方法,包括顯示的電視。
12.如條款11之方法,包括致使該電視能夠被手勢命令所控制。
13.如條款12之方法,包括回應手勢命令而致使電視信號能夠從該電視發送到與該某人相關聯的裝置。
14.一種方法,包含,致使行動裝置能夠鏈結到電視;致使電視能夠辨識人之手勢命令;以及致使電視能夠回應該命令而傳送電視內容給該行動裝置。
15.如條款14之方法,包括致使該電視能夠使用臉部辨識來區別不同使用者的手勢命令。
16.如條款14之方法,包括致使該電視能夠比較來自行動裝置之使用者的影像與藉由電視所拍攝到的使用者影像。
17.如條款14之方法,包括致使該電視能夠透過網路而與該行動裝置相通信。
18.如條款15之方法,包括致使該電視能夠分析兩個人 的影像,並決定何人連結著作出手勢命令的手。
19.如條款14之方法,包括使用接收自該行動裝置的影像以將該行動裝置鏈結到該電視。
20.如條款19之方法,包括拍攝使用者的影像並比較該影像與接收自該行動裝置的影像。
21.如條款20之方法,包括使用該影像來識別作出手勢命令的使用者。
22.如條款14之方法,包括致能手勢命令的辨識。
23.一種至少一電腦可讀取媒體,其儲存有指令,該等指令回應於在計算裝置上被執行而致使該計算裝置實施如條款1至22項中任一項之方法。
24.一種實施如過程1至22項中任一之方法的設備。
25.如條款24之設備,其中,該設備為電視。
本說明書從頭到尾所參考的“一個實施例”或“實施例”意指所描述與該等實施例有關之特定的特徵、結構、或特性包括在包含於本發明之至少一實施中。因此,“一個實施例”或“在實施例中”的出現,並不必然指相同的實施例。此外,所提出與所說明之特定實施例及所有這些形式不同之其它適合形式的特定特徵、結構、或特性也都包含在本申請案的申請專利範圍之內。
雖然已關於有限的幾個實施例描述了本發明,但熟悉此方面技術之人士可明瞭,諸多的修改與衍生可從其而生。本發明之意圖是所附申請專利範圍涵蓋落入本發明之真正精神與範圍內的所有這些修改與衍生。
32‧‧‧電視
34‧‧‧行動裝置
40‧‧‧照相機
56‧‧‧照相機
A‧‧‧手臂
B‧‧‧身體
F‧‧‧手
H‧‧‧頭部

Claims (27)

  1. 一種方法,包含:藉由使用某人之手、臂、及臉部的電腦視訊分析以使手與臉部相關聯而聯想來自多人中之該某人的手勢命令。
  2. 如申請專利範圍第1項之方法,包括拍攝第一與第二人之影像;以及使用電腦視訊分析來決定手勢命令是由該第一人或該第二人所作出。
  3. 如申請專利範圍第2項之方法,包括識別與作出可辨識之手勢之該手相連接的臂、身體、與臉部。
  4. 如申請專利範圍第3項之方法,包括使用臉部辨識來識別該某人。
  5. 如申請專利範圍第1項之方法,包括將該使用者的影像拍攝於第一電腦內。
  6. 如申請專利範圍第5項之方法,包括使用第一電腦來拍攝該使用者之影像以使該手勢命令與該使用者相關聯。
  7. 如申請專利範圍第6項之方法,包括接收該使用者之來自第二電腦的影像。
  8. 如申請專利範圍第7項之方法,包括比較來自不同電腦的該等影像。
  9. 如申請專利範圍第8項之方法,包括使該等影像的至少其中之一與該第一人與該第二電腦相關聯。
  10. 如申請專利範圍第9項之方法,包括發送訊息給 該第二電腦。
  11. 如申請專利範圍第1項之方法,包括顯示的電視。
  12. 如申請專利範圍第11項之方法,包括使該電視能夠被手勢命令所控制。
  13. 如申請專利範圍第12項之方法,包括回應手勢命令而使電視信號能夠從該電視發送到與該某人相關聯的裝置。
  14. 一種方法,包含,致使行動裝置能夠鏈結到電腦;致使該電腦能夠拍攝使用者的影像;以及致使該電腦能夠鏈結行動裝置與該影像。
  15. 如申請專利範圍第14項之方法,包括使做為電視接收器的電腦能夠拍攝使用者的影像。
  16. 如申請專利範圍第15項之方法,包括回應該影像與該手勢命令之偵測,致使該電視能夠辨識人之手勢命令並將資訊發送給該行動裝置。
  17. 如申請專利範圍第16項之方法,包括致使該電視能夠使用臉部辨識來區別不同使用者的手勢命令。
  18. 如申請專利範圍第16項之方法,包括致使該電視能夠比較來自該行動裝置之使用者的影像與該電視所拍攝到的該使用者影像。
  19. 如申請專利範圍第15項之方法,包括致使該電視能夠透過網路而與該行動裝置相通信。
  20. 如申請專利範圍第17項之方法,包括致使該電視能夠分析兩個人的影像,並決定何人與作出手勢命令的手相連接。
  21. 如申請專利範圍第14項之方法,包括使用接收自該行動裝置的影像以將該行動裝置鏈結到該電視。
  22. 如申請專利範圍第19項之方法,包括拍攝使用者的影像並比較該影像與接收自該行動裝置的影像。
  23. 如申請專利範圍第20項之方法,包括使用該影像來識別作出手勢命令的使用者。
  24. 如申請專利範圍第14項之方法,包括致使能夠辨識手勢命令。
  25. 一種至少一電腦可讀取媒體,其儲存有指令,該等指令回應於在計算裝置上被執行而致使該計算裝置實施如申請專利範圍第1至24項中任一項之方法。
  26. 一種實施如申請專利範圍第1至24項中任一項之方法的設備。
  27. 如申請專利範圍第26項之設備,其中,該設備包括電視。
TW102111700A 2012-04-01 2013-04-01 分析人的手勢命令的技術 TW201403379A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/000427 WO2013149357A1 (en) 2012-04-01 2012-04-01 Analyzing human gestural commands

Publications (1)

Publication Number Publication Date
TW201403379A true TW201403379A (zh) 2014-01-16

Family

ID=49292000

Family Applications (1)

Application Number Title Priority Date Filing Date
TW102111700A TW201403379A (zh) 2012-04-01 2013-04-01 分析人的手勢命令的技術

Country Status (4)

Country Link
US (1) US20130265448A1 (zh)
EP (1) EP2834774A4 (zh)
TW (1) TW201403379A (zh)
WO (1) WO2013149357A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI659331B (zh) * 2014-04-04 2019-05-11 阿里巴巴集團服務有限公司 用於智慧終端機的截取螢幕方法和裝置
TWI745037B (zh) * 2020-08-20 2021-11-01 國立清華大學 跨媒體物聯網系統及其方法
CN114419694A (zh) * 2021-12-21 2022-04-29 珠海视熙科技有限公司 一种多人视频会议头像的处理方法及处理装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012139241A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Hand gesture recognition system
US9134794B2 (en) * 2013-08-20 2015-09-15 Kabushiki Kaisha Toshiba System to identify user and device the user is intending to operate
US20150373408A1 (en) * 2014-06-24 2015-12-24 Comcast Cable Communications, Llc Command source user identification
DE102015110759A1 (de) * 2015-07-03 2017-01-05 Mathias Jatzlauk Gestensteuerungsanordnung zur Anwendung mit mehreren Nutzern
EP3365838A4 (en) 2015-10-21 2019-08-28 15 Seconds Of Fame, Inc. METHODS AND APPARATUS FOR MINIMIZING FALSE POSITIVES IN FACIAL RECOGNITION APPLICATIONS
FR3049078B1 (fr) * 2016-03-21 2019-11-29 Valeo Vision Dispositif et procede de commande a reconnaissance vocale et/ou gestuelle pour l'eclairage interieur d'un vehicule
CN106371608A (zh) * 2016-09-21 2017-02-01 努比亚技术有限公司 屏幕投影的显示控制方法及装置
US10936856B2 (en) 2018-08-31 2021-03-02 15 Seconds of Fame, Inc. Methods and apparatus for reducing false positives in facial recognition
US11010596B2 (en) 2019-03-07 2021-05-18 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition systems to identify proximity-based connections
US11341351B2 (en) 2020-01-03 2022-05-24 15 Seconds of Fame, Inc. Methods and apparatus for facial recognition on a user device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7349689B2 (en) * 2003-07-01 2008-03-25 Microsoft Corporation Communications device processor peripheral
EP2597868B1 (en) 2007-09-24 2017-09-13 Qualcomm Incorporated Enhanced interface for voice and video communications
US20110292181A1 (en) * 2008-04-16 2011-12-01 Canesta, Inc. Methods and systems using three-dimensional sensing for user interaction with applications
US20100027845A1 (en) * 2008-07-31 2010-02-04 Samsung Electronics Co., Ltd. System and method for motion detection based on object trajectory
EP2384465A1 (en) * 2009-01-21 2011-11-09 Thomson Licensing Method to control media with face detection and hot spot motion
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
US8264518B2 (en) * 2009-09-28 2012-09-11 Cisco Technology, Inc. Gesture-based actions in a video communication session
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20120124162A1 (en) * 2010-06-10 2012-05-17 Cricket Communications, Inc. Method and apparatus for selecting media content in a mobile communications device
US8577810B1 (en) * 2011-09-29 2013-11-05 Intuit Inc. Secure mobile payment authorization

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI659331B (zh) * 2014-04-04 2019-05-11 阿里巴巴集團服務有限公司 用於智慧終端機的截取螢幕方法和裝置
TWI745037B (zh) * 2020-08-20 2021-11-01 國立清華大學 跨媒體物聯網系統及其方法
CN114419694A (zh) * 2021-12-21 2022-04-29 珠海视熙科技有限公司 一种多人视频会议头像的处理方法及处理装置

Also Published As

Publication number Publication date
WO2013149357A1 (en) 2013-10-10
US20130265448A1 (en) 2013-10-10
EP2834774A4 (en) 2016-06-08
EP2834774A1 (en) 2015-02-11

Similar Documents

Publication Publication Date Title
TW201403379A (zh) 分析人的手勢命令的技術
US9641884B2 (en) Method and device for establishing a content mirroring session
JP6777089B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6143975B1 (ja) 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法
US9817235B2 (en) Method and apparatus for prompting based on smart glasses
JP6229314B2 (ja) 情報処理装置、表示制御方法及びプログラム
CN107786827B (zh) 视频拍摄方法、视频播放方法、装置及移动终端
JP2016537747A (ja) リアルタイム・ビデオの提供方法、リアルタイム・ビデオの提供装置、サーバ、端末装置、プログラム及び記録媒体
WO2022068479A1 (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN108924412B (zh) 一种拍摄方法及终端设备
US20150172634A1 (en) Dynamic POV Composite 3D Video System
KR20170012979A (ko) 영상 공유 서비스를 위한 전자 장치 및 방법
US20150244984A1 (en) Information processing method and device
WO2022100262A1 (zh) 显示设备、人体姿态检测方法及应用
KR20170072233A (ko) 정보 처리 장치
US9733888B2 (en) Method for rendering data in a network and associated mobile device
WO2019119643A1 (zh) 移动直播的互动终端、方法及计算机可读存储介质
US11367444B2 (en) Systems and methods for using conjunctions in a voice input to cause a search application to wait for additional inputs
JP7000289B2 (ja) プログラム、情報処理装置、および方法
KR20150136314A (ko) 디스플레이 장치, 사용자 단말 장치, 서버 및 그 제어 방법
WO2021007792A1 (zh) 拍摄方法、设备、系统及计算机可读存储介质
WO2012008553A1 (ja) ロボットシステム
US20230007342A1 (en) Method and apparatus for shared viewing of media content
US11546669B2 (en) Systems and methods for stream viewing with experts
JP6718937B2 (ja) プログラム、情報処理装置、および方法