TW201120684A - Human tracking system - Google Patents
Human tracking system Download PDFInfo
- Publication number
- TW201120684A TW201120684A TW099132065A TW99132065A TW201120684A TW 201120684 A TW201120684 A TW 201120684A TW 099132065 A TW099132065 A TW 099132065A TW 99132065 A TW99132065 A TW 99132065A TW 201120684 A TW201120684 A TW 201120684A
- Authority
- TW
- Taiwan
- Prior art keywords
- analysis
- tracking system
- target
- value
- model
- Prior art date
Links
- 210000003414 extremity Anatomy 0.000 claims description 68
- 238000000034 method Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 25
- 210000000988 bone and bone Anatomy 0.000 claims description 24
- 230000033001 locomotion Effects 0.000 claims description 19
- 238000005070 sampling Methods 0.000 claims description 11
- 210000003127 knee Anatomy 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 7
- 239000000463 material Substances 0.000 claims description 6
- 241000894007 species Species 0.000 claims 1
- 238000004458 analytical method Methods 0.000 description 216
- 210000001624 hip Anatomy 0.000 description 47
- 210000002414 leg Anatomy 0.000 description 26
- 210000001503 joint Anatomy 0.000 description 17
- 230000036544 posture Effects 0.000 description 14
- 238000006073 displacement reaction Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 7
- 210000001217 buttock Anatomy 0.000 description 6
- 210000002683 foot Anatomy 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 210000000245 forearm Anatomy 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 210000004394 hip joint Anatomy 0.000 description 3
- 241000255925 Diptera Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 210000002832 shoulder Anatomy 0.000 description 2
- 239000002023 wood Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000283690 Bos taurus Species 0.000 description 1
- 235000002566 Capsicum Nutrition 0.000 description 1
- 206010011224 Cough Diseases 0.000 description 1
- 241000287828 Gallus gallus Species 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical group OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 244000007853 Sarothamnus scoparius Species 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 244000309466 calf Species 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000001981 hip bone Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000008267 milk Substances 0.000 description 1
- 210000004080 milk Anatomy 0.000 description 1
- 235000013336 milk Nutrition 0.000 description 1
- 239000008188 pellet Substances 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000005010 torso Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/833—Hand-to-hand fighting, e.g. martial arts competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1068—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
- A63F2300/1075—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/55—Details of game data or player data management
- A63F2300/5546—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
- A63F2300/5553—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6045—Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6607—Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Description
201120684 六、發明說明: 【發明所屬之技術領域】 本發明係有關於人體追蹤系統。 【先前技術】 許多電腦應用程式’像是電腦遊戲、多媒體應用程式 等等,透過控制以讓使用者能操縱遊戲角色或是應用程 式之態樣。通常,此類控制為輸入式使用,例如控制器 遠端遙控、鍵盤、滑鼠等等。不幸地,此類控制在學習 上可能很困難,因此會在使用者與此類遊戲及應用程式 之間產生障礙。此外,此類控制會與實際的遊戲動作戈 是該等控制所使用的其他應用程式動作不同。例如,造 成一遊戲角色去揮動棒球棒的遊戲控制,並不會對應到 一個揮動棒球棒的真實動作。 【發明内容】 本發明在此所揭示的是一種在一場景中追蹤一使用者 的方法及系統。例如,一種影像,像是一場景之深度奢 • 像,可被一裴置所接收、觀察或捕捉。立體像素的一格 ' 點則可基於該深度影像而被產生,從而該深度影像可被 降低取樣。例如,該深度影像可包括複數個像素,其可 被劃分成多個部分或區塊。一立體像素則可針對各個部 分或區塊而被產生,從而該被接收之深度影像可被降低 201120684 取樣成立體像素之格點。 一含括在像素之格點内的背景可被移
手掌、手肘、腿部、腳掌、膝蓋等等 根據一實施例,一含 除以隔離一或更多與一 關之立體像素。一或® 、頭部、肩膀、手臂、 事等,可被加以判定。 額外地,維度(dimensi〇n),像是包括肢體部分之寬度、 長度等等的測量可被加以判定。 模型則可基於該等一或更多肢體部分之位置 或定位及/或所判定之維度而加以調整。例如該模型可 為一骨骼模型,其包括關節及/或骨頭。該模型的—或更 多關節可加以調整,從而一或更多關節可被分派至其所 對應之一或更多肢體部分的位置或定位,及/或在其間所 定義之骨頭可被調整成其對應之一或更多肢體部分的維 可加以處理經調整模型。例如,在一具體實施例中, 該經調整模型可被映射至一虛擬角色(avatar)或遊戲角 色,從而該虛擬角色或遊戲角色可被繪製成動畫來模仿 使用者,及/或可提供經調整模型給一在一計算環境中之 姿態函式庫(gestures library),其可被用來判定控制以在 基於在該模組中之各種身體部份的位置而一應用程式内 執行。 此發明内容係提供以按簡要形式來介紹概念之選擇, 該等概念會在以下的實施方式中更進一步地詳細描述。 201120684 此-明内容並未意圖識別本發明所主張標的之關鍵特徵 或重要特徵,亦未f意圖用來限制本發明所主張標的之 此外,本發明所主張標的並未受限於能解決於本 昌不任何部分中所註明之任何或全部缺點的實作。 【實施方式】 圖1A及圖1B為一示範性具體實施例,其繪示一具有 一正在遊玩拳擊遊戲之使㈣18之目標辨識^減追 蹤系統10的組態。在一示範性具體實施例令,目標辨 識、分析及追蹤系、统10可被用來辨識、分析,及二 縱一人體目標,像是使用者18。 如圖1A所示,該目標辨識、分析及追㈣統可包 括一計算環境12。該計算環境12可為—電腦…遊戲 系統或主機等等。根據一示範性實施例,該計算環境12 可包括硬體組件及/或軟體組件從而該計算環境1 2可 被用來執行應用程式,像是遊戲應用程式、非遊戲應用 程式等等。在—具體㈣財,料算環境12可包括一 ,理器’像是-標準處理器、—特製處理器、—微處理 盗等等,其可執行指令,包括例如用於接收一深度影像 之扣令;基於該深度影像產生立體像素之格點的指令; 移除一含括在立體像素格點内之背景以隔離—或更多與 人體目標相關之立體像素的指令;判定該經隔離人體目 標之一或更多肢體部分的位置或定位的指令;基於該一 201120684 或更多肢體部分之位置或定位來調整一模型的指 任何其他適當的指令’其都將在以下做更詳細地描述一。 如圖1A所不’該目標辨識、分析及追蹤系統料 包括-捕捉裝4 20。該捕捉裝置2〇可為,例如,—相 機,其可被用於視覺上監測—或更多使用者,像是使用 者18,從而由一或更多使用者所做出的姿態及/或移動可 被捕捉、分析及追縱’以在—應用程式内執行—或更多 控制或動作’及/或以動晝繪製一虛擬角色或螢幕上之角 色’此將在以下做更詳細地描述。 根據—具體實施例,該目標辨識 '分析及追蹤系統10 可被連接到一視聽裝置16,像是電視、螢幕、高清晰度 電視(HDTV)等等’其可將遊戲或應用程式之視覺及/或聽 覺效果提供給—使用者,像是使用者1 8。例如,計算環 境12可包括一視訊配接卡(像是一顯示卡)及/或一音 訊配接卡(像是音效卡),其可提供與遊戲應用程式、非 遊戲應用程式等等相關之視聽信號。該視聽裝置16可從 該计f環i兄12處接收該等視聽信號,然後可將與該等視 聽信號相關之遊戲或應用程式之視覺及/或聽覺效果輸 出…使用者18。根據一具體實施例,該視聽裝置16可 連接到s十算環境12經由,例如,一 s端子規線、一同軸 纜線、一 HDMI纜線、一 DVI纜線、一 VGA纜線等等。 如圖1A及1B所示,該目標辨識、分析及追蹤系統1〇 可被用來辨識、分析及/或追蹤—人體目標,像是使用者 18。例如,可使用該捕捉裝置2〇來追蹤使用者18,從 201120684 而使用者18之姿勢及/或移動可被捕捉到以動晝繪製一 虛擬角色或螢幕上角色及/或可被解譯成可用來影響正 由計算環境12所執行之應用程式的控制。因此,根據一 具體實施例,使用者18可移動他(或她)的身體以控制 該應用程式及/或動畫繪製該虛擬角色或螢幕上之角色。 如圖1A及ιΒ所示,在一示範性具體實施例中,在計 算環境12上執行之該應用程式可為一使用者18正在遊 玩的拳擊遊戲。例如,該計算環境12可使用視聽裝置 16以提供—拳擊對手的視覺呈現給使用者18。該計算環 境U亦可使用視聽裝置16來提供一玩家虛擬角色利之 視覺呈現,其中該使用者18可控制他(或她)的移動。 例如’如圖1B所示,使用者18可在實體空間中揮出__ 拳頭而使得該玩家虛擬角色4〇會在遊戲空間中揮出一 拳頭。因此,根據一示範性具體實施例,該目標辨識、 刀析及追蹤系、统10之該計算環境12及該捕捉裝置可被 用來辨識並分析在實體^間中使用者18的拳頭,從而該 拳頭可被解譯成在遊戲空間中該玩家虛擬角色40的遊 戲控制’及/或該拳頭的動態可被用來動晝繪製在遊戲空 間中的玩家虛擬角色40。 二 其他使用者18的移動亦可被解譯成其他控制或動 作,及/或被用來動晝繪製該玩家虛擬角&,像是快速擺 動 ' 迁心進、前後左右移動、刺拳或是揮出各種不同 力道的拳頭。此外,某些移動可被解譯成能對應到除了 控制玩家虛擬角色4G之外動作的控制。例如,在— 201120684 實施例中,該玩家可使用移動來停止、暫停、儲存遊戲、 選擇等級、檢視高分、與朋友通訊等等。根據另一具體 實施例,該玩家可使用移動而從—主要使用者介面中選 擇遊戲或其他應用程式。因此,在示範性具體實施例中, 使用者18之動態的完整範圍為可用,並可按任何適當方 式來使用及分析以與應用程式互動。 在示範性具體實施例中,人體目標(像是使用者18) 可具有一物件。在此類具體實施例中,一電子遊戲的使 用者可握持著該物件,從而玩家及該物件的動態可被用 來調整及/或控制該遊戲之參數。例如,一握著球拍之玩 家的動態可被追縱並用來控制在一電子運動遊戲中之螢 幕上球拍。在另一具體實施例中,一握著一物件之玩家 的動態可被追蹤並用來控制在一電子戰鬥遊戲中之螢幕 上的武器。 根據其他示範性具體實施例,該目標辨識、分析及追 蹤系統10可進一步被用來將目標移動解譯為作業系統 及/或應用程式控制,其係屬於遊戲領域之外。例如,虛 擬地’ 一作業系統及/或應用程式之任何可控制態樣可受 控於目標(例如使用者1 8 )的移動。 圖2繪示該捕捉裝置20之示範性具體實施例,其可用 於該目標辨識、分析及追蹤系統1 〇。根據一示範性具體 實施例,該捕捉裝置2〇可被組態設定以捕捉具有深度資 訊之視訊,其包括一深度影像,該深度影像可包括透過 任何適當技術之深度值,例如包括飛時測距 201120684 (time-of-flight)、結構光源(structured light)、立體影像 等等。根據一具體實施例,該捕捉裝置20可將該深度資 訊組織成「Z圖層」,或是與Z軸垂直並沿著其視線從深 度攝影機延伸的圖層。 如圖2所示’捕捉裝置20可包括一影像攝影機組件 22 ^根據一具體實施例,該影像攝影機組件22可為一深 度攝影機,其可捕捉一場景的深度影像。該深度影像可 包括所捕捉場景之二維(2D)像素區域,其中在2D像素區 域内之各個像素可代表一深度值,像是以,例如公分或 公尺等等為單位,在捕捉場景中從攝影機到物件的長度 或距離。 如圖2所示,根據一具體實施例,影像攝影機組件η 可包括IR光源组件24、三維(3D)攝影機26以及rgb攝 影機28 ’其可用來捕捉場景之深度影像。例如,在飛時 測距分析中,捕捉裝置2 〇之Ϊ R光源組件2 4可發射一紅 外線到該場景上,且可㈣使用感應器(未顯示)以透 過使用例如3D攝影機26及/或RGB攝影機28之方式來 偵測來自-或更多在場景中之目標及物件之表面的背向 散射(backscattered)光源。在某些具體實施例中,可使用 脈衝紅外光,從而可測量在一輸出(。utg〇ing)光脈衝及— 對應輸入( — Μ)光脈衝之間的時間,並可將其用在判 定從該捕捉裝置2〇到-在場景中之目標或物件上之特 :位置的實體距離。額外地,在其他示範性具體實施例 中,該輪出光波之相位可與該輸入光波之相位相比較以 201120684 判定-相位平移。該相位平移則可用來判定從該捕捉裝 置到在目標或物件上之特定位置的實體距離。 根據另一具體實施例,飛時測距分析可用來透過隨著 時間分析反射光束之強度的方式而間接地判定從該捕捉 裝置到在目標或物件上之特定位置的實體距離,其分析 方式可經由各種技術來達成,包括例如散射光脈衝成像。 在另一示範性具體實施例中’該捕捉裝置2〇可使用一 結構光源以捕捉深度資訊。在此一分析中,圖樣 (patterned)光(亦即光會顯示成已知圖樣’像是格點圖 樣或是線條圖樣)可經由,例如IR光源組件24,被投 射到場景上。在撞擊了一或更多在場景中之目標或物件 的表面之後,該圖樣會相應地變形。此圖樣之變形會被, 例如3D攝影機26及/或RGB攝影機28所捕捉,且然 後會被分析以判定從該捕捉裝置到在目標或物件上之特 定位置的實體距離。 根據另一具體實施例’該捕捉裝置2〇可包括二或更多 實體分離的攝影機,其可從不同角度去檢視一場景以獲 得視覺立體資料’該視覺立體資料可經解析而產生深度 資訊。 該捕捉裝置20可更包括一麥克風30。該麥克風30可 包括一轉換器(transducer)或感應器,其可接收並轉換聲 音成一電子信號。根據一具體實施例,麥克風30可用來 減少在該目標辨識、分析及追蹤系統1 〇中之捕捉裝置 2〇及計算環境12之間的回授。額外地,麥可風30可用 201120684 來接收S則5號,其亦可由使用者所提供以控制像是遊 戲應用程式、非遊戲應用程式等等之類的應用程式該 等應用程式可由計算環境12所執行。 在。示範性具體實施例中,該捕捉裝置2 〇可更包括一 處理器32,其可與影像攝影機組件22運作通訊。處理 器32包括;f示準處理器、一特製處理器、一微處理器等 等’、可執行才曰令,包括例如用於接收一深度影像之指 令’基於該深度影像產生立體像素之格點的指令·移除 -含括在立體像素格點内之背景以隔離一《更多與人體 目標相關之立體像素的指令;判定該經隔離人體目標之 -或更多肢體部分的位置或定位的指令;基於該一或更 多肢體部分之位置或定位來調整一模型的指令,或任何 其他適當的指令,其都將在以下做更詳細地描述。 該捕捉裝置 了更包括一記憶體組件3 4 ,其可儲存 由處理器32所執扞夕共人丄 丁之|曰7、由3D攝影機或RGB攝影機 所捕捉到之影像或影像之訊框、或任何其他適合的資 ^〜像等等。根據一示範性具體實施例,記憶體組件 括IW機存取記憶體(RAM)、唯讀記憶體(r⑽)、 、^己憶體、快閃記憶體、硬碟或任何其他適合的儲存 3 且/ 。如圖2所示,在一具體實施例中,該記憶體組件 可為—與影像捕捉組件。及處理器”通訊連接的獨 :根據另―具體實施例,記憶體組件34可整合到 理盗32及/或影像捕捉組件22。 如圖2所不’捕捉裝置2〇可經由-通訊鏈結36而與 11 201120684 β|算環境12通訊連接。該通訊鏈結36可為-種有線連 :連r等:如,連接、火線(Fi~—^ 、” 4,及/或無線連接,像是無線802.1 1b、g、a 或連接根據一具體實施例,計算環境i 2 I# # _ _ 脈,。捕捉裝置2G,其可被用來判定何時要經由—通訊鍵 結36來捕捉,例如,一場景。 額外地,該捕捉裝置20可提供由例如3D攝影機26 或RGB攝衫機2 8所捕捉到的深度資訊及影像,及/ 或可由該捕捉裝置2〇經由通訊鏈結%而對該計算環境 12產生之骨骼模型。該計算環境12則可使用該模型、 深度資Λ及捕捉影像以,例如,控制一應用程式(像是 遊戲或疋文子處理器及/或動畫繪製一虛擬角色或螢 幕上角色。例如,如圖2所示,該計算環帛12可包括一 姿勢函式庫19G〇該姿勢函式庫19()可包括姿勢過滤器 的集合,各者包含關於能由骨骼模型所擺出(如同使用 者移動時)的姿勢之資訊。由攝影機26、28以及捕捉裝 置20按骨骼模型的格式所捕捉到之資料,以及該骨骼模 型相關之一楝,可與在姿勢函式庫19〇内之姿勢過濾器 相比較,以識別一使用者(由該骨骼模型所表示)何時 已擺出了一或更多姿勢。這些姿勢可與應用程式的各種 控制相關連。因此,計算環境丨2可使用姿勢函式庫丨9〇 以解譯(interpret)骨骼模型的移動並基於該移動來控制 一應用程式。 圖3繪不一計算環境之示範性具體實施例,其可用來 12 201120684 解譯在-目標辨識、分析及追蹤系統中的一或: 勢,及/或動畫緣製-由目標辨識、分析及追㈣^ 示之虛擬角色或營幕上角色。該計算環境,像是如上: 般關於圖1A-2之計算環境12可為一多媒體主機_, 像是-遊戲主機。如圖3所示,多媒體主機1〇〇且有— 中央處理器(CPU)101,其具有第—層絲ι〇2、第二層 快取104及快閃R0M (唯讀記憶體)1〇6。該第—層快 取102及第二層快取104能暫時地儲存資料並因此減少 記憶體存取週期的次數,藉此增進處理速度及產能。可 提供具有多於一核心乂 CPU 1〇1,且因此’會有額外的 第一層快取1〇2以及第二層快取1〇4。當開啟多媒體主 機時,快閃ROM 106可儲存在一開機程序之初始相位期 間所载入之可執行碼。 一圖像處理單元(GPU)108及一視訊編碼器/視訊編解 碼l§(codec)114會形成一用於高速及高解析度圖像處理 之視訊處理管線。資料會經由匯流排而從圖像處理單元 1 〇8處攜載到視訊編碼/視訊編解碼器丨丨4。該視訊處理 管線將資料輸出至一 A/V(audio/video)埠140以用於電視 或其他顯示器之傳輸。一記憶體控制器丨丨〇係連接到 GPU 108以幫助處理器對各種類型之記憶體U2 (像是, 仁非僅限於 ’ RAM(Random Access Memory))的存取。
多媒體主機1〇〇包括I/O控制器12〇、系統管理控制器 122、音訊處理單元123、網路介面控制器124、第一 USB
主控制器126、第二USB控制器128以及前置面板I/O 13 201120684 子配件130,該等元件係較佳地 ττο„ 只1下在—模組11 8上。 USB控制器126及128能作為 用於周邊控制器142(1)- 142(2)、無線配接器148以及外 tJ. „ 隐體裝置146(例如, f、閃δ己憶體、外部CD/DVD光碑拖 味機、可移除媒體等等) 的主控端。網路介面124及/ π 1 及無線配接器148能提供對 料0朴崎網路、家庭網路等等)的存取,且可為 各式無線或有線配接組件之廣泛種類巾的任—者,包括 了乙太網路卡、數據機、藍芽模组、纜線數據機等等。 系統記憶體⑷係提供來做為储存於開機程序期間所 載入的應用程式資料之用。亦提供了媒體驅動機144且 可包含一 DVD/CD光碟機、硬碟機、或其他可移除的媒 體驅動機。媒體驅動機144可位在多媒體主機1〇〇之内 部或外部。應用程式資料可經由媒體驅動冑144而被存 取以由多媒體主機100來執行、播放等等。媒體驅動機 ⑷係經由—匯流排’像是SATa匯流排或其他高速連結 (例如IEEE1394 )而連接到1/〇控制器12〇。 系統管理控制器122提供關於確保多媒體主機1〇〇之 可用性的各式服務功能。音訊處理單元123及音訊編解 碼器132月色形成具有高傳真度&立體聲處自的對應音訊 處理管線。音訊資料係在音訊處理單元123及音訊編解 碼器132之間經由一通訊鏈結所攜載。音訊處理管線會 將資料輸出到入斤埠140以由外部音訊播放器或具有音 訊處理能力之裝置來加以重製。 月_J置面板I/O子配件13〇支援電源鍵15〇及退出鍵152 14 201120684 的功能’以及任何在多媒體主機1〇〇之外部表面上所露 出的LED或其他指示器。一系統電源供應器模組1 提 供電力給多媒體主機100的組件。風扇138能降低在多 媒體主機100内之電路的溫度。 CPU101、GPU108、記憶體控制器110以及在多媒體 主機内1 00之其他各種組件,係經由一或更多的匯流排 而互相連接,包括了序列及並列匯流排、記憶體匯流排、 周邊匯流排以及處理器或使用任何一種匯流排架構之本 地匯流排。舉例而言,此類架構可包括一周邊組件相互 連接(PCI)匯流排、pci-Express匯流排等等。 當多媒體主機1 〇〇開機時,應用程式資料可從系統記 憶體143處載入到記憶體112及/或块取記憶體1〇2、ι〇4 並在CPU101執行。當導覽到在多媒體主機1〇〇上可用 之不同媒體類型時,應用程式可呈現一圖像使用者介 面,其提供了 一致性的使用者經驗。在運作中時,含在 媒體驅動機144内之應用程式及/或其他媒體,可從媒體 驅動機144處被啟動或運行,以提供額外的功能給多媒 體主機1〇〇。 多媒體主機1 〇〇可透過將系統連接到電視或其他顯示 器之方式’而如同獨立系統般運作。在此獨立模式中, 多媒體主機100允許一或更多之使用者能與系統互動、 觀賞電影、或聆聽音樂。然而,在透過網路介面124或 無線配接器128而使寬頻連接性之整合可用下,多媒體 主機1 00可進一步如同在一較大網路社群中之參與者般 15 201120684 運作。 當多媒體主機1 〇〇開機時,一設定數量之硬體資源由 多媒體主機作業系統所保留給系統使用。這些資源可包 括記憶體保留(例如丨6MB)、CPU及GPU工作週期(例如 5%)、網路頻寬(例如8kb)等等。因為這些資源係在系統 開機時間所保留,故該等保留資源不會離開應用程式之 檢視。 特別是’記憶體保留較佳地會大到足以含有該啟動核 心、並行系統應用程式及驅動程式。CPU保留係較佳地 為恆定,從而若該所保留之CPU使用量能由系統應用程 式所用,則一閒置執行緒(thread)將會消耗掉任何未使用 之工作週期。 關於GPU保留,由系統應用程式(例如彈出式視窗) 所產生的輕量訊息係透過使用Gpu中斷的方式來顯示, 以排程編碼以將彈出式視窗顯現成覆蓋(〇verlay)形式。 對於覆蓋形式所需之記憶體數量視覆蓋區域之尺寸以及 與螢幕解析度之覆蓋較佳比例而定。當一完整使用者介 面由該並行系統應用程式所使用時,能使用一獨立於應 用程式解析度之外的解析度是比較好的。一定標器 (scaler)可被用來設定此解析度,從而改變頻率及讓^同 步(resynch)之需求可被消除。 在多媒體主機100開機且系統資源被保留之後,並行 系統應用程式執行以提供系統功能。系統功能能被封裝 (encapsuiated)進系統應用程式之集合内,該等系統應用~
16 S 201120684 程式係在如上述之所保留系統資源内執行。作業系統核 心識別執行緒,該等執行緒為系統應用程式執行緒對上 遊戲應用程式執行緒。系統應用程式較佳地被排程以在 預定時間及時間間隔在CPU 101上運行,以便提供一致 性的系統資源檢視給應用程式。排程步驟能針對在主機 上運行之遊戲應用程式而最小化快取分裂。 當並行系統應用程式需要音訊時,音訊處理程序會由 於時間敏感度之故而對遊戲應用程式非同步地排程。當 系統為主動(active)時,多媒體主機應用程式管理器(如 下述)控制遊戲應用程式之音訊層級(例如,靜音、減 弱)。 輸入裝置(例如控制器142(1)及控制器142(2)係由遊 戲應用程式及系統應用程式所分享。輸入裝置不是保留 資源,但是能在系統應用程式及遊戲應用程式之間切 換,從而各者將擁有裝置的焦點。應用程式管理器較佳 地控制了輸入争流的切換,而無需習得遊戲應用程式之 知識’以及一驅動程式維持關於焦點切換之狀態資訊。 攝影機26、28以及捕捉裝置20可定義用於主機1〇〇之 額外輸入裝置* 圖4繪不了計算環境22〇之另一示範性具體實施例, 其可為圖1A-2中所示之計算環境12,該計算環境12係 用來解#在-目標辨識、分析及追縱系統中之—或更多 姿勢及/或動晝繪示由一目標辨識、分析及追蹤系統所 顯不之一虛擬角色或螢幕上角色。該計算系統環境220 17 201120684 只是一適合計算環境的範 是太狢 且非忍圖對使用之範疇或 疋本發明之功能作任何限 ^ ^ . v 彳算蜋3兄220亦不應被解 任…:何與該示範性作業環境220所繪示之組件的 公、結合有關的相依性或需求。在某些 施 I/種所述之計算元件可包括電路,其經組態以例 :本揭示之特定態樣。例如,於本發明中所用之術語「電 ㈣:包括特定之硬體組件’其經組態以由動體或切換 =來執行功能。在其他示範性具體實施例中,該術語「電 」可包括通用處理器、記憶體等等,其由具體化可運 且二執行功能之邏輯的軟體指令所組態設定。在示範性 /、體貫施例中’電路包括了硬體及軟體的組合,一種實 :者可撰寫原始碼’其能具體化邏輯且原始碼可被編譯 可由通用處理單元所處理運算之機器可讀碼。由於本 湏域中熟悉技術人士可體認到本領域之狀態已進化到在 硬體軟體或是軟/硬體之結合之間僅有微小差異的時點 上γ為了實行特定功能而在硬體vs軟體上的選擇在設計 上是留給實作者作決定。更具體而言,本領域中之熟悉 技術人士可體認到一軟體處理程序可被轉換成相等的硬 架構,且硬體架構其本身可轉換成相等的軟體處理程 序。因此,硬體實作vs軟體實作的選擇是留給實作者在 设計上所做出的決定。 在圖4中,計算環境22〇包含一電腦241,其典型地 包括各式的電腦可讀取媒體。電腦可讀取媒體可為任何 可用媒體,其可由電腦241所存取並包括揮發性以及非 18 201120684 揮發性媒體、可務& β κ々人# j移除及非可移除媒體兩者。系統記憶體 包括具有揮發性及/或非揮發性媒體形式之電腦可儲 存媒體I疋唯讀記憶體(R〇M)223以及隨機存取記憶體 (RAM)260。一其夫认 … I本輸入/輸出系統224(BIOS)含有基本常 式(routine),其有助於將資訊在電腦mi内部的元件之 間轉換{象疋在開機期間,係典型地儲存在中。 RAM 260典型地含有可立即地存取之資料及/或程式模 組’及/或目前正由處理單元259所運作之資料及,或程式 模組。舉例而言 應用程式226、 ’且非受限於,圖4繪示了作業系統225、 其他程式模組227及程式資料228。 電腦241亦可包括了其他可移除/非可移除、揮發性/ 非揮發性電腦儲存媒體。僅作為舉例,圖4繪示了一能 躓取或寫入非可移除、非揮發性磁性媒體之硬碟機2 3 8、 能讀取或寫入可移除、非揮發性磁碟254之磁碟機239、 以及能讀取或寫入可移除、非揮發性光碟253 (像是CD R〇M或是其他光學媒體)之光碟機240。其他可用於示 範性作業環境之可移除/非可移除、揮發性/非揮發性之電 腦儲存媒體,可包括,但非受限於,磁帶卡E、快閃記 隐卡數位多功能光碟(DVD)、數位影帶、固態m 固態eROM等等。硬碟機238係通過非可移除記憶體介面 (像是介面234)而典型地連接到系統匯流排22ι,而磁 =機239及光碟機24G係通過可移除記憶體介面(像是 介面235 )而典型地連接到系統匯流排221。 上述所討論並於圖4中所繪·示 之驅動機及其相關之
19 201120684 腦儲存媒體,接供^了雷日进 # 杈仏了電腦可讀取指令、資料結構、程式 模組及用於電腦241之其他資料的儲存。圖4中,硬碟 • 機238係繪示成能儲存作業系統258、應用程式257、其 . ⑽式模組256及程式資料m意的是這些組件 可與作業系統225、應用程式226、其他程式模組227及 程式資料228相同或是相異。作業系統258、應用程式 Μ?、其他程式模組256及程式資料251在此被給予了不 同號碼以至少繪示了他們是屬於不同的拷貝。使用者可 通過輸入装置(像是鍵盤251及指向裝置M2,其通常 是指滑鼠、軌跡球或觸控版)輸入命令及資訊到電腦 Μ卜其他輸入裝置(未顯示)可包括麥克風、搖桿、遊 ::把、衛星碟、掃晦器等等。這些及其他輸入裝置常 承疋通過一耦接到系統匯流排之使用者輸入介面2%而 連接到處理單元259,但也可尤其他介面及匯流排架構 來連接,像是並列埠、遊戲琿或是—通用序列谭(usb)。 攝影機26、28及捕捉裝置20可定義用於主機1〇〇之額 外輸入裝置。一螢幕242或其他類型的顯示裝置亦可經 由一介面(像是視訊介面232 )被連接到系統匯流排 . 22卜除了螢幕外’電腦亦可包括其他周邊輸出裝置,像 是制队244及印表機243,其可通過一輪出周邊介面 ' 來連接。 電腦241可運作在一使用邏輯連結到一或更多遠端電 腦(像是遠細電腦246 )之網路環境。遠端電腦246可 為個人電腦、伺服器、網路PC、對等式裝置或其他一般 20 201120684 周路知點,並典型地包括上述關於電腦241之許多或全 P元件’雖然…有§己憶體储存裝置Μ?已在圖4中繪示。 圖2中之邏輯連結包括了區域網路(LAN)245以及廣域網 (AN)249但X亦可包括其他網路。此類網路環境在 辦公室、企業廣域電腦網路、企業内部網路及網際網路 中是很常見的。 田在LAN網路環境中使用時,電腦241係通過_網 2介面或配接器237來連接到LAN 245。當在—UN網 環境中使用時,電腦241典型地包括—數據機25〇或 ”他透過侧249 (像是網際網路)來建立通訊之裝置。 數據機250,其可;^斗、A丨 ^ 、 為内邛或外部,可經由使用者輸入介 236或其他適當機制,而連接到系統匯流排221。在 1路環境中,所述關於電腦241之程式餘或是盆部 :,可被儲存在遠端記憶體儲衫置中。舉例而言,且 非受限於,圖4妗示了 | " 子在汜憶體裝置247之遠端應 " 吾人應體認$彳所示之網路連接可為示範性 且可使用旎在電腦之間建立一通訊鏈結之裝置。 :5說明-種用於在—場景中追縱—使用者的示範性 方法300的流程圖。可 加l 使用,例如與圖1A-4有關之該目 標辨識、为析及追蹤系統 境⑴來實作示範性方法30=裝置20及/或計算環 t, ^ - r00。在一示範性具體實施例 式 用程式碼(亦即指令)的形 識:程式碼可由’例如與…有關之該目標辨 識1析及追縱系統之捕捉裝置2〇及/或計算環境 201120684 12 ’來執行。 根據—具體實施例,在步驟305,可接收-深度影像。 例^ ’該目標辨識、分析及追蹤系統可包括—捕捉裝置, 像疋上述與圖1A_2有關的捕捉裝 捕捉或觀察一場景,……+該捕捉裝置可 _ 琢景該场景可包括一或更多目標。在— :範性具體實施例中,該捕捉裝置可為—深度攝影機, ::經設置以使用任何適合的技術(像是飛時測距分析、 結構光源分析、立體影像分析等等)來獲得一影像 是該場景之一深度影像。 該深度影像可為複數個受到觀察之像素,其中各個成 觀察像素具有一受觀察之深度值。例如,該深度弓丨相; 包括所捕捉場景之二維(2D)像素區域,其中在2D像素區 域内之各個像素可擁有一深度值’像是以例如公分或公 尺等等為單位,在捕捉場景中從攝影機到物件的長 距離。 一 圖6繪示了-深度影像4〇〇之示範性具體實施例,其 可在步驟3 0 5所接收。椒姑 士 f 曰19·«· ^根據一不範性具體實施例,該深 度影像構可為—場景之影像或簡,其係由例如與上 述圖2有關之該捕捉裳置2〇之3D攝影機26及/或臟 攝影機28所捕捉到的。如圖6所示,深度影像400可包 括一人體目標402a,其對應至,例如,—使用者,像是 上述與圖1A及1B有關之使用者 便用者以及—或更多非人體 目標’像是在所捕捉場景中的牆壁、桌子、螢幕等等。 如上所述,該深度影像4⑽可包括複數個受觀察像素, 22 201120684 =像素具有與其相關之深度 像可包括該所捕捉』如該冰度影 扣像素區域中’、—維(2D)像素區域,其中在該 度值,W如;^值及Η的各像素可擁有一深 中從攝影機到物件的長=尺等等為單位’在捕捉場景 丁 w食度或距離。 在—具體實施例中, 深度影像之像素的不同1 可被以,從而該 繪從該捕捉裝置到人體〜色會對應到及/或視覺上地描 同距離ϋρ 及非人體目標4〇4之不 /、最#近該捕捉裝置之目標相關的像 .^深度影像中之紅色及/或橘色之色度來著色,同 ’、目私更不相關之像素可用在深度影像中之綠色及 /或藍色之色度來著色。 回到圖5,在-實施例中,在接收了該影像之後,於 步驟3〇5 ’ 一或更多之高變異數及/或雜訊深度值可從該 深度影像巾移除及/或將該深度影像平滑化;遺失的部份 及/或已移除深度資訊可被填滿及/或重新構築;及/或任 何可在該已接收深度影像上執行任何其他適當的處理程 序,從而m罙度影像相@之該;果度資㉛可用來產生— 模型,像是一骨骼模型,其將在以下做更詳細地描述。 根據一示範性具體實施例,在步驟3丨〇,一或更多立 體像素之格點可基於該已接收深度影像而產生。例如, 該目標辨識、分析及追蹤系統可透過產生一或更多立體 像素之方式來降低取樣該已接收深度影像,該一或更多 立體像素係使用了含括在已接收深度影像内之資訊,從 23 201120684 而可產生一經降低取樣之深度影傻。户 在—具體實施例 中,該一或更多之立體像素可為容晉_ 重凡件(volume elements),其可代表在一次取樣格點 3枯在已接收深 度影像内之資訊的資料或數值。 例如,如上所述,深度影像可包括
匕栝所捕捉場景之2D 像素區域,其中各像素可具有與其相關連之—X值、一 Y值,及一深度值(或Z值)。在一罝㈣香# 具體貫施例中,該深 度值可透過將在2D像素區域中之像素減少成一或更多 立體像素之格點的方式而被降低取檨。也丨l 丨取 例如,該深度影 像可被劃分成像素之部分或區塊,像 / 1豕疋像素之4x4區 塊、像素之4x4區塊、像素之8χ8區塊、像素之腕。 區塊等等。各部分或區塊可經處理 M座生—用於深度影 像之立體像素,其可代表在真實世界空間中.與2D深度影 像之像素相關連之部分或區塊的位置。根據—示範性具 體實施例,可基於以下各值而產生各立體像素之位置: 用於在立體像素可代表之區塊或部分中之像素的有效或 非零深度值的平均深度值、在立體像素可代表之區塊或 部分中之像素的最小/最大及/或中間深度值、在 可代表之區塊或部分中且有一 常 |刀丫八肩有效冰度值之像素的X值 ^ Υ值的平均、或是由深度影像所提供之任何其他適合 貝訊。因此’根據—示範性具體實施例,各立體像素可 2具有以下數值之深度影像之次容量(sUb-V〇lume)部 :S &塊’像是:用於在立體像素可代表之區塊或部分 之像素的有效或非零深度值的平均深度值、在立體像 24 201120684 素可代表之區塊或部分中之像素的最小/最大及/或中間 木度值在立體像素可代表之區塊或部分中具有一有效 冰度值之像素的X值及Y值的平均、或是基於在步驟305 所接收之深度影像像素之對應區塊或部分之X值、γ值 木度值而由深度影像所提供之任何其他適合資訊。 在一具體實施例中’在經降低取樣深度影像中之—或 夕體像素之格點可被加以分層。例如,該目標辨識、 刀析及追蹤系統可產生如上所述般之立體像素。該目標 辨識、分析及追蹤系統則可將所產生立體像素堆疊於在 格點中之一或更多其他所產生立體像素之上。 根據一示範性具體實施例,該目標辨識、分析及追蹤 系統可將在格點中之立體像素圍繞著,例如,在該深度 影像中所捕捉到之場景内之物件邊緣來堆疊。例如,在 步驟305所接收之一深度影像可包括一人體目標及—非 人體目標’像是牆壁。人體目標可與非人體目標重疊, 像是牆壁與,例如,該人體目標之邊緣。在一具體實施 例中’該重疊邊緣可包括資訊’像是深度值、X值、Y 值等等,其與可在深度影像中捕捉到之人體目標及非人 體目標相關連。該目標辨識、分析及追蹤系統可在重疊 邊緣處產生一與該人體目標相關連之立體像素以及—與 s亥非人體目標相關連之立體像素’從而該等立體像素可 被堆疊而該重疊邊緣之資訊(像是深度值、X值、γ值 等等)可保持在該格點中。 根據另一具體實施例,可透過將在步驟3〇5所接收到 25 201120684 之冰度值、x值、γ值等等心深度影像中之像素的資 訊投射到三維(3D)空間的方式,而在步驟310產生一或 更多立體像素之格點。例如,該目標辨識、分析及追蹤 系統可將深度值、X值、Y值等等用於深度影像中之像 素的資訊映射到在3D空間之扣點,其係使用像是攝影 機、影像或是透視法轉換之轉換方式,從而可將資訊轉 換成在3D空間令之梯形或錐形形狀。在-具體實施例 中’具有梯形或錐形形狀之3D空間可被劃分成區塊,像 是可建立起立體像素之袼點的立方體,從而該等區塊或 立方體各者可代表在該格點中之立體像素。例如,該目 標辨識、分析及追蹤系統可將一 3D I點疊加到 (卿咖?瞭)對應至深度影像中之物㈣扣點上。該目 標辨識、分析及追㈣統'然後可將格點劃分或割碎成代 表體像素之區塊’以將該深度影像降低取樣成一較低 的解析度。根據一示範性具體實施例,在格點中之各個 體像素可包括以下各值:用於在立體像素可代表之格 點中與3D $間相關連之像素的有效或非零深度值的平 句木度值在立體像素可代表之格點中與3D空間相關連 之像素的最小/最大及/或中間深度值、在立體像素可代表 之格點中肖3D空間相關連之具有一有效深度值之像素 的X值及Y值的平均、或是由深度影像所提供之任何其 他適合資訊。 之深度影像之一部分的示 7A所示,上述關於圖6 圖7A-7B繪示了被降低取樣 範性具體實施例。例如,如圖 26 201120684 之深度影像4GG之-部分41G可包括複數個像素42〇 , 其中各像素420可具有與其相關之χ值、γ值及深度值 值 > 根據一具體實施例,如上所述,—深度值^像 是深度影像400)可透過將在2D像素區域中之像素減少 成一或更多立體像素之格點的方式而被降低取樣。例 如,如圖7Α所示,深度影像4〇〇之部分410可被劃分成 像素420之一部分或一區塊43〇,像是像素42〇之gw 區塊。該目標辨識、分析及追蹤系統可處理該部分或區 鬼430以產生一立體像素44〇,其可代表在真實世界空 間中與像素420相關連之部分或區塊43〇的位置,如圖 7Α·7Β所示。 回到圖5,在步驟315’背景可從該經下降取樣深度影 像中移除。例如’一背景(像是在該經下降取樣深度影 像中之非人體目標或物件)可被移除以隔離前景物件(像 是與使用者相關之人體目標)。在一具體實施例中,如上 所述,該目標辨識、分析及追蹤系統可透過針對一所捕 捉或受觀察之深度影像而產生一或更多立體像素之格點 的方式,來降低取樣該所捕捉或受觀察之深度影像。該 目標辨識、分析及追蹤系統可分析在降低取樣深度影像 中之各立體像素以判定一立體像素是否與一背景物件 (像是該深度影像之一或更多非人類目標)相關連。若 一立體像素可與一背景物件相關連,則該立體像素可從 §亥經降低取樣之深度影像中移除或丟棄,從而一前景物 件(像是人體目標)以及在該格點中與該前景物件相關 27 201120684 連之-或更多…像素可被隔離。 分=—具體實施例’該目標辨識、分析及追蹤系統可 立體像素以判定—與其相關之物件。例如 所述,—在牛 如上 像之場号二:被觀察或捕捉以作為一深度影 、 京(像疋上述關於圖6之深度影像400 )可包括 :數:物件。該等物件可包括一或更多人體目標及/或一 3更夕非人體目標,像是牆壁、桌子、沙發、檯燈等等。 在-具體實施例中’該目標辨識、分析及追蹤系統可分 析在格點中之各立體像素以判定該場景中之哪個物件係 與該立體像素相關連,從而該目標辨識、分析及追縱系 先可在步驟315識別在一場景中與各物件相關連之立體 像素。因此,根據—示範性具體實施例,若_人體目標 或某人可站在場景中之—牆壁前面,該目標辨識、分析 及追蹤系統可分析各立體像素以判定該立體像素是否與 該人體目標或該牆壁相關連。 、 、為了判定料哪個物件係'可與—立體像素相關 連’該目標辨識、分析及追蹤系統可比較數值,像是用 於在立體像素可代表之區塊或部分中之像素的有效或非 ^深度值的平均深度值'在立體像素可代表之區塊或部 刀中之像素的最小/最大及/或中間深度值、在立體像素可 代表之區塊或部分中具有—有效深度值之像素的χ值及 Υ值的平肖、或{鄰近或隔壁立體像素之任何其他適合 資訊。例如’在一具體實施例中’可將與在該格點中被 刀析之一特定立體像素相關連之平均深度值,與鄰近於 28 201120684 (在該格點巾被分析之)該特定立體像素的各立體像素 之平均深度值相比較。若在該袼財被分析之該特定立 體像素t平均深度值以及一鄰近立體像素之平均深度值 之間的差可小於一臨界值,則該特定立體像素及該鄰近 立體像素可被識別為屬於相同物件。若若在該格點中被 分析之該特定立體像素之平均深度值以及—鄰近立體像 素之平均深度值之間的差可大於一臨界值,則該特定立 體像素及該鄰近立體像素可被識別為屬於不同物件。根 據一示範性具體實施例,臨界值可為一預定值,其由, 例如’該目標辨識、分析及追蹤系統,基於立體像素可 為同:物件之一部分的可能性或機率所產生。因此,根 據-不fc性具體實施例’若一人體目標或某人可站在由 深度影像所捕捉或觀察之場景中之—牆壁前面,則該目 標辨識、分析及追縦系統可分析該深度影像之各立體像 素以判定該立體像素是否與該人體目標或該牆壁相關 連。 在識別了在已接收深度影像之場景中之該等物件及盘 其相關之立體像素之後,該目標辨識、分析及追蹤系統 則可計算與各經識別物件相關連之資訊。例如,該目標 辨識、分析及追㈣統可針對各經識別物件而計算一最 大世界空間、一最小世界空間位 位置等等。 s纟千均世界空間 在-具體實施例中,該目標辨識、分析及追蹤系統可 於步驟315進一步判定一或更多 、 仕%牙、中所識別之物件 29 201120684 是否應該斑i ” ~琢景中之其他物件合併。例如,一物件 該物件3局邛可從在步驟305所接收之該深度影像中之 制,一之另部分或局部中區別出來。根據一具體實施 蕪二物件之部分或局部可與該物件之另-部分或局部 9 -紅外線陰影來區別’其可由,例 之該物件、足& 牡X琢厅、Τ 施❹ 物件等等所投射。在另性具體實 =一物件之部分或局部可與該物件之另-部分或 9由’例如’與該物件相關連之顏色、紋路 '圖樣 ό路區別° ^ —人體目標之頭部可與該人體目標 之躯幹沿著Υ方向之γ平面藉由,例如,臉部毛髮、各 種服飾衣物等等,來區別。 :了:定-在該場景中經識別之物件是否可實際地成 該%景中經識別之另一物件的部份或局部,該目標 辨識、分析及追縱系統可將關連於該物件之立體像素之 X值及深度值’與關連於鄰近物件之立體像素之χ值及 深度值相比較。例如,該目標辨識、分析及追蹤系統可 將關連於,例如,尤兮棋旦士 在該%景中經識別之第一物件之一或 更多立體像素之X值及深度值,與關連於接近或鄰近於 該第-物件之第二物件的—或更多立體像素之χ值及深 度值相比較。因此,根據__示範性具體實施例,該目標 辨:、分析及追蹤系統可分析在場景中之立體像素,以
判疋第-及第二物件是否可沿著在\方向上所定義的X 平面及/或在Ζ方向上所定義的ζ平面而重叠,從而第一 及第二物件可被合併並被識別成相同物件的部份或局 30 201120684 部。 根據一具體實施例’若該第-物件的-或更多立體像 素之X值及深度值可與該第二物件的_或更多立體μ 之X值及深度值重疊,則該目標辨識、分析及追鞭系統 可合併第-及第二物件’從而該目標辨識、分析及追蹤 系統可將[及第二物件識別成_共同物件之部分或局 部。例如’若關連於該第-物件H體像素可具有 沿著X方向之X值5以及位於第—物件之右外側邊緣之 深度值i〇mm,而關連於該第二物件之 有沿著X方向之X值3以及位於第—物件之左 之深度值10mm’則該目標辨識、分析及追蹤系統可合併 第一及第二物件,從而該目標辨識、分析及追蹤系統可 將第一及第二物件識別成一相同物件之部分或局部。 此外,為了判定在場景中之經識別物件是否可實際地 成為在該場景中經識別之另一物件的部份或局部,該目 標辨識、分析及追蹤系統可判定為物件所定義之邊界盒 (bounding box)是否與在場景中另一物件之邊界盒重 疊。例如,該目標辨識、分析及追蹤系統可針對各經識 別物件來定義一邊界盒。該目標辨識、分析及追縱系統 則可基於,例如’一或更多上述含括於物件中之立體像 素之X值、Y值及/或深度值,而判定一或更多物件之邊 界盒是否重疊。 根據另一示範性具體實施例,該目標辨識、分析及追 蹤系統可藉由例如將含括於物件中之立體像素之χ值、 31 201120684 γ值及深度值加以平的少士 、 9之方式’來將判定各物件之中心 或_央。然後,該目; 铩辨識、分析及追蹤系統可判定在 該場景中之物件中心或中央 错旦Τ夹彼此之間的距離,以判定在 U所識別之物件是否可實際地成為在場景中所識別 之另一物件的部份或局部。基於物件之間的距離,該目 標辨:、分析及追縱系統可合併一或更多物件。例如, 該目標辨識、分;|:斤刀么μ 刀斫及追蹤系統可判定在第一物件之中心 或中央與第二物件之中心或中央之間的距離。若在第一 物件之中心或中央與第二物件之中心或中央之間的距離 可落在—預定範圍(其指示第-以及第二物件應被合併) 之内’則該目標辨識、分析及追縱系統可合併該等物件, 從而該目‘辨識 '分析及追蹤系統可將該第一及第二物 件識別成相同物件之部分或局部。 在一具體實施例中,該目標辨識、分析及追蹤系統可 進V判定在場景中所識別之一或更多物件是否應於步 驟315被區別。例如’在步驟315於該場景中所識別之 物件可貫際地成為兩個分離的物件。為了判定在場景中 之物件是否應該被區別,該目標辨識、分析及追縱系 統可識別為了先前所接收訊框而散之各物件的中央定 位。根據-具體實施例,該目標辨識、分析及追蹤系統 則可同時地填色(fl〇〇dfiu)在場景中之立體像素,該等立 體像素係為了在m〇5料收訊框之深度影像而產 生此填色程序開始於該中央之定位,該中央係依據該 先刖接收訊框之物件所判定。然後,該目標辨識、分析 32 201120684 及追蹤系統可判定在先前所接收訊框中之哪個物件係與 被填色像素較為罪近以使用物件之先前定位。若該等、經 填色立體像素可更靠近在先前已接收訊框中所識別之另 一物件’該目標辨識、分析及追蹤系統可在步驟3丨5將 一物件分割(split)。 在步驟315,該目標辨識、分析及追蹤系統則可判定 經識別物件是否可為一背景物件(像是非人體目標)或 前景物件(像是一人體目標)。根據一示範性具體實施 例,該目標辨識、分析及追蹤系統可基於經識別物件是 否處於動態或移動中,來判定該等經識別物件是為背景 物件或前景物件。例如,該目標辨識、分析及追蹤系統 可包括一參考平面,像是該場景之參考影像其包括, 例如’各立體像素之非動態深度資訊。根據示範性具體 實施例,該參考平面可包括立體像素之最小世界空間位 ,’像是在格點中用於立體像素之通過—連串訊框所判 定之最小X值、Y值及深度值;立體像素之最大世界空 間位置’像是在格點巾用於立體像素之通過—連串訊框 所判定之最小X值、γ值及深度值;立體像素之平均世 2置,像是在格財用於立體像素之通過—料訊框 :::之平均X值、Υ值及深度值;或是任何其他適合 _/考千面。在另—具體實施例中,該參考平面可包括 二二:平均值,其相關於在場景中之各立體像 均值可包括,例如’通過-連串先前已接收訊 疋之立體像素的平均深度值。 33 201120684 根據一具體實施例, 將深度資訊與含括在參:平=識、分析及追縱系統可 動態深度資訊相比較,深度次兮之各對應立體像素的非 所接收之深度影像之場=包括像是與在例如步驟 最大深度值、平$深产伯、之經識别物件相關連之 又值十均冰度值、最小深度 度資訊與在參考平面中。基於該深 資訊間的比較社果,…像素的該非動態深度 -立體像㈣;L 、分析及追㈣統可將 装桂 例如,在一具體實施例中, 右冰度值’像是立體像素值的最小 值及/或平均深度值,可小於在… M最大-度 * ^ , 、在 >考平面中該對應立體像 素之移動中平均值,從 Λ立體像素可在該移動中平均 =…該立體像素可被識別為移動中。根據另一示 體實施例,該目標辨識、分析及追縱系統可計算 與立體像素及在參考平面中之對應立體像素相關連的數 值之間的差值。假若’舉例而言,在—深度值(像是立 體像素之平均深度值、最大深度值、及/或最小深度值) 與^參考平面中之對應立體像素之非動態資訊内所含括 之深度值之間的差值可大於-動態臨界值,該立體像素 可被該目標辨識、分析及追蹤系統識別為移動中。 在另一不範性具體實施例中,該目標辨識、分析及追 蹤系統可將深度資訊(像是立體像素及與其鄰近之立體 像素之最大/罙度值、平均深度值、及/或最小深度值等等) 與含括在參考平面内之各對應立體像素之非動態深度資 訊相比較例如,為了處理邊緣雜訊,該目標辨識、分 34 201120684 析及追蹤系統可將一特定立體像素及與其鄰近之立體像 素之最小深度值,與在參考平面中之對應立體像素之最 小深度值相比較,以判i立體像素及/或與其相關連之 物件是否正在移動m,舉例而t,該特定立體像 素及與其鄰近之立體像素之最小深度值,與在參考平面 中之對應立體像素之非動態資訊内所含括之最小深产 值’兩者之間的差值可大於一動態臨界值,則該特定: 體像素可被該目標辨識、分析及追縱系統識別為移動卜 該目標辨識、分析及追縱系統則可針對各經識別物件 基於移動立體像素之百分比來計算一前景分數。在一具 體實施例中’該目標辨識、分析及追蹤 在可::別為移動中之島内之立體像素之數目,除: 在島内之立體像素之總數,以計算前景分數。 該目標辨識、分析及追縱系統則可 :之物件’其可能超—該分 由:目標辨識、分―統所定義二 :,其可表示-物件處於動態中。例辨 分析及追蹤系統可基於來自目‘辨識、 數而移除或丟棄未在 ,木度衫像之前景分 件(像是可具有景物件,該前景物 在該經降低取樣深度影像中被隔 二 實施例’為了移除或吾棄未在移動中之物件卜 辨識、分析及追㈣、統可透過用零 ’該目標 體像素無效之適當指干g 1其他旎指示該立 ㈣取代X值、γ 35 201120684 度值的方式,來移降 體像素。 〃或丟棄與非移動中物件相關連之立 在步驟320,一或争夕—丄 體邱 —夕肢體部分(像是一或更多軀 體心)可被判定為隔離的前景物件,像是人體目標。 例如’在-具體實施例中,該目標辨識、分析及追蹤系 統可將一或更多之試摆 、 ^木法(heUristic)或規則應用到該隔 離之人體目標以判定’例如,與該隔離人體目標相關連 之中心或中央、頭部、肩膀、手臂、手掌、手肘、腿部、 腳掌、膝蓋等等。根據-具體實施例,基於肢體部分之 判斷該目標辨識、分析及追蹤系統可產生及/或調整該 隔離人體目標之模型。例如’若在步驟3()5所接收之深 度影像可被含括在一由一捕捉裝“像是上述關於圖 之捕捉裝置2 0 )所觀察或捕捉到之初始訊框内,則 可基於該等肢體部分(像是在步驟320所判定之中心、 頭部、肩膀、手臂、腿部等等)之定位透過例如將該骨 骼模型之關節分派至該等肢體部分之判定定位的方式而 產生一模型,此將會在之後更詳細地描述。替代地,若 木度影像可被含括在由捕捉裝置所觀察或捕捉到之後續 或非初始訊框,一已於先前所產生之模型可基於該等肢 體部分(像是在步驟320所判定之中心、頭部、肩膀、 手臂、腿部等等)之定位來調整,此將會在之後更詳細 地描述。 根據一示範性具體實施例,在步驟315隔離該前景物 件(像是人體目標)之後,該目標辨識、分析及追蹤系 36 201120684 統可#异在人體目標中之該等立體像素之平均值以,例 如’在步驟320估測該人體目標之中心或中央。例如, 該目標辨識、分析及追蹤系統可計算含括在人體目 之立體像素之平均位置,其可提供該人體目標之中心或 中央的估測值。在—具體實施例中,該目標辨識 及追蹤系統可基於與立體像素相關連之X值、γ值及深 度值’來計算與人體目標相關連之立體像素之平均: 置例如’如上所述,該目標辨識、分析及追蹤系統可 透過平均與立體像素相關連之像素之X值的方式來計算 立體像素之X值、可透過平均與立體像素相關連之像素 之Y值的方式來計算立體像素之γ值、以及可透過平均 與立體像素相關連之像素之深度值的方式來計算立體像 素之深度值。在步驟320 ’該目標辨識、分析及追蹤系 統可平均含括在該人體目標内之立體像素之χ值、Y值 及深度值,以計算可提供人體目標之中央或中心之估測 值的平均位置。 “ 圖8緣示了一人體目標所估測之中心或中央的示範性 具體實施例402b。根據一示範性具體實施例,—中心或 中央的位置或定位802可基於如上所述般與該隔離:體 目標402b相關連之立體像素的平均位置或定位。 回到圖5,該目標辨識、分析及追縱系統則可在步驟 320定義-用於人體目標之邊界盒,以判定,例如,該 人體目標之核心容量’其可包括該人體目標之頭部及/或 軀幹。例如,在判定該人體目標之,心或令央之估測值 37 201120684
標辨識、 標辨識 '分析及追蹤系餘^•你士、、A A A “ β _
相關連之立體像素)。 C 3興隹場景中所識別之另—物件 例如’如上所述,與背景相關連之 立體像素可在步驟315被移除以隔離該人體目標以及盥 其相關連之立體像素 。如上所述,根據一示範性具體實 施例,為了在步驟3 i 5移除立體像素,該目標辨識、分 析及追蹤系統可用零值或其他能指示該立體像素為無效 之適§ 4曰示器或旗標來取代與背景物件之立體像素相關 連之X值、Y值及/或深度值。在步驟32〇,該目標辨識、 分析及追蹤系統可從人體目標之中心處往左邊方向搜 哥’直到在人體目標之左側觸及到一第一無效立體像 素’並可從人體目標之中心處往右邊方向搜尋,直到在 人體目標之左侧觸及到一第二無效立體像素。該目標辨 識、分析及追蹤系統則可基於,例如,在鄰近於往左邊 方向所觸及到之第一無效立體像素之第一有效立體像素 與在鄰近於往右邊方向所觸及到之第二無效立體像素之 第二有效立體像素兩者的X值之間的差值,來計算或測 量長度。 38 201120684 該目標辨識、分析及追縱系統則可垂直地 搜尋以判定·^人體曰择+ γ方向 盆可用;㈤又’例如’從頭部到臀部, -了用於-義關連於核心容量之邊界盒。根據_ 施例,為了垂直地沿著丫方向搜尋以測量人體目標之寬 度,該目標辨識、分析及追蹤系統可沿著γ軸從 中央往上方向以及往下方向搜尋,直到該目標辨識= 析及追縱系統觸及到m體像素或是未包括與直相 關之X值、γ值或深度值的立體像素。例如,在步驟伽 該目標辨識、分析及追蹤系統可從人體目標之十央往上 方向搜尋,έ到觸&到在人體目標之上端部夕分的第三無 效立體像素’且可從人體目標之中央往下方向搜尋了直 到觸及到在人體目標之下端部分的第四無效立體像素。 該目標辨識、分析及追蹤系統則可基於,例如,鄰近於 往上方向搜尋所觸及到之第三無效立體像素的第三有效 立體像素與鄰近於往下方向搜尋所觸及到之第四無效立 體像素的第四有效立體像素兩者的γ值之間的差,來計 算或測量該高度。 根據一示範性具體實施例,該目標辨識、分析及追蹤 系統可進一步以各種角度(像是30度、45度、6〇度等 等)對角地沿著在X與Υ軸之Χ-γ方向搜尋,以判定可 用於定義與核心容量相關連之該邊界盒的其他距離及數 值。 額外地,該目標辨識、分析及追蹤系統可基於距離或 數值之比率而定義與核心容量相關連之邊界盒。例如, 39 201120684 在一具體實施例中,咳目姆 於上述所心之4並1辨識、分析及追鞭系統可基 0·25、〇.3戍以^ 以一可變化之定值像是〇.2、 該目標辨1 \ 默值來疋義該邊界盒之寬度。 M、分析及追縱系 可基於以下各者來代表核心容量:…x,’其 尋所判定之嗲望势 由/ 口者X軸之水平搜 ^ "第一及第二有效立體像素、由沿著γ軸 之垂直搜晷阱邮a 口 /口 Ϋ Ϊ神 疋之該等第三及第四有效立體像辛,戋 由,例如對角插簋 肢诼京^ 一⑱眘 疋之其他距離及數值。例如,在 一 該目“辨識、分析及追蹤系統可在第 立體像素之χ值處沿著以產生該邊界盒之第一 ^以及在第二有效立體像素之X值處沿著Υ抽產 生該邊界Α之第二垂直線。額外地’該目標辨識、分析 及追蹤系統可在第三有效立體像素之Υ值處沿著乂抽產 生該邊界盒之第一水平線’以及在第四有效立體像素之 Υ值處沿著X軸產生該邊界盒之第二水平線。根據一示 範性具體實施例1—及第二水平線可與[及第二垂 直線交又以形成一矩形或正方形之形狀,其可代表與人 體目標之核心容量相關連的該邊界盒。 圖9繪示了—可被定義以判定一核心容量之邊界盒 804之示範性具體實施例。如圖9所示,邊界盒8〇4可 基於如上述般所判定之第一垂直線VL1及第二垂直線 VL2與第一水平線VH1及第二水平線VH2間之交叉而 形成一矩形形狀。 回到圖5 ’該目標辨識、分析及追蹤系統則可在步驟 201120684 320判定該人體目標之頭部。例如,在—具體實施例中, 在判定該核心容量並定羲與其相關連之邊界 目標辨識、分析及追蹤系統 以 置或定位。 丨-人體目…部的位 為了判定頭部的位置或定位,該目標辨識、分析及追 蹤系統可針對適合於㈣之位置^位來搜尋 者,且可基於分數心各個候㈣巾選❹ = 置。例如,根據一具體實施例,該目標辨識、分析及追 縱系統可搜尋該人體目標之一絕對最高立體像素及二 鄰近或罪近I絕對最高立體像素之立體像素、基於用於 判定-先前訊框之頭部之位置的一或更多遞增立像 素、按一往上向量可從中心或中央垂直地延伸之最古: 仏㈣MUM往上向量用定 先前訊框之最高立體像素的立體像素、按〜】疋一 量在一中心及一最高立體像素之間用於判定―::上向 之最高立體像素或可㈣部之候選者的任=純 立體像素。 、他適合之 然後,該目標辨識、分析及追縱系統可 評分。根據-具體實施例,該二等候選者 對來加以評分。例如1目標㈣、分圖樣配 建立-頭部圓柱體及肩膀圓柱體。該峨系統可 追蹤系統則可基於與被含括在頭部圓柱識、分析及 關連之立體像素之數目來計算該等候選者之:候選者相 在以下做更詳細地描述. 刀數,此將 41 201120684 圖1 〇繪示了可被建立以對與頭部相關連之候選者加 以评分之一頭部圓柱體506及一肩膀808之示範性具體 實施例。根據一示範性具體實施例,該目標辨識、分析 及追蹤系統可基於被含括在頭部圓柱體806及肩膀圓柱 體808内之頭部候選者相關連之立體像素之數目,來計 算该等候選者之分數《例如,該目標辨識、分析及追蹤 系統可基於與頭部候選者相關連之立體像素之定位而判 定在頭部圓柱體806及/或肩膀圓柱體8〇8内部之頭部候 選者之總數,並基於與頭部候選者相關連之立體像素而 判定在頭部圓柱體8〇6 (例如在一區域8〇7内)及/或肩 膀圓柱體808外部之頭部候選者之總數。該目標辨識、 分析及追蹤系統可基於肩膀圓柱體8〇8之左半部lh的 頭部候選者數目與肩膀圓柱體808之右半部RH的頭部 候選者數目之間的差之絕對值的函數而進一步計算—對 稱度量。在一示範性具體實施例中,該目標辨識、分析 及追蹤系統則可藉由把在頭部圓柱體806及/或肩膀圓桎 體808内部之候選者總數減掉在頭部圓柱體8〇6及/或肩 膀圓柱體808外部之候選者總數,並且進一步把在頭部 圓柱體806及/或肩膀圓柱體8〇8内部及外部之候選者總 數之間的差減去該對稱度量之方式,來計算該等候選者 之分數。根據-具體實施例,該目標辨識、分析及追蹤 系統可在進行減法之前,將在頭部圓柱體806及/或肩膀 圓柱體808内部及外部之候選者總數乘以—由該目標辨 識、分析及追蹤系統所判定之常數。 42 201120684 回到圖 S,4θ 根據一具體實施例,若與該等候選者之一 相關連的分數超過了一頭部臨界分數,則該目標辨識、 分析及追縱系統可在步驟320基於與候選者相關連之立 體像素來判定該頭部之位置或定位。例如,在—具體實 施例中,該目標辨識、分析及追蹤系統可基於以下各者 來選擇該頭部之位置或定位:最高點、按-往上向量可 從例如中心或中央垂直地延伸之最高立體像素及/或鄰 近或罪近按先剛在上向量用於判定一先前訊框之最高 立體像素的立體像素、按一先前往上向量在—中心與一 用於判斷一先前訊框之最高立體像素之間的最高立體像 素、在-區域内(像是一盒、_立方體等等)繞著在先 前訊框中之頭部位置或定位的全部立體像素之平均位置 等等。根據其他示範性具體實施例,該目標辨識、分析 及追蹤系統可計算該等數值(像是用於與候選者相關連 之立體像素的X值、Y值及深度值)之平均值,其可超 過該頭部臨界分數以判斷該頭部之位置或定位,戋是該 目標辨識、分析及追蹤系統可基於含括在可超過頭部臨 界分數之候選者之立體像素之一適合線或一最佳適合線 (line of best fit) ’來選擇該頭部之位置或定位。 ’若多於—的候選者超過 了頭部臨界分數’則該目標辨識、分析及追蹤系統可選 擇能具有最高分數之候選者,且然後可基於與能且有最 高分數之候選者相關連之立體像素來判定該頭位置 或定位。如上所述,該目標辨識、分析及追蹤系統可基 43 201120684 於,例如,該等數值(像异爾执也 選者相關連之立體像素=二與能具:最高分數之候 該頭部之位置或定位。 值及冰度值),來選擇 根據一具體實施例,若 的八缸 ,又有任何一個與候選者相關連 的刀數能超過頭部臨界分數, m A .. 則該目私辨識、分析及追 縱系統可使用含括在盥一亦二 ^先則訊框之深度影像相關連之 人體目標中用於判定立 私 體像素之該頭部之先前位置或定 =該頭部分Γ超過該頭部臨界分數,或是若在 觀窣到A所純之彡像可為由該捕捉裝置所捕捉或 覜察到的初始訊框,則續 軚辨識、分析及追蹤系統可 使用人體目標之預定姿勢中 像是了㈣,以自敎位置或定位, 4疋自然站立之姿勢等等。 =另一具體實施例,該目標辨識、分析及追蹤系統 頭部形狀相關連之-或更多二維㈣圖樣。 孩目標辨識、分析及拍炉$ Μ 之☆牌“則可基於與候選者相關連 ΠΓ為—或更…樣之頭部形狀的可能 =來對與頭部相關連之候選者加以評分。例如,該目 標辨識、分析及追蹤系統可 深洚a 4咕 取锒鄰近或罪近立體像素之 =值’該4立體像素可指示定義頭部形狀。若可指示 疋義頭部形狀之立體像素的經取樣深度值可從一或更多 所期待或預先定義之頭部形狀 π狀I立體像素之深度值中脫 、’則該目標辨識、分析及追蹤系統可減少一預設分數 或-初始分數以指示該立體像素不可為頭部。在一且體 實施例中,該目標辨識、分析及追㈣統則可選擇具有
44 S 201120684 的立Hi::::於與具有最高分數之候選者相關連 約由或定位來分派該頭部之位置或定位。 上述蚀另—具體實施例,預設分數或初始分數可為與如 :用頭部及/或肩部圓柱體所計算之頭部相關連的 連的77數°右候選者可非為與-或更多2d圖樣相關 頌部形狀,則該目標辨識、分析及追縱系統可減少 刀數。如上所述’該目標辨識、分析及追蹤系統則可 p超過頭部臨界分數之候選者之分數,且可基於候選 者之位置或定位來分派頭部之位置或定位。 —該目標辨識、分析及追蹤系統可在步驟320進一步判 、,目標之肩膀與臀部。例如,在一具體實施例中, 在判定人體目標之頭部的位置或定位之後,該目標辨 識、分析及追蹤系統可判定該人體目標之肩膀及臀部的 位置或定位。該目標辨識、分析及追蹤系統亦可判定該 肩膀及臀部之方位’像是肩膀或臀部之旋轉或角度。 根據一示範性具體實施例,為了判定肩膀及臀部的位 置或定位,該目標辨識、分析及追蹤系統可基於頭部之 位置或定位以及人體目標之中心或中央,來定義頭部到 中〜之向量。例如,該頭部到中心向量可為於該頭部點 之位置或定位之X值、γ值及深度值(z值),以及該中 心或中央點之位置或定位之X值、Y值及深度值(2值) 之間所定義的向量或線。 圖11繒示了基於一人體目標之頭部及中心或中央之 頭部到中心向量之示範性具體實施例。如上所述,可判 45 201120684 置戈疋位’像是頭部之位置或定位810。如圖11所 不’該目標辨識、分析及追蹤系統則可定義在頭部之位 置或疋位810與中心或中央之位置或定位802之間的一 頭部到中心向量812。 圖5 ’該目標辨識、分析及追蹤系統則可在步驟 320基於頭部到中心向量來定義肩膀容量盒以及臀部容 里盈。例如,根據一具體實施例,該目標辨識、分析及 追蹤系統可基於位移(displacement),像是來自軀體標誌 (像是與頭部或中心(中央)相關連的位置或定位)之 長度,來定義或判定肩膀或臀部之大約位置或定位。該 目標辨識、分析及追蹤系統則可定義環繞著來自躺體標 諸(像是與頭部或中心(中央)相關連的位置或定位) 之位移值的該肩膀容量盒以及臀部容量盒。 旦2 12繪示了基於頭部到中心向量8 12所判定之肩膀容 量盒SVB及臀部容量盒HVB的示範性具體實施例。根 據-示範性具體實施例’該目標辨識、分析及追蹤系統 可基於位移, 位置或定位 像疋來自軀體標誌(像是與頭部相關連的 81〇,或是與中心或中央相關連的位置或定 2 802)之長度’定義或判定肩膀及臀部之大約位置或 定位。該目標㈣、分析及追㈣統則可定義環繞著來 自躺體標諸之位移值的該肩膀容量盒SVD及臀部容量盒 HVB。 1 ,回到圖5’豸目標辨識、分析及追縱系統可在步驟320 進-步基於位移值’例如來自軀體標誌(像是頭部)之 46 201120684 長度’沿著頭部到t心向量來計算肩膀及臀部的令心。 例如’該目標辨識、分析及追蹤系統可向下或向上八著 . 頭部到卜向量移動了位移值之長度,以計算肩膀及臀 部之中心。 根據-具體實施例,該目標辨識、分析及追蹤系統亦 可a疋方位,像疋肩膀及臀部之角度。在一具體實施 例中,該目標辨識、分析及追蹤系統可計算在,例如, 肩膀容量盒及臀部容量盒内之深度值的適合線,以判定 該方位像疋肩膀及臀部之角度。例如,該目標辨識、 分析及追㈣統可基於與肩勝容量盒及臀部容量盒相關 連之立體,素的Χ|、γ值及深度值來計算最佳適合 線’以汁异向量之肩膀斜率,其可定義穿過肩膀中心之 肩膀骨頭’並計算向量之臀部斜率,其可定義穿過臀部 中心在臀部關節之間的臀部骨頭。肩膀斜率及臀部斜率 可定義個別之角度,像U膀及臀部之角度。 根據另-具體實施例,該目標辨識、分析及追蹤系統 可將人體目標之深度值加以鏡射,從而可在步驟320基 」Ρ到中、向s而繞著人體目標之中心反射立體像素 & +又值因此,該目標辨識、分析及追蹤系統可透過 - f卜㈣Μ (像是頭部到中心向量、-從肩膀及/或 臀部邊界盒所計算出之樞軸點等等)反射人體目標之立 體像素之冰度值的方式’針對該軀體之背部加以補償。 “標辨識、分析及追蹤系統則可計算在,例如,肩 膀容量盒及臀部容量盒内含括了經反射深度值之深度值 47 201120684 之適合線,以判定哕古〜 ° ,像是肩膀及臀部之备# 如,該目標辨識、分杯 夂角度。例 追蹤系統可基於盘肩胳〜 及臀部容量盒相關連之人 …膀各量盒 w遇之含括了經反射深度值 的X值、γ值及深度值來 之立體像素 值垠叶算最佳適合線,以 之肩膀斜率’其可定義穿過肩膀中心之肩膀骨頭向5 算向量之臀部斜率,其可定義 /碩,並計 之間的臀部骨頭。肩膀# i °〜在臀部關節 u肩膀斜率及臀料率可定義 度,像是肩膀及臀部之角度。 之角 圖13繪示了肩膀及臀部之示範性具體實施例, 於肩膀容量盒SVB及臀部容量盒Ηνβ來計算。如圖υ 所示,可如上戶斤述般基於個別之肩肖容量& _及臀部 容量盒HVB來判定肩膀之位置或定位816^以及臀部 之位置或定位818a_b。 回到圖5 ’在步驟32〇 ’該目標辨識、分析及追縱系統 則可判定該人體目標之軀幹。在—具體實施例中,在判 定肩膀及臀部之後,該目標辨識、分析及追蹤系統可產 生或建立一軀幹容量’其可包括與其相關並環繞著頭 部、肩膀、中心及臀部之立體像素。該軀幹容量可基於 頭部、肩膀、中心及/或臀部之位置或定位,而為圓柱體、 丸狀(像是具有圓形末端之圓柱體)等等。 根據一具體實施例,該目標辨識、分析及追蹤系統可 建立一圓柱體’其可基於頭部、肩膀、中心及臀部等等 而代表具有維度之核心容量。例如,該目標辨識、分析 及追蹤系統可建立一圓枉體’其基於肩膀之寬度而具有 48 201120684 而具有 圓杈體 到身體 ,像是 一寬度或一維度,並基於頭部及臀部之間的距離 一高度。該目標辨識、分析及追蹤系統則可對該 定向或轉動角度,其中該圓柱體可代表沿著頭部 向量之躯幹容量,從而該軀幹容量可反射該方位 人體目標之身區幹的角度。 圖14繪不了圓柱體820的一示範性具體實施例,其。 代表該核心容量。如圖14所示,圓柱體82〇可基於产可 之寬度而具有一寬度或一維度,並基於頭部及臀部=膀 的距離而具有一高度。該圓柱體82〇則亦可被沿著 到中心向量812定向或轉動角度。 4 回到圖5,在步驟320,該目標辨識 '分析及追蹤系一 則可估測或判定該人體目標之肢體。根據—具體實: 例,在產生或建立該躯幹容量後,該目標辨識、分析2 追蹤系統可粗略地將在在軀幹容量外部的立體像素標$ 為肢體。例如’該目標辨識、分析及追縱系統可識Z 軀幹容量外部之各個立體像素,從而該目標辨識、分析 及追蹤系統可將該等立體像素標籤為肢體的—部分刀。析 該目標辨識、分析及追蹤系統則可判定實際的肢體, 像是右及左手臂、右及左手掌、右及左腿、右及左腳掌 等等與㈣容量外部之立體像素相關。在_具體實施例 中’為了判定實際的肢體’該目標辨識' 分析及追蹤系 統可將一識別肢體之先前位置或定位(像是右手臂、左 手臂、右腿、左腿等等)與該軀幹容量外部之立體像素 的位置或定位相比較。根據示範性具體實施例,先前所 49 201120684 識別肢體之先前位置或定位可為在一先前訊框中所接收 之深度影像中之肢體的位置或定位、基於先前移動之一 經投射軀體部分位置蚊位、或—人體目標之表現之任 何適合之先前位置或定位,像是人體目標之完整關節相 連之骨骼模型。以該比較結果為基礎,該目標辨識、分 析及追蹤线則可將在㈣幹容量外部之立體像素盘最 接近之先前所識別肢體相關連。例如,該目標辨識、分 析及追蹤系統可將含括了在該軀幹容量外部之立體像素 各者之χ值、γ值及深度值的位置或定位,與含括了先 前所識別肢體(像是先前所識別之右手臂、 腿、左腿等等)之χ值、丫值 值及冰度值的先前位置或定 位相比較。該目標辨識、分析及追蹤系統則可基於該比 車父f果而將在該躺幹容量外部之立體像素各者與可具有 最罪近位置或定位之先前所識別肢體相比較。 =”體實施例中’為了判定實際肢體,該目標辨識、 :追蹤系統可將在一人體目標之預設姿勢表現中之 之預設位置或定位,軀幹tl、右腿、左腿等等) 物κ卜 /、在忒軀幹谷量外部之立體像素之 位置或疋位相比較。例如, 像可被含括在—由捕板㈣步驟3。5所接收之深度影 内。若^所捕捉或觀察之初始訊框 訊框内,則該目標辨識、分含括在一初始 B 追縱系統可將一肢體之 罝4疋位(像是右手臂、 預設位置或定位等等),血在W左手臂、右腿、左腿之 〃在該4區幹容量外部之立體像素 50 201120684 之位置或定位相比較。根據—示範性具體實施例,所識 別肢體之預設位置或定位可以人體目標來表王 見一預設姿 勢(像是τ姿勢、達文西(Di Vinci)姿勢、自然姿勢等等'), 像是擺出預設姿勢之人體目標之完整關節相連之骨頭或 容量模型。基於該比較結果’該目標辨識、分析及追縱 系統則可將在該躯幹容量外部之立體像素與相關於該預 -又姿勢之最接近肢體相關連。例如,該目標辨識、分析 及追蹤系統可將含括了在該躺幹容量外部之立體像素各 者之X值、Y值及深度值的位置或定位,與含括了預設 肢體(像是預設之右手臂、左手臂、右腿、左腿等等) =X值、γ值及深度值的預設位置或定位相比較。該目 標辨識、分析及追蹤系統則可基於該比較結果而將在該 軀幹谷里外部之立體像素各者與可具有最靠近位置或定 位之預設肢體相比較。 目私辨識、分析及追蹤系統亦可基於所估測肢體而 重新標籤在軀幹容量内部之立體像素。例如,在-具體 實施例中手臂之至少一部分(像是左前臂)可被放 在人體目;^之4區#的前方。基於該所識別手臂之先前 、·或疋位該目標辨識、分析及追蹤系統可將該位置 、♦〜或估测成與上述手臂相關連。例#,先前所識別肢 之先則4立置或定位可指示一肢體之一《更多iL體像素 象疋人體目標之手臂)可在該躯幹容量之内。該目標 辨識、分柄·月^ g 1 迫縱系統則可將含括了先前所識別肢體(像 3引所識別之右手臂、左手臂、右腿、左腿等等)之 51 201120684 X,'Y值及深度值的先前位置或定位,與含括在該軀 幹谷量中之立體像素的位置或定位相比較。該目標辨 識刀析及追蹤系統則可基於該比較結果將在該軀幹容 量内。ρ之立體像素各者加以標籤並將之與可具有最靠近 位置或定位之先前所識別肢體相關連。 根據-具體實施作丨’在標籤了與&體相關連之立體像 素後,該目標辨識、分析及追蹤系統可在步驟32G判定, 例如,該所標藏肢體之局部的位置或定位。例如,在標 織了與右手臂、左手臂、右腿、及/或左腿相關連之立體 像素之後,該目標辨識、分析及追蹤系統可判定右及左 手臂之手掌及/或手肘、膝蓋及/或腳掌、手肘等等之位置 或定位。 該目標辨識、分析及追蹤系統可基於肢體各者之肢體 平均來判足該專局部(像是手掌、手肘、腳掌、膝蓋等 等)之位置。例如,該目標辨識、分析及追蹤系統可藉 由增加與左手臂相關連之各個立體像素之X值、與左手 臂相關連之各個立體像素之γ值、及與左手臂相關連之 各個立體像素之深度值,並將χ值、¥值及深度值各者 相加之總和除以與左手臂相關連之立體像素的總數,來 汁算左手臂平均定位。根據一具體實施例,該目標辨識、 分析及追蹤系統則可定義在左肩膀及左手臂平均位置之 間的向量或線,從而在左肩膀及左手臂平均位置之間的 向量或線可定義左手之第一搜尋方向。該目標辨識、分 析及追蹤系統則可從肩膀沿著由向量或線所定義之第一 52 201120684 疋具有有效之X 且可與左手之最 搜哥方向來搜哥最後有效立體像素< 值、γ值及/或深度值的最後立體像素, 後有效立體像素之位置或定位相關連。 根據另-具體實施例,該目標辨識、分析及追蹤系統 可計算H點(aneW ρ—β該目標辨識、分析及追 蹤系統則可定義在錨定點及左手臂平 月卞岣疋位之間的向量 或線,從而在錨定點及左手臂平妗中 亇成十均疋位之間的向量或線 可定義左手之第二搜尋方向。該目標辨識、分析及追蹤 系統則可從該錨定點沿著由向量或線所定義之第二搜尋 方向來搜尋最後有效立體像素或是具有有效之χ值、γ 值及/或深度值的最後立體像素,且可與左手之最後有效 立體像素之位置或定位相關連。 在一示範性具體實施例中,該目標辨識、分析及追縱 系統可基於一或更多從其他所判斷肢體(像是頭部、臀 部、肩膀等等)之偏移來計算該錨定點之位置或定位。 例如’该目標辨識、分析及追蹤系統可藉由在個別X方 向及Υ方向上將肩膀之位置或定位延伸—半的χ值及深 度值(其與肩膀之位置或定位相關連),來計算該錨定點 值及深度值。該目標辨識、分析及追蹤系統則可繞 著延伸之位置或定位來鏡射蚊點之χ值及深度值之位 置或定位。 該目標辨識、分析及追蹤系統可基於從頭部及/或臀部 到左手臂平均位置之位移,來計算錨定點之γ值。例如, 該目標辨識、分析及追蹤系統可計算在頭部之γ值及左 53 201120684 手臂平均之Y值之間的位移或差值。該目標辨識、分析 及追蹤系統則可將Υ值之該位移或差值加到,例如,臀 部之中心’以計算錨定點之γ值。 圖15A-15C繪示了 一手掌之示範性具體實施例,其係 基於錨定點828a-828c所判定。如圖15A_15C所示,根 據另一具體實施例,該目標辨識、分析及追蹤系統可計 算錨定點828a-828c。該目標辨識、分析及追蹤系統則可 疋義在錨定點828a-828c與左手臂平均位置826a_826c 之間的向里或線,從而在錯定點與左手臂平均位置之間 的向量或線可定義左手之第二搜尋方向。該目標辨識、 分析及追蹤系統則可從該錨定點828a_828c沿著由向量 或線所定義之第二搜尋方向來搜尋最後有效立體像素或 是具有有效之X值、Y值及/或深度值的最後立體像素, 且可與左手之最後有效立體像素之位置或定位相關連。 如上所述,在一示範性具體實施例中,該目標辨識、 分析及追蹤系統可基於一或更多從其他所判斷肢體(像 是頭部、臀部、肩膀等等)之偏移來計算錨定點828a_828c 之位置或定位。例如’該目標辨識、分析及追蹤系統可 藉由在個W X方向& Y方向上將肩肖之位置或定位延伸 半的X值及深度值(其與肩膀之位置或定位相關連), 來計算錯定黑"28a-828c之X值及深度值。該目標辨識、 分析及追縱系統則可繞著延伸之位置或定位來鏡射錯定 點828a_828c之X值及深度值之位置或定位。 該目標辨識、分析及追縱系統可基於從頭部及/或臀部 54 201120684 到左手臂平均位置之位移’來計算錨定點828a_828c之γ 值。例如,該目標辨識、分析及追蹤系統可計算在頭部 之Υ值及左手臂平均826a_826c之γ值之間的位移或差 值。該目標辨識、分析及追蹤系統則可將γ值之該位移 或差值加到,例如,臀部之中心,以計算錨定點828a 828c 之Y值。 回到圖5,根據一示範性具體實施例,該目標辨識、 分析及追蹤系統可計算一右手臂平均定位,其可被用來 定義一搜尋方向,像是如上所述之第一及第二搜尋方 向,該搜尋方向可在步驟32〇用來判定右手之位置或定 位。該目標辨識、分析及追蹤系統可進一步計算左腿平 均位置以及右腿平均位置,其可被用來定義如上所述之 搜尋方向,.該搜尋方向可用來判定左腳掌及右腳掌。 圖16繪示了可基於手臂及腿部平均位置及/或錨定點 來计算手掌及腳掌之示範性具體實施例。如圖丨6所示, 手掌之位置或定位822a-b以及腳掌之位置或定位824a b 可基於第一及第二搜尋方向來判定,其中第一及第二搜 尋方向係由如上所述之個別手臂及腿部平均位置及/或 錯定點所判定。 回到圖6,在步驟320 ’該目標辨識、分析及追蹤系統 亦可基於右及左手臂平均定位與右及左腿部平均定位、 肩膀、臀部、頭部等等,來判定手肘及膝蓋之位置或定 位。在-具體實施例中,該目標辨識、分析及追縱系統 可透過改良(refining)左手臂平均定位之χ值、γ值及/ 55 201120684 或深度值’來判 辨識、分析及追蹤/財之位置或定位。例如,該目標 最外邊立體像i統可判^能^義與左手臂相關連之 左手臂平均定/該目標辨識、分析及追縱系統則可將 邊緣算起之值、γ值及深度值調整到中間或從 該目標辨識、八此A ^ 定經隔離人體目;析及追蹤系統可進一步在步驟-判 識、分析及“額外感興趣之點。例如,該目標辨 礙系統可判定離軀體中I 素、最靠i斤i 篮甲、最遠之立體像 饭沾 攝衫機之立體像素、基於像是肩膀角卢之方 位的人體目標之最前面立體像素。㈣角度之方
該目標辨識、八批、A ^ * 刀析及追蹤系統則可在步驟320判宏 或更多用於判定$ @ i ^ 320 H ^ - 寺松 亥荨肢體(像是頭部、肩膀、Μ邱^ 掌等)之位置或定位是 臀4、腳 精確位置咬定朽 非為人11目標之實際肢體的 私 戈疋位。例如,在一具體實施例中,女Ρ 位置或定位可Α不艢放 η灼中’右手掌的 固定或是靠近而該右手掌之位置或定位可 」 肩膀或臀部之位置或定位。 據一不範性具體實施例,該目標 系統可包括或胃# π 4 、識、力析及追蹤 戈錯存用於各肢體之容量 早,其可指示肢體之不精確位置 arker)的清 可包括繞著肩膀及臀 。例如,該清單 s v 手莩相關連之容量標 日心辨識、分析及追 里知魂6亥 連之六曰' 土於在清單中盘手當i日Hfl ♦ 4識來判定手掌之 ,、“目關 如,若一手掌之位置^ 罝次疋位是否精確。例 ^ 置或疋位可在清單盥 各量標識其令之一内, 2掌相關連之 铋辨識、分析及追縱系统 56 201120684 可判定手掌之位置 例,該目標辨識、 定位從在先前訊框 目前位置或定位。 或定位為不聽_
Mu 精確。根據—具體實施 刀析及這縱系統則可將手掌之 中手掌之杏^ 先則精確定位調整成手掌之 在步驟325,該目標辨識、 此…* “ 刀析及追蹤系統可追蹤— 模型’其可基於在步驟32〇 —# 所判疋之肢體所產生。例如, 該目k辨識、分析及追蹤系續 系、為可產生及/或包括一模型, 像是一骨骼模型,其可且有. ^ 八有在其間所定義之一或更多關 節以及骨頭。 圖17緣示了模型_之示範性具體實施例,像是所產 生之骨骼模型。根據一示範性具體實施例,模可 包括-或更多資料結構’其可用,例如,人體之三維模 型來呈現。各軀體部分可被特徵化為具有X、Y及Z值 的數學向量,其能定義模型9〇〇之關節及骨頭。 如圖Π所示,模型900可包括一或更多關節ji ji6。 根據一示範性具體實施例,各個關節jl-ji6可讓在其間 所定義之軀體部分能相對於一或更多之其他軀體部分來 移動。例如,代表一人體目標之模型可包括複數個堅固 及/或可變形的軀體部分,其可由一或更多結構組件像是 「骨頭」連同位於鄰近骨頭交界處之關節鎖定一 而成。關節可讓與骨頭及關節jl-j16相關連之各 種軀體部分能與彼此互相獨立地移動。例如,在關節jl〇 及j12之間定義的骨頭(如圖1 7所示)對應到一前臂, 其可獨立於’例如,對應到一小腿之關節jl4及j 16之間 57 201120684 所定義的骨頭,來進行移動。 回到圖5,在步驟325,該目標辨識、分析及追蹤系統 可基於在步驟320用於判定肢體之位置或定位,來調整 該所產生模型。例如,該目標辨識、分析及追蹤系統可 調整與頭部相關連之關節j丨以對應位置或定位,像是在 步驟320用於判定頭部的位置或定位。 _ Q 在一示範 性具體實施例中,關節可被分派了與如上述之用於判 定頭部之位置或定位810相關連的又值γ值及深度值。 若一或更多的肢體可基於,例如’上述容量標識之=單, 而為不精確,則該目標辨識、分析及追蹤系統可^於先 前訊框將該等不精確之關節維持在他們的先前位^或定 位0 額外地,若該目標辨識、分析及追蹤系統不具有該等 肢體之位置或定位’則該目標辨識、分析及追蹤系:可 基於-預設姿勢(像是τ姿勢、達文西(DiVinei)姿勢等 等)使用-預設位置或定位。例如’該目標辨識、分析 及追蹤系統可磁化或調整該模型 • 或更多之關節 則…以與在預設姿勢中之最靠近立體像素的χ值、γ 值及/或深度值相關連。 在步驟325’該目標辨識、分析及追蹤系統亦可美於 在步驟33G所狀之-或心㈣測量,來職在模型 關節之間所定義之骨頭的一或多者的測量,其將在以下 做更詳細地描述。例如’該目標辨識、分析及追縱系统 可在步驟330判定人體目標之左前臂的長度。在步驟 58 201120684 325’該目標辨識、分拼及 ^ ^ ^ ^ 追蹤系統則可調整與左前臂相 == 模仿在步驟咖所判定人體— 左刖#的長度。例如,該目標八 調整關節jlD及j12之χ值5刀 追蹤系統巧* 的一成… 值及深度值(或2值) $ '足而定義於其間的骨頭可等同於在步驟 330所判定人體目標之左前臂的長度。 在步驟 在步驟奶,該目標辨識、分析及追蹤系統可進一步 檢查與所調整模型相關連之關節的有效位置或定位。例 如’在—具體實施例中,該目標辨識、分析及追縱系統 可檢查以判定一關節(像是關節”〇)是否突出,從而該 模型可被固雞舞⑽iekendanee)姿勢。因此,該目 標辨識、分析及追蹤系統可針對可能會讓該模型按一不 適當方式崩毀的已知位置或定位(像是與手肘相關連之 關節),來檢查該模型。 根據-具體實施例,該目標辨識、分析及追縱系統可 進-步基於在步驟3〇5所接收到之未降低取樣深度值的 2D像素區域内之X值、γ值及深度值,來推敲一關節的 位置或定位。例如,在一具體實施例中,該目標辨識、 分析及追蹤系統可使用來自未降低取樣深度值的資料, 以推敲例如可能會讓模型崩毀之該模型之關節的位置或 定位。 額外地,該目標辨識、分析及追蹤系統可使用來自未 降低取樣深度值的資料,以推敲與頻繁使用之姿勢相關 連的模型關節之位置或定位。例如,根據一具體實施例 59 201120684 該目標辨識、分析及括映么 am 統可㈣連於手掌之關節設 為優先。該目標辨識、分柄 斤及追縱系統可本地化繞著在 步驟305所接收之未降 IT低取樣冰度值中之手掌的資 從而該目標辨識、分柄乃έ 刀析及追蹤系統可使用在步驟3〇5 接收之未降低取樣深度值中 Τ I較R7解析度資料,來修 在步驟320所判定之手掌的位置或定位。 如上所述,在步驟330,該目標辨識、分析及追㈣ 統可掃描與經隔離人體目辦 ' 篮目铩相關連之立體像素,以判定 與其相關連之肢體的维声 、 ®扪革厪例如,該經隔離人體目標可 破掃描而判定,例如,與肢體(手f、腿部、頭部、肩 膀、臀部、軀幹等等)相關連之測量(像是長度、寬: 等等)。 為了判定維度,在步驟33〇,該目標辨識、分析及追 縱系統可針對各肢體而產生所建議關節維度之估測值。 該:標辨識、分析及追蹤系統可使用估測值針對所建蟻 關節維度各者來計算-中間值及—標準差。該目標辨 $、分析及追蹤系統可將所建議之關節維度加入到一已 定義之百》比| ’並可拒絕了去極值(。酬叫或在所定 義百分比差外部的所建議關節維度。該目標辨識、分析 及追縱系統則可基於具有—在其標準差及所建議關節維 數目之間的最咼比率之估測值,來判定肢體之維度。 與該等由掃描所慢定之肢體相關連之維度亦可在步驟 330被更新。根據一具體實施例,該目標辨識、分析及 追蹤系統可包括一或更多試探法或規則以判定由該掃插 60 201120684 :::之維度是否正確。例如,該目標辨識、分析及追 可包括能判定在對稱關節之間的歐幾里德幾何學 距離是^可大體上為對稱的試探法或規則、 ’疋手掌及/或手肘是否靠近軀體的試探法或規則、可 :定頭部是否被固定在一位置或定位上的試探法及/或 々則:y判定手掌是否靠近頭部的試探法及/或規則等 等,該等試探法及/或規則可被用於調整維度。如上所 述’在步驟330所判定之維度可被用來調整模型,該模 型可在步驟325被追蹤以用於後續訊框。 在步驟335,可處理運算該經調整模型。例如,在一 具體實施例中,該目標辨識、分析及追蹤系統可透過將 一或更多應用到該經調整模型之動態或移動映射到一虛 擬角色或遊戲角色的方式來處理運算該經調整模型,從 而該虛擬角色或遊戲角色可被動晝繪製以模仿使用者, 像是上述關於圖1A及1B之使用者18。例如,螢幕上角 色的視覺顯示則可因應於正被調整之模型的改變而改 變0 在一具體實施例中,該經調整模型可透過提供該經調 整模型給在一計算環境(像是上述關於圖1A-4之計算環 境12)中之姿勢函式庫,來處理運算該經調整模型。該 姿勢函式庫可被用來判定控制以基於在骨胳模型中之各 種軀體部分的位置而在一應用程式内執行。 吾人應了解到在此所述之組態及/或途徑本質上是示 範性質,且這些特定具體實施例或範例並非被視為是限 201120684 制作用。纟此所ϋ之特冑常式或方法可π表一或更多任 ㈣目的處理策略。如此般’輯示之各種動作可按所 繪示之次序、其他次序、平行次序來執行。同樣地,上 述處理程序之順序亦可被改變。 本發明之標的包括各種處理程序、系統及組態的所有 新穎的及非顯U見的組合及子組合,以及在此所揭露 之其他特徵、功能及/或特性’以及其任何及全部的均等 【圖式簡單說明】 右圖1Α及圖1Β繪示一示範性具體實施例,其繪示一且 有一正在遊玩拳擊遊戲之使用者-追縱系統10。 之目仏辨識、分析及 圖2繪示該捕捉裝置2〇之示 於哕 改一體實施例,其可用 於該目私辨識、分析及追蹤系統1〇。 解澤在一目標辨識、分析及_ : 了用來 勢’及/或動畫繪製一由目標辨識、a 、或更多姿 示之虛擬角色或螢幕上角色。5B刀析及追蹤系統所顯 圖4繪示了計算環境22〇之 其可為圖1Μ中所示之計算環境12:二體::例: 用來解譯在一目標辨識、分析 -½¼ 12係 姿勢,及/或動晝緣示由—目㈣:以之-或更多 識、分析及追蹤系統所 62 201120684 顯示之一虛擬角色或螢幕上角色。 圖5說明一種用於在一場景中追蹤一使用者的示範性 . 方法的流程圖。 . 圖6繪示了 一可被捕捉或接收之深度影像之示範性具 體實施例。 圖7A-7B繪示了被降低取樣之深度影像之一部分的示 範性具體實施例。 圖8繪示了 一人體目標所估測之中心或中央的示範性 具體實施例。 圖9繪示了一可被定義以判定一核心容量之邊界盒 804之示範性具體實施例。 圖10繪不了可被建立以對頭部候選者加以評分之一 頭部圓柱體及一軀幹之示範性具體實施例。 圖11繪不了基於一人體目標之頭部及中心或中央之 頭部到中心向量之示範性具體實施例。 圖12繪示了基於頭部到中心向量所判定之肩膀容量 盒SVB及臀部容量盒hVB的示範性具體實施例。 圖1 3〜示了肩膀及臀部之示範性具體實施例,其可基 於肩膀容量盒SVB及臀部容量盒HVB來計算。 圖1 4繪不了圓柱體的一示範性具體實施例,其可代表 該核心容量。 圖1 5 A 1 5 C繪示了 一手掌之示範性具體實施例,其係 基於錨定點所判定。 圖16繪示了可基於手臂及腿部平均位置及/或錨定點 63 201120684 來計算手掌及腳掌之示範性具體實施例。 圖1 7繪示了所產生之模型之示範性具體實施例。 【主要元件符號說明】 1 0該目標辨識、分析及追蹤系統 12計算環境 16視聽裝置 18使用者 20捕捉裝置 22影像攝影機組件 24 IR光源組件 26三維(3D)攝影機 28 RGB攝影機 30麥克風 32處理器 34記憶體組件 3 6通訊鏈結 40玩家虛擬角色 100多媒體主機 1 01中央處理單元 102第一層快取 104第二層快取
106 ROM 64 201120684 108圖像處理單元 110記憶體控制器 112記憶體 114視訊編碼/編解碼器 120 I/O控制器 122系統管理控制器 123音訊處理單元 124網路介面控制器 126第一 USB主控制器 128第二USB控制器128 130前置面板I/O子配件 132音訊編解碼器 136系統電源供應器模組 138風扇 142控制器 143系統記憶體 144媒體驅動機 146外部記憶體裝置 148無線配接器 220計算環境 222系統記憶體
223 ROM
224 BIOS 225作業系統 65 201120684 226應用程式 227其他程式模組 228程式資料
229 GPU 230視訊記憶體 231圖像介面 2 3 2視訊介面 233輸出周邊介面 234非可移除非揮發性記憶體介面 235可移除非揮發性記憶體介面 236使用者輸入介面 2 3 7網路介面 238硬碟機 239磁碟機 240光碟機 241電腦 242螢幕 243印表機 244 0刺η八 245區域網路 246遠端電腦 247記憶體儲存裝置 248遠端應用程式 249廣域網路 66 201120684 250數據機 251鍵盤 252指向裝置 253可移除、非揮發性光碟 254可移除、非揮發性磁碟 258作業系統 257應用程式 256其他程式模組 255程式資料 67
Claims (1)
- 201120684 七、申請專利範圍·· ι_ 一種用於追蹤一使用者之方法,該方法至少包含以下 步驟: 接收一深度影像; 基於該深度影像產生立體像素之一格點; 移除一含括在立體像素之該格點内之一背景,以隔離 一或更多與一人體目標相關之立體像素; 判疋該經隔離人體目標之一或更多肢體的位置或定 位; 基於該一或更多肢體之位置或定位來調整一模型。 2. 如申請專利範圍第1項所述之方法,其中該模型包含 一具有關節及骨頭之骨骼模型。 3. 如申請專利範圍第2項所述之方法,其中基於該一或 更多所判定肢體來調整一模型之步驟包含可將一或更多 肢體之位置或定位分派至該模型之對應關節處。 • 4·如申請專利範圍第1項所述之方法,其中移除立體像 素之該格點内之該背景以隔離一或更多與一人體目標相 關之立體像素的步驟,進一步包含: 判定在該格點之一物件是否處於動態中;以及 當該物件並非處於動態中時,基於該判定結果而丟棄 68 201120684 與該物件相關連之該等立體像素。 5. 如申請專利範圍第1項所述之方法,進—步包含判定 該一或更多肢體之維度,並基於該等所判定維度來調整 該模型之該等關節以及骨頭。 6. 如申請專利範圍第1項所述之方法,其中該一或更多 肢體包含以下其中至少一者:頭部、中心、肩膀、臀部、 手臂、手肘、膝蓋以及腳掌。 7. 如申請專利範圍第1項所述之方法,進—步包含處理 運算該經調整模型。 其中能基於含括 區塊而產生在該 8.如申請專利範圍第1項所述之方法, 在該所接收深度影像内之像素的局部或 格點中之該等立體像素各者。 其具有用於追蹤一使用者 ’該電腦可執行指令包含 .一種電腦可讀取儲存媒體,其 之電腦可執行指令儲存於其中, 以下指令: 接收—包含像素之深度影像; 降低取樣在所接收深度影像内 或更多立體像素; 之該等像素,以產生一 隔離一或更多與一 人體目標相關連之立體像素; 69 201120684 或更多肢體的位置或定 判定該經隔離人體目標之一 位;以及 基於該-或更多肢體之位置或定位來㈣一模型。 10.如申請㈣範㈣9項料之電料讀取媒體,其 中該模型包含一具有關節及骨頭之骨骼模型。 11 ·如申明專利範圍第丨〇項所述之電腦可讀取媒體,其 中基於該一或更多所判定肢體來調整一模型之指令包含 可將一或更多肢體之位置或定位分派至該模型之對應關 節處。 12. 如申請專利範圍第9項所述之電腦可讀取媒體,進 一步包含用於判定該一或更多肢體之維度,並基於該等 所判定維度來調整該模型的該等關節及骨頭的指令。 13. 如申請專利範圍第9項所述之電腦可讀取媒體,其 中該一或更多肢體包含以下其中至少一者:頭部、中心、 肩膀、臀部、手臂、手肘、膝蓋以及腳掌。 14. 如申請專利範圍第9項所述之電腦可讀取媒體,進 一步包含處理運算該經調整模型。 如申請專利範圍第14項所述之電腦可讀取媒體,其 201120684 中能基於含括在該所接收深度影像内之像素的局部或區 塊而產生在該格點中之該等立體像素各者。 統 系 的 型 模 之 tfhc 達 5¾ β 相 者 用 使 1 與 1 蹤: 追含 於包 用少 種至 一 統 . 系 16該 一捕捉裝置,其中該捕捉裝置包含一攝影機組件,其 接收一場景之一深度影像; —計算裝置’其可運作以與該捕捉裝置通訊,其中該 計算裝置包含一處理器,其基於在從該捕捉裝置所接收 之該深度影像中之一或更多像素而產生一降低取樣影 像;移除該降低取樣影像之一背景以隔離一人體目標,· 判疋該經隔離人體目標之一或更多肢體的位置或定位; 以及基於該一或更多肢體的位置或定位來調整一模型。 Η.如申請專利範圍第16項所述之系統’其中該處理器 產生該降低取樣深度影像 18. 如申請專利範圍第17項所述之系統,其中該處理器 透過產生-用於該—或更多像素之局部或區塊之立體像 素之方式’ I於在從該捕捉裝置所接收之該深度影像中 之或更多像素而產生該降低取樣深度影像。 19. 如申請專利範圍第18項所述之系統,其中該模型包 含一具有關節及骨頭之骨骼模型。 71 201120684 20.如申請專利範圍第1 6項所述之系統,其中該一或更 多肢體包含以下其中至少一者:頭部、中心、肩膀、臀 部、手臂、手肘、膝蓋以及腳掌。 72
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/575,388 US8564534B2 (en) | 2009-10-07 | 2009-10-07 | Human tracking system |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201120684A true TW201120684A (en) | 2011-06-16 |
TWI497346B TWI497346B (zh) | 2015-08-21 |
Family
ID=43822804
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW104115427A TWI545464B (zh) | 2009-10-07 | 2010-09-21 | 人體追蹤系統 |
TW104115432A TWI595383B (zh) | 2009-10-07 | 2010-09-21 | 人體追蹤系統 |
TW099132065A TWI497346B (zh) | 2009-10-07 | 2010-09-21 | 人體追蹤系統 |
TW104115429A TWI521388B (zh) | 2009-10-07 | 2010-09-21 | 人體追蹤系統 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW104115427A TWI545464B (zh) | 2009-10-07 | 2010-09-21 | 人體追蹤系統 |
TW104115432A TWI595383B (zh) | 2009-10-07 | 2010-09-21 | 人體追蹤系統 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW104115429A TWI521388B (zh) | 2009-10-07 | 2010-09-21 | 人體追蹤系統 |
Country Status (7)
Country | Link |
---|---|
US (6) | US8564534B2 (zh) |
EP (1) | EP2486545B1 (zh) |
JP (1) | JP5845184B2 (zh) |
KR (2) | KR101722147B1 (zh) |
CN (1) | CN102549619B (zh) |
TW (4) | TWI545464B (zh) |
WO (1) | WO2011044257A2 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102981599A (zh) * | 2011-09-05 | 2013-03-20 | 硕擎科技股份有限公司 | 三维人机界面系统及其方法 |
TWI460683B (zh) * | 2011-06-24 | 2014-11-11 | Reallusion Inc | The way to track the immediate movement of the head |
TWI465960B (en) * | 2011-08-30 | 2014-12-21 | Three-dimensional human interface system and method thereof | |
TWI470565B (zh) * | 2012-06-15 | 2015-01-21 | Sheng Fang Huang | 非接觸式醫療導覽系統及其控制方法 |
TWI549069B (zh) * | 2014-12-15 | 2016-09-11 | Sheng Hui Meng | Method and device for passenger barge |
TWI608426B (zh) * | 2013-09-24 | 2017-12-11 | 惠普發展公司有限責任合夥企業 | 基於表示標的之影像判定區隔邊界之技術 |
Families Citing this family (124)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7297856B2 (en) * | 1996-07-10 | 2007-11-20 | Sitrick David H | System and methodology for coordinating musical communication and display |
US7989689B2 (en) * | 1996-07-10 | 2011-08-02 | Bassilic Technologies Llc | Electronic music stand performer subsystems and music communication methodologies |
US20080236431A1 (en) * | 2007-03-28 | 2008-10-02 | Pergo (Europe) Ab | Process for Color Variability in Printing to Simulate Color Variation of Natural Product |
TWI369899B (en) * | 2008-07-21 | 2012-08-01 | Ind Tech Res Inst | Method and system for tracking human extremity positions |
US8867820B2 (en) * | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
KR101633359B1 (ko) * | 2009-10-20 | 2016-06-27 | 삼성전자 주식회사 | 투사 불변량을 이용한 무표식 증강 현실 구현 시스템 및 그 방법 |
US9981193B2 (en) | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
WO2011056657A2 (en) | 2009-10-27 | 2011-05-12 | Harmonix Music Systems, Inc. | Gesture-based user interface |
US20110211749A1 (en) * | 2010-02-28 | 2011-09-01 | Kar Han Tan | System And Method For Processing Video Using Depth Sensor Information |
EP2579191A4 (en) * | 2010-05-31 | 2014-04-09 | Nec Corp | RIVER LINE RECOGNITION SYSTEM, RIVER LINE RECOGNITION PROCEDURE AND RUNNER RANGE DETECTION PROGRAM |
JP2012000165A (ja) * | 2010-06-14 | 2012-01-05 | Sega Corp | ビデオゲーム装置 |
US8639020B1 (en) * | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
US8638364B2 (en) * | 2010-09-23 | 2014-01-28 | Sony Computer Entertainment Inc. | User interface system and method using thermal imaging |
JP2012160039A (ja) * | 2011-02-01 | 2012-08-23 | Fujifilm Corp | 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム |
US8702507B2 (en) * | 2011-04-28 | 2014-04-22 | Microsoft Corporation | Manual and camera-based avatar control |
KR101514168B1 (ko) * | 2011-04-28 | 2015-04-21 | 엔이씨 솔루션 이노베이터 가부시키가이샤 | 정보 처리 장치, 정보 처리 방법 및 기록 매체 |
US10459579B2 (en) * | 2011-06-13 | 2019-10-29 | Elliptic Laboratories As | Touchless interaction |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
EP2725458B1 (en) * | 2011-06-23 | 2016-06-15 | Fujitsu Limited | Information processing device, input control method, and input control program |
JP2013101526A (ja) * | 2011-11-09 | 2013-05-23 | Sony Corp | 情報処理装置、表示制御方法、およびプログラム |
US9628843B2 (en) * | 2011-11-21 | 2017-04-18 | Microsoft Technology Licensing, Llc | Methods for controlling electronic devices using gestures |
US9072929B1 (en) * | 2011-12-01 | 2015-07-07 | Nebraska Global Investment Company, LLC | Image capture system |
US9782680B2 (en) | 2011-12-09 | 2017-10-10 | Futurewei Technologies, Inc. | Persistent customized social media environment |
WO2013103410A1 (en) | 2012-01-05 | 2013-07-11 | California Institute Of Technology | Imaging surround systems for touch-free display control |
US9740937B2 (en) | 2012-01-17 | 2017-08-22 | Avigilon Fortress Corporation | System and method for monitoring a retail environment using video content analysis with depth sensing |
KR101909544B1 (ko) * | 2012-01-19 | 2018-10-18 | 삼성전자주식회사 | 평면 검출 장치 및 방법 |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
EP2845084A4 (en) * | 2012-05-04 | 2016-08-31 | Oblong Ind Inc | USER HAND TRANSMISSION AND FORM IDENTIFICATION INTERFACE |
US20140018169A1 (en) * | 2012-07-16 | 2014-01-16 | Zhong Yuan Ran | Self as Avatar Gaming with Video Projecting Device |
US20140037135A1 (en) * | 2012-07-31 | 2014-02-06 | Omek Interactive, Ltd. | Context-driven adjustment of camera parameters |
TWI496090B (zh) | 2012-09-05 | 2015-08-11 | Ind Tech Res Inst | 使用深度影像的物件定位方法與裝置 |
JP6018468B2 (ja) * | 2012-09-21 | 2016-11-02 | 日本放送協会 | 奥行き範囲算出装置及びそのプログラム |
KR20140049152A (ko) | 2012-10-16 | 2014-04-25 | 한국전자통신연구원 | 사람 추종 방법 및 로봇 장치 |
AU2013204965B2 (en) | 2012-11-12 | 2016-07-28 | C2 Systems Limited | A system, method, computer program and data signal for the registration, monitoring and control of machines and devices |
US9367733B2 (en) | 2012-11-21 | 2016-06-14 | Pelco, Inc. | Method and apparatus for detecting people by a surveillance system |
US10009579B2 (en) * | 2012-11-21 | 2018-06-26 | Pelco, Inc. | Method and system for counting people using depth sensor |
US9602778B2 (en) * | 2012-12-12 | 2017-03-21 | Sensormatic Electronics, LLC | Security video system using customer regions for monitoring point of sale areas |
WO2014107434A1 (en) | 2013-01-02 | 2014-07-10 | California Institute Of Technology | Single-sensor system for extracting depth information from image blur |
US9830736B2 (en) | 2013-02-18 | 2017-11-28 | Tata Consultancy Services Limited | Segmenting objects in multimedia data |
US9135516B2 (en) * | 2013-03-08 | 2015-09-15 | Microsoft Technology Licensing, Llc | User body angle, curvature and average extremity positions extraction using depth images |
US9639747B2 (en) | 2013-03-15 | 2017-05-02 | Pelco, Inc. | Online learning method for people detection and counting for retail stores |
US10220303B1 (en) | 2013-03-15 | 2019-03-05 | Harmonix Music Systems, Inc. | Gesture-based music game |
JP6276519B2 (ja) * | 2013-05-22 | 2018-02-07 | 株式会社 日立産業制御ソリューションズ | 人数計測装置および人物動線解析装置 |
JP6097150B2 (ja) * | 2013-05-24 | 2017-03-15 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、画像処理方法およびプログラム |
US10474921B2 (en) * | 2013-06-14 | 2019-11-12 | Qualcomm Incorporated | Tracker assisted image capture |
TW201500968A (zh) * | 2013-06-21 | 2015-01-01 | Utechzone Co Ltd | 三維互動系統及其互動感測方法 |
CN103399637B (zh) * | 2013-07-31 | 2015-12-23 | 西北师范大学 | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 |
CN104424649B (zh) * | 2013-08-21 | 2017-09-26 | 株式会社理光 | 检测运动物体的方法和系统 |
US20150077325A1 (en) * | 2013-09-13 | 2015-03-19 | Ron Ferens | Motion data based focus strength metric to facilitate image processing |
US10933320B2 (en) * | 2013-10-24 | 2021-03-02 | Virtuix Holdings Inc. | Method generating an input in an omnidirectional locomotion system |
US10286313B2 (en) | 2013-10-24 | 2019-05-14 | Virtuix Holdings Inc. | Method of generating an input in an omnidirectional locomotion system |
US9530101B1 (en) * | 2013-11-20 | 2016-12-27 | The United States Of America As Represented By The Secretary Of The Navy | Method for calculating sensor performance of a sensor grid using dynamic path aggregation |
US9336440B2 (en) * | 2013-11-25 | 2016-05-10 | Qualcomm Incorporated | Power efficient use of a depth sensor on a mobile device |
US11615460B1 (en) | 2013-11-26 | 2023-03-28 | Amazon Technologies, Inc. | User path development |
JP6217373B2 (ja) * | 2013-12-13 | 2017-10-25 | 富士通株式会社 | 動作判定方法、動作判定装置および動作判定プログラム |
FR3015730B1 (fr) * | 2013-12-20 | 2017-07-21 | Thales Sa | Procede de detection de personnes et ou d'objets dans un espace |
US20150185851A1 (en) * | 2013-12-30 | 2015-07-02 | Google Inc. | Device Interaction with Self-Referential Gestures |
US9684928B2 (en) * | 2014-01-15 | 2017-06-20 | Holition Limited | Foot tracking |
CN104801042A (zh) * | 2014-01-23 | 2015-07-29 | 鈊象电子股份有限公司 | 根据玩家挥手范围切换游戏画面的方法 |
US9452531B2 (en) | 2014-02-04 | 2016-09-27 | Microsoft Technology Licensing, Llc | Controlling a robot in the presence of a moving object |
KR102376564B1 (ko) * | 2014-03-19 | 2022-03-18 | 버툭스 홀딩스 인코포레이티드 | 전방향식 로코모션 시스템에서 입력을 생성하는 방법 |
CN106104633A (zh) * | 2014-03-19 | 2016-11-09 | 英特尔公司 | 面部表情和/或交互驱动的化身装置和方法 |
US9432768B1 (en) * | 2014-03-28 | 2016-08-30 | Amazon Technologies, Inc. | Beam forming for a wearable computer |
US9727778B2 (en) | 2014-03-28 | 2017-08-08 | Wipro Limited | System and method for guided continuous body tracking for complex interaction |
US9436277B2 (en) * | 2014-04-21 | 2016-09-06 | Xerox Corporation | System and method for producing computer control signals from breath attributes |
JP6372388B2 (ja) * | 2014-06-23 | 2018-08-15 | 株式会社デンソー | ドライバの運転不能状態検出装置 |
US10430676B2 (en) | 2014-06-23 | 2019-10-01 | Denso Corporation | Apparatus detecting driving incapability state of driver |
CN106663377B (zh) | 2014-06-23 | 2019-04-09 | 株式会社电装 | 驾驶员的驾驶不能状态检测装置 |
US9508195B2 (en) * | 2014-09-03 | 2016-11-29 | Microsoft Technology Licensing, Llc | Management of content in a 3D holographic environment |
KR101643917B1 (ko) * | 2014-09-15 | 2016-08-01 | (주)인더스웰 | 실사 영상 기반의 스마트 피팅장치 |
US11013451B2 (en) | 2014-09-19 | 2021-05-25 | Brigham Young University | Marker-less monitoring of movement disorders |
JP6030617B2 (ja) * | 2014-10-15 | 2016-11-24 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置および画像処理方法 |
US20160110593A1 (en) * | 2014-10-17 | 2016-04-21 | Microsoft Corporation | Image based ground weight distribution determination |
US10007996B2 (en) * | 2015-03-02 | 2018-06-26 | Lawrence Livermore National Security, Llc | System for detecting objects in streaming 3D images formed from data acquired with a medium penetrating sensor |
US10586203B1 (en) | 2015-03-25 | 2020-03-10 | Amazon Technologies, Inc. | Segmenting a user pattern into descriptor regions for tracking and re-establishing tracking of a user within a materials handling facility |
US11205270B1 (en) | 2015-03-25 | 2021-12-21 | Amazon Technologies, Inc. | Collecting user pattern descriptors for use in tracking a movement of a user within a materials handling facility |
US10679177B1 (en) | 2015-03-25 | 2020-06-09 | Amazon Technologies, Inc. | Using depth sensing cameras positioned overhead to detect and track a movement of a user within a materials handling facility |
US10810539B1 (en) | 2015-03-25 | 2020-10-20 | Amazon Technologies, Inc. | Re-establishing tracking of a user within a materials handling facility |
US9706107B2 (en) * | 2015-07-13 | 2017-07-11 | Avaya Inc. | Camera view control using unique nametags and gestures |
CN111450521B (zh) | 2015-07-28 | 2023-11-24 | 弗丘伊克斯控股公司 | 对输入进行软解耦的系统和方法 |
CN106559660B (zh) * | 2015-09-29 | 2018-09-07 | 杭州海康威视数字技术股份有限公司 | 2d视频中展示目标3d信息的方法及装置 |
EP3392740A4 (en) * | 2015-12-18 | 2018-12-19 | Sony Corporation | Information processing device, information processing method, and program |
US11511156B2 (en) | 2016-03-12 | 2022-11-29 | Arie Shavit | Training system and methods for designing, monitoring and providing feedback of training |
US10587858B2 (en) * | 2016-03-14 | 2020-03-10 | Symbol Technologies, Llc | Device and method of dimensioning using digital images and depth data |
US9824500B2 (en) | 2016-03-16 | 2017-11-21 | Microsoft Technology Licensing, Llc | Virtual object pathing |
TWI610059B (zh) * | 2016-08-04 | 2018-01-01 | 緯創資通股份有限公司 | 三維量測方法及應用其之三維量測裝置 |
WO2018074420A1 (ja) * | 2016-10-21 | 2018-04-26 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
EP3373114B1 (en) | 2017-03-10 | 2019-10-09 | Alterface Projects | Tracking system and method using a depth aware camera |
US10346695B2 (en) * | 2017-05-25 | 2019-07-09 | General Motors Llc | Method and apparatus for classifying LIDAR data for object detection |
US10942575B2 (en) * | 2017-06-07 | 2021-03-09 | Cisco Technology, Inc. | 2D pointing indicator analysis |
US10943088B2 (en) | 2017-06-14 | 2021-03-09 | Target Brands, Inc. | Volumetric modeling to identify image areas for pattern recognition |
US10311624B2 (en) * | 2017-06-23 | 2019-06-04 | Disney Enterprises, Inc. | Single shot capture to animated vr avatar |
KR102434574B1 (ko) | 2017-08-14 | 2022-08-22 | 삼성전자주식회사 | 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법 |
CN109529327B (zh) * | 2017-09-21 | 2022-03-04 | 腾讯科技(深圳)有限公司 | 虚拟交互场景中目标定位方法、装置及电子设备 |
US11328513B1 (en) | 2017-11-07 | 2022-05-10 | Amazon Technologies, Inc. | Agent re-verification and resolution using imaging |
CN108055479B (zh) * | 2017-12-28 | 2020-07-03 | 暨南大学 | 一种动物行为视频的制作方法 |
JP7017689B2 (ja) * | 2017-12-29 | 2022-02-09 | 富士通株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
GB2571307B (en) * | 2018-02-23 | 2020-10-21 | Canon Kk | 3D skeleton reconstruction from images using volumic probability data |
US11127189B2 (en) | 2018-02-23 | 2021-09-21 | Canon Kabushiki Kaisha | 3D skeleton reconstruction from images using volumic probability data |
US11995763B2 (en) | 2018-07-02 | 2024-05-28 | Vayyar Imaging Ltd. | System and methods for environment mapping |
US11461957B2 (en) * | 2018-09-03 | 2022-10-04 | Sony Interactive Entertainment Inc. | Information processing device, information processing method, and program |
CN109443196B (zh) * | 2018-09-28 | 2020-07-24 | 顺丰科技有限公司 | 一种体积测量方法及系统 |
WO2020101472A1 (en) * | 2018-11-14 | 2020-05-22 | Mimos Berhad | Method and system for counting and determining direction of movement of moving objects |
US11386306B1 (en) * | 2018-12-13 | 2022-07-12 | Amazon Technologies, Inc. | Re-identification of agents using image analysis and machine learning |
CN111514584B (zh) * | 2019-02-01 | 2022-07-26 | 北京市商汤科技开发有限公司 | 游戏控制方法及装置、游戏终端及存储介质 |
GB2583742B (en) * | 2019-05-08 | 2023-10-25 | Jaguar Land Rover Ltd | Activity identification method and apparatus |
JP2021016547A (ja) * | 2019-07-19 | 2021-02-15 | 株式会社スクウェア・エニックス | プログラム、記録媒体、物体検出装置、物体検出方法及び物体検出システム |
CN110674719B (zh) * | 2019-09-18 | 2022-07-26 | 北京市商汤科技开发有限公司 | 目标对象匹配方法及装置、电子设备和存储介质 |
TWI736138B (zh) * | 2020-02-17 | 2021-08-11 | 國立屏東大學 | 交通安全學習系統與方法 |
CN113473378A (zh) * | 2020-03-31 | 2021-10-01 | 宇龙计算机通信科技(深圳)有限公司 | 一种移动轨迹上报方法、装置、存储介质及电子设备 |
US11128636B1 (en) | 2020-05-13 | 2021-09-21 | Science House LLC | Systems, methods, and apparatus for enhanced headsets |
JP7196205B2 (ja) * | 2020-05-15 | 2022-12-26 | バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド | 部分的ポイントクラウドベースの歩行者速度推定方法 |
US20230386053A1 (en) * | 2020-09-15 | 2023-11-30 | Jintronix, Inc. | Method and system for 2d motion tracking of a subject |
CN114330606B (zh) * | 2020-10-09 | 2024-05-10 | 华为终端有限公司 | 真人游戏交互系统与方法 |
JP2022133723A (ja) * | 2021-03-02 | 2022-09-14 | 株式会社アイシン | 身体情報取得装置 |
CN113096337B (zh) * | 2021-04-08 | 2022-11-11 | 中国人民解放军军事科学院国防工程研究院工程防护研究所 | 用于复杂背景的移动目标识别处理方法及智能安防系统 |
CN113313794B (zh) * | 2021-05-19 | 2022-11-08 | 深圳市慧鲤科技有限公司 | 动画迁移方法和装置、设备及存储介质 |
TWI779735B (zh) * | 2021-07-22 | 2022-10-01 | 宏碁股份有限公司 | 可調靈敏度之觸控裝置及其控制方法 |
KR102377556B1 (ko) * | 2021-08-30 | 2022-03-22 | 주식회사 조이펀 | 깊이 카메라를 활용한 실시간 사용자 추적 시스템 |
CN113744410A (zh) * | 2021-09-13 | 2021-12-03 | 浙江商汤科技开发有限公司 | 网格生成方法、装置、电子设备及计算机可读存储介质 |
Family Cites Families (300)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4288078A (en) | 1979-11-20 | 1981-09-08 | Lugo Julio I | Game apparatus |
US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
JPH03103822U (zh) | 1990-02-13 | 1991-10-29 | ||
US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
CA2101633A1 (en) | 1991-12-03 | 1993-06-04 | Barry J. French | Interactive video testing and training system |
US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
US5561745A (en) * | 1992-10-16 | 1996-10-01 | Evans & Sutherland Computer Corp. | Computer graphics for animation by time-sequenced textures |
IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
US5325984A (en) * | 1993-06-21 | 1994-07-05 | Motorola, Inc. | Friction clutch for dual pivot point hinge |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5577981A (en) | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
GB9405299D0 (en) * | 1994-03-17 | 1994-04-27 | Roke Manor Research | Improvements in or relating to video-based systems for computer assisted surgery and localisation |
US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
JPH0844490A (ja) | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
AUPN003894A0 (en) * | 1994-12-13 | 1995-01-12 | Xenotech Research Pty Ltd | Head tracking system for stereoscopic display apparatus |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
DE69634913T2 (de) * | 1995-04-28 | 2006-01-05 | Matsushita Electric Industrial Co., Ltd., Kadoma | Schnittstellenvorrichtung |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
JP3481631B2 (ja) | 1995-06-07 | 2003-12-22 | ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク | 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法 |
US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) * | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
JPH09231369A (ja) | 1996-02-21 | 1997-09-05 | Canon Inc | 画像情報入力装置 |
US5909218A (en) | 1996-04-25 | 1999-06-01 | Matsushita Electric Industrial Co., Ltd. | Transmitter-receiver of three-dimensional skeleton structure motions and method thereof |
JP2000510013A (ja) | 1996-05-08 | 2000-08-08 | リアル ヴィジョン コーポレイション | 位置検出を用いたリアルタイムシミュレーション |
US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
US5844241A (en) * | 1996-07-19 | 1998-12-01 | City Of Hope | System and method for determining internal radioactivity and absorbed dose estimates |
US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
EP0959444A4 (en) | 1996-08-14 | 2005-12-07 | Nurakhmed Nurislamovic Latypov | METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS |
JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
EP0849697B1 (en) | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
US5974175A (en) * | 1997-01-22 | 1999-10-26 | Fujitsu Limited | Image processing apparatus and method for detecting a contour of an object from images of a motion picture and extracting the object therefrom |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6400368B1 (en) | 1997-03-20 | 2002-06-04 | Avid Technology, Inc. | System and method for constructing and using generalized skeletons for animation models |
US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6141463A (en) | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
WO1999019840A1 (en) | 1997-10-15 | 1999-04-22 | Electric Planet, Inc. | A system and method for generating an animatable character |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
AU1099899A (en) | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
EP1059970A2 (en) | 1998-03-03 | 2000-12-20 | Arena, Inc, | System and method for tracking and assessing movement skills in multidimensional space |
US6272231B1 (en) * | 1998-11-06 | 2001-08-07 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
BR9909611B1 (pt) | 1998-04-13 | 2012-08-07 | mÉtodo e aparelho para detectar caracterÍsticas faciais em uma sequÊncia de quadros de imagem compreendendo uma imagem de um rosto. | |
US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
EP0991011B1 (en) | 1998-09-28 | 2007-07-25 | Matsushita Electric Industrial Co., Ltd. | Method and device for segmenting hand gestures |
AU1930700A (en) | 1998-12-04 | 2000-06-26 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
WO2000036372A1 (en) | 1998-12-16 | 2000-06-22 | 3Dv Systems, Ltd. | Self gating photosurface |
US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
JP4006873B2 (ja) * | 1999-03-11 | 2007-11-14 | ソニー株式会社 | 情報処理システム、情報処理方法及び装置、並びに情報提供媒体 |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6487304B1 (en) * | 1999-06-16 | 2002-11-26 | Microsoft Corporation | Multi-view approach to motion and stereo |
GB9914808D0 (en) * | 1999-06-25 | 1999-08-25 | Koninkl Philips Electronics Nv | Active matrix electroluminscent device |
US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
US6556199B1 (en) * | 1999-08-11 | 2003-04-29 | Advanced Research And Technology Institute | Method and apparatus for fast voxelization of volumetric models |
ES2234652T3 (es) * | 1999-09-10 | 2005-07-01 | Scanvaegt International A/S | Clasificadora. |
US6658136B1 (en) * | 1999-12-06 | 2003-12-02 | Microsoft Corporation | System and process for locating and tracking a person or object in a scene using a series of range images |
JP4531897B2 (ja) * | 1999-12-27 | 2010-08-25 | パナソニック株式会社 | 人物追跡装置、人物追跡方法及びそのプログラムを記録した記録媒体 |
US6980690B1 (en) | 2000-01-20 | 2005-12-27 | Canon Kabushiki Kaisha | Image processing apparatus |
US6674877B1 (en) * | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US20020024517A1 (en) * | 2000-07-14 | 2002-02-28 | Komatsu Ltd. | Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space |
US7375728B2 (en) * | 2001-10-01 | 2008-05-20 | University Of Minnesota | Virtual mirror |
US6760028B1 (en) * | 2000-07-21 | 2004-07-06 | Microsoft Corporation | Methods and systems for hinting fonts |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US6700586B1 (en) * | 2000-08-23 | 2004-03-02 | Nintendo Co., Ltd. | Low cost graphics with stitching processing hardware support for skeletal animation |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
US6573912B1 (en) * | 2000-11-07 | 2003-06-03 | Zaxel Systems, Inc. | Internet system for virtual telepresence |
JP4011327B2 (ja) * | 2000-11-15 | 2007-11-21 | 株式会社レクサー・リサーチ | 表示オブジェクト提供装置、表示オブジェクト提供方式及び表示オブジェクト提供プログラム |
EP1371019A2 (en) | 2001-01-26 | 2003-12-17 | Zaxel Systems, Inc. | Real-time virtual viewpoint in simulated reality environment |
US20040104935A1 (en) * | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
JP2002319036A (ja) * | 2001-02-13 | 2002-10-31 | Sega Corp | アニメーション生成プログラム |
US6539931B2 (en) * | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
RU2215326C2 (ru) | 2001-06-29 | 2003-10-27 | Самсунг Электроникс Ко., Лтд. | Иерархическое основанное на изображениях представление неподвижного и анимированного трехмерного объекта, способ и устройство для использования этого представления для визуализации объекта |
US7274800B2 (en) * | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
JP2003058907A (ja) * | 2001-08-09 | 2003-02-28 | Univ Tokyo | 木構造リンク系のポーズ及び動作を生成する方法 |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
JP2003109015A (ja) * | 2001-10-01 | 2003-04-11 | Masanobu Yamamoto | 身体動作測定方式 |
DE10149556A1 (de) * | 2001-10-08 | 2003-04-24 | Siemens Ag | Verfahren zur Erzeugung eines zweidimensionalen Bildes aus einem 3D-Datensatz eines Tomographie-Geräts und medizinisches Tomographie-Gerät |
KR100450823B1 (ko) * | 2001-11-27 | 2004-10-01 | 삼성전자주식회사 | 깊이 이미지 기반 3차원 물체의 표현을 위한 노드 구조 |
CA2413058C (en) | 2001-11-27 | 2012-01-17 | Samsung Electronics Co., Ltd. | Node structure for representing 3-dimensional objects using depth image |
WO2003071410A2 (en) * | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US20030169906A1 (en) | 2002-02-26 | 2003-09-11 | Gokturk Salih Burak | Method and apparatus for recognizing objects |
US7203356B2 (en) * | 2002-04-11 | 2007-04-10 | Canesta, Inc. | Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications |
EP1497160B2 (de) | 2002-04-19 | 2010-07-21 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | Sicherheitsvorrichtung für ein fahrzeug |
GB0209080D0 (en) | 2002-04-20 | 2002-05-29 | Virtual Mirrors Ltd | Methods of generating body models from scanned data |
US7366645B2 (en) * | 2002-05-06 | 2008-04-29 | Jezekiel Ben-Arie | Method of recognition of human motion, vector sequences and speech |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US7598976B2 (en) | 2002-06-13 | 2009-10-06 | I See Tech Ltd. | Method and apparatus for a multisensor imaging and scene interpretation system to aid the visually impaired |
AU2003280516A1 (en) * | 2002-07-01 | 2004-01-19 | The Regents Of The University Of California | Digital processing of video images |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US9474968B2 (en) * | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US7176915B1 (en) * | 2002-08-09 | 2007-02-13 | Avid Technology, Inc. | Subdividing rotation in a character using quaternion interpolation for modeling and animation in three dimensions |
EP1558015B1 (en) * | 2002-08-30 | 2009-10-07 | Sony Corporation | Image extraction device, image extraction method, image processing device, image processing method, and imaging device |
JP4287375B2 (ja) * | 2002-09-24 | 2009-07-01 | 健爾 西 | 画像表示装置及び投影光学系 |
US7576727B2 (en) * | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
KR100507780B1 (ko) * | 2002-12-20 | 2005-08-17 | 한국전자통신연구원 | 고속 마커프리 모션 캡쳐 장치 및 방법 |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
US7224830B2 (en) * | 2003-02-04 | 2007-05-29 | Intel Corporation | Gesture detection from digital video images |
US9177387B2 (en) * | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US7257237B1 (en) | 2003-03-07 | 2007-08-14 | Sandia Corporation | Real time markerless motion tracking using linked kinematic chains |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US7372977B2 (en) * | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
US7620202B2 (en) * | 2003-06-12 | 2009-11-17 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
US7874917B2 (en) * | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US7536032B2 (en) | 2003-10-24 | 2009-05-19 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
JP2005165984A (ja) * | 2003-12-05 | 2005-06-23 | Seiko Epson Corp | 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム |
US20050215319A1 (en) * | 2004-03-23 | 2005-09-29 | Harmonix Music Systems, Inc. | Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment |
CN100573548C (zh) | 2004-04-15 | 2009-12-23 | 格斯图尔泰克股份有限公司 | 跟踪双手运动的方法和设备 |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US8059153B1 (en) * | 2004-06-21 | 2011-11-15 | Wyse Technology Inc. | Three-dimensional object tracking using distributed thin-client cameras |
KR101183000B1 (ko) * | 2004-07-30 | 2012-09-18 | 익스트림 리얼리티 엘티디. | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법 |
US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
US20130063477A1 (en) | 2004-12-06 | 2013-03-14 | James Richardson | Systems and methods for using a movable object to control a computer |
KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
EP1849123A2 (en) | 2005-01-07 | 2007-10-31 | GestureTek, Inc. | Optical flow based tilt sensor |
JP2008537190A (ja) | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | 赤外線パターンを照射することによる対象物の三次元像の生成 |
EP3693889A3 (en) | 2005-01-07 | 2020-10-28 | QUALCOMM Incorporated | Detecting and tracking objects in images |
US20060170769A1 (en) * | 2005-01-31 | 2006-08-03 | Jianpeng Zhou | Human and object recognition in digital video |
US7646902B2 (en) * | 2005-02-08 | 2010-01-12 | Regents Of The University Of Michigan | Computerized detection of breast cancer on digital tomosynthesis mammograms |
JP5631535B2 (ja) | 2005-02-08 | 2014-11-26 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
EP1851727A4 (en) | 2005-02-23 | 2008-12-03 | Craig Summers | AUTOMATIC SCENES MODELING FOR 3D CAMERA AND 3D VIDEO |
US7317836B2 (en) * | 2005-03-17 | 2008-01-08 | Honda Motor Co., Ltd. | Pose estimation based on critical point analysis |
KR101430761B1 (ko) | 2005-05-17 | 2014-08-19 | 퀄컴 인코포레이티드 | 방위-감응 신호 출력 |
US20090041297A1 (en) * | 2005-05-31 | 2009-02-12 | Objectvideo, Inc. | Human detection and tracking for security applications |
EP1752748B1 (en) | 2005-08-12 | 2008-10-29 | MESA Imaging AG | Highly sensitive, fast pixel for use in an image sensor |
US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
JP4653599B2 (ja) | 2005-08-29 | 2011-03-16 | アロカ株式会社 | 超音波診断装置 |
US8382485B2 (en) * | 2005-09-29 | 2013-02-26 | The General Hospital Corporation | Methods and apparatus for providing realistic medical training |
US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
US7728839B2 (en) * | 2005-10-28 | 2010-06-01 | Honda Motor Co., Ltd. | Discriminative motion modeling for human motion tracking |
US8094928B2 (en) * | 2005-11-14 | 2012-01-10 | Microsoft Corporation | Stereo video for gaming |
US20090256800A1 (en) * | 2005-11-28 | 2009-10-15 | Kaufman Roger E | Virtual reality simulator harness systems |
KR100817298B1 (ko) | 2005-12-08 | 2008-03-27 | 한국전자통신연구원 | 양손 검출 및 추적 방법 |
JP5025950B2 (ja) | 2005-12-12 | 2012-09-12 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法 |
EP1982306A1 (fr) * | 2006-02-07 | 2008-10-22 | France Télécom | Procede pour suivre la position de la tete en temps reel dans un flux d'images video |
JP5174684B2 (ja) * | 2006-03-14 | 2013-04-03 | プライムセンス リミテッド | スペックル・パターンを用いた三次元検出 |
CN101438340B (zh) * | 2006-05-04 | 2011-08-10 | 索尼电脑娱乐公司 | 用于三维输入控制的系统、方法和设备 |
EP2016562A4 (en) * | 2006-05-07 | 2010-01-06 | Sony Computer Entertainment Inc | METHOD FOR IMPLEMENTING AFFECTIVE PROPERTIES IN A COMPUTER GENERATED AVATAR DURING A COMPUTER GAME |
CN103778635B (zh) | 2006-05-11 | 2016-09-28 | 苹果公司 | 用于处理数据的方法和装置 |
US8467570B2 (en) * | 2006-06-14 | 2013-06-18 | Honeywell International Inc. | Tracking system with fused motion and object detection |
US8086971B2 (en) | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US8284202B2 (en) * | 2006-06-30 | 2012-10-09 | Two Pic Mc Llc | Methods and apparatus for capturing and rendering dynamic surface deformations in human motion |
JP4409545B2 (ja) | 2006-07-06 | 2010-02-03 | 株式会社ソニー・コンピュータエンタテインメント | 三次元位置特定装置および方法、奥行位置特定装置 |
JP4707034B2 (ja) | 2006-07-07 | 2011-06-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理方法、入力インタフェース装置 |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
DE102006048166A1 (de) * | 2006-08-02 | 2008-02-07 | Daimler Ag | Verfahren zur Beobachtung einer Person in einem industriellen Umfeld |
CN100541540C (zh) | 2006-09-14 | 2009-09-16 | 浙江大学 | 基于侧影和末端节点的视频人体三维运动恢复方法 |
US8131011B2 (en) * | 2006-09-25 | 2012-03-06 | University Of Southern California | Human detection and tracking system |
JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
US20100278391A1 (en) * | 2006-10-12 | 2010-11-04 | Yung-Tai Hsu | Apparatus for behavior analysis and method thereof |
US8023726B2 (en) * | 2006-11-10 | 2011-09-20 | University Of Maryland | Method and system for markerless motion capture using multiple cameras |
US7844087B2 (en) * | 2006-12-19 | 2010-11-30 | Carestream Health, Inc. | Method for segmentation of lesions |
US8351646B2 (en) * | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
AU2008222933A1 (en) * | 2007-03-02 | 2008-09-12 | Organic Motion | System and method for tracking three dimensional objects |
US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
US20080252596A1 (en) * | 2007-04-10 | 2008-10-16 | Matthew Bell | Display Using a Three-Dimensional vision System |
BRPI0721562A2 (pt) | 2007-04-20 | 2013-01-22 | Softkinetic S A | mÉtodo e sistema de reconhecimento de volume |
US7965866B2 (en) * | 2007-07-03 | 2011-06-21 | Shoppertrak Rct Corporation | System and process for detecting, tracking and counting human objects of interest |
US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
US8295543B2 (en) * | 2007-08-31 | 2012-10-23 | Lockheed Martin Corporation | Device and method for detecting targets in images based on user-defined classifiers |
US7806589B2 (en) * | 2007-09-26 | 2010-10-05 | University Of Pittsburgh | Bi-plane X-ray imaging system |
US7970176B2 (en) * | 2007-10-02 | 2011-06-28 | Omek Interactive, Inc. | Method and system for gesture classification |
US7876947B2 (en) * | 2007-10-10 | 2011-01-25 | Siemens Medical Solutions Usa, Inc. | System and method for detecting tagged material using alpha matting |
US9292092B2 (en) | 2007-10-30 | 2016-03-22 | Hewlett-Packard Development Company, L.P. | Interactive display system with collaborative gesture detection |
US8419545B2 (en) * | 2007-11-28 | 2013-04-16 | Ailive, Inc. | Method and system for controlling movements of objects in a videogame |
US20090221368A1 (en) * | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
GB2455316B (en) * | 2007-12-04 | 2012-08-15 | Sony Corp | Image processing apparatus and method |
US7925081B2 (en) * | 2007-12-12 | 2011-04-12 | Fuji Xerox Co., Ltd. | Systems and methods for human body pose estimation |
WO2009086088A1 (en) * | 2007-12-21 | 2009-07-09 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US9165199B2 (en) | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
KR100939294B1 (ko) | 2007-12-26 | 2010-01-29 | 주식회사 케이티 | 3차원 공간에서의 사람 움직임 추적 방법 및 장치 |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
KR101335346B1 (ko) | 2008-02-27 | 2013-12-05 | 소니 컴퓨터 엔터테인먼트 유럽 리미티드 | 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들 |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
JP4582174B2 (ja) * | 2008-03-28 | 2010-11-17 | ソニー株式会社 | 追跡処理装置、追跡処理方法、プログラム |
CN101254344B (zh) | 2008-04-18 | 2010-06-16 | 李刚 | 场地方位与显示屏点阵按比例相对应的游戏装置和方法 |
KR101494344B1 (ko) * | 2008-04-25 | 2015-02-17 | 삼성전자주식회사 | 휴머노이드 로봇의 움직임 제어 시스템 및 그 방법 |
US8781197B2 (en) * | 2008-04-28 | 2014-07-15 | Cornell University | Tool for accurate quantification in molecular MRI |
US8971565B2 (en) * | 2008-05-29 | 2015-03-03 | Hie-D Technologies, Llc | Human interface electronic device |
US8456517B2 (en) * | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
EP2327061A4 (en) * | 2008-08-15 | 2016-11-16 | Univ Brown | METHOD AND DEVICE FOR ESTIMATING BODY SHAPES |
CN201254344Y (zh) | 2008-08-20 | 2009-06-10 | 中国农业科学院草原研究所 | 植物标本及种子存贮器 |
US8385688B2 (en) * | 2008-08-27 | 2013-02-26 | International Business Machines Corporation | System and method for automatic recognition and labeling of anatomical structures and vessels in medical imaging scans |
US8577084B2 (en) * | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
WO2010103482A2 (en) * | 2009-03-13 | 2010-09-16 | Primesense Ltd. | Enhanced 3d interfacing for remote devices |
KR101591779B1 (ko) | 2009-03-17 | 2016-02-05 | 삼성전자주식회사 | 모션 데이터 및 영상 데이터를 이용한 골격 모델 생성 장치및 방법 |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US8320619B2 (en) | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US8379101B2 (en) | 2009-05-29 | 2013-02-19 | Microsoft Corporation | Environment and/or target segmentation |
US9182814B2 (en) | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US8175335B2 (en) * | 2009-06-17 | 2012-05-08 | Sony Corporation | Content adaptive detection of images with stand-out object |
US8565479B2 (en) * | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
KR101619076B1 (ko) | 2009-08-25 | 2016-05-10 | 삼성전자 주식회사 | 모바일 플랫폼의 동적 물체 검출 및 추적 방법 |
US8867820B2 (en) * | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US8564534B2 (en) * | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US7961910B2 (en) * | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
JP5820366B2 (ja) * | 2010-10-08 | 2015-11-24 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
US20130208900A1 (en) * | 2010-10-13 | 2013-08-15 | Microsoft Corporation | Depth camera with integrated three-dimensional audio |
US20130208926A1 (en) * | 2010-10-13 | 2013-08-15 | Microsoft Corporation | Surround sound simulation with virtual skeleton modeling |
US8761437B2 (en) * | 2011-02-18 | 2014-06-24 | Microsoft Corporation | Motion recognition |
US9171200B2 (en) * | 2011-03-04 | 2015-10-27 | Hewlett-Packard Development Company, L.P. | Gestural interaction identification |
CN104203165B (zh) * | 2011-10-31 | 2016-12-28 | 奥索有限责任公司 | 用于动态地治疗膝部的矫形装置 |
CN109598798B (zh) * | 2012-12-14 | 2023-11-28 | 韩国电子通信研究院 | 虚拟物拟合方法及虚拟物拟合服务系统 |
US9052746B2 (en) * | 2013-02-15 | 2015-06-09 | Microsoft Technology Licensing, Llc | User center-of-mass and mass distribution extraction using depth images |
US9135516B2 (en) * | 2013-03-08 | 2015-09-15 | Microsoft Technology Licensing, Llc | User body angle, curvature and average extremity positions extraction using depth images |
US9142034B2 (en) * | 2013-03-14 | 2015-09-22 | Microsoft Technology Licensing, Llc | Center of mass state vector for analyzing user motion in 3D images |
US9159140B2 (en) * | 2013-03-14 | 2015-10-13 | Microsoft Technology Licensing, Llc | Signal analysis for repetition detection and analysis |
-
2009
- 2009-10-07 US US12/575,388 patent/US8564534B2/en active Active
-
2010
- 2010-09-21 TW TW104115427A patent/TWI545464B/zh not_active IP Right Cessation
- 2010-09-21 TW TW104115432A patent/TWI595383B/zh not_active IP Right Cessation
- 2010-09-21 TW TW099132065A patent/TWI497346B/zh not_active IP Right Cessation
- 2010-09-21 TW TW104115429A patent/TWI521388B/zh not_active IP Right Cessation
- 2010-10-06 WO PCT/US2010/051662 patent/WO2011044257A2/en active Application Filing
- 2010-10-06 EP EP10822620.0A patent/EP2486545B1/en active Active
- 2010-10-06 JP JP2012533286A patent/JP5845184B2/ja active Active
- 2010-10-06 KR KR1020127008854A patent/KR101722147B1/ko active IP Right Grant
- 2010-10-06 CN CN2010800449190A patent/CN102549619B/zh active Active
- 2010-10-06 KR KR1020177008298A patent/KR101802125B1/ko active IP Right Grant
-
2012
- 2012-02-02 US US13/365,121 patent/US8542910B2/en active Active
-
2013
- 2013-09-23 US US14/034,484 patent/US8861839B2/en active Active
- 2013-10-21 US US14/059,258 patent/US8970487B2/en active Active
-
2014
- 2014-09-04 US US14/477,713 patent/US9522328B2/en active Active
-
2015
- 2015-01-22 US US14/602,333 patent/US9821226B2/en active Active
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI460683B (zh) * | 2011-06-24 | 2014-11-11 | Reallusion Inc | The way to track the immediate movement of the head |
TWI465960B (en) * | 2011-08-30 | 2014-12-21 | Three-dimensional human interface system and method thereof | |
CN102981599A (zh) * | 2011-09-05 | 2013-03-20 | 硕擎科技股份有限公司 | 三维人机界面系统及其方法 |
TWI470565B (zh) * | 2012-06-15 | 2015-01-21 | Sheng Fang Huang | 非接觸式醫療導覽系統及其控制方法 |
TWI608426B (zh) * | 2013-09-24 | 2017-12-11 | 惠普發展公司有限責任合夥企業 | 基於表示標的之影像判定區隔邊界之技術 |
US10156937B2 (en) | 2013-09-24 | 2018-12-18 | Hewlett-Packard Development Company, L.P. | Determining a segmentation boundary based on images representing an object |
TWI549069B (zh) * | 2014-12-15 | 2016-09-11 | Sheng Hui Meng | Method and device for passenger barge |
Also Published As
Publication number | Publication date |
---|---|
EP2486545A2 (en) | 2012-08-15 |
TWI545464B (zh) | 2016-08-11 |
US9821226B2 (en) | 2017-11-21 |
CN102549619A (zh) | 2012-07-04 |
US9522328B2 (en) | 2016-12-20 |
WO2011044257A3 (en) | 2011-09-29 |
US20110080336A1 (en) | 2011-04-07 |
EP2486545A4 (en) | 2017-03-15 |
US20140044309A1 (en) | 2014-02-13 |
US20140375557A1 (en) | 2014-12-25 |
US20140022161A1 (en) | 2014-01-23 |
US8861839B2 (en) | 2014-10-14 |
US8564534B2 (en) | 2013-10-22 |
KR20120093197A (ko) | 2012-08-22 |
KR101722147B1 (ko) | 2017-03-31 |
TWI497346B (zh) | 2015-08-21 |
JP5845184B2 (ja) | 2016-01-20 |
WO2011044257A2 (en) | 2011-04-14 |
US20120128208A1 (en) | 2012-05-24 |
CN102549619B (zh) | 2013-11-20 |
US20150131862A1 (en) | 2015-05-14 |
KR101802125B1 (ko) | 2017-11-27 |
JP2013507688A (ja) | 2013-03-04 |
US8970487B2 (en) | 2015-03-03 |
TWI521388B (zh) | 2016-02-11 |
TW201546660A (zh) | 2015-12-16 |
EP2486545B1 (en) | 2019-07-17 |
KR20170038101A (ko) | 2017-04-05 |
TW201546659A (zh) | 2015-12-16 |
US8542910B2 (en) | 2013-09-24 |
TW201546658A (zh) | 2015-12-16 |
TWI595383B (zh) | 2017-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW201120684A (en) | Human tracking system | |
US10048747B2 (en) | Methods and systems for determining and tracking extremities of a target | |
US8803889B2 (en) | Systems and methods for applying animations or motions to a character | |
US20100302247A1 (en) | Target digitization, extraction, and tracking | |
US20110234589A1 (en) | Systems and methods for tracking a model | |
KR20120051659A (ko) | 비주얼 형상의 자동 생성 방법 | |
TW201143866A (en) | Tracking groups of users in motion capture system | |
CN102129152A (zh) | 具有集成vcsel阵列的深度投影仪系统 | |
WO2010138431A2 (en) | Systems and methods for tracking a model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | Annulment or lapse of patent due to non-payment of fees |