CN102947774B - 用于驱动交互式故事的自然用户输入 - Google Patents
用于驱动交互式故事的自然用户输入 Download PDFInfo
- Publication number
- CN102947774B CN102947774B CN201180030439.3A CN201180030439A CN102947774B CN 102947774 B CN102947774 B CN 102947774B CN 201180030439 A CN201180030439 A CN 201180030439A CN 102947774 B CN102947774 B CN 102947774B
- Authority
- CN
- China
- Prior art keywords
- user
- story
- image
- audio
- linear
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 38
- 230000000007 visual effect Effects 0.000 claims abstract description 21
- 230000008859 change Effects 0.000 claims abstract description 18
- 230000033001 locomotion Effects 0.000 claims description 30
- 230000003993 interaction Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 20
- 230000033764 rhythmic process Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 238000007689 inspection Methods 0.000 claims description 4
- 238000013500 data storage Methods 0.000 claims description 2
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 claims 1
- 238000012986 modification Methods 0.000 abstract description 4
- 230000004048 modification Effects 0.000 abstract description 4
- 230000036544 posture Effects 0.000 description 87
- 230000009471 action Effects 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 19
- 230000015654 memory Effects 0.000 description 19
- 238000004458 analytical method Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 7
- 230000036541 health Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000001624 hip Anatomy 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001139376 Allas Species 0.000 description 1
- 101100352902 Dictyostelium discoideum canA gene Proteins 0.000 description 1
- 241000543375 Sideroxylon Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 101150053888 allA gene Proteins 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004581 coalescence Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 108010052322 limitin Proteins 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 101150033714 mtcA1 gene Proteins 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- HOWHQWFXSLOJEF-MGZLOUMQSA-N systemin Chemical compound NCCCC[C@H](N)C(=O)N[C@@H](CCSC)C(=O)N[C@@H](CCC(N)=O)C(=O)N[C@@H]([C@@H](C)O)C(=O)N[C@@H](CC(O)=O)C(=O)OC(=O)[C@@H]1CCCN1C(=O)[C@H]1N(C(=O)[C@H](CC(O)=O)NC(=O)[C@H](CCCN=C(N)N)NC(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H]2N(CCC2)C(=O)[C@H]2N(CCC2)C(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@@H](NC(=O)[C@H](C)N)C(C)C)CCC1 HOWHQWFXSLOJEF-MGZLOUMQSA-N 0.000 description 1
- 108010050014 systemin Proteins 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/424—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
-
- A63F13/10—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- A63F13/12—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/47—Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/438—Presentation of query results
- G06F16/4387—Presentation of query results by the use of playlists
- G06F16/4393—Multimedia presentations, e.g. slide shows, multimedia albums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6045—Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/63—Methods for processing data by generating or executing the game program for controlling the execution of the game in time
- A63F2300/632—Methods for processing data by generating or executing the game program for controlling the execution of the game in time by branching, e.g. choosing one of several possible story developments at a given point in time
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
公开了用于将交互式游戏方面组合到线性故事中的系统和方法。用户可经由NUI系统与线性故事交互以更改向用户呈现的故事和图像。在一示例中,用户可通过执行预定的探索姿势来更改故事。这一姿势将用户带入所显示的图像的3-D世界。具体地,屏幕上显示的图像改变为创建用户正踏入3-D虚拟世界的印象,以允许用户从不同的视角检查虚拟对象或者环顾凝视虚拟对象。
Description
技术领域
本发明涉及自然用户界面,尤其涉及用于驱动交互式故事的自然用户输入。
背景技术
在过去,诸如计算机游戏和多媒体应用之类的计算应用使用控制器、遥控器、键盘、鼠标等来允许用户操纵应用的游戏角色或其他方面。近来,计算机游戏和多媒体应用已开始使用相机和软件姿势识别引擎来提供自然用户界面(“NUI”)。使用NUI,检测、解释用户姿势和语音并将其用于控制游戏人物或应用的其他方面。
目前,NUI系统被广泛用于游戏应用。然而,目前的NUI系统尚未被用作线性故事诉说的介质。线性故事是传统的、被动的、非交互式的体验,诸如由传统的电视节目、电影和书籍提供的。线性故事几十年来广泛地被一般公众接受。游戏,尤其是具有NUI系统的游戏,是相对新的,并且目前在可接受度方面具有多得多的限制。
发明内容
此处公开的是用于提供将交互式游戏方面组合到线性故事中的交互式故事体验的系统和方法。线性故事可被用户观看,并且在期望时从头到尾没有用户交互。或者,用户可与线性故事交互以提供交互式体验。用户可经由NUI系统来与线性故事交互,该NUI系统包括计算环境、用于捕捉用户移动数据并将其提供给计算设备的捕捉设备、以及用于呈现故事的视听设备。
在一个实施例中,用户可通过执行预定义的探索姿势来更改线性故事。在被捕捉设备检测到并且被计算环境识别出时,这一姿势将用户代入所显示的图像的3-D世界。具体地,在屏幕上显示的图像改变为创建用户正踏入3-D虚拟世界的印象,以允许用户在场景内四处移动,并且从场景中的不同视角来探索和检查虚拟对象,或者环顾凝视场景中的虚拟对象。
在一个实施例中,本发明的系统涉及将交互式游戏方面组合到线性故事中的方法。该方法包括以下步骤:a)经由视听设备使用至少一个图像和音频叙述来呈现线性故事,线性故事具有在用户不与故事交互的情况下呈现给用户的图像和/或叙述的默认集合;b)经由捕捉设备检测用户的移动和语音命令中的至少一个;c)标识在所述步骤b)中检测到的移动和/或语音命令是否是与线性故事的交互,该交互更改线性故事以包括具有未被包括在图像和/或叙述的默认集合中的附加图像和附加叙述中的至少一个的故事分支;以及d)通过经由视听设备来向用户呈现附加图像和附加叙述中的至少一个来更改线性故事。
在另一实施例中,本发明的系统涉及用于对处理器编程以执行将交互式游戏方面组合到线性故事中的方法的计算机可读介质,所述方法包括以下步骤:a)经由视听设备使用图像和音频叙述中的至少一个来呈现线性故事,在监视用户移动的捕捉设备没有感知到用户的交互的情况下,线性故事从头到尾被呈现为完整的故事,并且包括图像的默认集合;b)经由与视听设备相关联的捕捉设备检测用户的移动;c)标识在所述步骤b)中检测到的移动是否是与线性故事的交互,该交互要求将线性故事修改为包括具有未被包括在图像的默认集合中的附加图像的故事分支;d)基于经存储的或经处理的数据来确定附加图像是否可被呈现;e)如果在所述步骤d)中确定附加图像可被呈现,则通过经由视听设备来向用户呈现附加图像来更改线性故事;以及f)对用户交互打分,其中交互与基于交互获得预定点数的奖励或带走预定点数相对应。
在另一实施例中,本发明的系统涉及用于将交互式游戏方面组合到线性故事中的系统。该系统包括:用于呈现图像和音频叙述中的至少一个的视听设备;用于捕捉来自用户的图像和音频数据中的至少一个的图像捕捉设备;以及耦合到视听设备和图像捕捉设备的计算环境。该计算环境用于:a)经由视听设备使用图像和音频叙述中的至少一个来呈现线性故事,在捕捉设备没有感知到用户交互的情况下,线性故事从头到尾被呈现为完成的故事,并且包括图像的默认集合;b)经由捕捉设备检测用户的移动;c)标识检测到的移动是否是探索姿势;d)在将移动标识为探索姿势之后从线性故事分支到故事分支。该分支包括以下操作:d1)感测视听设备上用户指示的点,d2)计算从用户部分到视听设备上用户指示的点的3-D真实世界向量,d3)将3-D真实世界向量转换成3-D机器空间向量,该3-D机器空间向量具有位于当前视角的起点以及位于3-D机器空间中的虚拟对象的终点,以及d4)从3-D机器空间向量的终点处的视角来显示虚拟对象。
提供本概述以便以简化形式介绍在以下详细描述中进一步描述的对概念的选择。本概述既不旨在标识要求保护的主题的关键特征或必要特征,也不旨在用作帮助确定要求保护的主题的范围。此外,所要求保护的主题不限于解决在本公开的任一部分中所提及的任何或所有缺点的实现。
附图说明
图1A示出用于提供交互式故事体验的目标识别、分析和跟踪系统的示例实施例。
图1B示出用于提供交互式故事体验的目标识别、分析和跟踪系统的又一示例实施例。
图2示出了可以在目标识别、分析和跟踪系统中使用的捕捉设备的示例实施例。
图3A示出了可用于解释目标识别、分析和跟踪系统中的一个或多个姿势的计算环境的示例实施例。
图3B示出了可用于解释目标识别、分析和跟踪系统中的一个或多个姿势的计算环境的另一示例实施例。
图4示出了从图1A-2的目标识别、分析和跟踪系统中生成的用户的骨架映射。
图5是用于提供交互式故事体验的本发明的技术的实施例的操作的高级流程图。
图6是用于将捕捉设备检测到的语音与交互式故事体验进行关联的本发明的技术的实施例的操作的流程图。
图7是用于虚拟场景的3-D探索的本发明的技术的实施例的操作的流程图。
图8是用于使用户控制屏幕上角色的动作的本发明的技术的实施例的操作的流程图。
图9是用于使用户与场景交互以更改交互式故事体验的情节的本发明的技术的实施例的操作的流程图。
图9A是用于在场景被呈现在预先录制的视频中的情况下使用户与场景交互以更改交互式故事体验的情节的本发明的技术的替换实施例的操作的流程图。
图10是执行探索姿势以探索和调查所显示的场景内的虚拟对象的用户的示例。
图11示出重新会聚于单个故事结尾的分支子情节。
图12示出导致多个故事结尾中的一个的分支情节。
图13是示出了用于识别姿势的姿势识别引擎的框图。
图14是图13的姿势识别引擎的操作的流程图。
具体实施方式
现在参考附图1A-14来描述本发明的技术的各实施例,这些实施例一般涉及用于提供将交互式游戏方面组合到线性故事中的交互式故事体验的系统和方法。提供用于运行交互式故事应用的NUI系统。如果在没有用户交互的情况下运行,故事应用从头到尾向用户提供线性故事。或者,用户可经由NUI系统与故事应用交互以执行各种动作。
在一个实施例中,用户可通过执行预定义的探索姿势来更改线性故事。这一姿势向系统发出信号:用户期望踏入并探索向用户显示的三维(3-D)虚拟世界。取决于所执行的探索姿势,所显示的图像改变为创建用户正进入3-D虚拟世界的印象,以允许用户在场景内四处移动,并且从场景中的不同视角来探索和检查虚拟对象。用户还可在场景中环顾凝视虚拟对象后方以查看这些虚拟对象的背面,或者更仔细地检查被前景对象遮挡的其他对象。
尽管在3-D虚拟世界中进行探索,或者通过执行其他姿势或移动来进行探索,但用户还可更改线性故事的情节。在这些实施例中,故事应用可分支到其他子情节以及可能的其他故事结尾。
最初参考图1A-2,用于实现本发明的技术的硬件包括目标识别、分析和跟踪系统10,该系统可用于识别、分析和/或跟踪诸如用户18等的人类目标。目标识别、分析和跟踪系统10的各个实施例包括用于执行游戏或诸如交互式故事应用之类的其他应用的计算环境12。计算环境12可包括硬件组件和/或软件组件,使得计算环境12可用于执行游戏应用和非游戏应用。在一个实施例中,计算环境12可包括诸如标准化处理器、专用处理器、微处理器之类的处理器,该处理器可执行存储在处理器可读的存储设备上的用于执行此处所描述的过程的指令。
系统10还包括捕捉设备20,捕捉设备20用于捕捉与捕捉设备所感测的一个或多个用户和/或对象有关的图像和音频数据。在实施例中,捕捉设备20可以用于捕获与一个或多个用户的移动、姿势和话音相关的信息,所述信息被计算环境接收并且被用于呈现游戏应用或其他应用的各方面、与所述方面交互和/或控制所述方面。以下更详细地解释计算环境12和捕捉设备20的示例。
目标识别、分析和跟踪系统10的实施例可以连接到具有显示器14的音频/视觉设备16。设备16可以例如是可向用户提供游戏或应用视觉和/或音频的电视机、监视器、高清电视机(HDTV)等。例如,计算环境12可包括诸如图形卡之类的视频适配器和/或诸如声卡之类的音频适配器,这些适配器可提供与游戏或其他应用相关联的音频/视觉信号。音频/视觉设备16可以从计算环境12接收音频/视觉信号,并且然后可以向用户18输出与该音频/视觉信号相关联的游戏或应用视觉和/或音频。根据一个实施例,音频/视觉设备16可经由例如S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆、分量视频电缆等连接到计算环境12。
如图1A和1B所示,在一示例实施例中,在计算环境12上执行的故事应用可以呈现多种故事设置中的任一种。图1A示出包括房子21、怪物23和云25的场景19。如下文说明的,用户可用各种方式与场景19交互。在一个示例中,用户可如图所示的将云25移动到一起,这可能更改故事应用所呈现的线性故事。例如,将云移动到一起可能导致下雨。
在各实施例中,计算环境12、A/V设备16和捕捉设备20可协作以在显示器14上呈现至少部分地由用户18控制的屏幕上的角色23。如图1B所示,屏幕上的角色23以有样学样(monkey-see-monkey-do)的方式来模仿用户18在真实世界空间中的移动。因此,用户18可执行控制角色23在显示器14上的移动和动作的移动。而且,用户可执行被计算环境识别为预定义姿势的某些移动。这些预定义姿势可导致受控的角色23执行在存储器中与预定义姿势相关联的某些动作。预定义姿势可被用来发起各种其他动作,如下文说明的。
图1A和1B的场景19是可由在计算环境12上运行的故事应用生成的许多不同的场景中的一个。而且,系统10还可以用于将用户18移动解释成处于运行在计算环境12上的故事应用的领域之外的操作系统和/或应用控制。
系统10及其组件的合适的示例在以下共同待审的专利申请中找到,这些专利申请全部特此通过引用结合于此:于2009年5月29日提交的名称为“EnvironmentAnd/OrTargetSegmentation(环境和/或目标分割)”的美国专利申请序列号12/475,094;于2009年7月29日提交的名称为“AutoGeneratingaVisualRepresentation”(自动生成视觉表示)”的美国专利申请序列号12/511,850;于2009年5月29日提交的名称为“GestureTool(姿势工具)”的美国专利申请序列号12/474,655;于2009年10月21日提交的名称为“PoseTrackingPipeline(姿态跟踪流水线)”的美国专利申请序列号12/603,437;于2009年5月29日提交的名称为“DeviceforIdentifyingandTrackingMultipleHumansOverTime(用于随时间标识和跟踪多个人类的设备)”的美国专利申请序列号12/475,308;于2009年10月7日提交的名称为“HumanTrackingSystem(人类跟踪系统)”的美国专利申请序列号12/575,388;于2009年4月13日提交的名称为“GestureRecognizerSystemArchitecture(姿势识别器系统体系结构)”的美国专利申请序列号12/422,661;于2009年2月23日提交的名称为“StandardGestures(标准姿势)”的美国专利申请序列号12/391,150;以及于2009年5月29日提交的名称为“GestureTool(姿势工具)”的美国专利申请序列号12/474,655。
图2示出可在目标识别、分析和跟踪系统10中使用的捕捉设备的一个示例实施例。在一个示例实施例中,捕捉设备可被配置成经由任何合适的技术来捕捉具有可包括深度值的深度图像的视频,这些技术包括例如飞行时间、结构化光、立体图像等。根据一个实施例,捕捉设备可以将所计算的深度信息组织成“Z层”,即与从深度相机沿其视线延伸的Z轴相垂直的层。
如图2所示,捕捉设备可包括图像相机组件22。根据一个示例实施例,图像相机组件22可以是可捕捉场景的深度图像的深度相机。深度图像可以包括所捕捉场景的二维(2-D)像素区域,其中2-D像素区域中的每个像素都可表示深度值,比如例如所捕捉场景中的对象距相机的以厘米、毫米等为单位的长度或距离。
如图2所示,根据一个示例实施例,图像相机组件22可包括可用于捕捉场景的深度图像的IR光组件24、三维(3-D)相机26,以及RGB相机28。例如,在飞行时间分析中,捕捉设备的IR光组件24可将红外光发射到场景上,并且随后可使用传感器(未示出)、用例如3-D相机26和/或RGB相机28来检测从场景中的一个或多个目标和物体的表面反向散射的光。
在一些实施例中,可以使用脉冲红外光,使得可以测量出射光脉冲与相应入射光脉冲之间的时间,并且将其用于确定从捕捉设备到场景中的目标或物体上的特定位置的物理距离。另外,在其他示例实施例中,可以将出射光波的相位与入射光波的相位相比较来确定相移。该相移然后可以用于确定从捕获设备到目标或物体上的特定位置的物理距离。
根据另一示例性实施例,可以使用飞行时间分析来通过经由包括例如快门式光脉冲成像在内的各种技术分析反射光束随时间的强度来间接地确定从捕捉设备到目标或物体上的特定位置的物理距离。
在另一示例实施例中,捕捉设备可以使用结构化光来捕捉深度信息。在这样的分析中,图案化光(即被显示成诸如网格图案或条纹图案的已知图案的光)可以经由例如IR光组件24被投射到场景上。在落到场景中的一个或多个目标或物体的表面上以后,作为响应,图案可以变为变形的。图案的这样的变形可以被例如3-D相机26和/或RGB相机28捕捉,并且随后可被分析以确定从捕捉设备到目标或物体上的特定位置的物理距离。
根据另一实施例,捕捉设备可包括可以从不同的角度观察场景的两个或更多个在物理上分开的相机,以获取可以被解析以生成深度信息的视觉立体数据。在另一示例实施例中,捕捉设备可使用点云数据(pointclouddata)和目标数字化技术来检测用户的特征。
捕捉设备还可包括话筒30。话筒30可包括可接收声音并将其转换成电信号的变换器或传感器。根据一个实施例,话筒30可用于减少目标识别、分析和跟踪系统10中的捕捉设备与计算环境12之间的反馈。另外,话筒30可用于接收也可由用户提供的音频信号,以控制可由计算环境12执行的诸如游戏应用、非游戏应用等之类的应用。
在一示例实施例中,捕捉设备还可包括能与图像相机组件22通信的处理器32。处理器32可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令可包括用于接收深度图像的指令、用于确定合适的目标是否可包括在深度图像中的指令、用于将合适的目标转换成该目标的骨架表示或模型的指令、或任何其他合适的指令。
捕捉设备还可包括存储器组件34,存储器组件34可存储可由处理器32执行的指令、3-D相机或RGB相机捕捉到的图像或图像的帧、或任何其他合适的信息、图像等。根据一示例实施例,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘、或任何其他合适的存储组件。如图2所示,在一个实施例中,存储器组件34可以是与图像相机组件22和处理器32通信的分开组件。根据另一个实施例,可将存储器组件34集成到处理器32和/或图像相机组件22中。
如图2所示,捕捉设备可经由通信链路36与计算环境12通信。通信链路36可以是包括例如USB连接、火线连接、以太网电缆连接等有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等无线连接。根据一个实施例,计算环境12可以经由通信链路36向捕捉设备提供时钟,该时钟可用于确定何时捕捉例如场景。
另外,捕捉设备可以通过通信链路36向计算环境12提供深度信息和由例如3-D相机26和/或RGB相机28捕捉到的图像、以及可以由捕捉设备生成的骨架模型。存在用于判断由捕捉设备检测到的目标或对象是否与人类目标相对应的各种已知技术。骨架映射技术因而可用于确定该用户的骨架上的各个点,手、腕、肘、膝、鼻、踝、肩的关节,以及骨盆与脊椎相交之处。其他技术包括:将图像变换成人的人体模型表示以及将图像变换成人的网格模型表示。
然后,可以将骨架模型提供给计算环境12,使得计算环境可以执行各种动作。计算环境还可基于例如从骨架模型中识别出的用户的姿势来确定在计算机环境上执行的应用中要执行哪些控制。例如,如图2所示,计算环境12可包括用于确定用户何时执行了预定义姿势的姿势识别引擎190。
图3A示出了可以用于在目标识别、分析和跟踪系统中解释用户的一个或多个位置和运动的计算环境的示例实施例。上文参考图1A-2所描述的诸如计算环境12等计算环境可以是诸如游戏控制台等多媒体控制台100。如图3A所示,多媒体控制台100具有中央处理单元(CPU)101,所述CPU具有一级高速缓存102、二级高速缓存104,以及闪存ROM106。一级高速缓存102和二级高速缓存104临时存储数据,并且因此减少存储器访问周期的数量,由此改进处理速度和吞吐量。CPU101可被提供为具有一个以上的核,并且由此具有附加的一级高速缓存102和二级高速缓存104。闪存ROM106可存储在多媒体控制台100通电时引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)108和视频编码器/视频编解码器(编码器/解码器)114形成用于高速和高分辨率图形处理的视频处理流水线。将数据经由总线从GPU108传送到视频编码器/视频编解码器114。视频处理流水线向A/V(音频/视频)端口140输出数据,以便传输到电视机或其他显示器。存储器控制器110连接到GPU108,以便于处理器对各种类型的存储器112(诸如,但不限于RAM)的访问。
多媒体控制台100包括优选地在模块118上实现的I/O控制器120、系统管理控制器122、音频处理单元123、网络接口控制器124、第一USB主控制器126、第二USB主控制器128以及前面板I/O子部件130。USB控制器126和128用作外围控制器142(1)-142(2)、无线适配器148、以及外置存储器设备146(例如,闪存、外置CD/DVDROM驱动器、可移动介质等)的主机。网络接口124和/或无线适配器148提供对网络(例如,因特网、家庭网络等)的访问,并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中的任何一种。
提供系统存储器143来存储在引导过程期间加载的应用数据。提供媒体驱动器144,且其可包括DVD/CD驱动器、硬盘驱动器、或其他可移动媒体驱动器等。媒体驱动器144可以是对多媒体控制台100内置的或外置的。应用数据可经由媒体驱动器144访问,以供多媒体控制台100执行、回放等。媒体驱动器144经由诸如串行ATA总线或其他高速连接(例如IEEE1394)等总线连接到I/O控制器120。
系统管理控制器122提供与确保多媒体控制台100的可用性相关的各种服务功能。音频处理单元123和音频编解码器132形成具有高保真度和立体声处理的相应音频处理流水线。音频数据经由通信链路在音频处理单元123与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口140,以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件130支持暴露在多媒体控制台100的外表面上的电源按钮150和弹出按钮152、以及任何LED(发光二极管)或其他指示器的功能。系统供电模块136向多媒体控制台100的组件供电。风扇138冷却多媒体控制台100内的电路。
多媒体控制台100内的CPU100、GPU108、存储器控制器110、以及各种其他组件经由一条或多条总线互连,该总线包括串行和并行总线、存储器总线、外围总线、以及使用各种总线体系结构中的任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台100通电时,应用数据可从系统存储器143加载到存储器112和/或高速缓存102、104中,并且可在CPU101上执行。应用可在导航到多媒体控制台100上可用的不同媒体类型时呈现提供一致的用户体验的图形用户界面。在操作中,媒体驱动器144中所包含的应用和/或其他媒体可从媒体驱动器144启动或播放,以将附加功能提供给多媒体控制台100。
多媒体控制台100可通过简单地将该系统连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台100允许一个或多个用户与该系统交互、看电影、或听音乐。然而,在通过网络接口124或无线适配器148可用的宽带连接集成的情况下,多媒体控制台100还可作为更大网络社区中的参与者来操作。
当多媒体控制台100通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量(诸如,16MB)、CPU和GPU周期的保留量(诸如,5%)、网络带宽的保留量(诸如,8kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源从应用的视角而言是不存在的。
具体而言,存储器保留量优选地足够大,以包含启动内核、并发系统应用和驱动程序。CPU保留量优选地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留量,通过使用GPU中断来调度代码以将弹出窗口渲染为覆盖图,从而显示由系统应用生成的轻量消息(例如,弹出窗口)。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在完整的用户界面被并发系统应用使用的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率和引起TV重新同步。
在多媒体控制台100引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源内执行的一组系统应用中。操作系统内核标识出作为系统应用线程而非游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU101上运行,以便提供对应用而言一致的系统资源视图。调度是为了使在控制台上运行的游戏应用的高速缓存中断最小化。
当并发系统应用需要音频时,由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所描述的)在系统应用活动时控制游戏应用的音频级别(例如,静音、衰减)。
输入设备(例如,控制器142(1)和142(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器优选控制输入流的切换,而无需知道游戏应用的知识,并且驱动器维护关于焦点切换的状态信息。相机26、28和捕捉设备20可为控制台100定义附加输入设备。
图3B示出了计算环境220的另一示例实施例,它可以是用来解释目标识别、分析和跟踪系统中的一个或多个位置和运动的图1A-2中示出的计算环境12。计算系统环境220只是合适的计算环境的一个示例,并且不旨在对当前公开的主题的使用范围或功能提出任何限制。也不应该将计算环境220解释为对示例性操作环境220中示出的任一组件或其组合有任何依赖性或要求。在一些实施例中,各个所示的计算元素可包括被配置成实例化本公开的特定方面的电路。例如,本公开中使用的术语电路可包括被配置成通过固件或开关来执行功能的专用硬件组件。在其他示例实施例中,术语电路可包括通过体现可操作以执行功能的逻辑的软件指令来配置的通用处理单元、存储器等。在电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。因为本领域技术人员可以明白现有技术已经进化到硬件、软件或硬件/软件组合之间几乎没有差别的地步,因而选择硬件或是软件来实现具体功能是留给实现者的设计选择。更具体地,本领域技术人员可以明白软件进程可被变换成等价的硬件结构,而硬件结构本身可被变换成等价的软件进程。由此,对于硬件实现还是软件实现的选择是设计选择之一并留给实现者。
在图3B中,计算环境220包括通常包括各种计算机可读介质的计算机241。计算机可读介质可以是能由计算机241访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括诸如ROM223和RAM260之类的易失性和/或非易失性存储器形式的计算机存储介质。包含诸如在启动期间帮助在计算机241内的元件之间传输信息的基本例程的基本输入/输出系统224(BIOS)通常被存储在ROM223中。RAM260通常包含处理单元259可立即访问和/或当前正在操作的数据和/或程序模块。作为示例而非限制,图3B示出了操作系统225、应用程序226、其他程序模块227,以及程序数据228。应用程序226的一个示例是用于向用户呈现如在此所解释的交互性故事体验的故事应用226。图3B还包括具有用于高速和高分辨率的图形处理和存储的相关联的视频存储器230的图形处理器单元(GPU)229。GPU229可通过图形接口231连接到系统总线221。
计算机241也可以包括其他可移除/不可移除、易失性/非易失性计算机存储介质。只作为示例,图3B示出了读写不可移动非易失性磁性介质的硬盘驱动器238、读写可移动非易失性磁盘254的磁盘驱动器239、以及读写诸如CDROM或其他光学介质之类的可移动的非易失性光盘253的光盘驱动器240。可在示例性操作环境中使用的其他可移除/不可移除、易失性/非易失性计算机存储介质包括但不限于:磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器238通常通过诸如接口234之类的不可移动存储器接口连接到系统总线221,并且磁盘驱动器239和光盘驱动器240通常通过诸如接口235之类的可移动存储器接口连接到系统总线221。
上面所讨论的并且在图3B中所示出的驱动器以及它们的相关联的计算机存储介质,为计算机241提供了计算机可读的指令、数据结构、程序模块及其他数据的存储。例如,在图3B中,硬盘驱动器238被示为存储了操作系统258、应用程序257,其他程序模块256,以及程序数据255。注意,这些组件可与操作系统225、应用程序226、其他程序模块227和程序数据228相同,也可与它们不同。在此操作系统258、应用程序257、其他程序模块256以及程序数据255被给予了不同的编号,以说明至少它们是不同的副本。用户可通过诸如键盘251和定点设备252(通常称为鼠标、跟踪球或触摸垫)之类的输入设备将命令和信息输入计算机241。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些以及其他输入设备通常通过耦合到系统总线的用户输入接口236连接到处理单元259,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其他接口和总线结构来连接。相机26、28和捕捉设备20可为控制台100定义附加输入设备。监视器242或其他类型的显示设备也通过诸如视频接口232之类的接口连接至系统总线221。除了监视器以外,计算机还可包括诸如扬声器244和打印机243之类的其他外围输出设备,它们可通过输出外围接口233来连接。
计算机241可使用到一个或多个远程计算机(诸如,远程计算机246)的逻辑连接而在联网环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他公共网络节点,通常包括上文参考计算机241所描述的许多或全部元件,但是图3B中只示出了存储器存储设备247。图3B中所描绘的逻辑连接包括局域网(LAN)245和广域网(WAN)249,但是也可以包括其他网络。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机241通过网络接口或适配器237连接到LAN245。当在WAN联网环境中使用时,计算机241通常包括调制解调器250或用于在诸如因特网之类的WAN249上建立通信的其他手段。调制解调器250可以是内置的或外置的,可经由用户输入接口236或其他适当的机制连接到系统总线221。在联网环境中,相对于计算机241所示的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图3B示出了驻留在存储器设备247上的远程应用程序248。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
图4描绘了可以从捕获设备20生成的用户的示例性骨架映射。在该实施例中,标识出各个关节和骨骼:每只手302、每个前臂304、每个肘306、每个大臂308、每个肩310、每个髋312、每条大腿314、每个膝316、每条小腿318、每个足320、头322、躯干324、脊椎的顶部326和底部328以及腰330。在跟踪更多点的情况下,可标识出附加的特征,比如手指或脚趾的骨骼和关节,或面部的各个特征,如鼻和眼。
图5是用于经由自然用户界面呈现交互式故事体验的本发明的技术的实施例的操作的高级流程图。在步骤400,用户可启动系统10并激活计算环境12和捕捉设备20。在步骤404,系统10运行故事应用226。在步骤406中,故事应用通过显示器14向用户呈现故事的下一帧。
故事可在显示器14上被图形地呈现,并且可具有相关联的音频叙述。故事可用离散的、静止图像面板来显示,即,一系列静止图像被连续地呈现为显示器14上的静止帧。故事可另选地用动态计算机图形(CG)动画来呈现,或者用视频相机以实际的演员来被呈现为场景拍摄。音频叙述可以是由故事应用、由用户和/或由在呈现故事的同时不出现的第三方来呈现的音频,如下文说明的。音频叙述还可包括所呈现的故事的角色之间的对话。同样地,角色之间的这一对话可由故事应用、由一个或多个用户和/或由在故事被呈现的同时不出现的一个或多个第三方来呈现。
在使用CG动画的各实施例中,故事应用226可呈现计算环境12的GPU生成的第一动画帧,该帧可以捕捉设备的刷新率(例如30Hz)来被刷新。在其他实施例中,帧速率可以快于或慢于该帧速率。在使用静态图像面板的各实施例中,静态图像类似于书籍或动画的页面。静态图像可在显示器上呈现例如若干秒。在使用视频的各实施例中,帧可用视频的帧速率来刷新,帧速率同样地可以是例如30Hz。
在各实施例中,在运行故事应用之后,用户18不必与所呈现的故事交互。换言之,用户可以在从头到尾播放故事的时候仅仅查看和/或收听故事。在下文描述的其他实施例中,用户可另选地与由故事应用226呈现的故事交互。
当用户观看故事应用和/或与故事应用交互时,捕捉设备20监视用户。在步骤408中,如果捕捉设备20感测到用户正离开视野,则在步骤412故事应用可暂停直到用户重新进入视野。在其他实施例中可以省略步骤408和412。如上文所指示的,用户可仅仅坐着并查看和/或收听由故事应用呈现的故事。在步骤416中,如果没有感测到用户交互,则故事就将简单地继续直到它结束。然而,如果在步骤416中感测到用户交互,则系统一般地确定该交互并且取决于该交互来执行不同的操作,如下文所说明的。
在步骤418中,故事应用可检查捕捉设备20的话筒阵列30是否检测到语音。用于区分话筒阵列30所拾取的声音以确定这些声音中是否有一种或多种声音是人类语音的技术是已知的。话筒阵列30可以包括各种已知的滤波器,诸如用于衰减可以由话筒阵列30检测出的低频噪声的高通滤波器。
如果在步骤418中检测到语音,则系统执行图6中阐述的各步骤,如现在将描述的。在各实施例中,标识特定用户是否是说话者或者语音是否来自某一其他源可能是合乎需要的。存在用于将语音与视野中的用户相关联的各种技术,诸如语音特征与特定用户的先验相关以及声学源定位技术。这些和其他技术可用于在步骤450中标识说话者。在其他实施例中可以省略步骤450。
故事应用可具有用于叙述故事的相关联的叙述,该叙述可以通过与音频/视频设备16相关联的扬声器进行广播。然而,叙述可另选地用文字显示在屏幕上,以使得它们可被收听故事的用户阅读。在一个示例中,孩子可能正在学习阅读,或者父母可能正在孩子观看显示器14上打开的故事的同时向孩子讲故事。作为出现在屏幕上的文字的替换,用户可具有与计算环境12配对的并且参与故事应用226的同一实例的计算设备。在这些实施例中,叙述的文字可被显示在用户配对的计算设备上而非显示器14上。
在其他实施例中,构想了叙述可以由当故事应用226正在系统10上显示故事时不出现的第三方来阅读。尽管在各实施例中第三方可以是任何人,第三方可以是例如当故事应用运行时不出现的、但渴望成为呈现给收听和观看系统10上的故事的孩子的叙述的语音的父母或祖父母。
在这些实施例中,第三方可预先录制了故事应用的叙述,并且该记录可在故事应用正在运行以提供故事的叙述时被回放。在这一实施例中,记录可在或与系统10相关联或者不与系统10相关联的音频回放设备上被回放。在另一实施例中,第三方可以在故事应用226在系统10上运行时实时地阅读故事应用的叙述,但第三方经由电话或VOIP连接连接到计算环境12。
在步骤454中,故事应用确定在步骤418中感知到的语音是否与故事的叙述相关。已知的语音分析技术可用于这一目的,包括将叙述的已知词解析成音素,对由话筒阵列30感知到的语音完成相同的动作,并且比较两个音素流以寻找匹配。
在步骤454中,如果说出的语音与故事应用的叙述相关,则说出的语音可设置故事应用推进故事的节奏。例如,在故事被呈现在静止图像面板的情况下,故事应用可在步骤464中确定与特定面板相关联的叙述的最后的词是否已被说出。如果否,则还没到时间前进至下一面板,并且流程可返回以寻找下一交互,如下文参考图5所说明的。另一方面,如果故事应用确定与特定面板相关联的叙述的最后的词已经被说出,则故事应用可在步骤466中前进至下一面板。该流程可返回以寻找下一交互,如下文参考图5所说明的。
在图像是视频或动态动画的情况下,故事应用可将叙述与说出的语音进行相关,并且加快或减缓所显示的图像以与由用户或第三方说出的叙述的节奏同步。故事应用可在图5的流程图中贯穿循环,并且可周期性地检查语音,检查该语音是否与所呈现的故事的叙述相关,并且将所呈现的图像与说出的叙述的节奏同步。
如果在步骤454中故事应用无法将语音与叙述进行相关,则应用可接着在步骤456中检查声音是否被识别为针对故事应用或针对系统10的操作的可听指令。如果否,则计算环境12可返回至图5以在步骤422中寻找用户与故事应用的另一可能的交互,如下文所说明的。另一方面,如果在步骤456中语音被识别为指令,则在步骤460中与该指令相关联的动作可被执行,并且系统随后可返回至图5的流程图以查看下一交互。
现在返回图5,在步骤422中,本发明的系统可寻找特定类型的姿势,该姿势在此处被称为“探索姿势”。具体地,本发明的技术的一个特征是在用户在效果上踏入在显示器14上呈现的虚拟世界并且探索和/或调查显示器上的虚拟对象的情况下允许一种类型的交互。作为各种各样的示例中的一个,故事可向用户显示房间。在没有用户交互的情况下,可向用户显示房间持续一段时间,并且随后故事可继续以显示其他位置。然而,代替简单地继续,用户可执行探索姿势,该姿势指示他们期望探索和调查房间内的虚拟对象以获得更近的视图和/或从不同角度来查看对象。在各实施例中,还构想了用户可执行由计算环境12解释的各种姿势和运动,这些姿势和运动使得用户能够拾取和操纵场景内的虚拟对象。
在图5的步骤422中,计算环境12寻找预定义的探索姿势。在本发明的技术的各实施例中,用户作出的各种各样的移动和姿势可被设为预定义探索姿势。在现在参考图10来描述的一个这样的实施例中,捕捉设备20捕捉用户的头部和/或身体移动。例如,在图10中,用户向一侧弯曲并且伸长他们的脖子,如用户在试图环顾凝视真实世界中的对象或对象后方时可能表现的那样。姿势识别引擎190的操作在下文中说明,但识别引擎190可具有预定义的规则来寻找这样的身体移动,并且在找到这样的身体移动时将它们解释为探索姿势。除了伸长脖子和/或弯腰之外,探索姿势可另外地或另选地包括另一姿势,诸如如图10所示的指向姿势。
可以理解,在其他实施例中,各种各样的其他身体移动可被定义为探索姿势。在某些这样的实施例中,用户移动可在真实世界中具有与用户希望在虚拟世界中完成的动作的关联。上文阐述了一个示例,其中用户向一侧弯曲并且伸长他们的脖子以表明他们期望环顾对象或查看对象后方。在其他实施例中,用户还可以或者另选地走向显示器方向,从而指示他们期望踏入虚拟场景。在其他实施例中,不具有真实世界意义的姿势的任意集合可被定义。然而,任意身体和/或语音姿势可由姿势识别引擎190开发和记录,以使得在这些姿势被执行时,姿势识别引擎识别出它们,并且执行诸如踏入虚拟场景以查看对象后方之类的相关联的动作。
一旦在步骤422中识别出探索姿势,计算环境12执行步骤490到538,如现在将参考图7的流程图来描述的。在步骤490中,计算环境12确定用户是否希望踏入示出了显示的三维虚拟世界以从另一位置查看所显示的场景。同样地,这种期望以及用户想要带入虚拟场景的方向由用户通过预定义的头部、手部或其他姿势来控制。这一实施例可在场景被呈现在CG动画中的情况下操作。在场景被呈现在静态面板或记录的视频中的情况下,构想了CG动画可剪切入这些显示模型以提供对虚拟场景的探索,如下文所说明的。在另一实施例中,视频可以是360°拍摄的,这允许用户对视频场景的某种程度的进入和探索。
作为一个示例,一旦执行了探索姿势,捕捉设备20和计算设备12就可确定显示器上用户聚焦于的点,诸如图10中的点610。该点可通过捕捉用户的眼睛看向哪里来确定,和/或该点可通过捕捉用户的手指向指向哪里来确定。在其他实施例中,用户还可以或者另选地走向该方向。如果在步骤490中确定用户希望从不同的位置查看场景,则计算环境可在步骤494中定义用户希望在虚拟世界中沿着其来移动的向量。
步骤494中的向量可基于从用户上的基准点到显示器上的兴趣点610的一个或多个真实世界三维向量612来确定。在图10中,向量612是从用户的眼睛到兴趣点610以及从用户指向的手到兴趣点610。基准点(眼睛、手等)具有已知的x、y和z坐标位置。
显示器14上显示的虚拟场景在3-D数据中被表示。换言之,虚拟场景中的点和场景内的虚拟对象被分配x、y和z值,以创建在此处被称为3-D机器空间的3-D虚拟空间。给定捕捉设备20对于用户在其中移动的真实世界的已知位置,在3-D真实世界空间和3-D机器空间之间存在已知关系。由此,向量612可使用已知变换矩阵从3-D真实世界空间被转换成3-D机器空间。真实世界向量612到3-D机器空间的转换在步骤494中提供了用户要沿着移动到3-D虚拟场景中的向量。如下文所说明的,为了创建用户移动到虚拟场景中并检查虚拟对象的效果,显示器的角度改变为提供场景的不同区域和对象的视图,并且从不同的放大或缩小的位置。同样地,这是可能的,因为虚拟对象不仅被定义为显示器上的二维点,而具有机器空间中的3-D定义。
在步骤498中,代替立即将用户重新定位到所需位置,用户到虚拟机器世界中的视图将增量式地被改变。用户视图改变的增量可被任意设定,但在各实施例中,视图这样改变以造成用户正以普通步行节奏步入场景中的印象。在步骤502中,在显示器14上显示的场景的视图可被更新以增量式地改变步骤498的视图。同样地,用于将所显示的场景转换成3-D机器空间的任何角度的变换矩阵是已知的。在步骤506中,场景可从步骤502中确定的新的位置的视角来呈现。
该例程随后可返回至步骤490,以确定用户是否已经到达虚拟场景内他们想要调查对象的位置或者他们是否想要继续在虚拟场景内移动。这可以由用户的身体位置以及用户聚焦于显示器的何处或者由某种其他的任意身体移动或语音姿势来指示。如果用户想要继续在虚拟场景内移动,则步骤490到506被重复直到用户到达了虚拟场景内他们的所需位置。
如果步骤490确定用户位于虚拟场景中的所需位置(即,该场景从所需角度被呈现在显示器上),流程图可分支到步骤510以确定用户是否希望更近地聚焦于该位置处的场景内的对象。同样地,这种期望可由或模仿用户想要作出的以移动到和/或聚焦于真实世界中的对象的真实世界移动的一个或多个预定义姿势来指示,或者由出于导航并聚焦于虚拟世界中的对象的目的而定义的任意姿势来指示。
如果在步骤510中确定用户希望更近地聚焦于场景中的对象,则在步骤514中计算环境12将当前位置(即,场景的当前视图)存储为基准位置。如下文所说明的,这一基准位置将被用作当用户完成对特定虚拟对象的聚焦时系统返回到的视图。在步骤518中,计算环境12确定从基准位置到虚拟对象的向量方向。这可以如上所述地通过检测真实世界中用户头部在x、y、z空间中的位置以及用户正看向显示器的哪里,并且之后将该向量转换成虚拟机器空间中的向量来完成。
在步骤522中,沿着这一向量的中间增量位置可如上所述地被确定。在步骤524,场景的角度可被转换成在步骤522中确定的位置,并且在步骤528中,场景可从在步骤524中确定的视角来呈现。在步骤532中,系统可确定用户是否完成了对虚拟场景内的虚拟对象的聚焦。这可以由各种预定义姿势中的任一个来指示。如果系统未确定用户完成了聚焦视图,则流程图返回至步骤510,并且可重复步骤510到528以提供对场景内的虚拟对象的进一步且附加的聚焦。另一方面,如果用户在步骤532执行了指示用户已完成他们的聚焦视图的预定义姿势,则在步骤536中视图可被转换回来自基准位置的视图(在步骤514中存储的)。
如果计算环境12无法鉴别步骤490和510中的附加探索姿势,则流程可分支到步骤538以查看用户是否执行指示他们已完成探索场景的预定义姿势。如果否,则流程可循环回步骤490,以查看用户是否希望从不同的位置查看场景,并且如果否,则流程移动到步骤510以确定用户是否希望聚焦于在该当前位置处的场景内的对象。另一方面,如果在步骤538中执行了指示用户完成了在3-D场景内的探索的某种预定义姿势,则流程可返回到图5以检查下一类型的用户交互。
可以理解,步骤490到538仅仅是用户可如何移动到由故事应用在显示器14上提供的三维虚拟世界中并在其中四处移动的一个示例。
在本发明的系统的各实施例中,除了观看故事以及在3-D虚拟世界内探索,用户还可具有控制故事内的一个或多个角色的选项。这一实施例可在场景被呈现在CG动画中的情况下操作。在场景被呈现在或静态面板或记录的视频中的情况下,构想了CG动画可被剪切入那些显示模型以提供角色控制,如下文所说明的。
在各实施例中,用户18可执行指示用户期望控制屏幕上的角色23的移动和/或动作的某种预定义的姿势。该预定义姿势可以是例如与例如指向屏幕上给定的角色的用户运动耦合的任意姿势。当这样的角色控制被故事应用226准许时,在步骤426中用户可被注册为该角色,并且之后用户可如下文参考图8的步骤540到558来描述地来控制该角色。
在用户被注册为控制角色之后,用户可执行用于动画化和影响受控的屏幕上的角色的行为的某些运动和姿势。在步骤540中,计算环境确定用户是否执行了预定义的、被识别的姿势。如果是,则计算环境在步骤544检查屏幕上的角色是否被准许执行与识别处的姿势相对应的动作。具体地,在各实施例中,用户不必对屏幕上的角色的动作或行为具有完全控制,而是与故事应用226共享对屏幕上的角色的控制。在各实施例中,用户可控制角色移动至某一程度,但应用可定义这种移动的边界,并且可限制对屏幕上的角色的其他方面的控制,诸如涉及角色的行为和个性。用户对屏幕上的角色的不受束缚的控制可阻止故事应用向前移动,例如,在用户致使屏幕上的角色执行未被预期为可能的故事分支的某些动作的情况下(下文说明的)。然而,应该理解,在其他实施例中,用户可以被给予对屏幕上的角色的不受束缚的控制。
如果角色23被故事应用准许在步骤542中执行姿势动作,则在步骤544中角色执行与该姿势相关联的动作。图1B示出在用户被给予控制屏幕上的角色23的上半身的能力的情况下的示例。这一特定的故事应用可识别出用户抬起他们的手臂、并且使其与诸如怪物之类的屏幕上的角色相对应以威胁的方式抬起他们的手臂的姿势。在图8的步骤540中的这样的用户姿势之后,角色在步骤544中执行对应的动作。
如果在步骤540中没有执行识别出的姿势,则计算环境接着在步骤546中检查用户移动是否被捕捉设备20检测到。如果是,则系统在550检查屏幕上的角色是否被准许按照用户所做的来移动,如上所阐述的。如果是,则在步骤552中以有样学样的方式用用户的移动来动画化屏幕上的角色。如果计算环境在步骤540中未检测到预定义的姿势或者在步骤546中未检测到用户移动,则计算环境可返回到图5的步骤428以检测与场景的其他用户交互,如下文说明的。
在步骤554中,系统接着检查用户是否给出了指示他们期望结束对角色的控制的某种类型的预定义的姿势。如果在步骤554中检测到这样的姿势,则在步骤556中用户对角色的控制结束并且角色完全由故事应用226控制。如果系统在步骤546检测到用户移动但在步骤550中角色不被准许以该种方式移动,或者如果用户在步骤554结束对角色的控制,则系统可返回到图5的步骤425以寻找用户与所显示的场景的其他交互。
现在返回到图5,在步骤428,计算环境12寻找用户与所显示的场景的某种交互,并且具体的是可影响故事的子情节的结尾或者影响故事的整个结尾的用户交互。如果检测到这种交互,则系统执行图9的步骤560到步骤588。这可以作为上文参考418来描述的语音命令、上文参考步骤422来描述的探索姿势、上文参考步骤426来描述的用户控制屏幕上的角色、或与故事的某种其他交互的结果来发生。
交互程度可部分地由故事中显示的图像的类型来确定。CG动画可提供较高的交互程度,而静止面板和记录的视频可提供较低的交互程度。应该理解,CG动画可被剪切入静止面板和/或记录的视频以提供更强的交互性。在各实施例中,用户可被给予在故事中离散的点处与屏幕上的故事交互的机会。这些点可通过故事中的暂停或某种提示来向用户指示。在其他实施例中,用户可具有在应用226呈现故事期间的任何点处与故事交互的选项。
在步骤428与所显示的场景交互之后,系统最初地执行确定用户是否执行了运动或被识别的姿势的步骤560。如果是,则计算环境12接着在步骤564中检查与该运动或姿势相关联的动作是否需要分支到不同的故事线。存在用于确定用户动作是否要求分支到不同的故事分支,并且随后确定如何从该故事分支来继续的各种已知的方法。在一个示例中,故事应用可为故事内的所有对象和角色维护状态数据值。当关于场景或角色的某些东西改变时,该场景或角色的状态数据可相应地改变。这些状态数据值可用于呈现故事对象或角色,并且用于控制对于这些对象或角色发生了什么。
在各实施例中,取决于对象和角色的状态数据值,故事应用可能能够分支到各种各样不同的故事线,状态数据可作为与那些对象和/或角色的用户交互的结果来更改。该其他实施例中,用户可执行不与屏幕上的对象或角色交互或不影响屏幕上的对象或角色的、但可导致改变故事线的某些姿势。作为一个示例,用户可选择在要参考屏幕上显示的房间示出和说明的故事的重要方面被揭示之前离开该房间。
在步骤564中,计算环境12确定与用户执行的姿势相关联的动作是否要求分支到不同的故事线。如所述的,这可在故事的对象和角色的状态数据值已经被用户更改的情况下发生。具体地,状态数据值已经改变以使得按照步骤560中的用户姿势之前所存在的来继续故事将与同对象、角色或整个故事相关联的当前状态数据值不一致。如果用户姿势要求到不同故事线的分支,则计算环境12可在步骤568中检查是否存在与用户交互一致的故事的已知分支。
如果在步骤560中用户未执行运动或被识别的姿势,或者在步骤564中用户的运动/被识别的姿势不要求到不同故事线的分支,则系统可返回到图5以在步骤432中寻找任何其他类型的移动或姿势,如下文所说明的。而且,如果用户执行了要求到不同故事线的分支的动作,但没有与用户交互一致的、且故事应用226已知或可标识的分支,则在步骤568中用户姿势在故事线上的效果可被忽略,并且流程可返回到图5中的步骤432,如下文所说明的。
假定用户姿势要求到新的分支故事线的分支,并且该故事线能够由故事应用执行,则故事应用可取决于用户执行了什么运动或姿势来修改与对象、角色和作为一个整体的应用相关联的状态数据。参照图11和12,某些用户交互影响只有故事的子情节有区别而不影响整体结尾的故事分支。如图11所示,用户可执行致使故事应用分支到分支1、分支2、……分支N的某些交互620,并且之后所有分支重新会聚以继续原始故事线。构想了各种各样的这样的子情节故事分支。例如,在图1A中,用户可执行将云25一起移动到在房子21上下雨的点处的姿势。雨可能对整体情节没有影响。可能下一会雨,雨可能停,并且故事线可如原本没有下雨时那样来继续。在其他实施例中,应用故事可提示用户回答问题或解决谜题,并且故事线可取决于用户对提示的回答来分支到不同的子情节。一旦用户成功地回答了问题或解决了谜题,故事可重新会聚并继续原始故事线。
另一方面,其他类型的用户交互可影响改变故事的整体结尾的故事分支。换言之,故事将取决于与故事的用户交互来不同地结束。例如,在图11中,用户执行致使故事分支到不重新会聚的N个分支中的一个的交互624。而且,这些分支中的任何一个本身随后可基于其他用户交互来分支。例如,如果用户交互624致使故事分支到1号分支,则用户可执行致使故事分支到进一步可能的结尾的另一交互628。取决于故事应用是否被编写为处理许多子情节和整体情节分支,故事可具有任意数量的子情节分支或整体情节分支。
在各实施例中,单个用户可执行致使故事应用执行子情节分支或整体情节分支的交互。在其他实施例中,多个用户可能正在查看故事。这些多个用户可位于同一位置或使用被联网在一起的不同系统10位于不同位置,从而各个用户可共享应用226的同一实例和同一故事体验。在这些实施例中,故事应用226可在故事线分支到新的子情节或新的整体情节之前要求若干用户协同动作的动作。
现在返回图9,如果在步骤564中计算环境12标识了要求故事线分支的用户移动或姿势,并且故事应用被配备为处理该新的故事线,则在步骤570中故事应用226分支到该新的故事线。在步骤572中,故事应用修改任何对象、角色或作为一个整体的应用的状态数据。在步骤574中,故事应用226可根据新的故事线和状态数据来呈现场景的图形,并且在步骤578中故事应用可用所标识的分支来继续。
本发明的系统的一个方面是向正向用户显示的故事添加游戏机制。相应地,除了显示故事之外,故事应用226还可保存用户的得分,该得分可取决于用户如何与故事交互来递增或递减。具体地,用户的某些姿势或动作可具有预定的故事值和根据相关联的姿势的表现要向用户的总体得分添加或扣除的相关联的点数。相应地,在步骤582中,故事应用检查是否存在与步骤560中执行的用户交互相关联的得分。如果否,则流程返回到图5的步骤432。如果存在与用户交互相关联的得分,则在步骤588中相应地调整用户得分,并且随后流程可返回到图5中的步骤432,如下文描述的。
图9的实施例可用于使用静态图像面板或动态CG图像动画的故事。图9A示出用于记录的视频的其他实施例。步骤560到572可以如上文对图9描述。在各实施例中,与记录的视频的交互将在与视频的交互的预定义点处发生。对于记录的视频的故事,故事应用可对于故事的每一个可能的分支具有不同的视频剪辑。在步骤590中,故事应用可检索适于故事的所确定的分支的媒体剪辑。在步骤594中,计算环境12可呈现该剪辑。作为不同分支的预先录制的视频剪辑的替换或附加,CG动画可由计算环境构造并被插入。
在向用户示出了来自故事分支的图像之后,如果故事不分支到新的线,在步骤596中故事应用226随后可回头并示出故事的媒体剪辑。例如,故事可涉及其中侦探正要讯问疑犯的犯罪戏剧。用户可执行指示他们希望与故事应用交互来讯问疑犯的预定义姿势。用户可问问题,并且可用不同的方式且用不同的态度来执行讯问。这些动作在范围上可以是受限的,例如受限于用户可从中选择问题的脚本。或者,它可以是用户希望问的任何问题。
用户还可用不同的态度来问问题,可能或多或少得可能对正被讯问的疑犯角色起作用。用户可能试图欺压疑犯,或者用户可能试图通过以舒适的言行来继续来引出信息。捕捉设备20能够检测这些不同的作风,并且如果某些动作匹配定义的且存储的作风数据,则这些不同的作风可由计算环境12标识。一旦用户完成了讯问,则侦探进行讯问的视频剪辑可被播放。就用户他或她能够从疑犯获得的信息量与被重放的场景中侦探角色获得的相比较而言,用户可以看到他们比侦探做得更好或更差。
在步骤600,故事线用被标识的分支来继续。它可重新召集原始故事线,或者它可导致整体情节的新的结尾。在步骤604中,用户交互可被打分。例如,如果在以上示例中用户能够引出比侦探角色更多的信息,则用户可被奖励某些预定义的点数。或者,如果用户引出更少的信息,则他们可丢失预定的点数。用户的得分可相应地被调整,并且流程可返回到图5的步骤432,如下文所描述的。
返回到图5,用户姿势并非是步骤422中的探索姿势,并非步骤426中的出于控制角色的目的,并且并非步骤428中的与所显示的场景交互以便改变故事线也是可能发生的。相应地,在步骤432中计算环境12检查其他这样的姿势。如果在步骤432中没有识别出其他这样的姿势,则故事应用循环回到步骤406以呈现故事的下一帧并且上述步骤重复。另一方面,如果在步骤432中识别出某种其他姿势,则系统在步骤434中检查该姿势是否要结束故事。如果是,则故事在步骤436结束。否则,在步骤438中,系统执行在步骤432中识别出的姿势相关联的任何动作,并且随后流程返回到步骤406以呈现故事的下一帧。
如上所述,如果在接收到故事时用户没有采取动作,则故事可按照图像和/或叙述或对话的默认集合来线性地继续。在其他实施例中,即使在用户没有采取行动的情况下,线性故事中的元素也可基于各种预先设定的因素相对于故事的实例而动态地改变。这些因素可包括:故事已经被查看的次数(例如,新的事物总共发生了第四次);观众人数;以及天气或几点钟(例如,故事中的天气随着季节改变,或者与真实世界天气绑定)。天气或几点钟对于系统10可以是已知的,或者被存储在系统10联网到的服务内。同样,其他故事中的事件可具有影响——被引入到故事B中的角色使得他们出现在故事A中。上文描述的本发明的系统的这些特征以及其他特征使得故事更动态并且鼓励重复查看和实验。
上文描述的许多交互由预定义的姿势触发。图13示出姿势识别引擎190的框图,而图14示出图13的姿势识别引擎190的操作的框图。在步骤660中,姿势识别引擎190接收姿态信息650。姿态信息可包括与在图像数据中检测到的用户的各身体部分及关节的位置和/或运动有关的各种参数。
在步骤664中,姿势识别引擎190分析接收到的姿态信息650,以查看该姿态信息是否匹配存储在姿势库654内的任何预定义的规则658。存储的规则658描述由姿态信息650所表示的特定位置和/或动力运动何时将被解释为预定义的姿势。在各实施例中,每一个姿势都可以具有不同的、唯一规则或规则集658。每一规则可具有与图4所示的一个或多个身体部位有关的多个参数(关节位置向量、最大/最小位置、位置变化等)。所存储的规则可对每一参数并对图4所示的每一身体部位302到330定义单个值、值范围、最大值、最小值、或关于该身体部位的参数与该规则所覆盖的姿势的判定无关的指示。规则可以由游戏作者、由游戏平台的主机或由用户本身创建。
姿势识别引擎190可输出所标识的姿势和对应于用户的位置/移动与该姿势相对应的可能性的置信度水平。具体而言,除定义姿势所需的参数之外,规则还可以包括在姿态信息650将被解释为姿势之前所要求的阈值置信水平。某些姿势可能作为系统命令或游戏指令具有更大的影响,如此,在姿态被解释为该姿势之前要求较高的置信水平。姿态信息与存储的规则的参数的比较导致关于姿态信息是否表示姿势的累积置信度水平。
一旦确定了关于给定姿态或运动是否满足给定姿势规则的置信度水平,姿势识别引擎190然后就在步骤668确定该置信度水平是否超过关于所考虑的规则的预定阈值。阈值置信度水平可以与考虑中的规则相关联地存储。如果置信度水平低于阈值,则检测不到姿势(步骤670),并且不采取动作。另一方面,如果置信度水平高于阈值,则确定用户的运动满足所考虑的姿势规则,并且在步骤674,姿势识别引擎190返回所标识的姿势。在其他实施例中,姿势识别引擎190可由其他方法来操作。
本发明系统的前述详细描述是出于说明和描述的目的而提供的。这并不旨在穷举本发明系统或将本发明系统限于所公开的精确形式。鉴于上述教导,许多修改和变型都是可能的。选择所述实施例以最好地解释本发明系统的原理及其实践应用,从而允许本领域技术人员能够在各种实施例中并采用各种适于所构想的特定用途的修改来最好地利用本发明系统。本发明系统的范围旨在由所附权利要求书来定义。
Claims (15)
1.一种在包括计算环境的系统中的将交互式游戏方面组合到线性故事中的方法,所述计算环境耦合到用于捕捉用户运动的捕捉设备以及用于显示图像和/或提供音频的视听设备,所述方法包括:
a)经由所述视听设备使用图像和音频叙述中的至少一个来呈现所述线性故事,所述线性故事具有在用户不与所述故事交互的情况下向用户呈现的图像和/或叙述的默认集合;
b)经由所述捕捉设备来检测用户的移动和语音命令中的至少一个;
c)标识在所述步骤b)中检测到的所述移动和/或所述语音命令是否是与所述线性故事的交互,所述交互更改所述线性故事以包括具有未被包括在图像和/或叙述的默认集合中的附加图像和附加叙述中的至少一个的故事分支;以及
d)通过经由所述视听设备来向用户呈现所述附加图像和附加叙述中的至少一个来更改所述线性故事。
2.如权利要求1所述的方法,其特征在于,所述线性故事包括:具有由虚拟机器空间中的场景的三维描述定义的故事场景的图像,更改所述线性故事的所述步骤d)包括呈现从所述虚拟机器空间内的不同的三维视角来示出图像的默认集合的场景的附加图像的步骤e)。
3.如权利要求2所述的方法,其特征在于,所述步骤e)中呈现的附加图像创建用户移动入所述场景的印象。
4.如权利要求2所述的方法,其特征在于,所述步骤e)中呈现的附加图像创建用户从不同视角检查来自所述场景的对象的印象。
5.如权利要求2所述的方法,其特征在于,所述步骤e)中呈现的附加图像创建用户查看所述场景内的对象后方的印象。
6.如权利要求1所述的方法,其特征在于,所述线性故事包括音频叙述和图像,呈现所述线性故事的所述步骤a)包括以下步骤:
a1)用户用语音发出所述叙述,
a2)将用户用语音发出的叙述与所述线性故事的对应图像匹配,以及
a3)以所述用户用语音发出的叙述的节奏所确定的节奏来呈现所述图像。
7.如权利要求1所述的方法,其特征在于,所述线性故事包括呈现给用户的音频叙述和图像,呈现所述线性故事的所述步骤a)包括以下步骤:
a1)第三方用语音发出所述叙述,所述第三方不与用户一起出现并且所述第三方的语音经由扬声器在所述用户的附近作为所述叙述来提供,
a2)将所述第三方用语音发出的叙述与所述线性故事的对应图像匹配,以及
a3)以所述第三方用语音发出的叙述的节奏所确定的节奏来呈现所述图像。
8.一种用于将交互式游戏方面组合到线性故事中的方法,包括:
a)经由视听设备使用图像和音频叙述中的至少一个来呈现所述线性故事,在监视用户移动的捕捉设备没有感知到用户交互的情况下,所述线性故事从头到尾被呈现为完整的故事,并且包括图像的默认集合;
b)经由与所述视听设备相关联的捕捉设备来检测用户的移动;
c)标识所述步骤b)中检测到的所述移动是否是与所述线性故事的交互,所述交互要求将所述线性故事修改为包括具有未被包括在图像的默认集合中的附加图像的故事分支;
d)基于存储的或处理的数据来确定所述附加图像是否可被呈现;
e)如果在所述步骤d)中确定所述附加图像可被呈现,则通过经由所述视听设备来向用户呈现所述附加图像来更改所述线性故事;以及
f)在所述交互与基于所述交互来奖励或拿走预定点数的情况下对用户交互打分。
9.如权利要求8所述的方法,其特征在于,所述线性故事包括:具有由虚拟机器空间中的场景的三维描述定义的故事场景的图像,更改所述线性故事的所述步骤e)包括呈现从所述虚拟机器空间内的不同的三维视角来示出图像的默认集合的场景的附加图像的步骤g)。
10.如权利要求8所述的方法,其特征在于,所述步骤b)包括作为所述线性故事的一部分用户取得对所显示的角色的至少部分控制的步骤h)。
11.如权利要求8所述的方法,其特征在于,所述步骤a)和e)包括在静止图像面板、动态计算机图形动画和线性视频中的至少一个中显示所述线性故事和/或故事分支的步骤。
12.一种用于将交互式游戏方面组合到线性故事中的系统,包括:
用于呈现图像和音频叙述中的至少一个的视听设备;
用于捕捉来自用户的图像和音频数据中的至少一个的图像捕捉设备;以及
耦合到所述视听设备和图像捕捉设备的计算环境,所述计算环境:
a)经由所述视听设备使用图像和音频叙述中的至少一个来呈现所述线性故事,在所述捕捉设备没有感知到用户交互的情况下,所述线性故事被从头到尾被呈现为完整的故事,并且包括图像的默认集合;
b)经由所述捕捉设备来检测用户的移动;
c)标识检测到的移动是否是探索姿势;
d)在将所述移动标识为探索姿势之后,从所述线性故事分支到故事分支,所述分支包括:
d1)感测所述视听设备上所述用户指示的点,
d2)计算从所述用户的部分到所述视听设备上所述用户指示的点的3-D真实世界向量,
d3)将所述3-D真实世界向量转换成3-D机器空间向量,所述3-D机器空间向量具有位于当前视角的起点以及位于3-D机器空间中的虚拟对象的终点,以及
d4)从所述3-D机器空间向量的终点处的视角来显示所述虚拟对象。
13.如权利要求12所述的系统,其特征在于,所述计算环境通过捕捉设备感测用户头部位置来感测所述视听设备上用户指示的点。
14.如权利要求12所述的系统,其特征在于,所述计算环境通过捕捉设备感测用户手部指示的点来感测所述视听设备上用户指示的点。
15.如权利要求12所述的系统,其特征在于,所述用户能够增加同与所述线性和被分支的故事交互中的用户体验相关联的得分。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/819,983 | 2010-06-21 | ||
US12/819,983 US8381108B2 (en) | 2010-06-21 | 2010-06-21 | Natural user input for driving interactive stories |
PCT/US2011/039881 WO2011162974A2 (en) | 2010-06-21 | 2011-06-09 | Natural user input for driving interactive stories |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102947774A CN102947774A (zh) | 2013-02-27 |
CN102947774B true CN102947774B (zh) | 2016-05-04 |
Family
ID=45329786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180030439.3A Active CN102947774B (zh) | 2010-06-21 | 2011-06-09 | 用于驱动交互式故事的自然用户输入 |
Country Status (8)
Country | Link |
---|---|
US (2) | US8381108B2 (zh) |
EP (1) | EP2583155A4 (zh) |
JP (1) | JP5944384B2 (zh) |
KR (1) | KR101838312B1 (zh) |
CN (1) | CN102947774B (zh) |
CA (1) | CA2800533C (zh) |
TW (1) | TWI531396B (zh) |
WO (1) | WO2011162974A2 (zh) |
Families Citing this family (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645140B2 (en) * | 2009-02-25 | 2014-02-04 | Blackberry Limited | Electronic device and method of associating a voice font with a contact for text-to-speech conversion at the electronic device |
US9208147B1 (en) | 2011-01-07 | 2015-12-08 | Narrative Science Inc. | Method and apparatus for triggering the automatic generation of narratives |
US11989659B2 (en) | 2010-05-13 | 2024-05-21 | Salesforce, Inc. | Method and apparatus for triggering the automatic generation of narratives |
US8355903B1 (en) | 2010-05-13 | 2013-01-15 | Northwestern University | System and method for using data and angles to automatically generate a narrative story |
US9542091B2 (en) | 2010-06-04 | 2017-01-10 | Apple Inc. | Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator |
US20120042282A1 (en) * | 2010-08-12 | 2012-02-16 | Microsoft Corporation | Presenting Suggested Items for Use in Navigating within a Virtual Space |
US10657201B1 (en) | 2011-01-07 | 2020-05-19 | Narrative Science Inc. | Configurable and portable system for generating narratives |
US10185477B1 (en) | 2013-03-15 | 2019-01-22 | Narrative Science Inc. | Method and system for configuring automatic generation of narratives from data |
US9720899B1 (en) | 2011-01-07 | 2017-08-01 | Narrative Science, Inc. | Automatic generation of narratives from data using communication goals and narrative analytics |
US9092132B2 (en) * | 2011-01-24 | 2015-07-28 | Apple Inc. | Device, method, and graphical user interface with a dynamic gesture disambiguation threshold |
US20120242793A1 (en) * | 2011-03-21 | 2012-09-27 | Soungmin Im | Display device and method of controlling the same |
KR20120119756A (ko) * | 2011-04-22 | 2012-10-31 | 삼성전자주식회사 | 타 기기와 연동하여 상호 동작이 가능한 에듀테인먼트 시스템을 위한 방법 및 장치 |
US9208571B2 (en) | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
US8881010B2 (en) * | 2011-09-29 | 2014-11-04 | Microsoft Corporation | Adapting trick commands to prior usage |
US9628843B2 (en) * | 2011-11-21 | 2017-04-18 | Microsoft Technology Licensing, Llc | Methods for controlling electronic devices using gestures |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US8898687B2 (en) * | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
TWI557685B (zh) * | 2012-05-23 | 2016-11-11 | 雲南恆達睿創三維數字科技有限公司 | 網格動畫製作方法 |
TWI470511B (zh) * | 2012-06-06 | 2015-01-21 | Wistron Corp | 雙模輸入裝置 |
US9389682B2 (en) * | 2012-07-02 | 2016-07-12 | Sony Interactive Entertainment Inc. | Methods and systems for interaction with an expanded information space |
US9833698B2 (en) * | 2012-09-19 | 2017-12-05 | Disney Enterprises, Inc. | Immersive storytelling environment |
KR20140039757A (ko) * | 2012-09-25 | 2014-04-02 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
US9141281B2 (en) | 2012-09-28 | 2015-09-22 | Fabrizio Ferri Photography | System and method for controlling the progression of multmedia assets on a computing device |
CN102945672B (zh) * | 2012-09-29 | 2013-10-16 | 深圳市国华识别科技开发有限公司 | 一种多媒体设备语音控制系统及方法 |
US9986001B2 (en) * | 2012-11-05 | 2018-05-29 | Sony Interactive Entertainment Inc. | Information processing apparatus |
US20140192140A1 (en) * | 2013-01-07 | 2014-07-10 | Microsoft Corporation | Visual Content Modification for Distributed Story Reading |
US9448634B1 (en) * | 2013-03-12 | 2016-09-20 | Kabam, Inc. | System and method for providing rewards to a user in a virtual space based on user performance of gestures |
US10268660B1 (en) | 2013-03-15 | 2019-04-23 | Matan Arazi | Real-time event transcription system and method |
US9747898B2 (en) * | 2013-03-15 | 2017-08-29 | Honda Motor Co., Ltd. | Interpretation of ambiguous vehicle instructions |
CN103164995A (zh) * | 2013-04-03 | 2013-06-19 | 湖南第一师范学院 | 儿童体感交互式学习系统及方法 |
TW201510771A (zh) * | 2013-09-05 | 2015-03-16 | Utechzone Co Ltd | 指向位置偵測裝置及其方法、程式及電腦可讀取紀錄媒體 |
US9836984B2 (en) * | 2013-09-16 | 2017-12-05 | Disney Enterprises, Inc. | Storytelling environment: story and playgroup creation |
US9474068B2 (en) | 2013-09-16 | 2016-10-18 | Disney Enterprises, Inc. | Storytelling simulator and device communication |
KR101428014B1 (ko) * | 2013-10-31 | 2014-08-07 | 동국대학교 산학협력단 | 가상화 환경에서 nui 및 nux를 시뮬레이션하는 방법 및 장치 |
US20150165310A1 (en) * | 2013-12-17 | 2015-06-18 | Microsoft Corporation | Dynamic story driven gameworld creation |
TWI530909B (zh) | 2013-12-31 | 2016-04-21 | 財團法人工業技術研究院 | 影像合成系統及方法 |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
KR101582651B1 (ko) * | 2014-04-29 | 2016-01-06 | 주식회사 두드림 | 체험형 콘텐츠 제공 시스템 및 방법 |
US9898162B2 (en) | 2014-05-30 | 2018-02-20 | Apple Inc. | Swiping functions for messaging applications |
US9971500B2 (en) | 2014-06-01 | 2018-05-15 | Apple Inc. | Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application |
US10852838B2 (en) | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9602191B2 (en) * | 2014-06-27 | 2017-03-21 | X Development Llc | Streaming display data from a mobile device using backscatter communications |
WO2016004020A1 (en) * | 2014-07-02 | 2016-01-07 | Covidien Lp | System and method for detecting trachea |
US20160094866A1 (en) * | 2014-09-29 | 2016-03-31 | Amazon Technologies, Inc. | User interaction analysis module |
US20160103655A1 (en) * | 2014-10-08 | 2016-04-14 | Microsoft Corporation | Co-Verbal Interactions With Speech Reference Point |
US11475076B2 (en) | 2014-10-22 | 2022-10-18 | Narrative Science Inc. | Interactive and conversational data exploration |
US10747823B1 (en) | 2014-10-22 | 2020-08-18 | Narrative Science Inc. | Interactive and conversational data exploration |
US11922344B2 (en) | 2014-10-22 | 2024-03-05 | Narrative Science Llc | Automatic generation of narratives from data using communication goals and narrative analytics |
US11238090B1 (en) | 2015-11-02 | 2022-02-01 | Narrative Science Inc. | Applied artificial intelligence technology for using narrative analytics to automatically generate narratives from visualization data |
US11250630B2 (en) * | 2014-11-18 | 2022-02-15 | Hallmark Cards, Incorporated | Immersive story creation |
KR101630153B1 (ko) * | 2014-12-10 | 2016-06-24 | 현대자동차주식회사 | 제스처 인식 장치, 그를 가지는 차량 및 차량의 제어 방법 |
CN104898669B (zh) * | 2015-04-30 | 2019-01-11 | 广东虚拟现实科技有限公司 | 一种基于惯性传感器进行虚拟现实行走控制的方法及系统 |
CN104932549B (zh) * | 2015-06-01 | 2018-12-21 | 广东小天才科技有限公司 | 一种智能控制终端旋转的方法 |
KR101879349B1 (ko) * | 2015-06-24 | 2018-07-18 | 주식회사 브이터치 | 의사소통을 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
WO2017034627A1 (en) * | 2015-08-25 | 2017-03-02 | Davis George Bernard | Presenting interactive content |
US10249091B2 (en) * | 2015-10-09 | 2019-04-02 | Warner Bros. Entertainment Inc. | Production and packaging of entertainment data for virtual reality |
US11222184B1 (en) | 2015-11-02 | 2022-01-11 | Narrative Science Inc. | Applied artificial intelligence technology for using narrative analytics to automatically generate narratives from bar charts |
US11188588B1 (en) | 2015-11-02 | 2021-11-30 | Narrative Science Inc. | Applied artificial intelligence technology for using narrative analytics to interactively generate narratives from visualization data |
US11232268B1 (en) | 2015-11-02 | 2022-01-25 | Narrative Science Inc. | Applied artificial intelligence technology for using narrative analytics to automatically generate narratives from line charts |
US10928915B2 (en) * | 2016-02-10 | 2021-02-23 | Disney Enterprises, Inc. | Distributed storytelling environment |
US10311622B2 (en) * | 2016-03-29 | 2019-06-04 | Htc Corporation | Virtual reality device and method for virtual reality |
US10092827B2 (en) * | 2016-06-16 | 2018-10-09 | Disney Enterprises, Inc. | Active trigger poses |
JP6190497B1 (ja) * | 2016-07-13 | 2017-08-30 | 株式会社コロプラ | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム |
TWI605862B (zh) * | 2016-07-28 | 2017-11-21 | 南臺科技大學 | 可偵測認知功能的個人化遊戲系統 |
US10272329B2 (en) * | 2016-08-10 | 2019-04-30 | Google Llc | Cooperative immersive live action 360-degree video and virtual reality |
US10853583B1 (en) | 2016-08-31 | 2020-12-01 | Narrative Science Inc. | Applied artificial intelligence technology for selective control over narrative generation from visualizations of data |
US10135950B2 (en) * | 2016-10-10 | 2018-11-20 | Google Llc | Creating a cinematic storytelling experience using network-addressable devices |
US10525355B2 (en) * | 2016-11-01 | 2020-01-07 | Htc Corporation | Method, device, and non-transitory computer readable storage medium for interaction to event in virtual space |
US10990753B2 (en) * | 2016-11-16 | 2021-04-27 | Disney Enterprises, Inc. | Systems and methods for a procedural system for emergent narrative construction |
US10467808B2 (en) * | 2017-02-09 | 2019-11-05 | Disney Enterprises, Inc. | Systems and methods to provide narrative experiences for users of a virtual space |
US10943069B1 (en) | 2017-02-17 | 2021-03-09 | Narrative Science Inc. | Applied artificial intelligence technology for narrative generation based on a conditional outcome framework |
US10699079B1 (en) | 2017-02-17 | 2020-06-30 | Narrative Science Inc. | Applied artificial intelligence technology for narrative generation based on analysis communication goals |
US10755053B1 (en) | 2017-02-17 | 2020-08-25 | Narrative Science Inc. | Applied artificial intelligence technology for story outline formation using composable communication goals to support natural language generation (NLG) |
US11068661B1 (en) | 2017-02-17 | 2021-07-20 | Narrative Science Inc. | Applied artificial intelligence technology for narrative generation based on smart attributes |
US11954445B2 (en) | 2017-02-17 | 2024-04-09 | Narrative Science Llc | Applied artificial intelligence technology for narrative generation based on explanation communication goals |
US11568148B1 (en) | 2017-02-17 | 2023-01-31 | Narrative Science Inc. | Applied artificial intelligence technology for narrative generation based on explanation communication goals |
KR101924852B1 (ko) | 2017-04-14 | 2018-12-04 | 네이버 주식회사 | 네트워크에 연결된 음향기기와의 멀티모달 인터렉션 방법 및 시스템 |
CN111417442B (zh) * | 2017-10-16 | 2023-08-08 | 乐高公司 | 交互式游戏设备 |
US10535345B2 (en) * | 2017-10-20 | 2020-01-14 | Yingjia LIU | Interactive method and system for generating fictional story |
WO2019083805A1 (en) * | 2017-10-23 | 2019-05-02 | Intuitive Surgical Operations, Inc. | SYSTEMS AND METHODS FOR PRESENTING ENHANCED REALITY ON A SCREEN OF A TELEOPERATION SYSTEM |
TWI635418B (zh) * | 2017-11-14 | 2018-09-11 | 國立政治大學 | Wearable virtual interactive display system |
KR102074680B1 (ko) * | 2017-12-15 | 2020-04-08 | (주)브이알에이포인트 | 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법 및 장치 |
US11042708B1 (en) | 2018-01-02 | 2021-06-22 | Narrative Science Inc. | Context saliency-based deictic parser for natural language generation |
US11023689B1 (en) | 2018-01-17 | 2021-06-01 | Narrative Science Inc. | Applied artificial intelligence technology for narrative generation using an invocable analysis service with analysis libraries |
US11182556B1 (en) | 2018-02-19 | 2021-11-23 | Narrative Science Inc. | Applied artificial intelligence technology for building a knowledge base using natural language processing |
US11343595B2 (en) | 2018-03-01 | 2022-05-24 | Podop, Inc. | User interface elements for content selection in media narrative presentation |
US10936124B2 (en) * | 2018-05-21 | 2021-03-02 | Compal Electronics, Inc. | Interactive projection system and interactive projection method |
US11232270B1 (en) | 2018-06-28 | 2022-01-25 | Narrative Science Inc. | Applied artificial intelligence technology for using natural language processing to train a natural language generation system with respect to numeric style features |
US11012760B2 (en) * | 2018-10-03 | 2021-05-18 | Wanjeru Kingori | System and method for branching-plot video content and editing thereof |
CN109284056A (zh) * | 2018-10-24 | 2019-01-29 | 深圳市领点科技有限公司 | 一种高效的虚拟场景共享方法和装置 |
US11145306B1 (en) | 2018-10-31 | 2021-10-12 | Ossum Technology Inc. | Interactive media system using audio inputs |
US10990767B1 (en) | 2019-01-28 | 2021-04-27 | Narrative Science Inc. | Applied artificial intelligence technology for adaptive natural language understanding |
US11551803B1 (en) | 2019-04-22 | 2023-01-10 | Aimcast Ip, Llc | System, method, and program product for generating and providing simulated user absorption information |
US11228810B1 (en) | 2019-04-22 | 2022-01-18 | Matan Arazi | System, method, and program product for interactively prompting user decisions |
US11017688B1 (en) | 2019-04-22 | 2021-05-25 | Matan Arazi | System, method, and program product for interactively prompting user decisions |
US11328009B2 (en) * | 2019-08-28 | 2022-05-10 | Rovi Guides, Inc. | Automated content generation and delivery |
US11520677B1 (en) | 2019-09-25 | 2022-12-06 | Aimcast Ip, Llc | Real-time Iot device reliability and maintenance system and method |
CN111212311A (zh) * | 2020-01-13 | 2020-05-29 | 四川长虹电器股份有限公司 | 一种语音交互视频的生成及播放方法 |
CN113409778A (zh) * | 2020-03-16 | 2021-09-17 | 阿里巴巴集团控股有限公司 | 语音交互方法、系统和终端 |
US11394799B2 (en) * | 2020-05-07 | 2022-07-19 | Freeman Augustus Jackson | Methods, systems, apparatuses, and devices for facilitating for generation of an interactive story based on non-interactive data |
US11285388B2 (en) * | 2020-08-31 | 2022-03-29 | Nawaf Al Dohan | Systems and methods for determining story path based on audience interest |
EP3979245A1 (en) * | 2020-09-30 | 2022-04-06 | Al Sports Coach GmbH | System and method for providing interactive storytelling |
US20240077984A1 (en) * | 2022-09-01 | 2024-03-07 | Lei Zhang | Recording following behaviors between virtual objects and user avatars in ar experiences |
US12045383B2 (en) | 2022-09-01 | 2024-07-23 | Snap Inc. | Virtual AR interfaces for controlling IoT devices using mobile device orientation sensors |
US12073011B2 (en) | 2022-09-01 | 2024-08-27 | Snap Inc. | Virtual interfaces for controlling IoT devices |
CN116009748B (zh) * | 2023-03-28 | 2023-06-06 | 深圳市人马互动科技有限公司 | 儿童互动故事中图片信息交互方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6408257B1 (en) * | 1999-08-31 | 2002-06-18 | Xerox Corporation | Augmented-reality display method and system |
CN101031866A (zh) * | 2004-05-28 | 2007-09-05 | 新加坡国立大学 | 交互式系统和方法 |
CN101237915A (zh) * | 2005-08-12 | 2008-08-06 | 皇家飞利浦电子股份有限公司 | 交互娱乐系统及其操作方法 |
CN101523464A (zh) * | 2006-10-02 | 2009-09-02 | 皇家飞利浦电子股份有限公司 | 交互式讲故事者系统 |
CN101739120A (zh) * | 2008-11-12 | 2010-06-16 | 华硕电脑股份有限公司 | 交互式显示方法及其相关显示装置 |
Family Cites Families (236)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
US5274758A (en) * | 1989-06-16 | 1993-12-28 | International Business Machines | Computer-based, audio/visual creation and presentation system and method |
US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
US5181162A (en) * | 1989-12-06 | 1993-01-19 | Eastman Kodak Company | Document management and production system |
JPH03103822U (zh) | 1990-02-13 | 1991-10-29 | ||
US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
JPH04307585A (ja) * | 1991-04-05 | 1992-10-29 | Matsushita Electric Ind Co Ltd | 語学学習装置 |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
JPH06508788A (ja) | 1991-12-03 | 1994-10-06 | フレンチ スポーテク コーポレイション | 対話型ビデオ式検査および訓練システム |
US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5953485A (en) * | 1992-02-07 | 1999-09-14 | Abecassis; Max | Method and system for maintaining audio during video control |
JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
US6062863A (en) * | 1994-09-22 | 2000-05-16 | Kirksey; William E. | Method of associating oral utterances meaningfully with word symbols seriatim in an audio-visual work and apparatus for linear and interactive application |
US5938447A (en) * | 1993-09-24 | 1999-08-17 | Readspeak, Inc. | Method and system for making an audio-visual work with a series of visual word symbols coordinated with oral word utterances and such audio-visual work |
US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5577981A (en) | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
US5692212A (en) | 1994-06-22 | 1997-11-25 | Roach; Richard Gregory | Interactive multimedia movies and techniques |
US5999172A (en) * | 1994-06-22 | 1999-12-07 | Roach; Richard Gregory | Multimedia techniques |
US5948040A (en) * | 1994-06-24 | 1999-09-07 | Delorme Publishing Co. | Travel reservation information and planning system |
US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
JPH0844490A (ja) | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
EP0718784B1 (en) * | 1994-12-20 | 2003-08-27 | Sun Microsystems, Inc. | Method and system for the retrieval of personalized information |
US5799304A (en) * | 1995-01-03 | 1998-08-25 | Intel Corporation | Information evaluation |
US5636995A (en) * | 1995-01-17 | 1997-06-10 | Stephen A. Schwartz | Interactive story book and graphics tablet apparatus and methods for operating the same |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
AU5442796A (en) * | 1995-04-06 | 1996-10-23 | Avid Technology, Inc. | Graphical multimedia authoring system |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
WO1996041304A1 (en) | 1995-06-07 | 1996-12-19 | The Trustees Of Columbia University In The City Of New York | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus |
US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
GB9517808D0 (en) | 1995-08-31 | 1995-11-01 | Philips Electronics Uk Ltd | Interactive entertainment personalisation |
GB9517806D0 (en) * | 1995-08-31 | 1995-11-01 | Philips Electronics Uk Ltd | Information handling for interactive apparatus |
US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
WO1999044698A2 (en) | 1998-03-03 | 1999-09-10 | Arena, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
US6028593A (en) | 1995-12-01 | 2000-02-22 | Immersion Corporation | Method and apparatus for providing simulated physical interactions within computer generated environments |
US6278418B1 (en) | 1995-12-29 | 2001-08-21 | Kabushiki Kaisha Sega Enterprises | Three-dimensional imaging system, game device, method for same and recording medium |
US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
GB9602431D0 (en) | 1996-02-07 | 1996-04-03 | Philips Electronics Nv | Interactive audio entertainment apparatus |
WO1997030397A1 (en) * | 1996-02-16 | 1997-08-21 | Cyber Marketing, Inc. | Remote interactive multimedia preview and data collection kiosk system |
AU3283497A (en) | 1996-05-08 | 1997-11-26 | Real Vision Corporation | Real time simulation using position sensing |
US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
WO1998007129A1 (fr) | 1996-08-14 | 1998-02-19 | Latypov Nurakhmed Nurislamovic | Procede de suivi et de representation de la position et de l'orientation d'un sujet dans l'espace, procede de presentation d'un espace virtuel a ce sujet, et systemes de mise en oeuvre de ces procedes |
JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
EP0849697B1 (en) | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6705868B1 (en) | 1998-03-18 | 2004-03-16 | Purdue Research Foundation | Apparatus and methods for a shape memory spring actuator and display |
US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6141463A (en) | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
WO1999019828A1 (en) | 1997-10-15 | 1999-04-22 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6384819B1 (en) | 1997-10-15 | 2002-05-07 | Electric Planet, Inc. | System and method for generating an animatable character |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6243740B1 (en) * | 1998-02-13 | 2001-06-05 | Xerox Corporation | Public interactive document |
US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6088020A (en) | 1998-08-12 | 2000-07-11 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Haptic device |
IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
DE69936620T2 (de) | 1998-09-28 | 2008-05-21 | Matsushita Electric Industrial Co., Ltd., Kadoma | Verfahren und Vorrichtung zum Segmentieren von Handgebärden |
WO2000034919A1 (en) | 1998-12-04 | 2000-06-15 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
EP1147370B1 (en) | 1998-12-16 | 2009-02-25 | 3DV Systems Ltd. | Self gating photosurface |
US6342901B1 (en) * | 1998-12-22 | 2002-01-29 | Xerox Corporation | Interactive device for displaying information from multiple sources |
US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6190174B1 (en) | 1999-06-03 | 2001-02-20 | Kader Industrial Company Limited | Electronic story board |
US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
US6512838B1 (en) | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
US7333967B1 (en) | 1999-12-23 | 2008-02-19 | International Business Machines Corporation | Method and system for automatic computation creativity and specifically for story generation |
US6674877B1 (en) | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
US7878905B2 (en) * | 2000-02-22 | 2011-02-01 | Creative Kingdoms, Llc | Multi-layered interactive play experience |
US7445550B2 (en) * | 2000-02-22 | 2008-11-04 | Creative Kingdoms, Llc | Magical wand and interactive play experience |
US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US7246315B1 (en) | 2000-05-10 | 2007-07-17 | Realtime Drama, Inc. | Interactive personal narrative agent system and method |
US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6544040B1 (en) | 2000-06-27 | 2003-04-08 | Cynthia P. Brelis | Method, apparatus and article for presenting a narrative, including user selectable levels of detail |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
US20020108009A1 (en) * | 2000-12-29 | 2002-08-08 | Michele Borgatti | Electronic system having modular expansion function facilities |
AU2002329214A1 (en) * | 2001-02-07 | 2002-12-23 | Infosphere Incorporated | Method and apparatus for providing interactive media presentation |
US6539931B2 (en) | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
JP2004537777A (ja) * | 2001-05-14 | 2004-12-16 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | リアルタイムのコンテンツのストリームと対話するための装置 |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
US6705686B2 (en) | 2002-03-26 | 2004-03-16 | Ford Motor Company | Method and apparatus for braking a hybrid electric vehicle |
US7062712B2 (en) * | 2002-04-09 | 2006-06-13 | Fuji Xerox Co., Ltd. | Binding interactive multichannel digital document system |
AU2003212211A1 (en) | 2002-04-19 | 2003-11-03 | Iee International Electronics And Engineering S.A. | Safety device for a vehicle |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US7646372B2 (en) * | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US7627139B2 (en) | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
US7962430B1 (en) * | 2002-11-11 | 2011-06-14 | James Ralph Heidenreich | Systems and methods for facilitating user thinking about an arbitrary problem with additional search capabilities |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
JP4355341B2 (ja) | 2003-05-29 | 2009-10-28 | 本田技研工業株式会社 | 深度データを用いたビジュアルトラッキング |
WO2004111687A2 (en) | 2003-06-12 | 2004-12-23 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
US7777748B2 (en) * | 2003-11-19 | 2010-08-17 | Lucid Information Technology, Ltd. | PC-level computing system with a multi-mode parallel graphics rendering subsystem employing an automatic mode controller, responsive to performance data collected during the run-time of graphics applications |
EP1743277A4 (en) | 2004-04-15 | 2011-07-06 | Gesturetek Inc | MONITORING OF BI-MANUAL MOVEMENTS |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
KR100458287B1 (ko) * | 2004-06-07 | 2004-11-26 | 엔에이치엔(주) | 건물 발전 방식의 온라인 롤-플레잉 게임 서비스 시스템 및 그 방법 |
US20060003824A1 (en) * | 2004-07-01 | 2006-01-05 | Aruze Corporation | Game system |
US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
KR100754385B1 (ko) | 2004-09-30 | 2007-08-31 | 삼성전자주식회사 | 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법 |
US20060190285A1 (en) * | 2004-11-04 | 2006-08-24 | Harris Trevor M | Method and apparatus for storage and distribution of real estate related data |
KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
PE20060777A1 (es) * | 2004-12-24 | 2006-10-06 | Boehringer Ingelheim Int | Derivados de indolinona para el tratamiento o la prevencion de enfermedades fibroticas |
JP2008537190A (ja) | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | 赤外線パターンを照射することによる対象物の三次元像の生成 |
JP5160235B2 (ja) | 2005-01-07 | 2013-03-13 | クアルコム,インコーポレイテッド | 画像中の物体の検出及び追跡 |
US7379566B2 (en) | 2005-01-07 | 2008-05-27 | Gesturetek, Inc. | Optical flow based tilt sensor |
EP1851750A4 (en) | 2005-02-08 | 2010-08-25 | Oblong Ind Inc | SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES |
US7492367B2 (en) | 2005-03-10 | 2009-02-17 | Motus Corporation | Apparatus, system and method for interpreting and reproducing physical motion |
JPWO2006098299A1 (ja) * | 2005-03-14 | 2008-08-21 | 新世代株式会社 | 情報処理システム及びそのための情報入力装置 |
US7317836B2 (en) | 2005-03-17 | 2008-01-08 | Honda Motor Co., Ltd. | Pose estimation based on critical point analysis |
US7389591B2 (en) | 2005-05-17 | 2008-06-24 | Gesturetek, Inc. | Orientation-sensitive signal output |
TW200707257A (en) | 2005-08-10 | 2007-02-16 | Hong-Yi Lin | Image interactive story house |
EP1752748B1 (en) | 2005-08-12 | 2008-10-29 | MESA Imaging AG | Highly sensitive, fast pixel for use in an image sensor |
US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
US20070087798A1 (en) * | 2005-10-13 | 2007-04-19 | Elliot Mcgucken | Morality system and method for video game: system and method for creating story, deeper meaning and emotions, enhanced characters and AI, and dramatic art in video games |
US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
EP1966767A2 (en) * | 2005-12-31 | 2008-09-10 | BRACCO IMAGING S.p.A. | Systems and methods for collaborative interactive visualization of 3d data sets over a network ("dextronet") |
US7627536B2 (en) | 2006-06-13 | 2009-12-01 | Microsoft Corporation | Dynamic interaction menus from natural language representations |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
TW200839666A (en) | 2006-11-14 | 2008-10-01 | Patent Category Corp | Interactive system |
US8351646B2 (en) | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
JP5639764B2 (ja) * | 2007-03-08 | 2014-12-10 | シンク−アールエックス,リミティド | 運動する器官と共に使用するイメージング及びツール |
WO2008124820A1 (en) | 2007-04-10 | 2008-10-16 | Reactrix Systems, Inc. | Display using a three dimensional vision system |
US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
CN101952818B (zh) | 2007-09-14 | 2016-05-25 | 智慧投资控股81有限责任公司 | 基于姿态的用户交互的处理 |
WO2009059065A1 (en) | 2007-10-30 | 2009-05-07 | Hewlett-Packard Development Company, L.P. | Interactive display system with collaborative gesture detection |
US20090221368A1 (en) | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
KR100930370B1 (ko) * | 2007-11-30 | 2009-12-08 | 광주과학기술원 | 증강현실 저작 방법 및 시스템과 그 프로그램을 기록한컴퓨터로 읽을 수 있는 기록 매체 |
GB2455316B (en) | 2007-12-04 | 2012-08-15 | Sony Corp | Image processing apparatus and method |
EP2263190A2 (en) * | 2008-02-13 | 2010-12-22 | Ubisoft Entertainment S.A. | Live-action image capture |
JP5684577B2 (ja) | 2008-02-27 | 2015-03-11 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | シーンの深度データをキャプチャし、コンピュータのアクションを適用する方法 |
CN101254344B (zh) | 2008-04-18 | 2010-06-16 | 李刚 | 场地方位与显示屏点阵按比例相对应的游戏装置和方法 |
US8904430B2 (en) * | 2008-04-24 | 2014-12-02 | Sony Computer Entertainment America, LLC | Method and apparatus for real-time viewer interaction with a media presentation |
MY168264A (en) * | 2008-07-15 | 2018-10-16 | Dtt holdings pty ltd | Method for preparing a patent for a medical treatment |
WO2010019632A1 (en) * | 2008-08-11 | 2010-02-18 | Haven Holdings Llc | Interactive entertainment and competition system |
US9399167B2 (en) | 2008-10-14 | 2016-07-26 | Microsoft Technology Licensing, Llc | Virtual space mapping of a variable activity region |
US8219513B2 (en) * | 2008-12-19 | 2012-07-10 | Eastman Kodak Company | System and method for generating a context enhanced work of communication |
US9170700B2 (en) * | 2009-05-13 | 2015-10-27 | David H. Kaiser | Playing and editing linked and annotated audiovisual works |
US7967731B2 (en) * | 2009-05-29 | 2011-06-28 | Sk Telecom Americas, Inc. | System and method for motivating users to improve their wellness |
US8510656B2 (en) * | 2009-10-29 | 2013-08-13 | Margery Kravitz Schwarz | Interactive storybook system and method |
US9299223B2 (en) * | 2010-05-19 | 2016-03-29 | Bally Gaming, Inc. | Controlling bingo game interactivity |
US9183560B2 (en) * | 2010-05-28 | 2015-11-10 | Daniel H. Abelow | Reality alternate |
EP3543958B1 (en) * | 2010-09-13 | 2020-11-11 | Barry Lynn Jenkins | System and method of delivering and controlling streaming interactive media comprising predetermined packets of geometric, texture, lighting and other data which are rendered on a receiving device |
US20120190446A1 (en) * | 2011-01-21 | 2012-07-26 | Rogers Henk B | Systems and methods for providing a game or story development platform |
US10127563B2 (en) * | 2011-09-15 | 2018-11-13 | Stephan HEATH | System and method for providing sports and sporting events related social/geo/promo link promotional data sets for end user display of interactive ad links, promotions and sale of products, goods, gambling and/or services integrated with 3D spatial geomapping, company and local information for selected worldwide locations and social networking |
US9031382B1 (en) * | 2011-10-20 | 2015-05-12 | Coincident.Tv, Inc. | Code execution in complex audiovisual experiences |
-
2010
- 2010-06-21 US US12/819,983 patent/US8381108B2/en active Active
-
2011
- 2011-04-29 TW TW100115150A patent/TWI531396B/zh not_active IP Right Cessation
- 2011-06-09 EP EP11798610.9A patent/EP2583155A4/en not_active Withdrawn
- 2011-06-09 CN CN201180030439.3A patent/CN102947774B/zh active Active
- 2011-06-09 JP JP2013516598A patent/JP5944384B2/ja active Active
- 2011-06-09 WO PCT/US2011/039881 patent/WO2011162974A2/en active Application Filing
- 2011-06-09 CA CA2800533A patent/CA2800533C/en active Active
- 2011-06-09 KR KR1020127033285A patent/KR101838312B1/ko active IP Right Grant
-
2013
- 2013-02-19 US US13/770,483 patent/US9274747B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6408257B1 (en) * | 1999-08-31 | 2002-06-18 | Xerox Corporation | Augmented-reality display method and system |
CN101031866A (zh) * | 2004-05-28 | 2007-09-05 | 新加坡国立大学 | 交互式系统和方法 |
CN101237915A (zh) * | 2005-08-12 | 2008-08-06 | 皇家飞利浦电子股份有限公司 | 交互娱乐系统及其操作方法 |
CN101523464A (zh) * | 2006-10-02 | 2009-09-02 | 皇家飞利浦电子股份有限公司 | 交互式讲故事者系统 |
CN101739120A (zh) * | 2008-11-12 | 2010-06-16 | 华硕电脑股份有限公司 | 交互式显示方法及其相关显示装置 |
Also Published As
Publication number | Publication date |
---|---|
JP5944384B2 (ja) | 2016-07-05 |
CA2800533A1 (en) | 2011-12-29 |
EP2583155A2 (en) | 2013-04-24 |
US9274747B2 (en) | 2016-03-01 |
US20110314381A1 (en) | 2011-12-22 |
WO2011162974A2 (en) | 2011-12-29 |
CA2800533C (en) | 2018-03-06 |
JP2013538593A (ja) | 2013-10-17 |
US20130165225A1 (en) | 2013-06-27 |
EP2583155A4 (en) | 2013-10-16 |
TWI531396B (zh) | 2016-05-01 |
KR101838312B1 (ko) | 2018-03-13 |
CN102947774A (zh) | 2013-02-27 |
US8381108B2 (en) | 2013-02-19 |
KR20130111234A (ko) | 2013-10-10 |
WO2011162974A3 (en) | 2012-03-29 |
TW201210663A (en) | 2012-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102947774B (zh) | 用于驱动交互式故事的自然用户输入 | |
CN102656542B (zh) | 用于演示的相机导航 | |
CN102448561B (zh) | 姿势教练 | |
CN102473320B (zh) | 通过学习到的来自用户的输入使视觉表示生动化的方法 | |
EP2524350B1 (en) | Recognizing user intent in motion capture system | |
CN102414641B (zh) | 改变显示环境内的视图视角 | |
KR101643020B1 (ko) | 애니메이션을 체이닝하는 방법 및 애니메이션 블렌딩 장치 | |
CN102413886B (zh) | 示出身体位置 | |
CN102129293A (zh) | 在运动捕捉系统中跟踪用户组 | |
CN102156658B (zh) | 对象的低等待时间呈现 | |
US20110221755A1 (en) | Bionic motion | |
CN102449576A (zh) | 姿势快捷方式 | |
CN102207771A (zh) | 推断参与运动捕捉系统的用户意图 | |
CN102301315A (zh) | 姿势识别器系统架构 | |
CN102947777A (zh) | 用户跟踪反馈 | |
CN102470273A (zh) | 基于玩家表情的视觉表示表情 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150730 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20150730 Address after: Washington State Applicant after: Micro soft technique license Co., Ltd Address before: Washington State Applicant before: Microsoft Corp. |
|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |