CN107735776B - 信息处理设备、信息处理方法和程序 - Google Patents
信息处理设备、信息处理方法和程序 Download PDFInfo
- Publication number
- CN107735776B CN107735776B CN201680036410.9A CN201680036410A CN107735776B CN 107735776 B CN107735776 B CN 107735776B CN 201680036410 A CN201680036410 A CN 201680036410A CN 107735776 B CN107735776 B CN 107735776B
- Authority
- CN
- China
- Prior art keywords
- user
- information
- state
- inappropriate
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/422—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/217—Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Environmental & Geological Engineering (AREA)
- Ecology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Environmental Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
Abstract
[问题]为了在与其他人共享通过执行身体动作等而产生的信息的情况下,提出一种信息处理设备、一种信息处理方法和一种程序,其能够抑制向其他人传输由不适当的身体动作等而产生的信息。[解决方案]一种根据本公开的信息处理设备包括:获取单元,其获取利用来自一个或多个传感器的检测结果由识别单元识别的指示用户动作或状态中的至少一个的识别结果;以及控制单元,其在确定识别结果指示特定用户动作或状态的情况下,根据目标来控制与特定用户动作或状态相关的信息反映在通知信息中的反映程度,通知信息将与特定用户动作或状态相关的信息传输到不同于用户的目标。
Description
技术领域
本公开涉及一种信息处理设备、一种信息处理方法和一种程序。
背景技术
近来,随着信息处理技术的发展,在虚拟现实(VR)技术方面,特别是在头戴式显示器(HMD)技术方面取得了显着的进步。例如,通过将HMD技术应用于游戏,并且使用户将HMD戴在头上,用户能够体验到沉浸式游戏。在这种游戏中,通过不仅使用普通游戏键盘,而且通过身体动作来控制游戏,实现了更加沉浸式的体验(例如,参见下面的专利文献1)。
引文列表
专利文献
专利文献1:JP 2012-79177A
发明内容
技术问题
然而,如果使用这些VR技术,则在与远程位置的其他用户共享被特定用户观看的视频的视频共享系统、在线游戏等中,直接向其他用户传输身体动作。为此,在用户不自觉地执行可能使其他用户不舒服的动作等的情况下,有可能这些动作将被传输到其他用户。
为此,在与其他人共享通过执行身体动作等而产生的信息的情况下,存在对能够抑制向其他人传输由不适当的身体动作等而产生的信息的技术的需求。
因此,在与其他人共享通过执行身体动作等而产生的信息的情况下,本公开提出了一种信息处理设备、一种信息处理方法和一种程序,其能够抑制向其他人传输由不适当的身体动作等而产生的信息。
问题的解决方案
根据本公开,提供了一种信息处理设备,包括:获取单元,其获取利用来自一个或多个传感器的检测结果由识别单元识别的指示用户动作或状态中的至少一个的识别结果;以及控制单元,其在确定识别结果指示特定用户动作或状态的情况下,根据目标来控制与特定用户动作或状态相关的信息反映在通知信息中的反映程度,通知信息将与特定用户动作或状态相关的信息传输到不同于用户的目标。
另外,根据本公开,提供了一种信息处理方法,包括:获取利用来自一个或多个传感器的检测结果由识别单元识别的指示用户动作或状态中的至少一个的识别结果;以及在确定识别结果指示特定用户动作或状态的情况下,根据目标来控制与特定用户动作或状态相关的信息反映在通知信息中的反映程度,通知信息将与特定用户动作或状态相关的信息传输到不同于用户的目标。
另外,根据本公开,提供了一种用于计算机的程序,其能够获取利用来自一个或多个传感器的检测结果识别用户动作或状态中的至少一个的识别单元的识别结果,程序使计算机实现:获取功能,其获取由识别单元识别并指示用户动作或状态中的至少一个的识别结果;以及控制功能,其在确定识别结果指示特定用户动作或状态的情况下,根据目标来控制与特定用户动作或状态相关的信息反映在通知信息中的反映程度,通知信息将与特定用户动作或状态相关的信息传输到不同于用户的目标。
根据本公开,获取利用来自一个或多个传感器的检测结果由识别单元识别的指示用户动作或状态中的至少一个的识别结果;并且在确定识别结果指示特定用户动作或状态的情况下,根据目标来控制与特定用户动作或状态相关的信息反映在通知信息中的反映程度,通知信息将与特定用户动作或状态相关的信息传输到不同于用户的目标。
发明的有益效果
根据如上所述的本公开,在与其他人共享通过执行身体动作等而产生的信息的情况下,可能抑制向其他人传输由不适当的身体动作等而产生的信息。
应注意,上述效果不一定是限制性的。使用或代替上述效果,可以实现本说明书中描述的任何一种效果或可以从本说明书中掌握的其他效果。
附图说明
[图1]图1是示意性地图示根据本公开的第一实施方案的信息处理系统的说明图。
[图2A]图2A是示意性地图示根据实施方案的信息处理系统的功能的实例的说明图。
[图2B]图2B是示意性地图示根据实施方案的信息处理系统的功能的实例的说明图。
[图3]图3是图示与根据实施方案的信息处理设备协作的平台的配置的实例的方框图。
[图4]图4是图示根据实施方案的信息处理设备的配置的实例的方框图。
[图5A]图5A是图示由根据实施方案的信息处理设备关注的不适当信息的实例的说明图。
[图5B]图5B是图示由根据实施方案的信息处理设备关注的不适当信息的实例的说明图。
[图6]图6是图示识别由根据实施方案的信息处理设备关注的不适当信息的方法的说明图。
[图7]图7是图示提供在根据实施方案的信息处理设备中的控制单元的配置的实例的方框图。
[图8]图8是图示提供在根据实施方案的信息处理设备中的反映内容确定单元的配置的实例的方框图。
[图9]图9是用于说明根据实施方案的反映内容确定单元中的确定处理的说明图。
[图10A]图10A是用于说明提供在根据实施方案的信息处理设备中的信息校正单元中的信息校正处理的实例的说明图。
[图10B]图10B是用于说明提供在根据实施方案的信息处理设备中的信息校正单元中的信息校正处理的实例的说明图。
[图10C]图10C是用于说明提供在根据实施方案的信息处理设备中的信息校正单元中的信息校正处理的实例的说明图。
[图10D]图10D是用于说明提供在根据实施方案的信息处理设备中的信息校正单元中的信息校正处理的实例的说明图。
[图11]图11是用于说明根据实施方案的信息处理设备中的反映内容确定单元的另一实例的说明图。
[图12A]图12A是示意性地图示根据实施方案的信息处理系统中的显示屏的实例的说明图。
[图12B]图12B是示意性地图示根据实施方案的信息处理系统中的显示屏的实例的说明图。
[图13]图13是图示根据实施方案的信息处理方法的流程的实例的流程图。
[图14A]图14A是示意性地图示根据实施方案的平台的修改的说明图。
[图14B]图14B是示意性地图示根据实施方案的平台的修改的说明图。
[图14C]图14C是示意性地图示根据实施方案的平台的修改的说明图。
[图15A]图15A是图示根据实施方案的信息处理方法的流程的实例的流程图。
[图15B]图15B是图示根据修改的信息处理方法的流程的实例的说明图。
[图15C]图15C是图示根据修改的信息处理方法的流程的实例的说明图。
[图15D]图15D是图示根据修改的信息处理方法的流程的实例的说明图。
[图16]图16是图示根据本公开的实施方案的信息处理设备的硬件配置的实例的方框图。
具体实施方式
在下文中,将参照附图详细描述本公开的优选实施方案。在本说明书和附图中,具有大体上相同的功能和结构的结构元件用相同的参考数字表示,并且省略对这些结构元件的重复说明。
在下文中,描述将按以下顺序进行。
1.第一实施方案
1.1.信息处理系统
1.1.1.信息处理系统的整体结构
1.1.2.平台的配置
1.2.信息处理设备
1.3.信息处理方法
1.4.修改
2.硬件配置
(第一实施方案)
<信息处理系统>
首先,将参照图1至图3简要描述根据本公开的第一实施方案的信息处理系统的配置。
图1是示意性地图示根据本公开的第一实施方案的信息处理系统的说明图。图2A和图2B是示意性地说明根据本实施方案的信息处理系统的功能的实例的说明图。图3是图示与根据本实施方案的信息处理设备协作的平台的配置的实例的方框图。
[信息处理系统的整体结构]
如图1中示意性地所示,根据本实施方案的信息处理系统1由通过诸如互联网的公共网络3彼此连接的信息处理设备10和多个平台20A、20B等(在下文中,可以将多个平台指定为“平台20”)组成。
根据本实施方案的信息处理设备10是经由每个平台20,在多个用户共享的信息中调解用户之间信息的双向传输的设备。如稍后详细描述的,信息处理设备10例如执行特定应用(诸如在线游戏),由此在网络3上创建虚拟空间。经由该虚拟空间,多个用户可以共享信息。此外,如稍后详细描述的,信息处理设备10执行使与远程位置中存在的其他用户共享与特定用户观看的空间相关的视频数据的应用,由此使多个用户能够通过网络3共享信息。
稍后将进一步详细地描述信息处理设备10的详细配置和功能。
每个用户拥有的平台20是具备硬件和软件的计算机,其用于经由在信息处理设备10中执行的各自的应用来共享信息。每个用户通过利用针对平台20的身体动作等执行用户操作,能够经由信息处理设备10与其他用户共享信息。
应注意,尽管图1图示了两个平台20通过网络3连接到信息处理设备10的情况,但是连接到信息处理设备10的平台20的数量不限于两个,并且显然三个或更多个平台20也可以连接到信息处理设备10。
接着,将参照图2A和图2B简要描述在用户之间共享信息的方法的具体实例。
图2A示意性地图示用于这种情况的系统,其中信息处理设备10执行所谓的用户沉浸式应用(诸如在线游戏),由此在网络3上建构虚拟空间(诸如设置游戏的世界)。经由该虚拟空间,在用户之间共享信息。在这种情况下,信息处理设备10执行特定应用,由此在网络3上建构虚拟空间。此外,每个平台20执行能够连接到由信息处理设备10执行的应用的特定应用,由此使得能够访问在网络3上建构的虚拟空间,并且使得能够经由该虚拟空间在用户之间共享信息。
拥有每个平台20的用户经由诸如各种传感器21和头戴式显示器23的部件来执行利用身体动作等的用户操作,这些部件以有线或无线方式连接到平台20。用户执行的身体动作等由各种传感器21检测,并且指示与用户的动作、状态等相关的传感器检测结果的信息被输出到信息处理设备10。此外,平台20不仅能够从直接连接到平台20的各种传感器21,而且还能从周围环境中的各种传感器获取与传感器检测结果相关的信息,由此平台20能够通过网络3等获取信息。
例如,由各种传感器21检测到的与用户的动作或状态相关的检测结果的实例被认为不仅包括与用户的动作或状态相关的检测结果,诸如用户的身体动作、用户的面部表情和关于用户的生物信息(诸如出汗状态和脉搏),而且包括与用户周围的环境相关的检测结果,诸如用户和用户的环境的气味、声音和振动。
根据本实施方案的信息处理设备10识别从平台20输出的指示与用户的动作、状态等相关的传感器检测结果的信息,并且使这种信息的识别结果反映在建构的虚拟空间中。通过这种布置,其他用户变得能够共享由用户执行的身体动作和虚拟空间中相应发生的现象。
这里,实施各种传感器21和头戴式显示器23的方式没有特别限制。各种传感器21和头戴式显示器23可以单独存在,或者可以存在内置各种传感器21的头戴式显示器23。此外,用户执行输入操作的设备不限于诸如各种传感器21和头戴式显示器23的设备,并且各种类型的穿戴式设备中的任何一种也可用作输入设备。
另外,各种传感器21的具体实例没有特别限制,并且可以包括例如各种类型的相机中的任何一种(包括范围成像相机、红外相机等)、动作传感器(诸如加速度传感器或陀螺仪传感器)、照度传感器、大气压力传感器、气味传感器、声音传感器(诸如麦克风)、振动传感器和能够检测包括汗水、脉搏等的各种生物信息的生物传感器。
图2B示意性地图示信息处理设备10执行在用户之间共享视频数据的应用的情况的系统。经由该应用,在用户之间共享信息。在这种情况下,信息处理设备10执行特定应用,由此记录与用户观看的空间相关并从特定平台20传输的成像数据,并且也调解平台20之间的相互通信。另外,每个平台20执行特定应用,由此经由信息处理设备10共享视频数据,并且对视频数据单独执行操作。
拥有每个平台20的每个用户在佩戴以有线或无线方式连接到平台20的各种传感器21的同时观看用户存在的空间,由此产生与空间相关的视频数据和与空间相关的其他传感器检测数据。指示与用户观看的空间相关的传感器检测结果的信息被输出到信息处理设备10。通过这种布置,其他用户变得能够共享与特定用户观看的空间相关的各种信息。
因此,上面参照图1至图2B简要描述了根据本实施方案的信息处理系统1的整体配置。
[平台的配置]
接着,将参照图3简要描述构成根据本实施方案的信息处理系统1的平台20的配置的实例。图3是图示与根据本实施方案的信息处理设备协作的平台的配置的实例的方框图。
如图3中所示,例如,根据本实施方案的平台20主要具备中央控制单元201、传感器输出获取单元203、通信控制单元205、输出控制单元207和存储单元209。
中央控制单元201例如由诸如中央处理单元(CPU)、只读存储器(ROM)和随机存取存储器(RAM)的部件来实现。中央控制单元201是集中地控制在平台20中执行的各种功能和操作的处理单元。中央控制单元201执行例如存储在诸如稍后描述的存储单元209的部件中的各种应用,由此可以使平台20实现对应于该应用的功能。此时,中央控制单元201在适当地参考诸如存储在存储单元209等中的设置数据的信息的同时执行平台20中的各种应用。
中央控制单元201获取由稍后描述的传感器输出获取单元203获取的关于由身体动作等执行的用户操作的信息,并且根据用户操作来控制应用的执行,同时也经由稍后描述的通信控制单元205将与获取的传感器输出结果相关的信息输出到信息处理设备10。此外,中央控制单元201使经由通信控制单元205获取的信息处理设备10的输出反映在应用的执行中,同时也经由稍后描述的输出控制单元207将应用执行结果输出到用户。
传感器输出获取单元203例如由诸如CPU、ROM、RAM、输入设备和通信设备的部件来实现。传感器输出获取单元203获取由如上所述的各种传感器21检测到的与用户的动作或状态中的至少一个相关的传感器输出数据。由传感器输出获取单元203获取的各种传感器21的传感器输出数据被输出到中央控制单元201,并且用于控制由中央控制单元201执行的各种应用。此外,传感器输出数据经由中央控制单元201和通信控制单元205输出到信息处理设备10。
通信控制单元205例如由诸如CPU、ROM、RAM和通信设备的部件来实现。通信控制单元205是通过网络3控制平台20和信息处理设备10之间的通信的处理单元。经由通信控制单元205,中央控制单元201变得能够将各种类型的数据和信息(诸如用户设置的传感器输出数据和应用设置数据)输出到信息处理设备10,并且另外从信息处理设备10获取各种类型的数据和信息。
输出控制单元207例如由诸如CPU、ROM、RAM、输出设备和通信设备的部件来实现。输出控制单元207是控制将从中央控制单元201输出的各种类型的数据和信息输出到能够向用户传输感觉信息的输出设备的处理单元。这些输出设备可以是例如连接到平台20的各种传感器21等、头戴式显示器23、各种类型的显示器25中的任何一种和其他输出设备27(诸如扬声器和触觉显示器)。通过这种布置,将由中央控制单元201执行的应用的执行结果提供给用户。
存储单元209例如由诸如提供在根据本实施方案的平台20中的RAM和存储设备的部件来实现。在存储单元209中,诸如当根据本实施方案的平台20进行某种处理时需要保存的各种参数和处理的部分结果的信息,或诸如各种数据库和程序的其他信息被适当地记录。特别是,在存储单元209中,记录诸如与由信息处理设备10执行的应用协作的应用相关的实体数据、由用户设置用于这种应用的设置数据等的信息。诸如中央控制单元201、传感器输出获取单元203、通信控制单元205和输出控制单元207的部件能够在存储有这些各种信息的存储单元209上自由地进行数据读取/写入处理。
因此,上面图示了根据本实施方案的平台20的功能的实例。上述组成元件中的每个可以使用通用构件或电路来实现,但也可以用专用于每个组成元件的功能的硬件来实现。另外,每个组成元件的功能也可以完全由CPU等进行。因此,在执行本实施方案时,可能根据技术水平适当地修改要使用的配置。
应注意,也可能开发用于实现如上所述的根据本实施方案的平台的各自的功能的计算机程序,并且在个人计算机等中实施计算机程序。另外,也可以提供存储这种计算机程序的计算机可读记录介质。记录介质可以是例如磁盘、光盘、磁光盘或闪速存储器。此外,上述计算机程序也可以例如经由网络传送,而不使用记录介质。
因此,上面参照图1至图3简要描述了根据本实施方案的信息处理系统1。
<信息处理设备>
接着,将参照图4至图12B详细描述根据本实施方案的信息处理设备。
图4是图示根据本实施方案的信息处理设备的配置的实例的方框图。图5A和图5B是图示由根据本实施方案的信息处理设备关注的不适当信息的实例的说明图。图6是图示识别由根据本实施方案的信息处理设备关注的不适当信息的方法的说明图。图7是图示提供在根据本实施方案的信息处理设备中的控制单元的配置的实例的方框图,而图8是图示提供在根据本实施方案的信息处理设备中的反映内容确定单元的配置的实例的方框图。图9是用于说明根据本实施方案的反映内容确定单元中的确定处理的说明图。图10A至图10D是用于说明提供在根据本实施方案的信息处理设备中的信息校正单元中的信息校正处理的实例的说明图。图11是用于说明根据本实施方案的信息处理设备中的反映内容确定单元的另一实例的说明图。图12A和图12B是示意性地图示根据本实施方案的信息处理系统中的显示屏的实例的说明图。
根据本实施方案的信息处理设备10是例如执行各种类型的应用,诸如各种游戏应用(诸如在线游戏),以及前面描述的视频共享应用的设备,由此能够在操作平台20的用户之间共享各种信息。用户对平台20执行利用身体动作等的输入操作,但有可能用户有意或无意地执行使其他用户不舒服的动作,或可以识别个人用户的危险动作。因此,根据本实施方案的信息处理设备10将可能使其他用户不舒服的动作和如上所述的危险动作共同认为是不适当的动作等,并且自动识别用户是否执行对应于不适当的动作的身体动作。另外,在用户执行如上所述的不适当的动作的情况下,根据本实施方案的信息处理设备10对对应于不适当的动作的信息应用适当的校正,然后与其他用户共享校正的信息。
如图4中所示,根据本实施方案的实现上述功能的信息处理设备10主要具备识别单元101、控制单元103、通信控制单元105和存储单元107。
根据本实施方案的识别单元101例如由诸如CPU、ROM和RAM的部件来实现。识别单元101利用来自检测用户的动作或状态中的至少一个的一个或多个传感器的检测结果,并且识别用户的动作或状态中的至少一个。与识别处理中使用的用户的动作或状态中的至少一个相关的这种传感器检测结果从平台20传输并经由稍后描述的通信控制单元105获取。
识别单元101利用从平台20传输的与用户的动作或状态中的至少一个相关的传感器检测结果,以参考关于传感器检测结果与用户的动作或状态之间的关联的数据库等,并且从传感器检测结果中识别用户的动作和状态。
此时,通过如上所述的识别处理,识别单元101也确定用户是否执行前面描述的不适当的动作等。在下文中,将参照图5A和图5B更具体地描述不适当的动作等。
如图5A和图5B中所示,集中在识别单元101上的不适当的动作等可以大致分为用户的身体动作、用户的面部表情、与视觉相关的动作等、与触觉相关的动作等、与听觉相关的动作等、与嗅觉相关的动作等、用户的生物信息、用户的个人信息等。
如图5A中所示,与用户的身体动作相关的不适当的动作等可以是用户的个人习惯、与应用无关的动作、不愉快的生理现象、不是特别不愉快的生理现象、侮辱性动作、滋扰动作等。
个人习惯对应于用户通常不希望其他人知道的信息,并且从其他人的角度来看,人们不愿看到的信息。此外,在某些个人特征习惯的情况下,有可能识别个体。这些个人习惯没有特别限制,但例如可以包括诸如躁动、身体摇摆和触摸身体的特定部分的动作。
如果与应用无关的动作在共享信息时由某个用户进行,则有可能在信息共享的其他人中存在感觉不舒服的人。与应用无关的这些动作也没有特别限制,但例如可以包括诸如触摸与应用无关的设备(诸如智能手机)或吃零食的动作。
不愉快的生理现象应该被视为不适当的动作等,因为有些人由于这些现象而感觉不舒服。这些不愉快的生理现象没有特别限制,但例如可以包括诸如打嗝和放屁的生理现象。另外,尽管诸如打嗝和打呵欠的生理现象不是不愉快的生理现象,但是如果其他人执行这些动作,则可能会打扰用户。此外,诸如打嗝和打呵欠的这些生理现象是用户想要向其他人隐藏的动作(如果可能的话)。
此外,以中指手势为代表的动作和诸如冒充他人的行为作为侮辱对方的动作应该避免。此外,诸如在虚拟空间中跟随另一个人或连续重复相同动作的动作例如是滋扰动作。这些动作是通常使其他人感到不愉快的动作。
同时,如图5A中所示,与用户的面部表情相关的不适当的动作等例如包括用户的哭泣的脸、无聊的脸和愤怒的脸。
由于用户可能不希望其他人看到自己的哭泣,最好是将哭泣的脸视为不适当的动作。此外,如果用户在共享信息时做出无聊的脸,则其他人会感到不愉快,并且如果其他人生气,则用户会感到不愉快。因此,最好是将这些无聊的脸和愤怒的脸视为不适当的动作。
如图5B中所示,与视觉相关的不适当的动作等例如包括将目光对准特定目标或将目光扫视四周的动作。由于用户感兴趣或关注的对象可以从将目光对准特定目标的动作推断出来,在在线游戏等中,例如,如果用户相对于另一个角色等执行这种动作,并且凝视的方向被其他人领会到,则另一个用户可能感到不舒服。此外,有可能根据目光扫视四周的动作而被个人识别,这是不可取的。
如图5A中所示,与触觉相关的动作等包括超过一定强度的振动和与连续振动相关的动作。如果与其他人共享超过一定强度的振动和连续振动,则有可能其他人由于这些振动而感到不舒服。为此,最好是将这些动作视为不适当的动作等。
与听觉相关的不适当的动作等包括例如咀嚼声。如果某个用户在经由应用程序共享信息的处理中进食,则可以想象将检测到咀嚼声。然而,由于咀嚼声通常被认为是不愉快的,所以最好是将这些声音视为不适当的动作等。
如图5B中所示,与嗅觉相关的不适当的动作等包括气味,诸如体味或香水气味,以及家庭气味或烹饪气味。如果与其他人共享这些气味,则有可能这些气味将使一些其他用户感到不舒服。因此,最好是将这些气味视为不适当的动作等。
如图5B中所示,与生物信息相关的不适当的动作等包括用户的出汗状态和脉搏。例如,在在线游戏等中,如果甚至再现用户的出汗状态,则可能向虚拟空间提供更大的现实,但是也有可能一些其他人将感到不舒服。此外,通过共享某个用户的脉搏,很少有人感到不舒服,但是通过分析脉搏,有可能存在影响被识别的用户或被识别的用户年龄的疾病,这是不可取的。因此,最好是将这种生物信息视为不适当的动作等。
应注意,由于最近的技术发展已经在用于传输感觉、触觉和嗅觉的技术以及用于传输生物信息的技术方面取得公认的显著进展,所以在本实施方案中,如上所述的触觉、嗅觉和生物信息也集中在不适当的动作等上。
如图5B中所示,与个人信息相关的不适当的动作包括与用户的生活环境、用户名等相关的信息。例如,在用户住宅周围检测到噪音等的情况下,有可能识别用户的住宅。此外,诸如在经由应用程序与其他用户共享信息的处理中,当用户的一个家庭成员通过名称呼叫用户或写入用户名的对象被描绘时的情况下,例如,有可能用户名被传输到其他人。因此,最好是将这种信息视为不适当的动作等。
此外,图5A和图5B中所示的信息仅仅是一个实例,并且除了图5A和图5B中所示的动作之外的动作等可以被视为不适当的动作等。
为了识别如图5A和图5B中所示的不适当的动作等,根据本实施方案的识别单元101能够使用如图6中所示的识别技术。
例如,作为识别技术A,识别单元101能够利用相机检测结果。换句话说,识别单元101能够利用跟踪用户动作的检测结果,并且通过确定目标对象是否已经进入目标区域,识别是否发生了“个人习惯”或“与应用无关的动作”。
作为识别技术B,识别单元101能够利用来自动作传感器(诸如加速度传感器和陀螺仪传感器)的检测结果。换句话说,识别单元101能够根据来自这些动作传感器的检测结果确定用户的动作。另外,识别单元101能够利用动作传感器检测结果以通过所谓的机器学习处理来学习用户的动作,由此预测和估计目标动作。应注意,动作确定处理和机器学习处理的细节没有特别限制,并且有可能利用公知的技术。通过这种识别处理,识别单元101例如能够识别是否发生了“个人习惯”、“与应用无关的动作”、“不愉快的生理现象”、“不是特别不愉快的生理现象”、“侮辱性动作”、“滋扰动作”|等。
作为识别技术C,识别单元101能够利用相机检测结果。换句话说,识别单元101能够将成像用户动作的捕获的图像与不适当的活动等的图像匹配,并且根据匹配的相似性执行识别。这种匹配处理没有特别限制,并且有可能利用公知的匹配处理。通过这种识别处理,识别单元101例如能够识别是否进行了对应于“个人习惯”、“与应用无关的动作”、“侮辱性动作”、“哭泣的脸”、“无聊的脸”、“愤怒的脸”或“名称”的动作等。
作为识别技术D,识别单元101能够利用来自存在于平台20周围的环境传感器的检测结果,并且识别即将执行的动作、即将产生的信息等。例如,基于来自用户住宅中的厨房照度传感器的检测结果,有可能识别一系列动作和状态,诸如即将执行的烹饪动作,另外还有即将产生的烹饪相关的气味。另外,通过这种识别技术,识别单元101例如能够识别是否执行了对应于“关于生活环境的信息”等的动作等。
作为识别技术E,识别单元101能够利用来自气味传感器的检测结果。换句话说,识别单元101能够利用来自气味传感器的检测结果来分析产生的气味,并感测是否产生了特定气味。通过这种识别处理,识别单元101例如能够识别是否执行了对应于“体味或香水气味”、“家庭气味或烹饪气味”等的动作等。
作为识别技术F,识别单元101能够利用来自动作传感器或相机的检测结果,并且基于来自加速度传感器或相机图像的特征是否重复特定值来执行识别。通过这种识别处理,识别单元101例如能够识别是否进行了对应于“滋扰动作”等的动作等。
作为识别技术G,识别单元101能够利用来自麦克风的检测结果执行识别处理。换句话说,识别单元101能够预先学习或设置不愉快声音的特定波长或频谱,并且通过将作为麦克风检测结果的声音输入与学习/识别的内容进行比较来执行声音相关的识别处理。通过这种布置,识别单元101能够识别是否发生了对应于“咀嚼声”、“关于生活环境的信息”、“名称”等的动作等。
作为识别技术H,识别单元101能够利用来自振动传感器的检测结果执行识别处理。换句话说,识别单元101能够预设与波长在一定时间内的最大振幅或平均振幅值相关的阈值,然后基于从振动传感器检测结果计算出的波长的最大振幅或平均振幅值是否超过设置的阈值,执行与触觉相关的识别处理。通过这种布置,识别单元101能够识别是否发生了对应于“超过一定强度的振动或连续振动”等的动作等。
作为识别技术I和J,识别单元101能够利用来自生物传感器的检测结果执行识别处理。换句话说,识别单元101能够根据来自生物传感器(特别是排汗传感器)的检测结果来指定排汗量,并且基于是否超过某个阈值,识别是否发生了对应于“汗水”的动作等。另外,识别单元101能够根据来自生物传感器(特别是脉搏传感器)的检测结果来分析特征,并且基于是否包括诸如年龄或疾病的特定特征,识别是否发生了对应于“脉搏”的动作等。
作为识别技术K,识别单元101能够利用来自相机的检测结果执行识别处理。换句话说,识别单元101能够根据公知的方法从相机检测结果(即,捕获的图像)估计凝视位置,并且确定凝视的方向。这里,有可能通过公知的机器学习处理来估计凝视位置。通过进行这种识别处理,识别单元101例如能够识别是否发生了对应于“将目光对准特定目标”、“将目光扫视四周”等的动作等。
另外,识别单元101能够通过适当地组合图6中所示的几个识别技术A至K来进行各种识别处理。此外,识别单元101能够利用除了图6中所示的识别技术A至K之外的公知的识别技术来识别各种动作、情况、状态等。
在基于传感器检测结果进行如上所述的用于识别操作平台20的用户的动作、状态等的处理之后,识别单元101将与获得的识别结果相关的信息输出到控制单元103。
再次返回到图4,将详细描述提供在根据本实施方案的信息处理设备10中的控制单元103。
控制单元103例如由诸如CPU、ROM和RAM的部件来实现。控制单元103集中地控制根据本实施方案的信息处理设备10的功能和操作。此外,在由识别单元101检测到特定用户动作或状态的情况下,控制单元103根据目标来控制反映程度,其是与特定用户动作或状态相关的信息反映在通知信息中的程度,通知信息被传输到和与检测的特定用户动作或状态相关的信息所关注的用户不同的目标。
更具体来说,控制单元103根据来自识别单元101的识别结果来校正与识别的用户动作或状态相关的信息的内容,并且使与校正的用户动作或状态相关的信息反映在通知信息中。换句话说,控制单元103可以选择从(a)到(d)的任何校正,其包括(a)调整与用户动作或状态相关的信息的内容,(b)用其他内容替换与用户动作或状态相关的信息的内容,(c)隐藏与用户动作或状态相关的信息的内容的一部分,以及(d)隐藏与用户动作或状态相关的信息的所有内容。
例如,如图7中示意性地所示,执行这种处理的控制单元103包括反映内容确定单元121、信息校正单元123和应用执行单元125。
反映内容确定单元121例如由诸如CPU、ROM和RAM的部件来实现。反映内容确定单元121是一种处理单元,其参考与从识别单元101输出的识别结果相关的信息,识别被关注的平台20的用户执行了什么样的身体动作等,并且根据用户执行的身体动作等,确定相对于不同于被关注的用户的目标将在何种程度上反映对应于身体动作等的信息。
这里,不同于被关注的用户的目标可以是例如利用提供在多个用户之间共享的虚拟空间的应用的另一个用户、虚拟空间本身、或利用提供与第二用户共享第一用户观看的空间视频的视频共享功能的应用的另一个用户。
反映内容确定单元121参考与从识别单元101输出的识别结果相关的信息,并且在不执行如图5A和图5B中所示的不适当的动作等的情况下,反映内容确定单元121确定可以相对于不同于被关注的用户的目标来反映信息而不进行校正。此外,反映内容确定单元121将与从识别单元101输出的识别结果相关的信息输出到稍后按原样描述的应用执行单元125,并且使信息反映在应用的执行中。
此外,反映内容确定单元121参考与从识别单元101输出的识别结果相关的信息,并且在执行如图5A和图5B中所示的不适当的动作等的情况下,反映内容确定单元121根据所执行的不适当的动作等,确定相对于不同于被关注的用户的目标要反映信息的程度。此外,反映内容确定单元121将指示相对于不同于被关注的用户的目标在要通知的通知信息中的反映程度的信息,以及与从识别单元101输出的识别结果相关的信息输出到稍后描述的信息校正单元123,并且使包括不适当的动作等的信息被适当地校正。
例如,执行这些处理的反映内容确定单元121包括信息类型判别单元131、关系确定单元133和反映内容决策单元135,其实例在图8中图示。
信息类型判别单元131例如由诸如CPU、ROM和RAM的部件来实现。信息类型判别单元131参考从识别单元101输出的识别结果,并且首先确定是否执行了如图5A和图5B中所示的不适当的动作等。在确定没有执行不适当的动作等情况下,信息类型判别单元131通知稍后描述的反映内容决策单元135确定。
另一方面,在确定执行了不适当的动作等的情况下,信息类型判别单元131确定表示所执行的不适当的动作等的信息的类型。换句话说,信息类型判别单元131参考指示与所执行的不适当的动作等相关的识别结果的信息,并且确定相关的不适当的动作等属于以下四个类别中的哪个。
(1)如果不适当的动作等的程度被调整,则不再是不适当的动作等
(2)可用适当的动作等替换对应于不适当的动作等的部分的动作等
(3)可能仅隐藏对应于不适当的动作等的部分的动作等
(4)不可能仅隐藏对应于不适当的动作等的部分的动作等
例如,以如图9中所示的流程进行如上所述的分为四个类别的确定处理。换句话说,信息类型判别单元131参考与识别结果相关的信息,并且首先确定是否包括与不适当的动作等相关的信息(确定1)。此时,在确定不包括与不适当的动作等相关的信息的情况下,信息类型判别单元131确定足以将与识别结果相关的信息传输到其他人,而无需校正信息(处理1)。
另一方面,在包括与不适当的动作等相关的信息的情况下,信息类型判别单元131接着确定如果与不适当的动作等相关的信息的程度被调整,则动作等是否不再是不适当的(确定2)。此时,“调整程度”是指一种操作,其中当不适当的动作等被认为是向量时,例如,向量的方向保持相同,而向量的大小减小,诸如在进行与面部表情相关的不适当的动作等的情况下例如柔化面部表情的程度(例如,如图10A中所示,将激烈的愤怒的面部表情校正为轻微的愤怒的面部表情)等。在确定如果程度被调整则信息不再是不适当的情况下,信息类型判别单元131确定被关注的识别结果是分类为上述(1)的信息,并且确定足以调整程度并将信息传输到其他人(处理2)。
另一方面,在确定即使程度被调整,动作等也不停止不适当的情况下,例如,与“侮辱性动作”一样,信息类型判别单元131确定表示不适当的动作等的信息是否可替换(确定3)。此时,“替换”是指一种操作,其中当不适当的动作等被认为是向量时,例如,向量的方向本身被改变,诸如在进行与面部表情相关的不适当的动作等的情况下例如改变面部表情本身(例如,如图10B中所示,用微笑的面部表情替换激烈的愤怒的面部表情)等。在确定信息是可替换的情况下,信息类型判别单元131确定被关注的识别结果是分类为上述(2)的信息,并且确定足以替换并将信息传输到其他人(处理3)。
另一方面,在确定因为不存在替换信息等所以不适当的动作等是不可替换的情况下,信息类型判别单元131确定是否可能仅隐藏表示不适当的动作等的信息(确定4)。例如,如图10C中所示,考虑执行对应于“侮辱性动作”的手势作为身体动作的情况。此时,在将马赛克仅应用于对应于手势的部分,或对应于手势的部分被去除,但信息仍然作为与用户的动作等相关的信息整体上被传送的情况下,信息类型判别单元131确定被关注的识别结果是分类为上述(3)的信息,并且确定足以在传输到其他人之前隐藏相关部分的信息(处理4)。
另一方面,在确定不可能仅隐藏不适当的动作等的情况下,诸如在涉及整个身体的手势,或太快而不能仅隐藏其一部分的动作的情况下,例如,信息类型判别单元131确定被关注的识别结果是分类为上述(4)的信息,并且确定足以在传输到其他人之前隐藏所有信息,诸如通过去除不适当的动作等的整个显示,或例如停止更新显示,如图10D中所示(处理5)。
以这种方式,信息类型判别单元131客观地确定包括在识别结果中的动作等,并且判别与对应于识别结果的动作等相关的信息的类型。在获得与对应于识别结果的动作等相关的信息的判别结果之后,信息类型判别单元131将获得的判别结果输出到反映内容决策单元135。
再次返回到图8,将描述包括在反映内容确定单元121中的关系确定单元133。
关系确定单元133例如由诸如CPU、ROM和RAM的部件来实现。关系确定单元133是确定在被关注的用户和不同于被关注的用户的目标之间存在什么样的关系的处理单元。
在根据本实施方案的反映内容确定单元121中,基本上,稍后描述的反映内容决策单元135基于预设设置信息,并且根据由信息类型判别单元131决定的信息类别(1)至(4),决定向其他人发送与不适当的动作等相关的信息的反映内容,直到达到不再存在不适当的动作等的程度。然而,在被关注的用户和不同于被关注的用户的目标之间存在某种特定关系的情况下,最好是反映内容决策单元135作为例外处理并且将与不适当的动作等相关的信息的反映内容释放给其他人。
因此,关系确定单元133参考与用户相关的用户信息和与存储在存储单元107等中的应用相关的设置信息,以及与从稍后描述的应用执行单元125获得的应用的执行状态相关的信息,并且确定被关注的用户和不同于被关注的用户的目标之间的关系。
这里,假设各种类型的用户信息被保存在存储单元107等中,用户信息包括针对应用的所有用户的应用的执行状态等(例如,共享虚拟空间的应用,诸如在线游戏)。
此外,假设与应用相关的所有设置信息,诸如信息处理设备10和平台20中的应用执行级的应用设置信息(即,所有用户的基本应用设置信息),以及由每个用户单独设置的应用设置信息,被保存在存储单元107等中。假设设置信息规定关于不适当的动作等的静态条件设置,如图5A和图5B中所示,例如,在用户自己执行什么样的动作的情况下,诸如以何种程度将信息反映到其他用户,以及在另一用户执行不适当的动作等的情况下,将以何种程度接收这种信息的反映。
例如,在信息处理设备10中执行的应用是诸如在线游戏的游戏的情况下,关系确定单元133参考所有用户的用户信息以便反映被关注的用户动作等,并且能够确定作为应用程序内(即,游戏的虚拟空间内)的用户的化身的角色之间的关系。换句话说,在成功确定对应于用户A的虚拟空间内的角色A和对应于用户B的虚拟空间内的角色B在虚拟空间内一起活动一定量的时间或更长时间,并且是紧密关系的角色的情况下,对应于角色A的用户A和对应于角色B的用户B之间的关系可以被确定为紧密的。在这种情况下,关于用户A和用户B之间的信息反映程度,关系确定单元133可以确定放宽信息量被调整的程度。通过这种布置,基于“设置信息”预先静态决定的反映程度,诸如与用户的面部表情相关的不适当的动作的反映程度,例如基于角色之间的关系的动态条件被异常处理,直到考虑到关系的紧密度达到可允许的程度。
另外,关系确定单元133也能够参考如上所述的用户信息,并且根据用户A是否将用户B设置为“朋友”来确定用户之间的关系,或例如通过关注诸如年龄、性别和应用程序的总执行时间的各种属性来确定用户之间的关系。在这种情况下,关系确定单元133可以放宽如上所述的对于更接近的关系和属性的信息量被调整的程度,并且收紧对于更远的关系和属性的信息量的调整。同样在这种情况下,基于“设置信息”预先静态决定的反映程度基于用户之间的关系的动态条件被异常处理。
应注意,优选地,针对要反映被关注的用户动作等的所有用户独立地执行如上所述的确定角色之间或用户之间的关系的处理。
另外,关系确定单元133也可以确定被关注的用户和应用本身之间的关系。在信息处理设备10中执行的应用是诸如在线游戏的游戏的情况下,在游戏的虚拟空间内发生各种事件。在这种情况下,关系确定单元133也可以进行确定以异常处理不适当的动作等的反映程度,使得事件的情绪不会被用户动作所破坏。通过这种布置,在游戏的虚拟空间内发生悲伤事件的情况下,例如,可能控制信息反映程度,使得即使用户执行有趣的动作来破坏此刻的心情,那些动作也不会被反映。
如上所述,关系确定单元133将被关注的用户和不同于被关注的用户的目标之间的关系的确定结果输出到稍后描述的反映内容决策单元135。
反映内容决策单元135例如由诸如CPU、ROM和RAM的部件来实现。反映内容决策单元135利用信息类型判别单元131的确定结果和关系确定单元133的确定结果来详细地决定被关注的用户的动作或状态将被反映到不同于被关注的用户的目标的程度。
更具体来说,在总体上成功确定未进行不适当的动作等,并且被关注的用户的动作或状态可以被反映到目标而不进行调整的情况下,反映内容决策单元135将该结果输出到应用执行单元125。
此外,在确定正在进行不适当的动作等的情况下,反映内容决策单元135在考虑与不适当的动作等相关的信息的类型以及如上所述的各种关系时,决定信息反映程度。
此时,反映内容决策单元135基本上基于预设设置信息来决定向其他人发送与不适当的动作等相关的信息的反映内容,直到达到不再存在不适当的动作等的程度。换句话说,反映内容决策单元135根据用户在信息传输侧的设置信息和用户在信息接收侧的设置信息,基于交换信息的各方之间的关系来决定反映内容(即,信息校正程度)。另外,反映内容决策单元135也可以例如不仅基于交换信息的各方,而且基于简单地在广义上共享信息的用户的设置信息,诸如除游戏等中涉及的各方以外的第三人等,来决定二次反映的内容。
另外,反映内容决策单元135也可以根据用户和目标之间的动态关系将反映内容(信息校正程度)确定为例外,或者基于交换信息的各方之间的关系,即,用户在信息传输侧的设置信息和用户在信息接收侧的设置信息,以及用户和目标之间的动态关系,来决定反映内容(信息校正程度)。
反映内容决策单元135在以这种方式决定信息的反映内容之后,将确定的内容输出到信息校正单元123。
因此,上面参照图8至图10描述了反映内容确定单元121的详细配置。
应注意,在上述描述中,描述了反映内容确定单元121仅基于识别单元101的识别结果的内容来确定反映内容的情况。然而,反映内容确定单元121也可以基于获得识别单元101在识别处理中使用的传感器检测结果的地方(区域)的类型来确定反映内容。换句话说,在识别单元101在识别处理中使用的传感器检测结果不是在某个地方获得的结果的情况下,反映内容确定单元121可以执行处理,使得对应于相关传感器检测结果的识别结果不被反映。例如,如图11中示意性地所示,考虑基于与平台20的位置关系来预设虚拟边界的情况。在这种情况下,反映内容确定单元121也能够进行处理,诸如仅利用从安装有平台20的空间中的某个位置检测到的传感器检测结果获得的识别结果来确定反映内容。
接着,再次返回到图7,将描述提供在根据本实施方案的控制单元103中的信息校正单元123。
信息校正单元123例如由诸如CPU、ROM和RAM的部件来实现。信息校正单元123基于从反映内容确定单元121输出的确定结果,校正与被关注的用户执行的不适当的动作等相关的信息。
如前所述,信息校正单元123执行的校正处理可以大致分为以下四个种类:(a)调整与用户动作或状态相关的信息的内容的程度,(b)用其他内容替换与用户动作或状态相关的信息的内容,(c)隐藏与用户动作或状态相关的信息的内容的一部分,以及(d)隐藏与用户动作或状态相关的信息的所有内容。
在调整信息的内容的程度的情况下,信息校正单元123采用校正方法,例如,调整面部表情的程度,减少出汗量,防止对应于用户的角色长时间追随另一个角色,或将滤波器应用于对应于声音或振动的波形信号的某个频带。
在进行信息替换的情况下,信息校正单元123采用校正方法,例如,用另一动作替换不愉快的动作,将动作转换为模板并用归一化信息替换信息,用其他声音或振动或叠加噪声替换声音或振动,或用指示面部表情等的图像代替。
在隐藏信息的一部分的情况下,信息校正单元123采用校正方法,例如,将马赛克应用于特定动作或面部表情,仅去除特定声音或振动,或从脉搏信息中去除特定特征。
在隐藏所有信息的情况下,信息校正单元123采用校正方法,例如,如果感测到特定动作,则删除或停止播放器的更新,如果感测到特定声音,则删除所有声音一段时间,或如果感测到特定振动,则删除所有振动。
应注意,信息校正单元123执行的校正处理不限于上述(a)至(d)的四个种类,并且可能适当地组合校正处理的上述四个种类中的任何一个来校正与不适当的动作等相关的信息。
应注意,来自不同国家或文化的人们可能对相同的信息有不同的反应。例如,从握紧的拳头抬起拇指的动作(与“干得好”等的含义一起使用的手势)是在诸如美国的国家赞美另一个人的动作,而在伊朗是侮辱另一个人的动作。因此,最好是信息校正单元123进行如上所述的校正处理,同时也考虑到共享信息的用户的文化。应注意,为了将这些文化等差异反映在校正处理中,可以在存储单元107等中预先创建数据库等,数据库指示关于与不适当的动作等相关的信息、用于替换的信息等,是否存在根据国家或文化差异的不同含义。然后可以通过另外参考这种数据库等来执行校正处理。
当进行信息校正时,所识别的信息和要校正的信息是不同的情况也是可以想到的,诸如“在识别特定动作之后,校正与特定动作相关的另一动作等有关的信息”。例如,在识别“打电话”的动作的情况下,可以想到,不校正与“打电话”的动作相关的信息,而是校正(隐藏)电话的通话内容(即,语音信息)。通过这种布置,由于将某个用户打电话的动作传输到其他用户,所以可能在用户之间共享另一方很忙的状态,并且可以提高用户的便利性。因此,对于如上所述的特定动作,例如,信息校正单元123也可以将针对所识别的信息和要校正的信息是不同的情况的校正处理记录为数据库等中的例外,并且执行更细粒度的信息校正处理。
另外,对于从一开始就可能确定包括个人信息的高可能性的情况,就像诸如脉搏的生物信息,例如,信息校正单元123可以被配置成隐藏信息而不管确定结果如何。
信息校正单元123在执行如上所述的校正处理之后,将校正的信息输出到应用执行单元125。
应用执行单元125例如由诸如CPU、ROM和RAM的部件来实现。应用执行单元125是执行被实现为根据本实施方案的信息处理设备10的功能的应用的处理单元。此外,在通过身体动作等执行来自某个用户的用户输入的情况下,应用执行单元125利用从反映内容确定单元121和信息校正单元123输出的信息来使对应于用户输入的信息反映在应用程序中。然后,应用执行单元125使得经由稍后描述的通信控制单元105将与应用的执行状态相关的信息和反映的信息作为通知信息传输到每个平台20。通过这种布置,连接到信息处理设备10的平台20的用户变得能够不断掌握从在信息处理设备10中执行的应用获得的通知信息。
应注意,在由于某个用户执行的身体动作等,由根据本实施方案的信息校正单元123执行反映在应用中的信息的校正的情况下,应用执行单元125也可以被配置成通知用户已进行校正。这种通知的具体方法没有特别限制。例如,应用执行单元125可以使指示已进行校正的对象(诸如图标)显示在平台20的显示屏上。
这种实例的实例在图12A和图12B中图示,以在线游戏作为应用执行的情况为例。在图12A中所示的实例中,在提供在平台20的显示屏上的用户信息显示区域中,作为指示信息反映程度的对象的反映程度呈现对象被显示为指示已进行校正的对象。该反映程度呈现对象是使用箭头的对象,并且指示在观看显示屏的用户和其他用户之间调整信息的程度。例如,右箭头指示对于从另一用户传输到自己的信息的反映程度,而左箭头指示对于从自己传输到另一用户的信息的反映程度。设置该对象,使得相关箭头的大小越短,则越多传输和接收的信息被调整。通过显示这种对象,用户能够容易地确定信息是否被信息处理设备10调整。
此外,例如,如图12A中所示的反映程度呈现对象显然不仅可以显示在显示屏的用户信息显示区域中,而且可以显示在诸如字符图形的头部以上的位置,如图12B中所示。
因此,上面详细描述了根据本实施方案的控制单元103的配置。
应注意,在上述描述中,通过以信息处理设备10执行诸如在线游戏的游戏应用的情况作为具体实例来给出详细描述,但是如上所述的信息校正处理同样适用于提供与第二用户共享第一用户观看的空间的视频的视频共享功能的应用。
在如上所述的视频共享应用中,与另一用户(为了方便起见,以下指定为用户B)共享关于戴着诸如头戴式相机的传感器的用户(为了方便起见,以下指定为用户A)观看的空间的信息。
在这种情况下,可以想到在对应于用户A观看的空间的视频中包括不适当的信息的可能性,以及用户A的头部或目光包括不适当的动作的可能性。在视频中包括不适当的信息的情况下,类似于游戏应用的情况,通过对不适当的信息应用马赛克处理处理或去除相关信息,可以去除不适当的信息。此外,在用户执行诸如打喷嚏的生理现象的情况下,或在进行目光的漫不经心的动作的情况下,传输的信息中将包括不适当的动作。同样在这些情况下,类似于游戏应用的情况,通过替换或调整信息的程度,可能隐藏不适当的动作。
此外,在如上所述的视频共享应用中,可以想到用户B使用手势输入设备,由此间接地向用户A传输动作。同样在这些情况下,有可能将用户B的无意的动作传输到用户A。同样在这些情况下,可能进行类似于游戏应用的情况的信息校正处理。例如,在利用相机、动作传感器等来监视用户B的动作,并且通过有意调整从手势输入设备传输的信息而发生不适当的动作的情况下,可以防止向用户A传输不适当的信息。
再次返回到图4,在下文中,将描述提供在根据本实施方案的信息处理设备10中的通信控制单元105。
通信控制单元105例如由诸如CPU、ROM、RAM和通信设备的部件来实现。通信控制单元105是通过网络3控制信息处理设备10和平台20之间的通信的处理单元。经由通信控制单元105,识别单元101和控制单元103能够从每个平台20获取各种类型的数据和信息,诸如来自传感器输出的数据和用户设置的应用设置数据,并且也能够将指示应用的执行状态的各种类型的信息(包括如上所述的通知信息)传输到每个平台20。
存储单元107例如由诸如提供在根据本实施方案的信息处理设备10中的RAM和存储设备的部件来实现。在存储单元107中,诸如当根据本实施方案的信息处理设备10进行某种处理时需要保存的各种参数和处理的部分结果的信息,或诸如各种数据库和程序的其他信息被适当地记录。特别是,在存储单元107中,记录信息,诸如与由信息处理设备10执行的应用相关的实体数据、由所有用户设置用于这种应用的设置数据以及与利用这种应用的所有用户相关的用户信息。诸如识别单元101、控制单元103和通信控制单元105的部件能够在存储有这些各种信息的存储单元107上自由地进行数据读取/写入处理。
因此,上面图示了根据本实施方案的信息处理设备10的功能的实例。上述组成元件中的每个可以使用通用构件或电路来实现,但也可以用专用于每个组成元件的功能的硬件来实现。另外,每个组成元件的功能也可以完全由CPU等执行。因此,在执行本实施方案时,可能根据技术水平适当地修改要使用的配置。
应注意,也可能开发用于实现如上所述的根据本实施方案的信息处理设备的各自的功能的计算机程序,并且在个人计算机等中实施计算机程序。另外,也可以提供存储这种计算机程序的计算机可读记录介质。记录介质可以是例如磁盘、光盘、磁光盘或闪速存储器。此外,上述计算机程序也可以例如经由网络传送,而不使用记录介质。
<信息处理方法>
接着,将参照图13简要描述根据本实施方案的信息处理方法的流程的实例。图13是图示根据本实施方案的信息处理方法的流程的实例的流程图。
在根据本实施方案的信息处理设备10中,通信控制单元105获取与从每个平台20传输的与用户动作/状态相关的传感器检测结果有关的信息(步骤S101)。然后,通信控制单元105将与用户动作/状态相关的传感器检测结果有关的获取的信息输出到识别单元101和控制单元103。
信息处理设备10的识别单元101利用如前所述的识别技术从获取的传感器检测结果中识别用户动作或状态(步骤S103)。在从传感器检测结果获得与用户动作或状态相关的识别结果之后,识别单元101将获得的识别结果输出到控制单元103。
信息处理设备10的控制单元103参考来自识别单元101的识别结果,并且通过进行如前所述的处理,确定与用户动作或状态相关的信息在通知信息上的反映程度(步骤S105)。然后,基于获得的确定结果,控制单元103检查在与用户动作或状态相关的获得的信息中是否存在与不适当的动作等相关的信息(不适当的信息)(步骤S107)。
在与用户动作或状态相关的信息中不包括不适当的信息的情况下,控制单元103执行下面的步骤S111中的操作。另一方面,在与用户动作或状态相关的信息中包括不适当的信息的情况下,控制单元103进行如前所述的处理,并且根据所关注的信息的共享目标来校正信息(步骤S109)。然后,控制单元103利用获得的校正信息来执行步骤S111中的操作。
在与用户动作或状态相关的信息中不包括不适当的信息的情况下,或在与用户动作或状态相关的信息中包括的不适当的信息被校正之后,控制单元103输出并和其他用户共享与被关注的用户的动作或状态相关的信息(步骤S111)。
通过进行这种处理,在根据本实施方案的信息处理方法中,在与其他人共享通过执行身体动作等产生的信息的情况下,可能调整向其他人传输通过不适当的身体动作等产生的信息。
<修改>
接着,将参照图14A至图15D简要描述根据本实施方案的信息处理设备和信息处理方法的几个修改。图14A至图14C是示意性地图示根据本实施方案的平台的修改的说明图。图15A至图15D是图示根据这些修改的信息处理方法的流程的实例的说明图。
上述描述详细描述了一个情况,其中在如图1中所示的信息处理系统1中,如上所述的识别处理和信息校正处理主要由信息处理设备10进行。然而,图4中所示的信息处理设备10的识别单元101或控制单元103中的至少一个也可以通过分布在多个计算机上并且通过使这些多个计算机彼此协作来实现,可以实现如上所述的识别处理和信息校正处理。特别地,图4中所示的信息处理设备10的识别单元101或控制单元103中的至少一个可以通过分布在信息处理设备10和每个平台20之间来实现,并且由信息处理设备10执行的识别处理和信息校正处理的至少一部分也可以由平台20执行。
例如,图14A中所示的实例示意性地图示一个情况,其中从包括在图4中所示的信息处理设备10中的处理单元中,识别单元101的功能通过分布在每个平台20上来实现。在这种情况下,具有与根据本实施方案的信息处理设备10的识别单元101类似的功能和类似的配置的识别单元221被实现为平台20的中央控制单元201的一个功能。此时,包括在信息处理设备10中的通信控制单元105用作例如获取指示平台20的识别单元221的识别结果的信息的获取单元。
此外,图14B中所示的实例示意性地图示一个情况,其中从包括在图4中所示的信息处理设备10中的处理单元中,控制单元103的功能(特别是,反映内容确定单元121和信息校正单元123的功能)通过分布在每个平台20上来实现。在这种情况下,具有与根据本实施方案的信息处理设备10的控制单元103类似的功能和类似的配置的信息反映控制单元223被实现为平台20的中央控制单元201的一个功能。此时,包括在平台20中的通信控制单元205用作例如获取指示信息处理设备10的识别单元101的识别结果的信息的获取单元。
此外,图14C中所示的实例示意性地图示一个情况,其中从包括在图4中所示的信息处理设备10中的处理单元中,识别单元101和控制单元103的功能通过分布在每个平台20上来实现。在这种情况下,具有与根据本实施方案的信息处理设备10的识别单元101类似的功能和类似的配置的识别单元221,以及具有与根据本实施方案的信息处理设备10的控制单元103类似的功能和类似的配置的信息反映控制单元223被实现为平台20的中央控制单元201的功能。
如图14A至图14C中所示,通过在信息处理设备10和每个平台20上分配处理,可能减少作为服务器的信息处理设备10上的负载。
重点描述信息处理设备10和每个平台20之间的协作状态,在进行以前述实施方案中所述的信息处理设备10为中心的处理的情况下的处理流程变得类似于图15A。应注意,在下面的图15A至图15D中,为了方便起见,与信息处理设备10协作的平台20的数量被认为是两个。
如图15A中所示,在进行以作为服务器的信息处理设备10为中心的处理的情况下,每个平台20(平台A和平台B)预先将由每个用户设置的设置信息(用户级设置信息)传输到信息处理设备10(步骤S201)。此外,在信息处理设备10中,从每个平台20获取的与所有用户相关的设置信息被记录在存储单元107等中(步骤S203)。
此时,为了方便起见,假设拥有平台A的用户A通过利用身体动作等发出某些信息(步骤S205)。随后,将该信息传输到信息处理设备10,并且信息处理设备10基于存储在存储单元107等中的应用级确定标准以及来自所涉及的用户中的所有设置信息,对信息执行识别处理,并且必要时执行校正处理(步骤S207)。然后,信息处理设备10将校正信息作为通知信息提供给用户B拥有的平台B(步骤S209)。
在用户B拥有的平台B中,利用由信息处理设备10提供的通知信息在显示屏上显示这些信息(步骤S211)。通过这种布置,在用户A和用户B之间共享信息。
在如图15A中所示的情况下,设计有高性能规格的信息处理设备10可能执行几乎所有的处理,但是随着连接平台20的数量的增加,负载集中在用作服务器的信息处理设备10上。
另一方面,图15B图示处理分布在信息处理设备10和每个平台20上的情况。在这种情况下,假设拥有平台A的用户A通过利用身体动作等发出某些信息(步骤S221)。平台A基于记录在平台A中的平台A的设置(换句话说,平台级设置信息)来识别和校正发出的信息(步骤S223)。然后,平台A基于用户设置对专用于用户A的级别执行识别和校正(步骤S225)。然后,平台A将经过识别和校正的两个阶段的信息传输到信息处理设备10。
信息处理设备10从平台A获得信息,基于存储在存储单元107等中的应用级确定标准和设置信息,再次识别和校正获取的信息(步骤S227),并且将信息作为通知信息提供给平台B。
在接收提供通知信息的平台B中,基于用户设置对专用于用户B的级别执行识别和校正(步骤S229)。然后,平台B利用校正信息在显示屏上显示这些信息(步骤S231)。通过这种布置,在用户A和用户B之间共享信息。
以这种方式,图15B中所示的实例图示了识别和校正主要集中在作为信息的发送者的平台A上的信息的情况。然而,在这种情况下,由于在每个平台和信息处理设备10中多次进行识别和校正处理,所以有可能根据资源状态会发生信息共享的延迟。
另一方面,在图15C中所示的实例中,假设拥有平台A的用户A通过利用身体动作等发出某些信息(步骤S241)。平台A基于记录在平台A中的平台A的设置(换句话说,平台级设置信息)来识别发出的信息(步骤S243)。然后,平台A基于用户设置对专用于用户A的级别执行识别(步骤S245)。然后,平台A将经过识别的两个阶段的信息传输到信息处理设备10。
信息处理设备10从平台A获得信息,基于存储在存储单元107等中的应用级确定标准和设置信息,再次识别获取的信息(步骤S247),并且将信息提供给平台B。
在接收提供信息的平台B中,基于用户设置对专用于用户B的级别执行识别(步骤S249)。然后,平台B在考虑来自平台A、信息处理设备10和平台B的所有识别结果的同时校正信息(步骤S251)。然后,平台B利用校正信息在显示屏上显示这些信息(步骤S253)。通过这种布置,在用户A和用户B之间共享信息。
以这种方式,图15C中所示的实例图示了校正主要集中在作为信息接收者的平台B上的信息的情况。在这种情况下,由于在作为信息接收者的平台上一起进行校正处理,所以可以减少整个系统的冗余部分。然而,通过这种配置,负载集中在作为信息接收者的平台上。
另一方面,图15D中所示的实例图示了信息识别处理分布在每个平台20上,而信息处理设备10执行校正处理的情况。在这种情况下,假设拥有平台A的用户A通过利用身体动作等发出某些信息(步骤S261)。平台A基于记录在平台A中的平台A的设置(换句话说,平台级设置信息)来识别发出的信息(步骤S263)。然后,平台A基于用户设置对专用于用户A的级别执行识别(步骤S265)。然后,平台A将经过识别的两个阶段的信息传输到信息处理设备10。
信息处理设备10从平台A获得信息,基于存储在存储单元107等中的应用级确定标准和设置信息,再次识别获取的信息(步骤S267),并且将信息提供给平台B。
在接收提供信息的平台B中,基于用户设置对专用于用户B的级别执行识别(步骤S269),并且将获得的识别结果传输到信息处理设备10。
信息处理设备10获取平台B的识别结果,在考虑来自平台A、信息处理设备10和平台B的所有识别结果的同时校正信息(步骤S271),并且将校正信息作为通知信息提供给平台B。
然后,平台B利用由信息处理设备10提供的通知信息在显示屏上显示这些信息(步骤S273)。通过这种布置,在用户A和用户B之间共享信息。
通过如图15D中所示的配置,个人用户的确定标准(即,设置信息)不必提供给外部设备,由此增加了关于个人信息泄漏的安全性,并且也能够对设计有更高性能的规格的信息处理设备10执行信息校正处理。然而,由于作为信息接收者的平台请求作为服务器的信息处理设备10执行校正处理,所以有可能发生信息共享的延迟。
因此,上面参照图14A至图15D简要描述了根据本实施方案的信息处理设备和信息处理方法的修改。
(硬件配置)
接着,将参照图16详细描述根据本公开的实施方案的信息处理设备10的硬件配置。图16是图示根据本公开的实施方案的信息处理设备10的硬件配置的方框图。
信息处理设备10主要包括CPU 901、ROM 903和RAM 905。此外,信息处理设备10也包括主机总线907、桥接器909、外部总线911、接口913、传感器914、输入设备915、输出设备917、存储设备919、驱动器921、连接端口923和通信设备925。
CPU 901用作算术处理设备和控制设备,并且根据记录在ROM 903、RAM 905、存储设备919或可移动记录介质927中的各种程序来控制信息处理设备10的整体操作或一部分操作。ROM 903存储由CPU 901使用的程序、操作参数等。RAM 905主要存储在CPU 901的执行中使用的程序和在执行期间适当变化的参数等。这些元件通过由内部总线(诸如CPU总线等)配置的主机总线907相互连接。
主机总线907经由桥接器909连接到诸如PCI(外围部件互连/接口)总线的外部总线911。
输入设备915是由用户操作的操作装置,诸如鼠标、键盘、触摸面板、按钮、开关和杠杆。此外,输入设备915可以是使用例如红外光或其他无线电波的遥控装置(所谓的遥控器),或可以是符合信息处理设备10的操作的外部连接装置929(诸如移动电话或PDA)。此外,输入设备915基于例如用户使用上述操作装置输入的信息来产生输入信号,并且由用于将输入信号输出到CPU 901的输入控制电路配置。用户可以向信息处理设备10输入各种数据,并且可以指示信息处理设备10通过操作该输入设备915执行处理。
输出设备917由能够以视觉或听觉方式通知获取的信息给用户的设备配置。这种设备的实例包括显示设备(诸如CRT显示设备、液晶显示设备、等离子体显示设备、EL显示设备和灯),音频输出设备(诸如扬声器和耳机、打印机、移动电话、传真机等)。例如,输出设备917输出由信息处理设备10执行的各种处理获得的结果。更具体来说,显示设备以文本或图像的形式显示由信息处理设备10执行的各种处理获得的结果。另一方面,音频输出设备将诸如再现的音频数据和声音数据的音频信号转换为模拟信号,并输出模拟信号。
存储设备919是用于存储数据的设备,其被配置成信息处理设备10的存储单元的实例,并被用于存储数据。存储设备919例如由诸如HDD(硬盘驱动器)、半导体存储设备、光存储设备或磁光存储设备的磁存储设备配置。该存储设备919存储要由CPU 901执行的程序,和外部获得的各种数据等。
驱动器921是用于记录介质的读取器/写入器,并且嵌入在信息处理设备10中或外部附接到其上。驱动器921读取记录在附接的可移动记录介质927(诸如磁盘、光盘、磁光盘或半导体存储器)中的信息,并且将读取的信息输出到RAM 905。此外,驱动器921可以写入附接的可移动记录介质927,诸如磁盘、光盘、磁光盘或半导体存储器。可移动记录介质927例如是DVD介质、HD-DVD介质或蓝光介质。可移动记录介质927可以是压缩闪存(CF;注册商标)、闪速存储器、SD存储卡(安全数字存储卡)等。或者,可移动记录介质927可以例如是配备非接触式IC芯片或电子器件的IC卡(集成电路卡)。
连接端口923是允许设备直接连接到信息处理设备10的端口。连接端口923的实例包括USB(通用串行总线)端口、IEEE1394端口、SCSI(小型计算机系统接口)端口等。连接端口923的其他实例包括RS-232C端口、光学音频终端、HDMI(高清晰度多媒体接口)端口等。通过连接到该连接端口923的外部连接装置929,信息处理设备10直接从外部连接装置929获得各种数据,并且将各种数据提供给外部连接装置929。
通信设备925是由例如用于连接到通信网络931的通信设备配置的通信接口。通信设备925例如是有线或无线LAN(局域网)、蓝牙(注册商标)、WUSB(无线USB)的通信卡等。或者,通信设备925可以是用于光学通信的路由器、用于ADSL(不对称数字用户线)的路由器、用于各种通信的调制解调器等。该通信设备925可以例如根据与其他通信设备的预定协议(诸如互联网上的TCP/IP)来传输和接收信号等。连接到通信设备925的通信网络931由通过有线或无线连接的网络等配置,并且可以是例如互联网、家庭LAN、红外通信、无线电波通信、卫星通信等。
在此之前,已经示出了能够实现根据本公开的实施方案的信息处理设备10的功能的硬件配置的实例。上述每个结构元件可以使用通用材料来配置,或可以由专用于每个结构元件的功能的硬件来配置。因此,在执行本实施方案时,可以根据技术水平适当地改变要使用的硬件配置。
应注意,能够实现根据本公开的实施方案的平台20的功能的硬件配置具有与能够实现上述信息处理设备10的功能的硬件配置相似的配置,因此在下文中将减少或省略详细的描述。
以上已经参照附图描述了本公开的优选实施方案,而本公开不限于上述实例。本领域技术人员可以发现在所附权利要求的范围内的各种改变和修改,并且应当理解,这些改变和修改自然将属于本公开的技术范围。
此外,本说明书中描述的效果仅仅是说明性或示例性的效果,并不是限制性的。即,使用或代替上述效果,根据本公开的技术可以实现本领域技术人员从本说明书的描述中清楚的其他效果。
另外,本技术也可以被配置如下。
(1)
一种信息处理设备,包括:
获取单元,其获取利用来自一个或多个传感器的检测结果由识别单元识别的指示用户动作或状态中的至少一个的识别结果;以及
控制单元,其在确定所述识别结果指示特定用户动作或状态的情况下,根据目标来控制与所述特定用户动作或状态相关的信息反映在通知信息中的反映程度,所述通知信息将与所述特定用户动作或状态相关的所述信息传输到不同于所述用户的所述目标。
(2)
根据(1)所述的信息处理设备,其中
所述控制单元根据所述识别单元的所述识别结果来校正与所述识别的用户动作或状态相关的所述信息的内容,并且使与所述校正的用户动作或状态相关的信息反映在所述通知信息中。
(3)
根据(1)或(2)所述的信息处理设备,其中
所述控制单元根据所述识别单元的所述识别结果来选择校正以调整与所述用户动作或状态相关的所述信息的所述内容,用其他内容替换与所述用户动作或状态相关的所述信息的所述内容,或隐藏与所述用户动作或状态相关的所述信息的所述内容的至少部分。
(4)
根据(1)至(3)中任一项所述的信息处理设备,其中
所述控制单元根据所述用户和所述目标之间的动态关系来改变所述校正的程度。
(5)
根据(1)至(3)中任一项所述的信息处理设备,其中
所述控制单元根据对于在传输与所述用户动作或状态相关的所述信息的一侧的用户的关于所述反映程度的设置信息,以及对于在接收与所述用户动作或状态相关的所述信息的一侧的用户的关于所述反映程度的设置信息,改变所述校正的程度。
(6)
根据(1)至(3)中任一项所述的信息处理设备,其中
所述控制单元根据以下两者改变所述校正的程度
在传输与所述用户动作或状态相关的所述信息的一侧的用户和在接收与所述用户动作或状态相关的所述信息的一侧的用户之间的动态关系,以及
关于所述用户在传输与所述用户动作或状态相关的所述信息的所述侧的所述反映程度的设置信息,以及关于所述用户在接收与所述用户动作或状态相关的所述信息的所述侧的所述反映程度的设置信息。
(7)
根据(1)至(6)中任一项所述的信息处理设备,其中
所述控制单元使指示与所述用户动作或状态相关的所述信息从第一用户到第二用户的所述反映程度的对象显示在由所述第一用户和所述第二用户引用的显示屏上。
(8)
根据(1)至(7)中任一项所述的信息处理设备,其中
所述特定用户动作或状态是以下至少一个
用户的身体动作,
用户的面部表情,
与用户相关的生物信息,或
用户或存在于用户周围的气味、声音或振动。
(9)
根据(1)至(8)中任一项所述的信息处理设备,其中
所述传感器是相机、动作传感器、大气压力传感器、气味传感器、振动传感器、麦克风、照度传感器或生物传感器中的至少一个。
(10)
根据(1)至(9)中任一项所述的信息处理设备,其中
所述目标是利用提供在多个用户中共享的虚拟空间的应用的另一用户。
(11)
根据(1)至(9)中任一项所述的信息处理设备,其中
所述目标是利用提供与第二用户共享第一用户观看的空间的视频的视频共享功能的应用的另一用户。
(12)
根据(1)至(11)中任一项所述的信息处理设备,其中
所述识别单元或所述控制单元中的至少一个通过分布在多个计算机上来实现。
(13)
一种信息处理方法,包括:
获取利用来自一个或多个传感器的检测结果由识别单元识别的指示用户动作或状态中的至少一个的识别结果;以及
在确定所述识别结果指示特定用户动作或状态的情况下,根据目标来控制与所述特定用户动作或状态相关的信息反映在通知信息中的反映程度,所述通知信息将与所述特定用户动作或状态相关的所述信息传输到不同于所述用户的所述目标。
(14)
一种程序,用于计算机,其能够获取利用来自一个或多个传感器的检测结果识别用户动作或状态中的至少一个的识别单元的识别结果,所述程序使所述计算机实现:
获取功能,其获取由所述识别单元识别并指示用户动作或状态中的至少一个的识别结果;以及
控制功能,其在确定所述识别结果指示特定用户动作或状态的情况下,根据目标来控制与所述特定用户动作或状态相关的信息反映在通知信息中的反映程度,所述通知信息将与所述特定用户动作或状态相关的所述信息传输到不同于所述用户的所述目标。
参考符号列表
1 信息处理系统
10 信息处理设备
20 平台
101 识别单元
103 控制单元
105 通信控制单元
107 存储单元
121 反映内容确定单元
123 信息校正单元
125 应用执行单元
131 信息类型判别单元
133 关系确定单元
135 反映内容决策单元
201 中央控制单元
203 传感器输出获取单元
205 通信控制单元
207 输出控制单元
209 存储单元
221 识别单元
223 信息反映控制单元。
Claims (13)
1.一种信息处理设备,包含:
识别单元,其基于来自一个或多个传感器的检测结果来识别用户动作或状态;
获取单元,其获取指示由所述识别单元识别的用户动作或状态的识别结果;
信息类型判别单元,其确定所述识别结果是否指示不适当的用户动作或状态并且确定所述不适当的用户动作或状态的类型,其中,不适当的用户动作或状态的类型包括以下四种类别:(1)如果不适当的用户动作或状态的程度被调整,则不再是不适当的用户动作或状态;(2)能够用适当的用户动作或状态替换对应于不适当的用户动作或状态的部分的用户动作或状态;(3)能够仅隐藏对应于不适当的用户动作或状态的部分的用户动作或状态;以及(4)不能仅隐藏对应于不适当的用户动作或状态的部分的用户动作或状态;
关系确定单元,其基于与第一用户和第二用户相关联的用户信息来确定所述第一用户和所述第二用户之间的动态关系;以及
控制单元,其在确定所述识别结果指示不适当的用户动作或状态的情况下,基于所述不适当的用户动作或状态的类型并且基于所确定的所述第一用户和所述第二用户之间的动态关系控制与所述不适当的用户动作或状态相关的信息反映在通知信息中的反映程度;以及控制所述通知信息从所述第一用户到所述第二用户的传输,其中,所述通知信息包括与所述不适当的用户动作或状态相关的所述信息。
2.根据权利要求1所述的信息处理设备,其中
所述控制单元根据所述识别单元的所述识别结果来校正与所述识别的用户动作或状态相关的所述信息的内容,并且使与所述用户动作或状态相关的信息的校正后的内容反映在所述通知信息中。
3.根据权利要求2所述的信息处理设备,其中
所述控制单元根据所述识别单元的所述识别结果来选择校正以调整与所述用户动作或状态相关的所述信息的所述内容,用其他内容替换与所述用户动作或状态相关的所述信息的所述内容,或隐藏与所述用户动作或状态相关的所述信息的所述内容的至少部分。
4.根据权利要求2或3所述的信息处理设备,其中
所述控制单元根据对于在传输所述通知信息的一侧的所述第一用户的关于所述反映程度的第一设置信息以及对于在接收所述通知信息的一侧的所述第二用户的关于所述反映程度的第二设置信息,来改变所述校正的程度。
5.根据权利要求2或3所述的信息处理设备,其中
所述控制单元根据以下两者改变所述校正的程度
在传输所述通知信息的一侧的所述第一用户和在接收所述通知信息的一侧的所述第二用户之间的动态关系,以及
对于所述第一用户的关于所述反映程度的第一设置信息,以及对于所述第二用户的关于所述反映程度的第二设置信息。
6.根据权利要求1至3中任一项所述的信息处理设备,其中
所述控制单元使指示与所述用户动作或状态相关的所述信息从所述第一用户到所述第二用户的所述反映程度的对象显示在由所述第一用户和所述第二用户引用的显示屏上。
7.根据权利要求1至3中任一项所述的信息处理设备,其中
所述不适当的用户动作或状态是以下至少一个
用户的身体动作,
用户的面部表情,
与用户相关的生物信息,或
用户或存在于用户周围的气味、声音或振动。
8.根据权利要求1至3中任一项所述的信息处理设备,其中
所述传感器是相机、动作传感器、大气压力传感器、气味传感器、振动传感器、麦克风、照度传感器或生物传感器中的至少一个。
9.根据权利要求1至3中任一项所述的信息处理设备,其中
所述第二用户是利用提供在所述第一用户和所述第二用户之间共享的虚拟空间的应用的另一用户。
10.根据权利要求1至3中任一项所述的信息处理设备,其中
所述第二用户是利用提供与所述第二用户共享所述第一用户观看的空间的视频的视频共享功能的应用的另一用户。
11.根据权利要求1至3中任一项所述的信息处理设备,其中
所述识别单元或所述控制单元中的至少一个通过分布在多个计算机上来实现。
12.一种信息处理方法,包含:
基于来自一个或多个传感器的检测结果来识别用户动作或状态;
获取指示所识别的用户动作或状态的识别结果;
确定所述识别结果是否指示不适当的用户动作或状态并且确定所述不适当的用户动作或状态的类型,其中,不适当的用户动作或状态的类型包括以下四种类别:(1)如果不适当的用户动作或状态的程度被调整,则不再是不适当的用户动作或状态;(2)能够用适当的用户动作或状态替换对应于不适当的用户动作或状态的部分的用户动作或状态;(3)能够仅隐藏对应于不适当的用户动作或状态的部分的用户动作或状态;以及(4)不能仅隐藏对应于不适当的用户动作或状态的部分的用户动作或状态;
基于与第一用户和第二用户相关联的用户信息来确定所述第一用户和所述第二用户之间的动态关系;
在确定所述识别结果指示不适当的用户动作或状态的情况下,基于所述不适当的用户动作或状态的类型并且基于所确定的所述第一用户和所述第二用户之间的动态关系控制与所述不适当的用户动作或状态相关的信息反映在通知信息中的反映程度;以及
控制所述通知信息从所述第一用户到所述第二用户的传输,其中,所述通知信息包括与所述不适当的用户动作或状态相关的所述信息。
13.一种计算机可读记录介质,其上存储有程序,所述程序在被执行时使所述计算机执行以下操作:
基于来自一个或多个传感器的检测结果来识别用户动作或状态;
获取指示所识别的用户动作或状态的识别结果;
确定所述识别结果是否指示不适当的用户动作或状态并且确定所述不适当的用户动作或状态的类型,其中,不适当的用户动作或状态的类型包括以下四种类别:(1)如果不适当的用户动作或状态的程度被调整,则不再是不适当的用户动作或状态;(2)能够用适当的用户动作或状态替换对应于不适当的用户动作或状态的部分的用户动作或状态;(3)能够仅隐藏对应于不适当的用户动作或状态的部分的用户动作或状态;以及(4)不能仅隐藏对应于不适当的用户动作或状态的部分的用户动作或状态;
基于与第一用户和第二用户相关联的用户信息来确定所述第一用户和所述第二用户之间的动态关系;
在确定所述识别结果指示不适当的用户动作或状态的情况下,基于所述不适当的用户动作或状态的类型并且基于所确定的所述第一用户和所述第二用户之间的动态关系控制与所述不适当的用户动作或状态相关的信息反映在通知信息中的反映程度;以及
控制所述通知信息从所述第一用户到所述第二用户的传输,其中,所述通知信息包括与所述不适当的用户动作或状态相关的所述信息。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015-131164 | 2015-06-30 | ||
JP2015131164 | 2015-06-30 | ||
PCT/JP2016/064641 WO2017002473A1 (ja) | 2015-06-30 | 2016-05-17 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107735776A CN107735776A (zh) | 2018-02-23 |
CN107735776B true CN107735776B (zh) | 2021-07-13 |
Family
ID=57608198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680036410.9A Active CN107735776B (zh) | 2015-06-30 | 2016-05-17 | 信息处理设备、信息处理方法和程序 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10315111B2 (zh) |
JP (2) | JP6702322B2 (zh) |
CN (1) | CN107735776B (zh) |
WO (1) | WO2017002473A1 (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2562025B (en) * | 2017-02-13 | 2020-01-01 | Sony Interactive Entertainment Inc | Simulation method and system |
US10994209B2 (en) * | 2017-11-27 | 2021-05-04 | Sony Interactive Entertainment America Llc | Shadow banning in social VR setting |
EP4307093A3 (en) * | 2018-05-04 | 2024-03-13 | Google LLC | Invoking automated assistant function(s) based on detected gesture and gaze |
EP4130941A1 (en) | 2018-05-04 | 2023-02-08 | Google LLC | Hot-word free adaptation of automated assistant function(s) |
JP7471279B2 (ja) * | 2018-05-04 | 2024-04-19 | グーグル エルエルシー | 検出された口運動および/または注視に基づく自動化アシスタントの適応 |
KR102710460B1 (ko) | 2018-08-14 | 2024-09-27 | 삼성전자주식회사 | 전자 장치, 그 제어 방법 및 전자 시스템 |
JP6721727B1 (ja) * | 2019-01-08 | 2020-07-15 | ソフトバンク株式会社 | 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置 |
US11382510B2 (en) * | 2019-02-13 | 2022-07-12 | Sports Data Labs, Inc. | Biological data tracking system and method |
US11511199B2 (en) * | 2019-02-28 | 2022-11-29 | Vsn Vision Inc. | Systems and methods for creating and sharing virtual and augmented experiences |
WO2020176106A1 (en) * | 2019-02-28 | 2020-09-03 | Facebook Technologies, Llc | Methods and apparatus for unsupervised machine learning for classification of gestures and estimation of applied forces |
KR200489627Y1 (ko) * | 2019-06-11 | 2019-07-12 | 황영진 | 증강현실을 이용한 멀티플레이 교육 시스템 |
WO2020263672A1 (en) * | 2019-06-27 | 2020-12-30 | Raitonsa Dynamics Llc | Assisted expressions |
JP7275940B2 (ja) * | 2019-07-08 | 2023-05-18 | オムロン株式会社 | 制御プログラムおよび方法 |
JP6737942B1 (ja) * | 2019-09-30 | 2020-08-12 | 株式会社バーチャルキャスト | コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム |
US20210263582A1 (en) * | 2020-02-26 | 2021-08-26 | Mursion, Inc. | Systems and methods for automated control of human inhabited characters |
JP7291106B2 (ja) * | 2020-07-16 | 2023-06-14 | 株式会社バーチャルキャスト | コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム |
US12020704B2 (en) | 2022-01-19 | 2024-06-25 | Google Llc | Dynamic adaptation of parameter set used in hot word free adaptation of automated assistant |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007049510A (ja) * | 2005-08-11 | 2007-02-22 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2012054897A (ja) * | 2010-09-03 | 2012-03-15 | Sharp Corp | 会議システム、情報処理装置、及び情報処理方法 |
CN103210360A (zh) * | 2011-02-25 | 2013-07-17 | 英派尔科技开发有限公司 | 增强现实演出 |
CN104584007A (zh) * | 2012-09-06 | 2015-04-29 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0812706B2 (ja) * | 1993-03-25 | 1996-02-07 | 株式会社エイ・ティ・アール通信システム研究所 | 視線アニメーション表示装置 |
JPH08256316A (ja) * | 1995-03-17 | 1996-10-01 | Toshiba Corp | 通信会議システム |
ATE345646T1 (de) * | 2001-09-12 | 2006-12-15 | Opentv Inc | Verfahren und gerät für interaktives fernsehen mit unverbundener überwachung einer diskussionsforum |
JP4354313B2 (ja) | 2004-01-21 | 2009-10-28 | 株式会社野村総合研究所 | ユーザ間親密度測定システム及びユーザ間親密度測定プログラム |
US8243116B2 (en) * | 2007-09-24 | 2012-08-14 | Fuji Xerox Co., Ltd. | Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications |
US8600731B2 (en) * | 2009-02-04 | 2013-12-03 | Microsoft Corporation | Universal translator |
JP5208810B2 (ja) | 2009-02-27 | 2013-06-12 | 株式会社東芝 | 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム |
JP2010239583A (ja) | 2009-03-31 | 2010-10-21 | Brother Ind Ltd | 通信端末装置、通信端末装置の通信制御方法、通信制御プログラム |
JP2012043284A (ja) | 2010-08-20 | 2012-03-01 | Nippon Telegr & Teleph Corp <Ntt> | プレゼンス情報管理装置、プレゼンス情報管理方法及びプレゼンス情報管理プログラム |
JP2014021707A (ja) | 2012-07-18 | 2014-02-03 | Nikon Corp | 情報入出力装置、及び情報入出力方法 |
WO2014115393A1 (ja) | 2013-01-24 | 2014-07-31 | ソニー株式会社 | 画像表示装置及び画像表示方法、並びに画像表示システム |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
-
2016
- 2016-05-17 US US15/738,890 patent/US10315111B2/en active Active
- 2016-05-17 WO PCT/JP2016/064641 patent/WO2017002473A1/ja active Application Filing
- 2016-05-17 JP JP2017526213A patent/JP6702322B2/ja active Active
- 2016-05-17 CN CN201680036410.9A patent/CN107735776B/zh active Active
-
2019
- 2019-05-06 US US16/404,306 patent/US10933321B2/en active Active
-
2020
- 2020-05-07 JP JP2020082215A patent/JP6992839B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007049510A (ja) * | 2005-08-11 | 2007-02-22 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2012054897A (ja) * | 2010-09-03 | 2012-03-15 | Sharp Corp | 会議システム、情報処理装置、及び情報処理方法 |
CN103210360A (zh) * | 2011-02-25 | 2013-07-17 | 英派尔科技开发有限公司 | 增强现实演出 |
CN104584007A (zh) * | 2012-09-06 | 2015-04-29 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
Also Published As
Publication number | Publication date |
---|---|
CN107735776A (zh) | 2018-02-23 |
JPWO2017002473A1 (ja) | 2018-04-19 |
US20180185753A1 (en) | 2018-07-05 |
JP2020144901A (ja) | 2020-09-10 |
JP6702322B2 (ja) | 2020-06-03 |
US10933321B2 (en) | 2021-03-02 |
WO2017002473A1 (ja) | 2017-01-05 |
US10315111B2 (en) | 2019-06-11 |
JP6992839B2 (ja) | 2022-01-13 |
US20190255439A1 (en) | 2019-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107735776B (zh) | 信息处理设备、信息处理方法和程序 | |
US11726324B2 (en) | Display system | |
US20220044021A1 (en) | Automatic control of wearable display device based on external conditions | |
US11992773B2 (en) | Augmented reality experiences based on qualities of interactions | |
JP7258766B2 (ja) | 割り込みに対するゲーム内反応 | |
US11632258B1 (en) | Recognizing and mitigating displays of unacceptable and unhealthy behavior by participants of online video meetings | |
US20230254448A1 (en) | Camera-less representation of users during communication sessions | |
KR20230043749A (ko) | 전자 디바이스들에 대한 적응적 사용자 등록 | |
WO2023188904A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2024202569A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20240319789A1 (en) | User interactions and eye tracking with text embedded elements | |
JP2024039632A (ja) | Xr環境内のアバタの個人的境界の動的調節 | |
WO2022067090A1 (en) | Confirm gesture identity | |
CN117980867A (zh) | 基于对照明的生理响应的交互事件 | |
NZ794186A (en) | Automatic control of wearable display device based on external conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |