CN102262735A - 信息处理设备、信息输出方法及程序 - Google Patents
信息处理设备、信息输出方法及程序 Download PDFInfo
- Publication number
- CN102262735A CN102262735A CN2011101351247A CN201110135124A CN102262735A CN 102262735 A CN102262735 A CN 102262735A CN 2011101351247 A CN2011101351247 A CN 2011101351247A CN 201110135124 A CN201110135124 A CN 201110135124A CN 102262735 A CN102262735 A CN 102262735A
- Authority
- CN
- China
- Prior art keywords
- medium
- biology
- vectorial
- messaging device
- growth conditions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/58—Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/217—Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
- A63F13/655—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/825—Fostering virtual characters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6045—Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8058—Virtual breeding, e.g. tamagotchi
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Ecology (AREA)
- Environmental & Geological Engineering (AREA)
- Environmental Sciences (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种信息处理设备,该设备包括:数据获取部,其获取用于识别生物的生长状态的输入数据;识别部,其基于由数据获取部获取的输入数据识别生物的生长状态;媒介物控制部,其根据由识别部识别出的生物的生长状态确定与生物相关联的媒介物的状态;以及输出部,其输出与媒介物控制部确定的媒介物的状态相对应的媒介物图像。
Description
技术领域
本发明涉及信息处理设备、信息输出方法及程序。
背景技术
在相关技术中,已在进行用于人格化和代表现实世界中的生物例如动物和植物的活动。例如,在博客网站中,公众可以通过博客上的文章获得从宠物的观察点或者从观叶植物的观察点看到的每日事件、情绪等。博客文章中人格化的手段主要是通过基于文本的表现法实现的。另一方面,在第14届交互式系统和软件研讨会(WISS 2006)的Takeshi Nishida,Shigeru Owada的“MOEGI:Plant Fostering by the Assistance ofAugmented Reality”(23-26页)中,提出了在增强现实中尝试显示具有与真实世界中存在的生物(例如,植物)相关联的人类外表的媒介物,以使用户(或者读者、收听者等)感受到与人格化的生物的更好联结或快乐。
与使生物自己虚拟地执行类似人类的动作相比,使用人格化媒介物代表生物状态的优点之一是,可以使用各种免除不自然的表现法。此外,还可以根据用户的喜好使用具有不同外表的媒介物。在上面的文献“MOEGI:Plant Fostering by the Assistance of Augmented Reality”中,使用各种类型的传感器检测植物的当前状态,并根据基于传感器数据识别的植物状态,滑稽的媒介物在屏幕上进行各种动作。
发明内容
然而,在上面的文献“MOEGI:Plant Fostering by the Assistance ofAugmented Reality”中描述的技术中,尽管基于传感器数据识别植物的当前状态,但是不识别该植物处于生长过程中的什么状态。因此,该植物的生长状态不改变媒介物的外表或行为。然而,对于培养生物特别是包括植物的用户来说,感受生物每天的生长过程与知道生物的当前状态相比同样重要或者更重要。也就是说,通过允许用户通过媒介物的外表或行为的每一天的变化来感受生物的生长状态,可以增强用户培养该生物的愿望,并且可以提供给用户更多的乐趣,或者可以将生长状态作为实用信息通知给用户。
鉴于上述,希望提供一种新颖的改进的信息处理设备、信息输出方法及程序,其可以通过与现实世界的生物相关联的媒介物的外表或行为的逐日变化来向用户呈现该生物的生长状态。
根据本发明的一个实施例,提供一种信息处理设备,其包括:数据获取部,其获取用于识别生物的生长状态的输入数据;识别部,其基于由所述数据获取部获取的所述输入数据识别所述生物的生长状态;媒介物控制部,其根据由所述识别部识别出的所述生物的生长状态确定与所述生物相关联的媒介物的状态;以及输出部,其输出与所述媒介物控制部确定的所述媒介物的状态相对应的媒介物图像。
例如,该媒介物是在增强现实(AR)空间中或者在虚拟现实(VR)空间中给出其存在的虚拟角色。该媒介物以各种表达形式向用户呈现由该信息处理设备识别出的该生物的生长状态。
所述媒介物的状态可以包括所述媒介物的外表、活动水平、动作特征、情绪特征和言语变化中的至少一个。
所述媒介物的状态可以包括所述媒介物的外表,并且所述媒介物控制部可以根据所述识别部识别出的所述生物的生长状态确定所述媒介物的外表。
所述信息处理设备可以进一步包括数据库,该数据库存储用于描述所述输入数据和所述生物的生长之间关系的生长模型,并且所述识别部可以基于所述输入数据和所述生长模型识别所述生物的生长状态。
所述输入数据可以包括通过对所述生物成像获得的生物图像,并且所述识别部可以使用所述生物图像作为输入图像通过图像识别处理来识别所述生物的生长状态。
所述数据获取部可以使用传感器来获取所述输入数据,所述传感器被设置在所述生物的附近,并测量影响所述生物生长的参数或者测量根据所述生物的生长而变化的参数。
所述数据获取部可以经由用户接口获取由培养所述生物的用户输入的所述输入数据。
所述信息处理设备可以进一步包括通信部,该通信部经由网络与另一个信息处理设备通信,并且所述媒介物控制部可以经由所述通信部的通信使所述媒介物执行要对另一个信息处理设备进行的动作。
所述媒介物的活动频率或者要对其进行动作的另一个信息处理设备的范围可以根据与所述生物的生长状态相对应的活动水平改变。
至少从所述生物生长的最初阶段到中期阶段所述媒介物的活动水平可以增加。
所述媒介物控制部可以使所述媒介物通过文本或音频对用户讲话,并且可以基于与所述生物的生长状态相对应的所述媒介物的情绪特征或言语变化来确定所述媒介物的言语内容。
所述输出部可以输出通过对所述生物成像而获得的生物图像,并在该生物图像上叠加所述媒介物图像。
所述生物可以是植物。
此外,根据本发明的另一个实施例,提供一种使用信息处理设备的处理器而输出关于生物的信息的信息输出方法,该方法包括以下步骤:获取用于识别生物的生长状态的输入数据;基于获取的输入数据识别所述生物的生长状态;根据识别出的所述生物的生长状态确定与所述生物相关联的媒介物的状态;以及输出与所确定的所述媒介物的状态相对应的媒介物图像。
此外,根据本发明的另一个方面,提供一种程序,该程序用于使控制信息处理设备的计算机充当:数据获取部,其获取用于识别生物的生长状态的输入数据;识别部,其基于由所述数据获取部获取的所述输入数据来识别所述生物的生长状态;媒介物控制部,其根据由所述识别部识别出的所述生物的生长状态确定与所述生物相关联的媒介物的状态;以及输出部,其输出与所述媒介物控制部确定的所述媒介物的状态相对应的媒介物图像。
根据上述本发明实施例的信息处理设备、信息输出方法以及程序,可以通过与现实世界的生物相关联的媒介物的外表或行为的逐日变化,向用户呈现所述生物的生长状态。
附图说明
图1是示出根据实施例的信息处理系统的概况的示意性视图;
图2是示出根据该实施例的信息处理设备的配置的框图;
图3是示出根据该实施例的生长模型的例子的第一说明图;
图4是示出根据该实施例的生长模型的例子的第二说明图;
图5是示出根据该实施例的通过识别部识别出的生物生长状态的说明图;
图6是示出根据该实施例的媒介物数据的例子的说明图;
图7是示出确定与当前状态相对应的媒介物数据的说明图;
图8是示出与媒介物的尺寸相对应的媒介物图像的例子的说明图;
图9是示出确定与状态历史相对应的媒介物数据的说明图;
图10是示出确定与状态转变相对应的媒介物数据的说明图;
图11是示出利用对生物图像的图像识别处理来确定媒介物数据的说明图;
图12是示出与媒介物的类型相对应的媒介物图像的例子的说明图;
图13是示出媒介物的活动水平根据生物的生长过程而变化的说明图;
图14是示出根据该实施例的输出图像的第一例子的说明图;
图15是示出根据该实施例的输出图像的第二例子的说明图;
图16是示出根据该实施例的输出图像的第三例子的说明图;以及
图17是示出根据该实施例的信息输出处理的流程例子的流程图。
具体实施方式
下面参照附图详细描述本发明的优选实施例。注意,在本说明书及附图中,具有基本相同的功能和结构的结构元件用相同的参考标号来表示,并且省略对这些结构元件的重复说明。
此外,将按照以下顺序描述“具体实施方式”。
1、根据实施例的信息处理系统的概况
2、根据实施例的信息处理设备的配置
2-1、总体配置例子
2-2、生长状态的识别
2-3、媒介物状态的确定
2-4、与另一个信息处理设备的通信
2-5、媒介物图像的显示
3、根据实施例的信息输出处理的流程
4、总结
1、根据实施例的信息处理系统的概况
首先,通过使用图1来描述根据本发明实施例的信息处理系统的概况。图1是示出根据本实施例的信息处理系统1的概况的示意图。参考图1,信息处理系统1包括信息处理设备100、成像装置102和传感器104。成像装置102和传感器104被设置在培养生物12的培养环境10中。网络108将信息处理设备100与成像装置102和传感器104连接在一起。
在图1中所示的例子中,生物12代表盆中种植的植物。用户在培养环境10中培养生物12,并且还通过从信息处理设备100输出的图像掌握生物12的生长状态。注意,生物12不局限于图1的例子,并且可以是另一种生物。例如,代替植物的生长状态,可以使用动物例如鱼、昆虫或小的哺乳动物的生长状态。
将成像装置102设置为朝向存在生物12的方向,并且将通过对生物12成像而获得的输入图像发送到信息处理设备100。在本说明书中,将通过对生物成像而获得的并且输入到信息处理设备100的图像称为生物图像。
传感器104被设置在培养环境10内的生物12的附近。例如,传感器104测量影响生物12生长的参数或者测量根据生物12的生长而变化的参数。然后,传感器104将表示测量结果的传感器数据发送到信息处理设备100。作为影响生物12的生长的参数,传感器104可以测量例如亮度、温度、湿度以及水和肥料的供应量。此外,作为根据生物12的生长而变化的参数,传感器104可以测量例如生物12的重量或者其中种植生物12的盆的总重量,以及空气中氧气浓度和二氧化碳浓度的量的变化。注意,在试图识别动物生长状态的情况下,可以测量水和食物的供应量和动物的重量作为影响动物生长的参数和根据动物的生长而变化的参数。此外,代替水和肥料或食物的供应量,可以使用表示该供应存在或不存在的二进制数据作为该参数。
信息处理设备100获取从成像装置102发送来的生物图像和从传感器104发送来的传感器数据作为输入数据,并且识别生物12的生长状态。此外,信息处理设备100具有屏幕106。然后,如后面要描述的,信息处理设备100在屏幕106上显示与识别出的生物12的生长状态相对应的媒介物图像。信息处理设备100可以是例如以PC(个人计算机)为代表的多用途信息处理设备,或者也可以是诸如数字家电设备、智能电话或者游戏终端的另一类型的信息处理设备。
网络108是用于将信息处理设备100与成像装置102和传感器104连接在一起的有线通信网络或者无线通信网络。注意,不局限于图1的例子,成像装置102和传感器104可以经由不同的通信网络与信息处理设备100连接。此外,例如,成像装置102可以是以与信息处理设备100物理集成的方式提供的装置。网络108还可以用于在信息处理设备100和另一个信息处理设备之间交换数据,后面将要对此进行描述。
2、根据实施例的信息处理设备的配置
2-1、总体配置例子
根据实施例的信息处理设备包括:数据获取部,其获取用于识别生物的生长状态的输入数据;识别部,其基于由数据获取部获取的所述输入数据识别生物的生长状态;媒介物控制部,其根据由识别部识别出的生物的生长状态确定与生物相关联的媒介物的状态;以及输出部,其输出与媒介物控制部确定的媒介物的状态相对应的媒介物图像。
图2是示出根据本实施例的信息处理设备100的配置例子的框图。参考图2,信息处理设备100包括数据获取部110、数据库120、识别部130、媒介物控制部140、通信部150和输出部160。在下文中,将参考图3至图16更详细地描述各部。
2-2、生长状态的识别
数据获取部110获取用于识别生物12的生长状态的输入数据。然后,数据获取部110将获取的输入数据输出到识别部130和输出部160。在本实施例中,输入数据包括从成像装置102接收到的生物图像和从传感器104接收到的传感器数据。另外,数据获取部110可以从外部信息源获取辅助数据。辅助数据还可以作为输入数据的一部分用于由识别部130执行的识别生物12的生长状态。辅助数据可以包括例如由天气预报服务提供的关于天气、温度和湿度的数据。
数据库120使用例如硬盘或者半导体存储器的存储介质来存储用于由信息处理设备100执行的处理的各种数据。例如,数据库120预先存储每种生物的生长模型122,生长模型122是描述输入数据和生物生长之间的关系的数据。此外,数据库120存储生长日志132和状态历史134,生长日志132是将作为生长状态的识别基础的参数组的历史,状态历史134是由识别部130识别出的生物12的状态历史。另外,数据库120存储用于确定媒介物状态的媒介物模型142和代表由媒介物控制部140确定的媒介物状态的媒介物数据144。
识别部130基于由数据获取部110获取的输入数据来识别生物12的生长状态。在本实施例中,生物的生长状态是包括生物的状态和一系列生长过程中的状态变化的概念。更具体来说,在本实施例中,识别部130基于存储在数据库120中的生长模型122和输入数据来识别生物12的生长状态的至少一部分。此外,识别部130通过图像识别处理来识别生物12的生长状态的另外的部分,在图像识别处理中使用生物图像作为输入图像。
(1)基于生长模型的生长状态识别的例子
如上所述,在数据库120中,预先存储描述输入数据和生物生长之间关系的每种生物的生长模型122。在开始培养生物12时,用户例如通过信息处理设备100的用户接口注册生物12的种类。因此,识别部130可以使用对应于所注册的种类的生长模型122。作为替代,例如,可以将用于确认生物12的种类的标签(例如,其上打印条码或QR码的标签,或者RF-ID标签)附着到生物12(或者种植生物12的盆),并且信息处理设备100可以通过读取该标签识别生物12的种类。
图3和图4均是示出生长模型122的说明图。
图3示出在由基于输入数据确定的三个参数P1、P2和P3形成的状态矢量空间中生物12的生长曲线γ。基于输入数据确定的参数可以包括例如亮度、温度、湿度以及水和肥料的供应量,它们被包括在传感器数据中。此外,识别部130还可以通过修改传感器数据的那些条数据获得另外的参数。例如,识别部130可以基于连续测量的亮度计算每天日照的小时数作为参数。此外,识别部130可以从培养生物12的开始计算累积温度,并且可以使用累积温度作为参数代替上述温度。此外,识别部130可以使用根据包括在辅助数据中的天气数据而估计的日照小时数等作为参数。另外,识别部130可以通过分析生物图像来识别生物12的尺寸或叶子数目(在植物的情况下),并且可以使用识别结果作为参数。这种参数组形成多维状态矢量空间。尽管为了使图3的例子的说明简化,示出三维空间,但是实际上可以形成具有更多维度的状态矢量空间。在这种状态矢量空间中,当按照时间顺序绘出基于输入数据而确定的一组参数值时,可以获得如图3中所示的生物12的生长曲线γ。
在图4中,状态矢量空间被更简单地表示为由参数Px和参数Py定义的二维平面。此外,按照Voronoi图的概念,将该状态矢量空间分割成分别具有点P1至P8作为生成点的多个域,点P1至P8分别对应于一组已知的参数值。
例如,可以通过预先培养参考样品(即,为了获取生长模型122而培养的与生物12种类相同的样品)并且存储参考样品的生长过程中不同阶段的参数值来设置点P1至P8。然后,在该状态矢量空间内定义包括各点P1至P8的域。域之间的边界可以不必像Voronoi图中那样沿着生成点之间的平分线形成。例如,可以由具有关于多种单个生物的专门知识的专家或者由具有培养生物经验的用户来定义域之间的适当边界。
生长过程中生物12的各状态中的每一个与一个域相关联。在图4中所示的例子中,属于包括生成点P1的域的参数植组与状态V1相关联。以相同的方式,分别属于包括生成点P2至P8的域的参数值组分别与状态V2至V8相关联。在本实施例中,生长模型122是描述在该状态矢量空间内定义的每个域的边界位置和每个域与生物12的状态之间的对应关系的数据。
因此,在识别生物12的生长状态时,识别部130在状态矢量空间中绘制基于输入数据确定的参数值组。接下来,识别部130查阅对应于生物12的生长模型122,并获取与绘制的点所属的域相对应的状态。在此获取的状态(例如,状态V1至V8中的任一个)代表生物12的当前状态。然后,识别部130还将所获取的生物12的当前状态写入状态历史134中。在图4中所示的例子中,按照生长曲线γ生长的生物12的状态历史依次包括状态V1、V2、V3、V5和V8。
图5是示出由识别部130识别的生物生长状态的说明图。
在图5的左侧,示出按照时间顺序记录基于输入数据而确定的参数值组的生长日志132。基于生长日志132的各记录的参数值组,识别部130例如周期性地如上所述地识别生物12的当前时间的状态(例如,每天一次或每小时一次),并将识别结果记录在状态历史134中。注意,可以不必周期性地执行生物12的状态记录,并且可以在存在来自用户的指令时或者在生物12的状态中出现特异的变化时记录生物12的状态。在图5的右侧,作为例子,示出状态历史134{V1、V2、V3、...、Vi}。从状态历史134,除了可以识别由Vi代表当前状态以外,还可以识别生物12的最新状态转变是从状态Vi-1到状态Vi作为生物12的生长状态。此外,通过计算对应于各状态的时间戳之间的时间差(Vi-Vi-1),还可以识别生物12的生长速度。
注意,尽管已经描述了定义每种生物12的生长模型122的例子,作为其替代,可以定义对于每种生物12参数值要乘的权重。在此情况下,识别部130将基于输入数据而确定的参数值乘以对应于生物12的种类的权重,然后查阅多个种类共有的生长模型122,可以识别生物12的生长状态。
(2)变形例子
除了上述使用状态矢量空间的技术以外(或者其替代),还可以通过下面描述的较简单的技术识别生物12的生长状态。
例如,通过跟踪由均通过对生物12成像获得的一系列生物图像形成的运动视频中的SIFT(Scale Invariant Feature Transform,尺度不变特征变换)特征点,识别部130可以检测生物12的大致三维形状。在此情况下,期望通过执行图像分割作为预处理,只留下生物12投映在其上的域并去除场景背景。然后,识别部130从检测到的三维形状导出生物12的体积(例如,特征点组的凸壳的体积)。识别部130可以例如基于由此导出的生物12的体积和生物12所属的种类的平均体积之间的比较来识别生物12处于生长过程的哪个阶段。
此外,识别部130可以使用通过使用称重计测量的生物12的重量代替上述体积。例如,在盆中种植的植物的重量还根据用户给的水和肥料的量而变化。然而,当在超过一定长度的时间段测量重量时,测量结果随着植物的生长增加。因此,还可以使用简单的重量来识别生物12的生长状态。
此外,除了来自传感器104的传感器数据以外(或者其替代),数据获取部110还可以通过由信息处理设备100提供的用户接口获取由培养生物12的用户输入的数据作为输入数据。由用户输入的数据可以包括例如由用户测量的每日温度或湿度,或者用户已经施加给生物12的水和肥料的量。识别部130还可以基于这种用户输入数据识别生物12的生长状态。
另外,作为更简单的技术,识别部130可以根据从培养生物12开始经过的时间估计生物12的生长状态。
2-3、媒介物状态的确定
媒介物控制部140根据由识别部130识别出的生物12的生长状态确定与生物12相关联的媒介物的状态。在本实施例中,媒介物控制部140根据预先存储在数据库120中的媒介物模型142确定媒介物状态。然后,媒介物控制部140使数据库120存储代表所确定的媒介物状态的媒介物数据144。
图6是示出根据本实施例的媒介物数据的例子的说明图。
参考图6,作为例子,媒介物数据144包括六个数据项:影响媒介物外表的尺寸和类型;以及影响媒介物行为的活动水平、动作特征、情绪特征以及言语变化。其中,上述尺寸代表媒介物的尺寸。类型代表可以从多个候选中选择的媒介物的外观的类型。活动水平是影响由该媒介物进行的特定活动的频率和范围的数据。动作特征通过概率矢量Ax代表媒介物动作的特征。情绪特征通过转变矩阵Ey代表媒介物的情绪特征,该转变矩阵具有情绪之间的转变概率作为其元素。言语变化指定一组文本,该组文本定义媒介物对用户讲的言语的变化。可以按照媒介物模型142,根据生物12的生长状态,也就是使用图5描述的生物12的状态历史、当前状态、状态转变或生长速度,确定这些数据项中每一个的值。
在本实施例中,媒介物模型142例如包括图7中所示的第一媒介物数据确定表142a、图9中所示的第二媒介物数据确定表142b和图10中所示的第三媒介物数据确定表142c。
图7是示出确定与生物的当前状态相对应的媒介物数据的说明图。
在图7中示出第一媒介物数据确定表142a,其中作为生物12的状态侯选的状态V1、V2、V3、V4、...、Vi-1、Vi、...分别与媒介物的尺寸、活动水平和动作特征相关联。媒介物控制部140查阅第一媒介物数据确定表142a,并根据由识别部130识别出的生物12的当前状态确定媒介物的尺寸、活动水平和动作特征。在图7的例子中,用Vi代表生物12的当前状态。因此,媒介物控制部140在第一媒介物数据确定表142a中指定对应于状态Vi的行,并将媒介物的尺寸、活动水平和动作特征确定如下:尺寸=20;活动水平=Lv3;以及动作特征=Ai。
图8是示出对应于媒介物尺寸的媒介物图像的例子的说明图。参考图8,图8示出媒介物图像141a、141b和141c。其中,媒介物图像141a的尺寸是12,媒介物图像141b的尺寸是14,媒介物图像141c的尺寸是16。这样,随着生物12的生长而增加媒介物图像的尺寸将通过媒介物尺寸每天的变化给用户留下生物12生长的更强烈印象。
稍后更详细地描述生物的活动水平。
表1示出表达媒介物的动作特征的概率矢量的例子。在表1中,有三个动作被定义为媒介物动作,“飞行”、“暂停”和“谈话”。此外,还有各动作的发生概率。“飞行”的发生概率是0.5。也就是说,在屏幕上显示的输出图像中,在时间上,可能有50%的时间段显示媒介物在“飞行”的动画。此外,“暂停”的发生概率是0.3,“谈话”的发生概率是0.2。
【表1】
表1.动作特征的例子
动作 | 飞行 | 暂停 | 谈话 |
发生概率 | 0.5 | 0.3 | 0.2 |
注意,媒介物动作的变化不局限于该例子。此外,还可以有另一类动作,其发生概率不是由动作特征定义。例如,可以显示媒介物“睡觉”的动作,其与发生概率无关,而是根据时间。此外,稍后将描述的“外出”动作的频率根据上面描述的活动水平而确定,而不根据动作特征示出的发生概率。
通过将动作特征定义为每个状态的概率矢量,可以在生物12的生长进行时产生以下效果:媒介物逐步地执行种类越来越多的动作,或者在不同的生长阶段执行不同的动作。
此时,在生长模型中定义许多状态候选的情况下,难以将所有状态人为地和逐个地与数据值相关联。关于这种问题,在媒介物模型142中,数据值可以仅与一个或一些典型状态相关联。在此情况下,当对应于当前状态的数据值不存在时,媒介物控制部140从媒介物模型142中的与数据值相关联的状态当中指定在状态矢量空间内与当前状态最近的状态(例如,生成点之间欧几里得距离最短)。然后,媒介物控制部140可以采用对应于指定状态的数据值作为对应于当前状态的媒介物数据。此外,还可以将类似的技术应用于状态历史、状态转变和生长速度。
图9是示出确定与生物的状态历史相对应的媒介物数据的说明图。
参考图9,图9示出第二媒介物数据确定表142b,其中作为生物12的状态历史的模式候选的状态H1、H2、...、Hi、...分别与媒介物的情绪特征相关联。媒介物控制部140查阅第二媒介物数据表142b,并根据由识别部130识别出的生物12的状态历史确定媒介物的情绪特征。在图9的例子中,生物12的状态历史由{V1、V2、V3、...、Vi}表示。媒介物控制部140在第二媒介物数据确定表142b中指定对应于状态历史的行,并确定媒介物的情绪特征是Ej。
表2示出表达媒介物的情绪特征的转变矩阵的例子。在表2中,将“高兴”、“惊讶”、“生气”和其它情绪定义为媒介物的情绪类型。此外,针对这些情绪中的每一对给出一个情绪转变概率。例如,情绪从“高兴”转移到“高兴”(情绪不变)的概率是0.5。情绪从“高兴”转移到“惊讶”的概率是0.3。情绪从“高兴”转移到“生气”的概率是0.05。媒介物控制部140根据转变概率改变媒介物的情绪。然后,例如媒介物由言语变化定义的内容候选当中对用户讲与媒介物的情绪相对应的内容。
【表2】
表2.情绪特征的例子
注意,媒介物的情绪的类型不局限于表2中所示的例子,可以使用其它类型,如Plutchik的情绪轮中的基本情绪(或基本情绪和高级情绪)(参见http://www.fractal.org/Bewustzijns-Besturings-Model/Nature-of-emotions. htm)。
通过将情绪特征定义为关于生物的状态历史的每个模式的转变矩阵,可以产生根据生物12的生长过程媒介物具有不同角色的效果。
图10是示出确定与状态转变相对应的媒介物数据的说明图。
参考图10,图10示出第三媒介物数据确定表142c,其中生物12的状态转变模式分别与媒介物的言语变化相关联。媒介物控制部140查阅第三媒介物数据确定表142c,并且根据由识别部130识别出的生物12的最新状态转变确定媒介物对用户的言语变化。在图10的例子中,生物12的状态转变由Vi-1→Vi代表。媒介物控制部140在第三媒介物数据确定表142c中指定对应于状态转变的行,并且确定言语变化是SVk。注意,单个的言语变化可以是例如定义对应于媒介物的情绪的言语内容的一组文本。此外,还可以定义与不同于媒介物的情绪的参数相对应的言语内容(例如,培养环境10的温度或湿度、从辅助数据识别出的天气、用户观看的次数、或者与另一个媒介物通信的结果)。
这样,通过定义关于生物的每种状态转变的言语的不同变化,可以产生媒介物根据生物12每天的状态变化对用户讲各种内容的效果。
另外,如接下来要描述的,包括在图6中所示的媒介物数据144中的一部分数据项的值可以根据将生物图像用作输入图像的图像识别处理的结果而不使用状态历史134来确定。
图11是示出使用对生物图像的图像识别处理来确定媒介物数据的说明图。
在图11的左上方,示出生物图像Im01作为被包括在输入数据中的例子。此外,在图11的右上方,示出预先针对每一类生物12存储的三类样品图像Im11、Im12和Im13。每个样品图像是示出每类生物在典型生长阶段的典型生物外表的图像。对植物来说,典型生长阶段可以是“发芽”阶段、“茎生长”阶段或“开花”阶段。在图11的例子中,样品图像Im11是植物在生长的“发芽”阶段中的图像。样品图像Im12是植物在“茎生长”阶段中的图像。样品图像Im13是植物在“开花”阶段中的图像。识别部130根据已知的模式匹配技术将生物图像Im01与样品图像Im11、Im12和Im13中的每一个进行比对。然后,媒介物控制部140将对应于作为识别部130执行的匹配比对的结果被确定为具有最高相似程度的样品图像的类型确定为媒介物的类型。例如,在与样品图像Im11的相似程度最高的情况下,媒介物的类型是T1(“婴幼阶段”)。在与样品图像Im12的相似程度最高的情况下,媒介物的类型是T2(“少年阶段”)。在与样品图像Im13的相似程度最高的情况下,媒介物的类型是T3(“成年阶段”)。
图12是示出对应于媒介物类型的媒介物图像的例子的说明图。在图12中,媒介物类型T1、T2和T3分别与媒介物图像141d、141e和141f相关联。这样,媒介物的外表根据生物12的典型生长阶段而变化可以使用户对生物12的生长留下更强烈的印象,还能给予用户对应于生长上的进展的成就感。
2-4.与另一个信息处理设备的通信
通信部150经由网络108与另一个信息处理设备通信。然后,媒介物控制部140通过通信部150的通信使媒介物执行想要对另一个信息处理设备的动作。在本说明书中,将这种想要对另一个信息处理设备的动作称为媒介物“外出”。更具体来说,例如,通信部150与另一个信息处理设备建立通信会话,该另一个信息处理设备具有与信息处理设备100类似的生物培养应用。然后,媒介物控制部140通过该通信会话与该另一个信息处理设备交换生物图像、媒介物数据和诸如用户名或媒介物名的其它数据。可以在屏幕上以媒介物访问的形式虚拟代表这种数据交换。在用户不在时(例如,用户未登录到该系统)外出的媒介物在用户后来登录时向用户呈现在访问目的地收集的另一个用户培养的生物的生物图像。此外,当另一个媒介物在用户登录到该系统期间进行访问时,除了信息处理设备100的媒介物以外,还可以在屏幕上显示另一个媒介物的图像。另外,例如,在显示媒介物外出和另一个媒介物出现在访问目的地的屏幕上可以进行用户之间的交谈。根据这种通信,在培养生物的用户之间可以相互比较生物的生长状态,并且因此用户培养生物的意愿将会更大。此外,还可以提供形成和启动多个用户参与的社群的机会。
在本实施例中,上述媒介物“外出”的频率和“外出”想要去的另一个信息处理设备的范围根据与生物的生长状态相对应的活动水平而变化。表3示出与活动水平相对应的媒介物“外出”的频率和范围的定义的例子。在表3中,定义了从Lv1到Lv5五个水平,作为媒介物的活动水平。
例如,在最低活动水平Lv1,“外出”频率是“零”,并且“外出”范围是“无”。也就是说,在活动水平是Lv1的情况下,媒介物不外出。在Lv2,“外出”频率是“低”,并且“外出”范围是“受限制的”。在此情况下,媒介物外出的频率是低的,并且媒介物访问的目的地局限于一定范围内的用户,例如预先注册的好友用户。在Lv3中,“外出”频率是“低”,并且“外出”范围是“开放”。在此情况下,尽管媒介物外出的频率低,但是媒介物访问的目的地不受限制(也就是说,陌生的用户也可以是访问的目的地)。在Lv4中,“外出”频率是“高”,并且“外出”范围是“受限制的”。在Lv5中,“外出”频率是“高”,并且“外出”范围是“开放”。
【表3】
表3.活动水平的例子
活动水平 | 频率 | 范围 |
Lv1 | 零 | 无 |
Lv2 | 低 | 受限制的 |
Lv3 | 低 | 开放 |
Lv4 | 高 | 受限制的 |
Lv5 | 高 | 开放 |
图13是示出媒介物的活动水平根据生物的生长过程而变化的说明图。
在图13中所示的例子中,至少从生物生长的最初阶段到中期阶段媒介物的活动水平增加。更具体来说,例如,一直到媒介物类型从T2改变到T3的点,媒介物的活动水平按照Lv1、Lv2、Lv3和Lv5的顺序变化。此后,在媒介物类型改变到T3之后,媒介物的活动水平按照Lv4和Lv2的顺序下降。这些活动水平变化基于以下典型的人类动作模式:从婴幼阶段到少年阶段动作范围逐步扩大,当到达成年阶段时与特定熟人的友谊加深。期望通过因活动水平的那些变化进一步增强人格化媒介物的程度,增强用户对生物和媒介物的友好感情。
2-5.媒介物图像的显示
输出部160在媒介物控制部140的控制下根据媒介物的状态生成媒介物图像。然后,输出部160以在从数据获取部110输入的生物图像上叠加的方式在屏幕106上输出所生成的媒介物图像。例如,通过包括在媒介物数据144中的尺寸和类型确定由输出部160生成的媒介物图像中的媒介物的外表。此外,输出部160通过使用由一系列媒介物图像形成的动画代表基于媒介物的动作特征选择的媒介物的动作。另外,输出部160在屏幕106上显示基于包括在媒介物数据144中的情绪特征和言语变化而选择的言语内容,就像媒介物说出一样。作为其替代,输出部160还可以通过音频输出所选择的言语内容。
图14至图16均是示出从输出部160输出的输出图像的例子的说明图。
图14中所示的投映在输出图像Im21上的生物12是处于生长过程的最初阶段的植物。媒介物14a的媒介物图像叠加在输出图像Im21上生物12的附近。媒介物14a是根据生物12的生长状态人格化为婴幼阶段的人类的媒介物。
接下来,图15中所示的投映在输出图像Im22上的生物12比图14中所示的生物12进一步长大。媒介物14b的媒介物图像叠加在输出图像Im22上生物12的附近。媒介物14b被人格化为少年阶段的人类,其根据生物12的生长状态已经比媒介物14a进一步长大。用户可以通过媒介物的外表变化而快乐地并且带有友好感情地掌握生物12的生长状态。此外,用户还可以通过表示媒介物长得更高的媒介物14b的言语内容或者通过围绕生物12飞行的媒介物14b的动作来掌握生物12的生长状态。
接下来,图16中所示的投映在输出图像Im23上的生物12比图15中所示的生物12更进一步生长。媒介物14c的媒介物图像叠加在输出图像Im23上生物12的附近。媒介物14c被人格化为成年阶段的人类,其根据生物12的生长状态已经比媒介物14b更进一步生长。以与图15的情况相同的方式,用户可以通过煤介物外表的变化掌握生物12的生长状态。此外,在图16中所示的例子中,媒介物14c允许用户通过言语知道媒介物14c感到饥饿。例如,在由数据获取部110获取的输入数据中肥料量小的情况下,可以选择这种言语内容。因此,用户可以获得培养生物12所必需的实用信息(在此情况下该信息是必须施肥)。
注意,尽管没有示出,输出部160可以根据例如从生物图像获取的生物12的颜色或表面模式改变媒介物图像的颜色或纹理。因此,例如在用户培养多个生物的情况下,用户可以容易地识别哪个媒介物与哪个生物相关联。此外,输出部160可以例如根据生物12的生长速度改变显示在屏幕106上的媒介物图像的动画速度或言语速度。
此外,输出图像的例子不局限于图14至图16的例子。例如,在识别部130识别出作为植物的生物12正在枯萎时,可以显示看上去不健康的媒介物图像。
3.根据实施例的信息输出处理流程
图17是示出根据本实施例由信息处理设备100执行的信息输出处理流程的例子的流程图。
参考图17,首先,数据获取部110从成像装置102获取通过对生物12成像获得的生物图像(步骤S102)。此外,数据获取部110从传感器104获取用于识别生物12的生长状态的传感器数据和辅助数据(步骤S104)。然后,数据获取部110向识别部130和输出部160输出已经获取的生物图像、传感器数据和辅助数据作为输入数据。
接下来,识别部130根据输入数据确定生物12的状态矢量(步骤S106)。接下来,识别部130查阅存储在数据库120中的与生物12有关的生长模型122,并将与生物12的状态矢量所属的状态矢量空间内的域相对应的状态确定为生物12的当前状态。然后,识别部130还将新的当前状态写入生物12的状态历史134中(步骤S108)。
接下来,媒介物控制部140根据通过状态历史134识别出的生物12的生长状态确定代表与生物12相关联的媒介物的状态的媒介物数据144(步骤S110)。此外,媒介物控制部140基于将生物图像用作输入图像的图像识别处理的结果关于媒介物数据144的一部分(例如,类型)确定数据值(步骤S112)。
接下来,输出部160生成与由媒介物控制部140确定的媒介物数据所表示的媒介物状态相对应的媒介物图像,并输出所生成的媒介物图像(步骤S114)。作为其结果,在信息处理设备100的屏幕106上显示输出图像,其中媒介物图像叠加在生物图像上(步骤S116)。
在如图17中所示的由信息处理设备100执行的信息输出处理当中,例如以每天一次或每小时一次的周期定期执行直到步骤S112的处理。另一方面,例如只有当用户登录到该系统时才可以重复从步骤S114往后的处理中执行的媒介物图像的生成和显示。
换言之,根据本发明由信息处理设备100执行的信息输出处理方法可以包括:获取用于识别生物的生长状态的输入数据(在本实施例中指上述的步骤S102、S104,但并不限于此);基于获取的输入数据识别生物的生长状态(在本实施例中指上述的步骤S106、S108,但并不限于此);根据识别出的生物的生长状态确定与生物相关联的媒介物的状态(在本实施例中指上述的步骤S110、S112,但并不限于此);以及输出与所确定的媒介物的状态相对应的媒介物图像(在本实施例中指上述的步骤S114、S116,但并不限于此)。
4.总结
在上文中,对照图1至图17描述了根据本发明实施例的信息处理设备100。根据该实施例,基于诸如生物图像、传感器数据或辅助数据的输入数据,识别生物的生长状态,然后在屏幕上显示根据该生长状态具有不同状态的媒介物的图像。因此,可以通过与现实世界的生物相关联的媒介物的外表或行为的逐日变化向用户呈现生物的生长状态。作为其结果,可以增强用户培养生物的愿望,并且可以为用户提供更多的快乐,或者可以将生长状态作为实用信息通知给用户。
此外,根据本实施例,媒介物的状态包括:影响媒介物外表的尺寸和类型;以及影响媒介物行为的活动水平、动作特征、情绪特征和言语变化。通过根据生物的生长状态改变上述媒介物的状态,即使在培养植物或者几乎不向用户表明意图的生物如昆虫或爬虫的情况下,也可以允许用户对该生物具有友好感情并且通过人格化的媒介物允许用户更强烈地感受到生物每天的生长过程。
此外,根据本实施例,通过查阅预先定义的并且描述输入数据和生物生长之间关系的生长模型进行生物生长状态的识别。因此,由于通过生长模型的定义使用具有专门知识的专家或者具有培养生物经验的用户的知识,可以更准确地识别生物的生长状态。此外,还可以基于将生物图像用作输入图像的图像识别处理而不使用生长模型来识别生物的生长状态。在此情况下,可以利用更简单的系统配置实现根据本实施例的信息输出的效果。
注意,在本说明书中描述的由信息处理设备100执行的该系列处理典型地使用软件来实现。例如,预先将配置软件用于实现该系列处理的程序存储在内部或外部提供给信息处理设备100的存储介质中。然后,在执行该程序时,将每个程序读入信息处理设备100的RAM(随机访问存储器)中,并由处理器如CPU(中央处理单元)执行该程序。
本领域的技术人员应该理解,在所附权利要求及其等同物的范围内,根据设计要求和其它因素,可以出现各种变化、组合、子组合和替换。
本申请包含与2010年5月25日在日本专利局提交的JP2010-119136号日本在先专利申请所公开的主题有关的主题,通过引用将其全部内容包含于此。
Claims (15)
1.一种信息处理设备,包括:
数据获取部,其获取用于识别生物的生长状态的输入数据;
识别部,其基于由所述数据获取部获取的所述输入数据识别所述生物的生长状态;
媒介物控制部,其根据由所述识别部识别出的所述生物的生长状态确定与所述生物相关联的媒介物的状态;以及
输出部,其输出与所述媒介物控制部确定的所述媒介物的状态相对应的媒介物图像。
2.根据权利要求1所述的信息处理设备,
其中所述媒介物的状态包括所述媒介物的外表、活动水平、动作特征、情绪特征和言语变化中的至少一个。
3.根据权利要求2所述的信息处理设备,
其中所述媒介物的状态包括所述媒介物的外表,并且
其中所述媒介物控制部根据由所述识别部识别出的所述生物的生长状态确定所述媒介物的外表。
4.根据权利要求1所述的信息处理设备,还包括
数据库,其存储描述所述输入数据和所述生物的生长之间关系的生长模型,
其中所述识别部基于所述输入数据和所述生长模型识别所述生物的生长状态。
5.根据权利要求1所述的信息处理设备,
其中所述输入数据包括通过对所述生物成像获得的生物图像,并且
其中所述识别部将所述生物图像用作输入图像、通过图像识别处理识别所述生物的生长状态。
6.根据权利要求1所述的信息处理设备,
其中所述数据获取部使用传感器来获取所述输入数据,所述传感器被设置在所述生物的附近,并且测量影响所述生物生长的参数或者根据所述生物的生长而变化的参数。
7.根据权利要求1所述的信息处理设备,
其中所述数据获取部经由用户接口获取由培养所述生物的用户输入的所述输入数据。
8.根据权利要求1所述的信息处理设备,还包括
通信部,其经由网络与另一个信息处理设备通信,
其中所述媒介物控制部经由所述通信部的通信使所述媒介物执行要对另一个信息处理设备进行的动作。
9.根据权利要求8所述的信息处理设备,
其中所述媒介物的活动频率或者要对其进行动作的另一个信息处理设备的范围根据与所述生物的生长状态相对应的所述媒介物的活动水平而改变。
10.根据权利要求9所述的信息处理设备,
其中至少从所述生物生长的最初阶段到中期阶段所述媒介物的活动水平增加。
11.根据权利要求1所述的信息处理设备,
其中所述媒介物控制部使所述煤介物通过文本或音频对用户讲话,并且
其中基于与所述生物的生长状态相对应的所述媒介物的情绪特征或言语变化确定所述媒介物的言语内容。
12.根据权利要求1所述的信息处理设备,
其中所述输出部输出通过对所述生物成像而获得的生物图像,并且所诉生物图像上叠加所述媒介物图像。
13.根据权利要求1所述的信息处理设备,
其中所述生物是植物。
14.一种使用信息处理设备的处理器而输出关于生物的信息的信息输出方法,该方法包括以下步骤:
获取用于识别生物的生长状态的输入数据;
基于获取的输入数据识别所述生物的生长状态;
根据识别出的所述生物的生长状态确定与所述生物相关联的媒介物的状态;以及
输出与所确定的所述媒介物的状态相对应的媒介物图像。
15.一种程序,该程序使控制信息处理设备的计算机充当:
数据获取部,其获取用于识别生物的生长状态的输入数据;
识别部,其基于由所述数据获取部获取的所述输入数据识别所述生物的生长状态;
媒介物控制部,其根据由所述识别部识别出的所述生物的生长状态确定与所述生物相关联的媒介物的状态;以及
输出部,其输出与所述媒介物控制部确定的所述媒介物的状态相对应的媒介物图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010-119136 | 2010-05-25 | ||
JP2010119136A JP2011248502A (ja) | 2010-05-25 | 2010-05-25 | 情報処理装置、情報出力方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102262735A true CN102262735A (zh) | 2011-11-30 |
Family
ID=45009356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011101351247A Pending CN102262735A (zh) | 2010-05-25 | 2011-05-18 | 信息处理设备、信息输出方法及程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20110295513A1 (zh) |
JP (1) | JP2011248502A (zh) |
CN (1) | CN102262735A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105427086A (zh) * | 2015-11-02 | 2016-03-23 | 北京金山安全软件有限公司 | 一种信息提示方法、装置及电子设备 |
CN106605254A (zh) * | 2014-09-11 | 2017-04-26 | 索尼公司 | 信息处理设备、信息处理方法以及程序 |
CN107219877A (zh) * | 2017-05-31 | 2017-09-29 | 深圳前海弘稼科技有限公司 | 一种基质栽培供液的控制方法、控制系统及计算机装置 |
CN109068596A (zh) * | 2016-05-18 | 2018-12-21 | 索尼公司 | 信息处理设备、程序以及信息处理方法 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6085926B2 (ja) * | 2012-09-20 | 2017-03-01 | カシオ計算機株式会社 | 植物育成支援システム、プログラム及び植物育成支援方法 |
JP6419134B2 (ja) * | 2016-11-25 | 2018-11-07 | 本田技研工業株式会社 | 車両感情表示装置、車両感情表示方法および車両感情表示プログラム |
WO2018100883A1 (ja) * | 2016-11-29 | 2018-06-07 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
WO2018105222A1 (ja) * | 2016-12-08 | 2018-06-14 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
CN106791628A (zh) * | 2016-12-12 | 2017-05-31 | 大连文森特软件科技有限公司 | 基于ar虚拟现实技术和视频图像处理技术的植物生长观测系统 |
CN107909013B (zh) * | 2017-10-31 | 2020-12-04 | 北京小米移动软件有限公司 | 宠物喂食的方法、装置以及宠物喂食机 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1684580A (zh) * | 2002-09-26 | 2005-10-19 | Ccs株式会社 | 生物培育、治愈促进条件收集用信息处理装置 |
EP1936518A1 (en) * | 2005-09-07 | 2008-06-25 | International Business Machines Corporation | Display device, output device, display system, display method, medium, program, and external unit |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5133075A (en) * | 1988-12-19 | 1992-07-21 | Hewlett-Packard Company | Method of monitoring changes in attribute values of object in an object-oriented database |
US20060270312A1 (en) * | 2005-05-27 | 2006-11-30 | Maddocks Richard J | Interactive animated characters |
-
2010
- 2010-05-25 JP JP2010119136A patent/JP2011248502A/ja not_active Withdrawn
-
2011
- 2011-04-12 US US13/084,648 patent/US20110295513A1/en not_active Abandoned
- 2011-05-18 CN CN2011101351247A patent/CN102262735A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1684580A (zh) * | 2002-09-26 | 2005-10-19 | Ccs株式会社 | 生物培育、治愈促进条件收集用信息处理装置 |
EP1936518A1 (en) * | 2005-09-07 | 2008-06-25 | International Business Machines Corporation | Display device, output device, display system, display method, medium, program, and external unit |
Non-Patent Citations (2)
Title |
---|
刘兴龙等: "虚拟植物模型及可视化的研究", 《农机化研究》, no. 10, 31 October 2008 (2008-10-31), pages 248 - 249 * |
西田健志等: "MOEGI: Plant Fostering by the Assistance of Augmented Reality", 《14TH WORKSHOP ON INTERACTIVE SYSTEMS AND SOFTWARE(WISS2006)》, 31 December 2006 (2006-12-31), pages 23 - 26 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106605254A (zh) * | 2014-09-11 | 2017-04-26 | 索尼公司 | 信息处理设备、信息处理方法以及程序 |
CN106605254B (zh) * | 2014-09-11 | 2021-03-02 | 索尼公司 | 信息处理设备、信息处理方法以及程序 |
CN105427086A (zh) * | 2015-11-02 | 2016-03-23 | 北京金山安全软件有限公司 | 一种信息提示方法、装置及电子设备 |
CN109068596A (zh) * | 2016-05-18 | 2018-12-21 | 索尼公司 | 信息处理设备、程序以及信息处理方法 |
CN107219877A (zh) * | 2017-05-31 | 2017-09-29 | 深圳前海弘稼科技有限公司 | 一种基质栽培供液的控制方法、控制系统及计算机装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2011248502A (ja) | 2011-12-08 |
US20110295513A1 (en) | 2011-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102262735A (zh) | 信息处理设备、信息输出方法及程序 | |
Zhao et al. | Classifying airborne LiDAR point clouds via deep features learned by a multi-scale convolutional neural network | |
Russakovsky et al. | Imagenet large scale visual recognition challenge | |
Zuur et al. | Common trends in northeast Atlantic squid time series | |
Wu et al. | ClothGAN: generation of fashionable Dunhuang clothes using generative adversarial networks | |
CN110533737A (zh) | 基于结构引导汉字字体生成的方法 | |
CN113536922A (zh) | 一种加权融合多种图像任务的视频行为识别方法 | |
Murad et al. | Weed detection using deep learning: A systematic literature review | |
Zeng et al. | An unsupervised game-theoretic approach to saliency detection | |
CN110415086A (zh) | 基于用户连续行为序列特征的智能理财推荐方法 | |
CN110019950A (zh) | 视频推荐方法及装置 | |
CN110351318A (zh) | 应用推荐的方法、终端和计算机存储介质 | |
Xu et al. | Hand segmentation pipeline from depth map: an integrated approach of histogram threshold selection and shallow CNN classification | |
Han et al. | How well does gpt-4v (ision) adapt to distribution shifts? a preliminary investigation | |
Banerjee et al. | Enhancing Snake Plant Disease Classification through CNN-Random Forest Integration | |
Islam et al. | HortNet417v1—A deep-learning architecture for the automatic detection of pot-cultivated peach plant water stress | |
Dhanalakshmi et al. | Tomato leaf disease identification by modified inception based sequential convolution neural networks | |
Khalil et al. | A Comprehensive Study of Vision Transformers in Image Classification Tasks | |
Robinson et al. | A Deep Learning Human Activity Recognition Framework for Socially Assistive Robots to Support Reablement of Older Adults | |
CN105701230B (zh) | 一种基于图像内容的用户兴趣细分方法及系统 | |
CN112396063A (zh) | 一种基于聚集激励上下文金字塔的人像语义解析方法 | |
CN102184524A (zh) | 基于规范切的邻域学习文化基因图像分割方法 | |
Mainsant et al. | A study of the Dream Net model robustness across continual learning scenarios | |
JP6995262B1 (ja) | 学習システム、学習方法、及びプログラム | |
CN115033700A (zh) | 基于相互学习网络的跨领域情感分析方法、装置以及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20111130 |